OpenAI випускає підроблені новини, які раніше вважалися занадто небезпечними

OpenAI випускає підроблені новини, які раніше вважалися занадто небезпечними

У лютому цього року лабораторія дослідження неприбуткового штучного інтелекту OpenAI оголосила, що новий алгоритм під назвою GPT-2 зможе за кілька секунд написати правдиві підроблені новини. Замість того, щоб випустити бота у світ, OpenAI вважав це занадто небезпечним для суспільного споживання. Фірма витрачала місяці, відкриваючи фрагменти основної технології, щоб можна було оцінити, як вона використовується. Не посилаючись на «вагомі докази зловживання», OpenAI тепер зробив повний бот GPT-2 доступним для всіх.

OpenAI розробив GPT-2 для споживання тексту та створення резюме та перекладів. Однак дослідники занепокоїлися, коли вони подали алгоритм відверто шахрайських тверджень. GPT-2 міг би взяти ядро дурниць і створити навколо нього правдоподібний розповідь, ідучи так далеко, щоб винайти дослідження, цитати експертів і навіть статистику для резервного копіювання неправдивої інформації. Приклад здібностей генерації тексту GTP-2 ви можете побачити нижче.

Ви можете пограти з GPT-2 онлайн на сторінці "Говорити з трансформером". На сайті вже оновлено повну версію GPT-2. Просто додайте трохи тексту, і AI продовжить історію.

Порив фальшивих новин вперше був названий після виборів 2016 року, коли тінисті веб-сайти, керовані іноземними інтересами, поширювали дезінформацію, значна частина якої закріпилась у Facebook. OpenAI побоюється випустити бота, який може викачати фальшиві новини у великих кількостях, буде небезпечно для суспільства. Хоча деякі дослідники AI вважають, що фірма просто шукає уваги. Вони сказали, що ця технологія чи щось подібне буде з часом доступним, то чому б не випустити бота, щоб інші команди могли розробити способи виявлення його результатів.

Приклад GPT-2, який складається з фактів для підтвердження початкових даних.
Приклад GPT-2, який складається з фактів для підтвердження початкових даних.

Зараз ось ми через дев'ять місяців, і ви можете завантажити повну модель. OpenAI каже, що сподівається, що дослідники зможуть краще зрозуміти, як помітити фальшиві новини, написані AI. Однак він застерігає, що його дослідження показують, що GPT-2 може бути налаштований на зайняття крайніх ідеологічних позицій, що може зробити його ще більш небезпечним.

OpenAI також говорить, що його тестування показує, що виявлення матеріалів GPT-2 може бути складним завданням. Його найкращі внутрішні методи дозволяють визначити 95 відсотків тексту GPT-2, який, на його думку, недостатньо високий для повністю автоматизованого процесу. Тривожна справа не в тому, що GPT-2 може видавати підроблені новини, а в тому, що він може зробити це надзвичайно швидко і з певним ухилом. Людям потрібен час, щоб написати речі, навіть якщо це все складено. Якщо GPT-2 стане проблемою, ми, мабуть, дізнаємось у майбутньому виборчому циклі США.

Читати далі

Нове оновлення Windows 10 спричиняє збій на синьому екрані, дивуючи точно нікому
Нове оновлення Windows 10 спричиняє збій на синьому екрані, дивуючи точно нікому

Нове оновлення безпеки призводить до появи синіх екранів на комп’ютерах, коли вони намагаються використовувати принтери певної марки. Наче принтери та оновлення Windows вже недостатньо дратують, тепер вони об’єднали зусилля.

Вертоліт NASA Marks 6 місяців на Марсі, як і раніше, летить високо
Вертоліт NASA Marks 6 місяців на Марсі, як і раніше, летить високо

Ніякого литоприймача тут: Хоробрий маленький вертоліт NASA Flying High. Так добре, насправді, що НАСА ще більше розширила свою місію.

Заміна сторонніх екранів Вимкнути ID iPhone 13
Заміна сторонніх екранів Вимкнути ID iPhone 13

Виявляється, що вартість заміни на сторонніх екрана буде розбити ідентифікатор обличчя. Отже, може, це є причиною дотримуватися iPhone 12.

Велика червона пляма Юпітера набагато глибше, ніж раніше відома
Велика червона пляма Юпітера набагато глибше, ніж раніше відома

Нові дані з першого вічного 3D-виду Атмосфери Юпітера показують, що коріння великого червоного місця планети поширюються глибше у планету, ніж ми знали.