OpenAI випускає підроблені новини, які раніше вважалися занадто небезпечними

OpenAI випускає підроблені новини, які раніше вважалися занадто небезпечними

У лютому цього року лабораторія дослідження неприбуткового штучного інтелекту OpenAI оголосила, що новий алгоритм під назвою GPT-2 зможе за кілька секунд написати правдиві підроблені новини. Замість того, щоб випустити бота у світ, OpenAI вважав це занадто небезпечним для суспільного споживання. Фірма витрачала місяці, відкриваючи фрагменти основної технології, щоб можна було оцінити, як вона використовується. Не посилаючись на «вагомі докази зловживання», OpenAI тепер зробив повний бот GPT-2 доступним для всіх.

OpenAI розробив GPT-2 для споживання тексту та створення резюме та перекладів. Однак дослідники занепокоїлися, коли вони подали алгоритм відверто шахрайських тверджень. GPT-2 міг би взяти ядро дурниць і створити навколо нього правдоподібний розповідь, ідучи так далеко, щоб винайти дослідження, цитати експертів і навіть статистику для резервного копіювання неправдивої інформації. Приклад здібностей генерації тексту GTP-2 ви можете побачити нижче.

Ви можете пограти з GPT-2 онлайн на сторінці "Говорити з трансформером". На сайті вже оновлено повну версію GPT-2. Просто додайте трохи тексту, і AI продовжить історію.

Порив фальшивих новин вперше був названий після виборів 2016 року, коли тінисті веб-сайти, керовані іноземними інтересами, поширювали дезінформацію, значна частина якої закріпилась у Facebook. OpenAI побоюється випустити бота, який може викачати фальшиві новини у великих кількостях, буде небезпечно для суспільства. Хоча деякі дослідники AI вважають, що фірма просто шукає уваги. Вони сказали, що ця технологія чи щось подібне буде з часом доступним, то чому б не випустити бота, щоб інші команди могли розробити способи виявлення його результатів.

Приклад GPT-2, який складається з фактів для підтвердження початкових даних.
Приклад GPT-2, який складається з фактів для підтвердження початкових даних.

Зараз ось ми через дев'ять місяців, і ви можете завантажити повну модель. OpenAI каже, що сподівається, що дослідники зможуть краще зрозуміти, як помітити фальшиві новини, написані AI. Однак він застерігає, що його дослідження показують, що GPT-2 може бути налаштований на зайняття крайніх ідеологічних позицій, що може зробити його ще більш небезпечним.

OpenAI також говорить, що його тестування показує, що виявлення матеріалів GPT-2 може бути складним завданням. Його найкращі внутрішні методи дозволяють визначити 95 відсотків тексту GPT-2, який, на його думку, недостатньо високий для повністю автоматизованого процесу. Тривожна справа не в тому, що GPT-2 може видавати підроблені новини, а в тому, що він може зробити це надзвичайно швидко і з певним ухилом. Людям потрібен час, щоб написати речі, навіть якщо це все складено. Якщо GPT-2 стане проблемою, ми, мабуть, дізнаємось у майбутньому виборчому циклі США.

Читати далі

Crypto Crash: Погана новина для інвесторів, хороші новини для геймерів
Crypto Crash: Погана новина для інвесторів, хороші новини для геймерів

Наразі триває повномасштабне криптовалюта криптовалюта. Це погана новина для інвесторів, але хороша новина для геймерів, які чекали два роки, щоб придбати GPU.

Цього тижня в космосі: новий екіпаж досягає МКС, і ми отримали новини про Уран
Цього тижня в космосі: новий екіпаж досягає МКС, і ми отримали новини про Уран

Для кращого чи на гірше, цей бюлетень повністю не містить гарбузових спецій. І все -таки спеція все ще повинна протікати.

Intel не розкрила Spectre, розкладання до уряду США, поки новини не стали загальнодоступними
Intel не розкрила Spectre, розкладання до уряду США, поки новини не стали загальнодоступними

Intel вже визнала, що вирішила не інформувати уряд США про Meltdown або Spectre, замість того, щоб залишити новини загальнодоступними. Вона не мала такої занепокоєння щодо попередження інших покупців.