OpenAI випускає підроблені новини, які раніше вважалися занадто небезпечними

OpenAI випускає підроблені новини, які раніше вважалися занадто небезпечними

У лютому цього року лабораторія дослідження неприбуткового штучного інтелекту OpenAI оголосила, що новий алгоритм під назвою GPT-2 зможе за кілька секунд написати правдиві підроблені новини. Замість того, щоб випустити бота у світ, OpenAI вважав це занадто небезпечним для суспільного споживання. Фірма витрачала місяці, відкриваючи фрагменти основної технології, щоб можна було оцінити, як вона використовується. Не посилаючись на «вагомі докази зловживання», OpenAI тепер зробив повний бот GPT-2 доступним для всіх.

OpenAI розробив GPT-2 для споживання тексту та створення резюме та перекладів. Однак дослідники занепокоїлися, коли вони подали алгоритм відверто шахрайських тверджень. GPT-2 міг би взяти ядро дурниць і створити навколо нього правдоподібний розповідь, ідучи так далеко, щоб винайти дослідження, цитати експертів і навіть статистику для резервного копіювання неправдивої інформації. Приклад здібностей генерації тексту GTP-2 ви можете побачити нижче.

Ви можете пограти з GPT-2 онлайн на сторінці "Говорити з трансформером". На сайті вже оновлено повну версію GPT-2. Просто додайте трохи тексту, і AI продовжить історію.

Порив фальшивих новин вперше був названий після виборів 2016 року, коли тінисті веб-сайти, керовані іноземними інтересами, поширювали дезінформацію, значна частина якої закріпилась у Facebook. OpenAI побоюється випустити бота, який може викачати фальшиві новини у великих кількостях, буде небезпечно для суспільства. Хоча деякі дослідники AI вважають, що фірма просто шукає уваги. Вони сказали, що ця технологія чи щось подібне буде з часом доступним, то чому б не випустити бота, щоб інші команди могли розробити способи виявлення його результатів.

Приклад GPT-2, який складається з фактів для підтвердження початкових даних.
Приклад GPT-2, який складається з фактів для підтвердження початкових даних.

Зараз ось ми через дев'ять місяців, і ви можете завантажити повну модель. OpenAI каже, що сподівається, що дослідники зможуть краще зрозуміти, як помітити фальшиві новини, написані AI. Однак він застерігає, що його дослідження показують, що GPT-2 може бути налаштований на зайняття крайніх ідеологічних позицій, що може зробити його ще більш небезпечним.

OpenAI також говорить, що його тестування показує, що виявлення матеріалів GPT-2 може бути складним завданням. Його найкращі внутрішні методи дозволяють визначити 95 відсотків тексту GPT-2, який, на його думку, недостатньо високий для повністю автоматизованого процесу. Тривожна справа не в тому, що GPT-2 може видавати підроблені новини, а в тому, що він може зробити це надзвичайно швидко і з певним ухилом. Людям потрібен час, щоб написати речі, навіть якщо це все складено. Якщо GPT-2 стане проблемою, ми, мабуть, дізнаємось у майбутньому виборчому циклі США.

Читати далі

OpenAI «DALL-E» генерує зображення з текстових описів
OpenAI «DALL-E» генерує зображення з текстових описів

Все, що вам потрібно зробити, - це дати DALL-E деякі вказівки, і він може намалювати для вас зображення. Іноді візуалізація трохи краща, ніж малювання пальцями, але інколи це вражаюче точні зображення.

BIOS Open Source працює на материнській платі Олдера вперше
BIOS Open Source працює на материнській платі Олдера вперше

Команда розробників Linux отримала CoreBoot функціонування на материнській платі Z690 вперше. Це лише запуск Linux, звичайно, але це старт.

Новий інструмент OpenAI перетворює текст на 3D -моделі
Новий інструмент OpenAI перетворює текст на 3D -моделі

Новий алгоритм компанії створює 3D -модель вашого текстового опису, і він робить замовлення на величину швидше, ніж інші АІС.

Google Open Sources Exoplanet-Hunting AI
Google Open Sources Exoplanet-Hunting AI

Наприкінці минулого року компанія Google показала, як машинне навчання може допомогти астрономам розкопати відставання Кеплера, і він виявив кілька нових екзопланет у цьому процесі. Google зараз відкритий джерелом планети-виявлення AI, так що кожен може надати йому постріл.