OpenAI выпускает поддельные новости Bot, который он ранее считал слишком опасным

OpenAI выпускает поддельные новости Bot, который он ранее считал слишком опасным

В феврале этого года некоммерческая исследовательская лаборатория искусственного интеллекта OpenAI объявила, что ее новый алгоритм под названием GPT-2 может написать правдоподобные поддельные новости за считанные секунды. Вместо того, чтобы выпустить бота в мир, OpenAI посчитал его слишком опасным для общественного потребления. Фирма потратила месяцы на разработку частей базовой технологии, чтобы оценить, как она использовалась. Не ссылаясь на «веские доказательства неправомерного использования», OpenAI теперь сделал полный бот GPT-2 доступным для всех.

OpenAI разработал GPT-2 для использования текста и создания резюме и переводов. Тем не менее, исследователи стали обеспокоены, когда они подали алгоритм явно мошеннических заявлений. GPT-2 может взять ядро бессмыслицы и построить вокруг него правдоподобную историю, вплоть до изобретения исследований, экспертных цитат и даже статистики для подкрепления ложной информации. Вы можете увидеть пример возможностей генерации текста в GTP-2 ниже.

Вы можете поиграть с GPT-2 онлайн на странице Talk to Transformer. Сайт уже обновлен полной версией GPT-2. Просто добавьте немного текста, и ИИ продолжит рассказ.

Поток фальшивых новостей впервые был вызван после выборов 2016 года, когда теневые сайты, принадлежащие иностранным интересам, распространяли дезинформацию, большая часть которой закрепилась в Facebook. OpenAI беспокоился, что выпуск бота, который мог бы распространять поддельные новости в больших количествах, был бы опасен для общества. Хотя некоторые исследователи ИИ считали, что фирма просто ищет внимания. По их словам, эта технология или что-то вроде этого будет доступно в конце концов, так почему бы не выпустить бота, чтобы другие команды могли разработать способы обнаружения его выхода.

Пример GPT-2, составляющий факты для поддержки начального ввода.
Пример GPT-2, составляющий факты для поддержки начального ввода.

Теперь у нас девять месяцев спустя, и вы можете скачать полную модель. OpenAI говорит, что надеется, что исследователи смогут лучше понять, как распознать поддельные новости, написанные AI. Тем не менее, он предупреждает, что его исследования показывают, что GPT-2 может быть изменен, чтобы занять крайние идеологические позиции, которые могут сделать его еще более опасным.

OpenAI также говорит, что его тестирование показывает, что обнаружение материала GPT-2 может быть сложной задачей. Его лучшие внутренние методы позволяют идентифицировать 95 процентов текста GPT-2, что, по его мнению, недостаточно для полностью автоматизированного процесса. Вызывает беспокойство не то, что GPT-2 может выдавать поддельные новости, а то, что потенциально он может делать это очень быстро и с определенным уклоном. Людям требуется время, чтобы написать что-то, даже если все это придумано. Если GPT-2 будет проблемой, мы, вероятно, узнаем об этом на предстоящем цикле выборов в США.

Читать далее

Crypto Crash: плохие новости для инвесторов, хорошие новости для геймеров
Crypto Crash: плохие новости для инвесторов, хорошие новости для геймеров

В настоящее время продолжается полномасштабная криптовалюта. Это плохая новость для инвесторов, но хорошие новости для геймеров, которые ждали два года, чтобы купить графический процессор.

На этой неделе в космосе: новая команда достигает МКС, и у нас есть новости о Уране
На этой неделе в космосе: новая команда достигает МКС, и у нас есть новости о Уране

К лучшему или к худшему, этот информационный бюллетень полностью не содержит тыквенных специй. И все же специя все еще должна течь.

Водные миры могут распространяться во Вселенной, и это плохая новость для жизни
Водные миры могут распространяться во Вселенной, и это плохая новость для жизни

Экзопланеты, которые мы нашли до настоящего времени, могут содержать огромное количество воды, но это нехорошо, обязательно, где искать жизнь.