OpenAI выпускает поддельные новости Bot, который он ранее считал слишком опасным
В феврале этого года некоммерческая исследовательская лаборатория искусственного интеллекта OpenAI объявила, что ее новый алгоритм под названием GPT-2 может написать правдоподобные поддельные новости за считанные секунды. Вместо того, чтобы выпустить бота в мир, OpenAI посчитал его слишком опасным для общественного потребления. Фирма потратила месяцы на разработку частей базовой технологии, чтобы оценить, как она использовалась. Не ссылаясь на «веские доказательства неправомерного использования», OpenAI теперь сделал полный бот GPT-2 доступным для всех.
OpenAI разработал GPT-2 для использования текста и создания резюме и переводов. Тем не менее, исследователи стали обеспокоены, когда они подали алгоритм явно мошеннических заявлений. GPT-2 может взять ядро бессмыслицы и построить вокруг него правдоподобную историю, вплоть до изобретения исследований, экспертных цитат и даже статистики для подкрепления ложной информации. Вы можете увидеть пример возможностей генерации текста в GTP-2 ниже.
Вы можете поиграть с GPT-2 онлайн на странице Talk to Transformer. Сайт уже обновлен полной версией GPT-2. Просто добавьте немного текста, и ИИ продолжит рассказ.
Поток фальшивых новостей впервые был вызван после выборов 2016 года, когда теневые сайты, принадлежащие иностранным интересам, распространяли дезинформацию, большая часть которой закрепилась в Facebook. OpenAI беспокоился, что выпуск бота, который мог бы распространять поддельные новости в больших количествах, был бы опасен для общества. Хотя некоторые исследователи ИИ считали, что фирма просто ищет внимания. По их словам, эта технология или что-то вроде этого будет доступно в конце концов, так почему бы не выпустить бота, чтобы другие команды могли разработать способы обнаружения его выхода.
Теперь у нас девять месяцев спустя, и вы можете скачать полную модель. OpenAI говорит, что надеется, что исследователи смогут лучше понять, как распознать поддельные новости, написанные AI. Тем не менее, он предупреждает, что его исследования показывают, что GPT-2 может быть изменен, чтобы занять крайние идеологические позиции, которые могут сделать его еще более опасным.
OpenAI также говорит, что его тестирование показывает, что обнаружение материала GPT-2 может быть сложной задачей. Его лучшие внутренние методы позволяют идентифицировать 95 процентов текста GPT-2, что, по его мнению, недостаточно для полностью автоматизированного процесса. Вызывает беспокойство не то, что GPT-2 может выдавать поддельные новости, а то, что потенциально он может делать это очень быстро и с определенным уклоном. Людям требуется время, чтобы написать что-то, даже если все это придумано. Если GPT-2 будет проблемой, мы, вероятно, узнаем об этом на предстоящем цикле выборов в США.
Читать далее
Metallurgist, который протестировал сталь для военно-морского флота США, допускает поддельные результаты
Томас подделать результаты испытаний на более чем 240 корпусных отливок-на «значительный процент отливок Bradken производства для ВМФ,» по словам прокуроров.
ФБР встревожена шиповным использованием поддельного QR-кода
Эти яблочные коды в последние годы взорвали популярность, как в качестве маркетинговых инструментов, так и в качестве дикоразмерных способов избежать физического контакта в общественных условиях. Но ФБР предупреждает людей, чтобы выглядеть дважды перед сканированием.
«E-Nose» может обнаружить прекрасный виски, поддельные духи
Оба рынка изобилуют мошенничеством. Создатели электронного носа стремятся изменить это.
Люди используют нейронную сеть приложение для создания Поддельных знаменитостей порно
Машинное обучение стало настолько продвинутым, что несколько разработчиков создали инструмент под названием FakeApp, который может создавать убедительные видеоролики «подмены лица». И, конечно, они используют его, чтобы сделать порно.