Совет по этике ИИ Google рушится через неделю

Совет по этике ИИ Google рушится через неделю

На прошлой неделе Google объявил о создании Внешнего консультативного совета по передовым технологиям (ATEAC). Целью ATEAC было рассмотреть сложные проблемы, которые могут возникнуть при разработке технологии искусственного интеллекта, и представить различные точки зрения на эти проблемы. Google не первая компания, которая предпримет такие шаги, поскольку у Microsoft также есть собственный консультативный совет по искусственному интеллекту.

Но не все в порядке с советами по искусственному интеллекту Google. Менее чем через неделю после объявления оно разваливается. В субботу поведенческий экономист и исследователь конфиденциальности Алессандро Аккисти написал в Твиттере:

Я хотел бы поделиться тем, что я отклонил приглашение в совет ATEAC. Хотя я посвящаю себя изучению ключевых этических вопросов справедливости, прав и интеграции в ИИ, я не верю, что для меня это правильный форум для участия в этой важной работе. Я благодарю (1/2)

- покупки Алессандро (@ssnstudy) 30 марта 2019 года

В понедельник сотрудники Google начали выступать за удаление другого участника: Кей Коул Джеймс. Будучи президентом Фонда наследия, Джеймс сделал ряд заявлений, которые сотрудники Google считают анти-транс, анти-ЛГБТК и анти-иммигрантами. За прошедший год Google пострадала от протестов сотрудников, связанных как с секретными усилиями по возобновлению обслуживания в Китае, так и с политикой принудительного арбитража. Вторая проблема, по крайней мере, была изменена - Google больше не требует от сотрудников подчиняться принудительному арбитражу. Статус его усилий по созданию новой, дружественной к цензуре поисковой системы остается неясным.

По словам члена совета Джоанны Брайсон, стремление Google включить президента Фонда наследия является попыткой выглядеть социально разнообразной, включив ряд точек зрения на развитие ИИ.

Да, я тоже волнуюсь об этом, но в целом я думаю, что то, что я знаю, более полезно, чем мой уровень славы, подтверждает. Я знаю, что раньше я подталкивал их к некоторым их ассоциациям, и они говорят, что им нужно разнообразие, чтобы быть убедительным для общества в целом, например, Республиканская партия.

Джоанна Брайсон (@ j2bryson) 26 марта 2019 г.

Активисты, обеспокоенные тем, как невидимое смещение может повлиять на разработку алгоритмов, имеют вполне реальную точку зрения. Алгоритмическое смещение - реальная проблема, с которой борется много компаний. Серьезные вопросы были подняты о точности программного обеспечения, используемого для прогнозирования частоты рецидивов. Амазонке пришлось отказаться от рекрутингового инструмента, потому что он был предвзятым в отношении женщин. Испытания показали, что пакеты программного обеспечения, используемые в автомобилях с автономным управлением, правильно идентифицируют белых людей как пешеходов значительно чаще, чем людей с более темным оттенком кожи. Google пришлось удалить родовые местоимения из своей функции Smart Compose в Gmail, потому что программное обеспечение не могло правильно предсказать пол человека, на который он отвечает. Четыре года назад Google пришлось столкнуться с проблемой, когда Google Фото начал маркировать изображения чернокожих как горилл. И хотя технология распознавания лиц Amazon оказалась неэффективной для небелых людей, у компании не возникло проблем с попыткой продать ее ICE.

Это вопросы, которые должны волновать всех. Точность не имеет политической принадлежности. Передача различных функций и оценок искусственному интеллекту является только положительной целью, если конечный результат является лучшим или более справедливым для всех, включая оцениваемых людей. Неясно, сколько власти кто-либо будет иметь на AI-доске Google, и какой вес будет иметь отношение к их выводам. Но люди не сумасшедшие, когда задают серьезные вопросы о том, какой тип тестирования проводится, чтобы обеспечить устранение алгоритмического смещения.

Недавние аварии Lion Air и Ethiopian Airlines Flight 302 сами по себе можно рассматривать с точки зрения алгоритмического смещения. На прошлой неделе New York Times сообщила, что обширное моделирование аварий подтвердило, что у пилотов Lion Air в ноябре прошлого года было меньше 40 секунд, чтобы избежать крушения. Это было бы возможно только в том случае, если бы они были обучены тому, какие действия предпринять, и следовали за ними до буквы. Вместо этого пилоты неоднократно пытались отменить переопределение системы MCAS неправильным способом.

В аварии Lion Air пилоты использовали переключатель большого пальца более двух десятков раз, чтобы попытаться переопределить систему. Система продолжала работать, тем не менее, скорее всего, из-за плохих показаний датчика, пока самолет не упал в море Ява, убив всех 189 человек на борту.

Алгоритм в этом случае был смещен в сторону собственного чтения. Система не была предназначена для рассмотрения вопроса о том, следует ли рассматривать повторные попытки пилота для отмены MCAS как свидетельство сбоя или неисправности в самой MCAS.

Когда люди и ИИ вступают в контакт, существует вероятность неожиданных, нежелательных и непреднамеренных результатов. Никто в Боинге не пытался создать систему автопилота, которая могла бы привести к падению самолета. Ни один разработчик компьютерного зрения не хочет создать систему идентификации, которая не распознает пешеходов, независимо от их цвета кожи. Но эти проблемы случаются, и единственный способ их остановить - это признать.

Цитата Алиссы Фут из Wired очень хорошо подытоживает ситуацию. Фут работал в Facebook руководителем отдела по обеспечению честных выборов во всем мире Она пишет:

Я не знал никого, кто намеренно хотел бы включить предвзятость в свою работу. Но я также не нашел никого, кто бы действительно знал, что значит противостоять предвзятости каким-либо истинным и методичным способом.

Это вопросы, которые должны волновать каждого. Толчок к включению алгоритмов и ИИ на всех уровнях принятия решений, от самостоятельного вождения автомобилей до заявок на кредиты, уже начался. Мы не можем уклоняться от ответственности за обеспечение того, чтобы такие системы были надежными, точными и справедливыми, чтобы они измеряли то, что, как они утверждают, измеряют, и что они не содержат ошибок или недостатков, которые по ошибке наносят ущерб некоторым группам или людям не по их собственной вине, независимо от того, кем являются эти группы.

Читать далее

Знаменитая обсерватория Аресибо рушится из-за обрыва кабеля
Знаменитая обсерватория Аресибо рушится из-за обрыва кабеля

Национальный научный фонд (NSF) ранее выражал обеспокоенность, что это может произойти, поэтому в прошлом месяце он решил, что тарелку будут сняты, а не отремонтированы. Гравитация позаботилась об этом немного быстрее, чем ожидалось, поскольку 900-тонная подвесная платформа за ночь рухнула на тарелку, полностью разрушив культовый инструмент.

PSA: добыча Chia на SSD будет абсолютно разрушить его в кратчайшие сроки
PSA: добыча Chia на SSD будет абсолютно разрушить его в кратчайшие сроки

Если вы хотите убить среднего или низкоугольный потребительский SSD или даже неправильные высококачественные модели, для этого, мой Chia на нее.

HomePod от Apple может разрушить вашу столешницу
HomePod от Apple может разрушить вашу столешницу

Новый HomePod от Apple может предложить отличное качество звука, но только если вы используете несколько крайне ограниченных сервисов. Кроме того, он окрашивает столешницы, возможно, навсегда.

Утечки Benchmarks показывают Intel Core i9-9900K Сокрушительные AMD Ryzen 7 2700X
Утечки Benchmarks показывают Intel Core i9-9900K Сокрушительные AMD Ryzen 7 2700X

Intel Core i9 выглядит победителем части, если ранние тесты являются точными.