Совет по этике ИИ Google рушится через неделю

Совет по этике ИИ Google рушится через неделю

На прошлой неделе Google объявил о создании Внешнего консультативного совета по передовым технологиям (ATEAC). Целью ATEAC было рассмотреть сложные проблемы, которые могут возникнуть при разработке технологии искусственного интеллекта, и представить различные точки зрения на эти проблемы. Google не первая компания, которая предпримет такие шаги, поскольку у Microsoft также есть собственный консультативный совет по искусственному интеллекту.

Но не все в порядке с советами по искусственному интеллекту Google. Менее чем через неделю после объявления оно разваливается. В субботу поведенческий экономист и исследователь конфиденциальности Алессандро Аккисти написал в Твиттере:

Я хотел бы поделиться тем, что я отклонил приглашение в совет ATEAC. Хотя я посвящаю себя изучению ключевых этических вопросов справедливости, прав и интеграции в ИИ, я не верю, что для меня это правильный форум для участия в этой важной работе. Я благодарю (1/2)

- покупки Алессандро (@ssnstudy) 30 марта 2019 года

В понедельник сотрудники Google начали выступать за удаление другого участника: Кей Коул Джеймс. Будучи президентом Фонда наследия, Джеймс сделал ряд заявлений, которые сотрудники Google считают анти-транс, анти-ЛГБТК и анти-иммигрантами. За прошедший год Google пострадала от протестов сотрудников, связанных как с секретными усилиями по возобновлению обслуживания в Китае, так и с политикой принудительного арбитража. Вторая проблема, по крайней мере, была изменена - Google больше не требует от сотрудников подчиняться принудительному арбитражу. Статус его усилий по созданию новой, дружественной к цензуре поисковой системы остается неясным.

По словам члена совета Джоанны Брайсон, стремление Google включить президента Фонда наследия является попыткой выглядеть социально разнообразной, включив ряд точек зрения на развитие ИИ.

Да, я тоже волнуюсь об этом, но в целом я думаю, что то, что я знаю, более полезно, чем мой уровень славы, подтверждает. Я знаю, что раньше я подталкивал их к некоторым их ассоциациям, и они говорят, что им нужно разнообразие, чтобы быть убедительным для общества в целом, например, Республиканская партия.

Джоанна Брайсон (@ j2bryson) 26 марта 2019 г.

Активисты, обеспокоенные тем, как невидимое смещение может повлиять на разработку алгоритмов, имеют вполне реальную точку зрения. Алгоритмическое смещение - реальная проблема, с которой борется много компаний. Серьезные вопросы были подняты о точности программного обеспечения, используемого для прогнозирования частоты рецидивов. Амазонке пришлось отказаться от рекрутингового инструмента, потому что он был предвзятым в отношении женщин. Испытания показали, что пакеты программного обеспечения, используемые в автомобилях с автономным управлением, правильно идентифицируют белых людей как пешеходов значительно чаще, чем людей с более темным оттенком кожи. Google пришлось удалить родовые местоимения из своей функции Smart Compose в Gmail, потому что программное обеспечение не могло правильно предсказать пол человека, на который он отвечает. Четыре года назад Google пришлось столкнуться с проблемой, когда Google Фото начал маркировать изображения чернокожих как горилл. И хотя технология распознавания лиц Amazon оказалась неэффективной для небелых людей, у компании не возникло проблем с попыткой продать ее ICE.

Это вопросы, которые должны волновать всех. Точность не имеет политической принадлежности. Передача различных функций и оценок искусственному интеллекту является только положительной целью, если конечный результат является лучшим или более справедливым для всех, включая оцениваемых людей. Неясно, сколько власти кто-либо будет иметь на AI-доске Google, и какой вес будет иметь отношение к их выводам. Но люди не сумасшедшие, когда задают серьезные вопросы о том, какой тип тестирования проводится, чтобы обеспечить устранение алгоритмического смещения.

Недавние аварии Lion Air и Ethiopian Airlines Flight 302 сами по себе можно рассматривать с точки зрения алгоритмического смещения. На прошлой неделе New York Times сообщила, что обширное моделирование аварий подтвердило, что у пилотов Lion Air в ноябре прошлого года было меньше 40 секунд, чтобы избежать крушения. Это было бы возможно только в том случае, если бы они были обучены тому, какие действия предпринять, и следовали за ними до буквы. Вместо этого пилоты неоднократно пытались отменить переопределение системы MCAS неправильным способом.

В аварии Lion Air пилоты использовали переключатель большого пальца более двух десятков раз, чтобы попытаться переопределить систему. Система продолжала работать, тем не менее, скорее всего, из-за плохих показаний датчика, пока самолет не упал в море Ява, убив всех 189 человек на борту.

Алгоритм в этом случае был смещен в сторону собственного чтения. Система не была предназначена для рассмотрения вопроса о том, следует ли рассматривать повторные попытки пилота для отмены MCAS как свидетельство сбоя или неисправности в самой MCAS.

Когда люди и ИИ вступают в контакт, существует вероятность неожиданных, нежелательных и непреднамеренных результатов. Никто в Боинге не пытался создать систему автопилота, которая могла бы привести к падению самолета. Ни один разработчик компьютерного зрения не хочет создать систему идентификации, которая не распознает пешеходов, независимо от их цвета кожи. Но эти проблемы случаются, и единственный способ их остановить - это признать.

Цитата Алиссы Фут из Wired очень хорошо подытоживает ситуацию. Фут работал в Facebook руководителем отдела по обеспечению честных выборов во всем мире Она пишет:

Я не знал никого, кто намеренно хотел бы включить предвзятость в свою работу. Но я также не нашел никого, кто бы действительно знал, что значит противостоять предвзятости каким-либо истинным и методичным способом.

Это вопросы, которые должны волновать каждого. Толчок к включению алгоритмов и ИИ на всех уровнях принятия решений, от самостоятельного вождения автомобилей до заявок на кредиты, уже начался. Мы не можем уклоняться от ответственности за обеспечение того, чтобы такие системы были надежными, точными и справедливыми, чтобы они измеряли то, что, как они утверждают, измеряют, и что они не содержат ошибок или недостатков, которые по ошибке наносят ущерб некоторым группам или людям не по их собственной вине, независимо от того, кем являются эти группы.

Читать далее

Посмотрите вверх: сегодня вечером вы можете увидеть все планеты в нашей солнечной системе
Посмотрите вверх: сегодня вечером вы можете увидеть все планеты в нашей солнечной системе

Вы, наверное, видели схемы Солнечной системы, на которых планеты расположены красивыми, упорядоченными линиями, но на самом деле они часто находятся по ту сторону Солнца от Земли. Мы переживаем период, когда все планеты видны. Просто нужно знать, где и когда смотреть.

Nvidia и Google будут поддерживать облачные игры на iPhone через веб-приложения
Nvidia и Google будут поддерживать облачные игры на iPhone через веб-приложения

И Nvidia, и Google объявили о поддержке iOS для своих облачных игровых платформ через прогрессивные веб-приложения. Apple не может это заблокировать.

Как стать мастером диспетчера задач, по словам автора
Как стать мастером диспетчера задач, по словам автора

У автора оригинального диспетчера задач Windows есть несколько советов о том, как использовать его более эффективно, в том числе те, о которых мы никогда не слышали, и один, который мы добавили сами, если у вас есть проблемы с тем, что диспетчер задач застревает за окнами с полноэкранным захватом.

Илон Маск: SpaceX отправит людей на Марс через 4-6 лет
Илон Маск: SpaceX отправит людей на Марс через 4-6 лет

Генеральный директор SpaceX и Tesla Илон Маск любит делать смелые заявления. Иногда он выходит, и мы получаем многоразовую ракету Falcon 9, но Маск также имеет тенденцию увлекаться, особенно когда дело касается Марса. Генеральный директор SpaceX давно пообещал создать на Марсе агрессивную колонию, а некоторые…