Рада з етики інтелектуальної власності Google розвалюється через тиждень
Минулого тижня компанія Google оголосила про створення Ради з передових технологій (ATEAC). Метою ATEAC було розглянути складні виклики, які можуть виникнути при розробці технології ІІ та забезпечити різноманітні перспективи з цих питань. Google не є першою компанією, яка зробила такі кроки, оскільки Microsoft також має свій власний дорадчий рада.
Але все це не відповідає рекомендаціям AI від Google. Менш ніж через тиждень після оголошення вона розпадається. У суботу, поведінковий економіст і дослідник приватності Алессандро Аккісті написали твіт:
Я хотів би поділитися, що я відхилив запрошення до ради ATEAC. Хоча я присвячений дослідженню ключових етичних питань справедливості, прав та включення до ІІ, я не вірю, що це правильний форум для мене, щоб брати участь у цій важливій роботі. Я дякую (1/2)
- покупки Алессандро (@ssnstudy) 30 березня 2019 року
У понеділок співробітники Google почали виступати за видалення іншого члена: Кей Коул Джеймс. Як президент Heritage Foundation, Джеймс зробив ряд заяв співробітників Google як анти-транс, анти-LGBTQ, і анти-іммігрантів. Протягом останнього року компанія Google була засуджена протестами працівників як над її таємними зусиллями відновити службу в Китаї, так і в політиці примусового арбітражу. Друга проблема, принаймні, була змінена - Google більше не вимагає від співробітників примусового арбітражу. Стан його зусиль зі створення нової, доброзичливої до цензури пошукової системи залишається незрозумілою.
За словами члена ради Joanna J. Bryson, поступ Google для включення президента Heritage Foundation є спробою виявитися соціально різноманітною, включивши цілий ряд поглядів на розвиток AI.
Так, я також переживаю це, але в цілому я думаю, що те, що я знаю, є більш корисним, ніж мій рівень слави. Я знаю, що я висунув їх раніше на деяких їхніх асоціаціях, і вони кажуть, що вони потребують різноманітності, щоб бути переконливим для суспільства, наприклад, GOP.
- Джоанна Брайсон (@ j2bryson) 26 березня 2019 року
Активісти, стурбовані тим, як невидимі упередження можуть вплинути на розвиток алгоритмів, мають дуже реальну точку зору. Алгоритмічне упередження є реальною проблемою, з якою борються ряд компаній. Було піднято серйозні питання про точність програмного забезпечення, що використовується для прогнозування показників рецидивів. Амазонці довелося відмовитися від інструменту вербування, оскільки це було упередженим ставленням до жінок. Випробування показали, що програмні пакети, що використовуються в автомобілях, що самостійно управляють, ідентифікують білих людей як пішоходів значно частіше, ніж людей з більш темними відтінками шкіри. Google змушений був видалити гендерні займенники зі своєї функції Smart Compose у Gmail, оскільки програмне забезпечення не могло правильно передбачити стать особи, на яку було надано відповідь. Чотири роки тому Google довелося зіткнутися, коли Google Photos почала маркувати зображення чорних людей як горили. І хоча технологія розпізнавання облич Amazon не працювала добре на небілих людей, у компанії не було ніяких проблем, намагаючись продати її ICE.
Це питання, які мають стосуватися всіх. Точність не має політичної приналежності. Перетворення різних функцій і оцінок на штучний інтелект є лише позитивною метою, якщо кінцевий результат кращий або більш справедливий для всіх, включаючи оцінюваних людей. Незрозуміло, якою силою буде володіти хтось з правління AI Google, а також який вага буде додано до їхніх результатів. Але люди не є божевільними, щоб задавати серйозні питання про те, що проводиться тестування, щоб забезпечити, що алгоритмічні упередження розглядаються.
Нещодавні аварії Lion Air та Ethiopian Airlines Flight 302 можуть розглядатися з точки зору алгоритмічного ухилу. Минулого тижня, New York Times повідомила, що великі симуляції аварії підтвердили, що пілоти Lion Air в листопаді минулого року мали менше 40 секунд, щоб уникнути аварії. Це було б можливим лише за умови, якщо б вони були навчені саме тим, які дії слід вжити та дотримувалися їх до листа. Замість цього, пілоти неодноразово намагалися скасувати заміну системи MCAS неправильно.
У авіакатастрофі Lion Air пілоти скористалися перемикачем пальця більше двох десятків разів, щоб спробувати перекрити систему. Тим не менш, система продовжувала займатися, швидше за все, через погані показання з датчика, поки літак не врізався в море Яви, убивши всіх 189 людей на борту.
Алгоритм, в даному випадку, був упереджений щодо власного читання. Система не була розрахована на те, щоб розглянути, чи повторні спроби пілота скасувати MCAS повинні розглядатися як свідчення відмови або несправності в самому MCAS.
Коли люди та ІІ вступають у контакт, існує потенціал для несподіваних, небажаних і ненавмисних результатів. Ніхто в Boeing не намагався побудувати систему автопілота, що може призвести до аварії літака. Жоден розробник комп'ютерного зору не хоче побудувати систему ідентифікації, яка не визнає пішоходів незалежно від кольору шкіри. Але ці проблеми відбуваються, і єдиний спосіб зупинити їх - це визнати.
Цитата Alyssa Foote на Wired підсумовує ситуацію надзвичайно добре. Фот працював у Facebook як керівник глобальних операцій з забезпечення доброчесності виборів. Вона пише:
Я не знав нікого, хто навмисно хотів включити у свою роботу упередженість. Але я також не знайшов нікого, хто б знав, що це означає протистояти упередженості будь-яким справжнім і методичним способом.
Це питання, які повинні турбувати всі. Посилка для включення алгоритмів та AI на всіх рівнях прийняття рішень, від самостійного водіння автомобіля до кредитних додатків, вже триває. Ми не можемо ухилятися від відповідальності за те, щоб такі системи були надійними, точними і справедливими, щоб вони міряли те, що вони вимагають, і що вони не містять помилок або недоліків, які помилково завдають шкоди деяким групам або людям не з їхньої вини незалежно від того, хто ці групи трапляються.