Маніфест AI Google: підзвітність, конфіденційність та відсутність роботів-убивців
Google є однією з провідних технологічних компаній у галузі штучного інтелекту, яка в минулому році випустила соковитий урядовий контракт на роботу над проектом "Project Maven". Метою цього проекту було обробка та каталог каталожних образів, а також посадові особи Google ніхто не задоволений. Після серії протестів компанія Google нещодавно заявила, що завершить роботу над Maven і видає рекомендації щодо використання штучного інтелекту. Тепер цей документ доступний. Google перераховує сім ключових значень для свого дослідження AI і перераховує кілька програм, які не відповідають вимогам.
Ми все ще в найближчі дні корисного штучного інтелекту, тому в нових керівних принципах Google немало специфіки. Загальні цілі компанії Google для АІ включають соціально корисну діяльність, запобігаючи створенню або посиленню несправедливого упередження, будуванню та випробуванню на безпеку, відповідальності перед людьми, включення принципів дизайну конфіденційності, дотримання високих стандартів наукової досконалості та доступності для використання відповідно до ці принципи.
Отже, що означає це все? Схоже, це виглядає як привабливий спосіб сказати: "не будь злим". Google, схоже, визнає величезний потенціал технології AI, тому він хоче розпочати будівництво систем з урахуванням цієї системи. Компанія Google заявляє, що вона буде працювати лише на соціально корисний AI, який максимально наближений до безстратічності. Ми всі знаємо, що може спричинити упередження в нейронній мережі - психопати. Google також хоче переконатись, що створені ним системи включають відгуки від людей та механізми, за допомогою яких люди можуть змінювати їх у часі. Google також має намір надати вам контроль над обробленими вами документами AI з відповідними гарантіями конфіденційності.
Google має намір зробити більшу частину своїх досліджень AI загальнодоступними. Компанія Google планує надавати доступ до технологій та послуг відповідно до вищезгаданих принципів, але вона може оцінювати лише можливі варіанти використання. Цілком можливо, що хтось може побудувати роботу Google, щоб зробити щось, що порушує один або декілька цих принципів.
Google заявляє, що не буде проводити будь-яке дослідження AI, яке включає в себе зброю чи будь-яку іншу систему, яка існує, перш за все, для шкоди людям. Якщо є сіра область, Google планує лише розробити технологію, в якій можливі переваги набагато перевищують ризики. Таким чином, Google не будуватимуть розумну зброю для уряду. Проте, компанія заявляє, що продовжуватиме співпрацювати з урядом США та військовими з інших технологій. Наприклад, кібербезпека, охорона здоров'я, пошук та порятунок.
Якщо Project Maven має довгострокову вигоду, можливо, це змусило Google піти на запис про те, як він буде використовувати AI. Це стосується споживачів (і співробітників Google), щоб переконатися, що компанія дотримується цих обіцянок.