Правозахисні групи просять Zoom, щоб обрізати емоцію AI
Zoom фліртує з концепцією емоцій AI з тих пір, як пандемія дав їй другий вітер. Як ми торкнулися минулого місяця, Tech Giant Intel працював разом із програмним забезпеченням електронного навчання, щоб створити програму аналізування емоцій, яка складається з Zoom. Ця програма нібито принесе користь вчителям, сказавши їм, коли студенти виглядають розгубленими або нудьгуючими, що дозволяє їм адаптувати свої інструкції та збільшити залучення. Протокол аналогічно повідомив у квітні, що компанії почали використовувати AI Emotions під час закликів продажів для оцінки настроїв потенційних клієнтів та відповідно коригувати свою стратегію. Невідомий їм, кожен клієнт класифікується на "показниках емоцій" протягом усього свого дзвінка.
Некомерційна боротьба за цифрові права за майбутнє швидко спіймала звіт протоколу. Так само зробив Американський союз громадянських свобод (ACLU), Access зараз, робочі місця з правосуддям та 24 інші правозахисні групи - всі з яких підписали відкритий лист до Zoom, опублікований в середу. Лист просить засновника ZOOM та генерального директора Еріка Юань про те, щоб відбити плани компанії запровадити AI Emotion, заявивши, що технологія є каральною, маніпулятивною, дискримінаційною, корінням у псевдонауці та ризикам цілісності даних.
"Zoom стверджує, що дбає про щастя та безпеку своїх користувачів, але ця інвазивна технологія говорить інакше", - йдеться у листі. «Цей перехід до міністрів користувачів за емоційними точками даних, заснованими на помилковій ідеї, що ШІ може відстежувати та аналізувати людські емоції - це порушення конфіденційності та прав людини. Zoom повинен зупинити плани просунути цю функцію ».
Відкритий лист далеко не перший, хто критикував емоції AI. Багато хто заявив, що технологія є надмірним спостереженням, особливо коли цілеспрямовані студенти чи клієнти не знають своєї мови тіла, тону та інших передбачуваних емоційних маркерів. Інші сказали, що емоція АІ може закінчитись негативними (або просто неправильними) аналізами людей, культури яких по -різному виражають емоції.
Лист адвокатських груп закривається, нагадуючи Юань, що його компанія раніше "прийняла рішення, які центри користувачів", такі як зворотне відстеження свого рішення щодо впровадження функцій відстеження обличчя через проблеми конфіденційності. "Це ще одна можливість показати вам дбати про своїх користувачів та свою репутацію", - пишуть організації. "Ви можете зрозуміти, що в цій технології немає місця у відео -комунікаціях".
Читати далі
Microsoft зупиняє продажі технологій читання емоцій, обмежує доступ до розпізнавання обличчя
Рішення компанії дотримується широких зусиль щодо дослідження соціальних наслідків технологій емоцій та розпізнавання обличчя.
Дослідження: Аутистичні люди визнають емоції краще, ніж нейротипічні у мультфільмах
Нейротипічні люди давно провели, вважаючи, що людям з аутизмом намагаються підібрати соціальні та емоційні підказки. Згідно з новими дослідженнями, це не завжди так.
Новий робот з "емоційним інтелектом" прибуває на космічну станцію
Населення Міжнародної космічної станції (МКС) ось-ось збільшиться на одного, але це не буде іншим людиною. Це буде літальний робот на AI з назвою CIMON-2, продовження експериментального робота CIMON, який дебютував минулого року.