Правозахисні групи просять Zoom, щоб обрізати емоцію AI

Правозахисні групи просять Zoom, щоб обрізати емоцію AI

Zoom фліртує з концепцією емоцій AI з тих пір, як пандемія дав їй другий вітер. Як ми торкнулися минулого місяця, Tech Giant Intel працював разом із програмним забезпеченням електронного навчання, щоб створити програму аналізування емоцій, яка складається з Zoom. Ця програма нібито принесе користь вчителям, сказавши їм, коли студенти виглядають розгубленими або нудьгуючими, що дозволяє їм адаптувати свої інструкції та збільшити залучення. Протокол аналогічно повідомив у квітні, що компанії почали використовувати AI Emotions під час закликів продажів для оцінки настроїв потенційних клієнтів та відповідно коригувати свою стратегію. Невідомий їм, кожен клієнт класифікується на "показниках емоцій" протягом усього свого дзвінка.

Некомерційна боротьба за цифрові права за майбутнє швидко спіймала звіт протоколу. Так само зробив Американський союз громадянських свобод (ACLU), Access зараз, робочі місця з правосуддям та 24 інші правозахисні групи - всі з яких підписали відкритий лист до Zoom, опублікований в середу. Лист просить засновника ZOOM та генерального директора Еріка Юань про те, щоб відбити плани компанії запровадити AI Emotion, заявивши, що технологія є каральною, маніпулятивною, дискримінаційною, корінням у псевдонауці та ризикам цілісності даних.

Правозахисні групи просять Zoom, щоб обрізати емоцію AI

"Zoom стверджує, що дбає про щастя та безпеку своїх користувачів, але ця інвазивна технологія говорить інакше", - йдеться у листі. «Цей перехід до міністрів користувачів за емоційними точками даних, заснованими на помилковій ідеї, що ШІ може відстежувати та аналізувати людські емоції - це порушення конфіденційності та прав людини. Zoom повинен зупинити плани просунути цю функцію ».

Відкритий лист далеко не перший, хто критикував емоції AI. Багато хто заявив, що технологія є надмірним спостереженням, особливо коли цілеспрямовані студенти чи клієнти не знають своєї мови тіла, тону та інших передбачуваних емоційних маркерів. Інші сказали, що емоція АІ може закінчитись негативними (або просто неправильними) аналізами людей, культури яких по -різному виражають емоції.

Лист адвокатських груп закривається, нагадуючи Юань, що його компанія раніше "прийняла рішення, які центри користувачів", такі як зворотне відстеження свого рішення щодо впровадження функцій відстеження обличчя через проблеми конфіденційності. "Це ще одна можливість показати вам дбати про своїх користувачів та свою репутацію", - пишуть організації. "Ви можете зрозуміти, що в цій технології немає місця у відео -комунікаціях".