Правозащитные организации просят Zoom, чтобы отрезать эмоции AI

Правозащитные организации просят Zoom, чтобы отрезать эмоции AI

Zoom флиртовал с концепцией эмоций с тех пор, как пандемия дала ему второй ветер. Когда мы затронули в прошлом месяце, Tech Giant Intel работал вместе с компанией программного обеспечения электронного обучения, чтобы создать программу, анализирующую эмоции, которая складывается с Zoom. Эта программа предположительно принесет пользу учителям, рассказывая им, когда студенты кажутся растерянными или скучными, что позволяет им адаптировать свое обучение и увеличить участие. Протокол также сообщил в апреле, что компании начали использовать ИИ эмоций во время продаж, чтобы оценить настроение потенциальных клиентов и соответствующим образом корректировать свою стратегию. Без их ведома, каждый клиент оценивается по «оценке эмоций» на протяжении всего их звонка.

Цифровые права некоммерческой борьбы за будущее быстро завоевали ветер отчета Протокола. Так же и Американский союз гражданских свобод (ACLU), доступ, работа с правосудием и 24 других правозащитных групп - все из которых подписали открытое письмо в Zoom, опубликованное в среду. В письме просит основателя и генерального директора Zoom Эрика Юаня отказаться от планов компании по внедрению Emotion AI, заявив, что технология является карательной, манипулятивной, дискриминационной, основанной на лживе и риском целостности данных.

Правозащитные организации просят Zoom, чтобы отрезать эмоции AI

«Zoom утверждает, что заботится о счастье и безопасности своих пользователей, но эта инвазивная технология говорит иначе», - говорится в письме. «Этот переход к моющим пользователям для эмоциональных точек данных, основанного на ложной идее, что ИИ может отслеживать и анализировать человеческие эмоции, является нарушением конфиденциальности и прав человека. Zoom должен остановить планы по продвижению этой функции ».

Открытое письмо далеко от первого, которое критикует эмоции ИИ. Многие говорят, что эта технология представляет собой чрезмерное наблюдение, особенно когда целевые студенты или клиенты не знают, что их язык тела, тон и другие предполагаемые эмоциональные маркеры оцениваются. Другие заявили, что эмоции ИИ могут в конечном итоге разобрать негативный (или просто неверный) анализ людей, чьи культуры выражают эмоции по -разному.

Письмо адвокационных групп закрывается, напомнив Юану о том, что его компания ранее «принимала решения, которые ценят права пользователей», такие как возврат своего решения о реализации функций отслеживания лица из-за проблем с конфиденциальностью. «Это еще одна возможность показать вам заботу о своих пользователях и вашей репутации», - пишут организации. «Вы можете прояснить, что этой технологии нет места в видеообъемках».