Microsoft зупиняє продажі технологій читання емоцій, обмежує доступ до розпізнавання обличчя

Microsoft зупиняє продажі технологій читання емоцій, обмежує доступ до розпізнавання обличчя

У публікації в блозі, опублікованому у вівторок, програмний гігант оголосив, що це будуть інструменти аналізу обличчя заходу, які стверджують, що визнають емоційні стани та особисті атрибути, як стать чи вік людини. Раніше ці можливості були вільно доступні в API Azure Face, комп'ютерному баченню та відео -індексу. Тепер ті, хто вже має доступ до функцій емоційного читання Microsoft, матимуть один рік використання до того, як їх доступ буде відкликано.

"Ми співпрацювали з внутрішніми та зовнішніми дослідниками, щоб зрозуміти обмеження та потенційні переваги цієї технології та орієнтуватися на компроміси", - написала Сара Берд, головний менеджер продуктів AI AI. "Зокрема, у випадку класифікації емоцій ці зусилля викликали важливі питання щодо конфіденційності, відсутності консенсусу щодо визначення" емоцій ", та неможливість узагальнення зв'язку між виразом обличчя та емоційним станом у випадках використання, регіонів та демографії . Доступ API до можливостей, які прогнозують чутливі атрибути, також відкриває широкий спектр способів їх використання - включаючи підпорядкування людей стереотипізації, дискримінації чи несправедливої ​​відмови в послугах ».

Microsoft зупиняє продажі технологій читання емоцій, обмежує доступ до розпізнавання обличчя

Microsoft також вирішила розмістити обмеження щодо того, хто зможе використовувати технологію розпізнавання обличчя в майбутньому. Вперед, всі, хто зацікавлений у використанні цих інструментів, повинен подати заявку, в якій детально описується їх проект, після чого Microsoft затвердить або заперечує доступ. Microsoft заявила, що незалежно оцінить переваги та ризики продовження використання як емоцій, так і інструментів розпізнавання обличчя для "контрольованих сценаріїв доступності", таких як власний бачення ШІ.

Рішення компанії дотримується широких зусиль щодо дослідження соціальних наслідків технологій емоцій та розпізнавання обличчя. Відомі правозахисні групи нещодавно закликали зум для його визнання настрою AI, який займає нічого не підозрюючи одержувачів дзвінків на "емоційні показники". Аналогічно, деякі стурбовані тим, що програмне забезпечення електронного навчання Intel, що читає емоції, неправильно орієнтується на студентів, які вважаються "відволіканими" або "розгубленими". Хоча ці заклики до дій часто ігноруються, вони іноді працюють: минулого місяця IRS скинув свою програму ID.ME, яка вимагала від користувачів завантажити відео Selfie для доступу до державних послуг, після отримання майже непереборного зворотного зв'язку. Зараз, здається, Microsoft приєдналася до лав бажаючих до підкладки - зробити правильно чи заради утримання клієнтів, хто знає.

Читати далі

Запуск Xbox Series X - найбільший за всю історію Microsoft, що спричиняє сплеск трафіку провайдерів
Запуск Xbox Series X - найбільший за всю історію Microsoft, що спричиняє сплеск трафіку провайдерів

Microsoft стверджує, що Xbox Series X є його найуспішнішим дебютом в історії, і конкретно закликає Xbox Series S за залучення нових гравців.

Microsoft: Ігри Bethesda «Спочатку чи краще» на Xbox, не ексклюзивно
Microsoft: Ігри Bethesda «Спочатку чи краще» на Xbox, не ексклюзивно

Тім Стюарт від Microsoft не вважає, що компанія намагатиметься вирізати геймерів PS5 з майбутніх назв Bethesda. Компанія хоче, щоб Xbox був найкращим напрямком для своїх ігор, але не єдиним.

Microsoft: чіп Pluton забезпечить безпеку, схожу на Xbox, на ПК з Windows
Microsoft: чіп Pluton забезпечить безпеку, схожу на Xbox, на ПК з Windows

Intel, AMD і Qualcomm працюють над тим, щоб зробити Pluton частиною своїх майбутніх проектів, що може ускладнити злом ПК, але це також вкладає технології Microsoft у ваше обладнання.

Apple: "Це залежить від Microsoft", щоб запустити Windows на нових ARM Macs
Apple: "Це залежить від Microsoft", щоб запустити Windows на нових ARM Macs

За словами Apple, питання підтримки Windows на М1 повністю перебуває на суді Microsoft.