Мета поселяється з DOJ через дискримінаційні алгоритми AD
Позов, поданий помічником секретаря з питань справедливого житла та рівних можливостей у співпраці з Департаментом житлового господарства та міського розвитку (HUD), нібито META дозволили рекламодавцям орієнтуватися на житлові оголошення на основі демографічних даних, захищених Законом про справедливе житло (FHA). Рекламодавці змогли вибірково показувати житлові оголошення користувачам певної раси, кольору, релігії, статі, статусу інвалідності, сімейного статусу чи національного походження. Маркетингові інструменти META, відомі як "спеціальна аудиторія реклами" (раніше "аудиторія Lookalike"), потім використовували б машинне навчання, щоб визначити, чи користувач "придатним", щоб побачити житлову рекламу. Це заважало деяким користувачам бачити можливості, які вони інакше могли б використати.
Скарга стверджує, що META займається різним лікуванням, розрізняючи користувачів на основі захищених FHA характеристик, а потім розробляючи алгоритми, які "[впливають на користувачів Facebook по-різному на основі їх членства в захищених класах".
Мета негайно працював з DOJ, щоб розробити поселення. Угода, створена у вівторок незабаром після початкової подачі, вимагає, щоб META заплатив штраф у розмірі 115 054 доларів і привезти свою «спеціальну аудиторію реклами» до загрози. Мета матиме до кінця цього року, щоб створити новий інструмент націлювання на рекламу. Заміна повинна "вирішити розбіжності за расу, етнічну приналежність та секс між цілеспрямованою аудиторією рекламодавців та групою користувачів Facebook, яким алгоритми персоналізації Facebook фактично доставляють рекламу". Meta та HUD працюватимуть разом, щоб вибрати стороннього рецензента, який перевірить відповідність нового інструменту.
Однак рекламодавці, відповідальні за житлові оголошення, взагалі не зможуть використовувати цю систему націлювання. Поселення забороняє META дозволяти рекламодавцям житла вибірково показувати рекламу користувачам на основі захищених FHA характеристик. Невиконання цієї вимоги (або створення задовільного інструменту заміни) призведе до продовження судових процесів у федеральному суді.
"Не просто постачальники житлових приміщень зобов'язані дотримуватися законів про справедливе житло", - сказала Деметрія Маккейн, головний заступник помічника секретаря з питань справедливого житла та рівних можливостей у HUD у заяві DOJ. "Сторони, які дискримінують на ринку житла, включаючи тих, хто займається алгоритмічним ухилом, повинні нести відповідальність".
Скарга та врегулювання є першим набором DOJ щодо складних алгоритмічних упереджень відповідно до Закону про справедливе житло. Але вони не будуть останніми відділами. Минулого року Google спіймали, що дозволяє рекламодавцям забороняти небінарним користувачам бачити рекламу роботи. Компанія швидко пообіцяла вирішити проблему, яку вона назвала "ненавмисною". Але нагляд уже підкреслив, як нібито тонко налаштоване націлювання на рекламу може мати суттєвий негативний вплив на певну демографічну кількість-або, що ще гірше, буде озброєна проти членів певної громади.
Читати далі
Amazon скопійовано продукти продавців, маніпульованих алгоритмів, щоб відобразити свої власні версії
Вони кажуть, що імітація є найвищою формою лестощів, але для підприємств, які продають на Amazon, це може бути різниця між успіхом та руйнуванням.
Внутрішні дослідження Twitter підтверджує, що його алгоритм сприяє права голосу
В останні роки консервативні політики та активісти порушувались проти "скасування культури", стверджуючи, що твіттер та інші соціальні медіа-розетки упереджені проти них - отже, існування правої альтернатив, як Gab, Parler, та нова правда Трампа соціальна. Twitter тільки що опублікував деякі внутрішні дослідження, що пропонує протилежне. Згідно з документом, його алгоритм фактично сприяє правильному голосі.
Останні оновлення iOS використовує алгоритми виявлення нуду в дитячій версії Messenger
Функція розгорнута до iPhones та iPads з iOS 15.2, яка стала доступною понеділка.
Дослідники MIT кажуть, що всі алгоритми перевантажень мережі несправедливі
Законне управління мережею повинно виходити за рамки покарання людей за використання більшої кількості даних, але дослідники з MIT кажуть, що алгоритми, які повинні робити, які не працюють так добре, як ми думали.