ИИ считает темнокожих людей злыми и не принимает их на работу

11.03.2019

У машины нет эмоций, но это не значит, что она не может их распознавать. По крайней мере, вера в эту способность хорошо финансируется.

Стартапы и крупные компании вроде Amazon и Microsoft в настоящее время предлагают продукты «распознавания эмоций», которые анализируют человеческие лица и определяют испытываемые чувства. Но появились доказательства того, что эти системы могут приносить больше вреда, чем пользы, когда применяются при найме на работу или поступлении в ВУЗ.

Согласно The Guardian, системы обнаружения эмоций представляют собой комбинацию двух технологий.

Первая - компьютерное зрение. С помощью него машина «видит» изображение или видео лица и распознает его черты и выражения. Вторая - искусственный интеллект, который анализирует полученную информацию и определяет, что чувствует человек. Например, он может обозначить кого-то с опущенными бровями и выпученными глазами как «злого», а кого-то с широкой улыбкой - как «счастливого».

Эти системы уже используются во многих приложениях - с помощью нее некоторые компании (например, IBM) отбирают кандидатов на работу, а Disney использует систему обнаружения эмоций, чтобы определить, как зрители относятся к фильмам во время просмотра. Звучит это круто, но работает не всегда правильно.

Исследователи из Университета Уэйк Форест опубликовали работу, в которой протестировали несколько систем распознавания эмоций (в том числе и Microsoft) и обнаружили, что они присваивают негативные эмоции чернокожим людям чаще, чем белым. Даже когда те улыбаются.

Как отмечает Уиттакер, эти неисправные системы могут принести больше вреда, чем пользы, по крайней мере, для людей, которых они анализируют.

И это не первый случай расовых предрассудков, проявляемых искусственным интеллектом - в исследовании, опубликованном на сайте arXiv, ученые пришли к выводу, что беспилотные автомобили могут не замечать людей с темным цветом кожи.

Источник: Futurist

Читайте другие наши новости