» » ИИ постигает людские эмоции. Это плохо?

Робомир

ИИ постигает людские эмоции. Это плохо?

ИИ постигает людские эмоции. Это плохо?

Представители института AI Now при Нью-Йоркском университете опубликовали ежегодный отчет о социальных последствиях, связанных с внедрением систем с элементами искусственного интеллекта, и призвали к запрету отдельных алгоритмов, способных распознавать людские эмоции.

По мнению американских исследователей, технологии распознавания эмоций не должны использоваться в областях, в которых программные алгоритмы смогут оказывать влияние на судьбы людей — например, в ходе собеседований.

Алгоритмы для анализа человеческой мимики существуют по меньшей мере с 2003 года — в последние годы, внедрение технологий машинного обучения существенно повысило их точность. Разумеется, о тотальном понимании человеческих чувств не идет и речи — львиная доля индикаторов эмоционального состояния человека находит выражение в контексте деятельности и местонахождения. 

Ряд компаний экспериментируют с анализом видео, собранного в ходе собеседований — вероятнее всего, в ближайшие годы появятся системы, способные повлиять (а то и принять соответствующее решение) на продвижения сотрудников по карьерной лестнице, их заработную плату и назначения. Опасения вызывает возможность использования потенциально-предвзятых технологий в ходе допросов подозреваемых.

Большинство разработчиков стремятся соблюдать принципы FATE (справедливость, ответственность, прозрачность и этичность) — между тем, ряд алгоритмов “научились” дискриминировать людей по тем или иным признакам, например, индексируя чернокожих граждан как “горилл”, жителей стран Азии — как “моргнувших людей” и высказывая предположения о том, что улыбающиеся темнокожие люди на самом деле злятся.

Помимо потенциально опасных применений, исследователи обратили внимание на такие положительные “способности” ИИ, как прогнозирование и предотвращение суицидов и выявление пьяных водителей.

Вероятнее всего, будущее принесет нам связку “человек-ИИ”, в рамках которой алгоритмы возьмут на себя принятие большинства решений в отраслях, связанных с рутиной и легко поддающихся автоматизации. В остальных вопросах, алгоритмы будут оказывать людям необходимую поддержку — окончательные решения и рассмотрение апелляций в любом случае останутся за человеком.


По материалам: theconversation.com




Похожие новости

Присоединяйтесь

Среди человеческих действий самые важные – те, которые нельзя повторить второй раз. То, что можно повторить, оставь лучше роботам.

Журналисты

Цитата

Мы создали думающие машины, а надо было – чувствующие!

Александр Вяземка. Плато