Предвзятость ИИ порождает несправедливость. И наконец это начали осознавать.Мой недавний пост про «справедливый ИИ» некоторым читателям не понравился, - мол, кликбейтовая подача второстепенной темы.
Это не так. Тема наиважнейшая и куда более актуальная, чем ИИ-страшилки или ИИ-восторги, заполонившие СМИ и блогосферу.
Вот краткая подборка в подтверждение сказанного.
1️⃣
Google опубликовал свои принципы этики,
включающие, проверку алгоритмов на предвзятость, для чего на специальном сайте
«Ответственные AI-практики» даются рекомендации по способам защиты от Предвзятости Данных (Data bias) и обеспечения ИИ-справедливости (AI Fairness).
2️⃣
Комитет по науке и технологиям Конгресса США проводит слушания по вопросу, как обязать техкомпании решать
проблему предвзятости ИИ.
«Нам нужно решать проблемы, связанные с данными, которые используются для обучения машин. Предвзятые данные ведут к предвзятым действиям только кажущихся нам объективными машин», - сказал конгрессмен Дэн Липински.
3️⃣
Accenture выпустила 1й инструмент для борьбы с Предвзятостью Данных (Data bias) при машинном обучении. Он называется «Инструментарий AI-справедливости» (AI Fairness Tool) и позволяет выявлять корреляции в данных по отношению к возрасту, расе, полу и иным демографическим данным. Определив эти корреляции, можно перенастроить системы, чтобы дать более справедливые результаты по всем демографическим показателям.
Джоди Уоллис, управляющий директор по ИИ в Accenture,
сказала:
«Даже если вы намеренно исключаете из своих данных чувствительные переменные, типа этническая принадлежность, пол, возраст и другие очевидные источники несправедливой предвзятости, система машинного обучения может использовать какую-то другую переменную или комбинацию переменных, которая тесно коррелирует с половой принадлежностью или расой, тем самым делая “инъекцию несправедливости“ в действия системы».
4️⃣
А тем временем, примеры банальной, но при этом тотальной Предвзятости Данных встречаются повсюду.
— Системы распознавания лиц проявляют черты
гендерной и расовой дискриминации. С 99%ой вероятностью распознаются лишь белые мужчины. Тогда как темнокожие женщины в трети случаев распознаются, как мужчины.
— И даже Google Translate ухитряется делать
переводы с гендерным уклоном. Например, на турецком языке существует одно местоимение «o» для он, она, оно. Поэтому, когда Google Translate переводит с турецкого, например, на английский, нужно угадать, означает ли «о» он, она или оно. И эти переводы раскрывают гендерный уклон алгоритма:
✔️ если переводится слово
трудолюбивый, то подставляется
он;
✔️ если же переводится
ленивый, … то
она, т.е. ленивая.
#МашинноеОбучение #КогнитивныеИскажения #Справедливость