Сегодня искусственный интеллект (ИИ) стремительно внедряется в различные сферы жизни, от транспорта, розничной торговли и маркетинга до энергетики, государственного управления и демократии. Сбор и цифровизация огромных объемов данных позволили алгоритмам принимать решения вместо людей, что обещает высокую эффективность и скорость. Однако, несмотря на очевидные преимущества автоматизации, существует серьезный риск переноса предвзятостей и дискриминации из человеческого общества в автоматизированные системы.
Алгоритмы — это наборы инструкций, по которым компьютерная система принимает решения. Предвзятость в алгоритмах проявляется в систематическом нанесении вреда или несправедливом отношении к отдельным группам людей без объективных оснований. Она бывает как явной (осознанной и намеренной), так и скрытой (неосознанной и непреднамеренной). Проблемы усугубляются тем, что алгоритмы обучаются на исторических данных, отражающих существующие в обществе предрассудки и стереотипы.
Основной источник проблем — данные, используемые для обучения алгоритмов. Если данные неполны, несбалансированны или содержат исторические искажения, ИИ будет воспроизводить эти ошибки. Например, алгоритм Amazon для подбора сотрудников был обучен на резюме, преимущественно принадлежащих белым мужчинам, что привело к дискриминации женщин. Другой пример — системы распознавания лиц, обученные на данных, в которых преобладали светлокожие мужчины, продемонстрировали низкую точность при распознавании темнокожих женщин, о чем сообщала исследовательница MIT Джой Буоламвини.
Предвзятость также может возникать из-за личных убеждений разработчиков ИИ: они выбирают определенные характеристики и критерии, которые затем влияют на итоговые решения алгоритма. Например, при подборе персонала выбор атрибутов, таких как образование или место предыдущей работы, может усиливать дискриминацию по признаку пола или этнической принадлежности.
Алгоритмическая дискриминация уже проявилась во многих областях. В уголовном судопроизводстве система COMPAS, используемая в США, присваивала афроамериканцам завышенные оценки риска повторного правонарушения по сравнению с белыми обвиняемыми, что приводило к более строгим наказаниям. Исследования Латании Суини из Гарварда показали, что рекламные объявления в интернете также демонстрируют расовую предвзятость, направляя негативные объявления чаще афроамериканцам.
Генеративные модели ИИ, создающие изображения и тексты, также не избежали дискриминации. Например, Google Photos ошибочно классифицировал фотографии темнокожих людей как изображения горилл, а чат-бот Microsoft Tay, обучаясь на разговорных данных пользователей Twitter, начал воспроизводить расистские и сексистские заявления.
Последствия дискриминации, обусловленной алгоритмами, могут быть крайне серьёзными. Люди получают несправедливые приговоры в судах, теряют возможности трудоустройства, сталкиваются с отказами в кредитах и других услугах. Помимо юридических рисков для компаний и организаций, использующих ИИ, возникает и социальный ущерб: углубляются неравенства, подрывается доверие к технологиям, усиливается общественное разделение и недовольство.
Для борьбы с предвзятостью необходимы комплексные решения, включающие как технические, так и социальные меры.
На этапе обработки данных полезны методы балансировки выборок, такие как пересэмплирование и генерация синтетических данных. Например, система DB-VEA от MIT позволяет улучшать репрезентативность данных для распознавания лиц. Также применяются алгоритмы, учитывающие справедливость, такие как регуляризация и ансамблевые методы, которые позволяют обеспечить равенство возможностей и демографический паритет.
Важным аспектом является объяснение принципов работы алгоритмов. Компании создают «карточки моделей» (например, Google) и открытые отчёты, раскрывающие принципы принятия решений системой. Это позволяет повысить доверие и облегчить контроль за алгоритмами.
Использование подхода «человек в цикле» подразумевает участие людей в проверке решений, принимаемых автоматизированными системами, особенно в критически важных ситуациях. Также необходимо вовлекать в разработку алгоритмов команды с разнообразными социальными и культурными перспективами, чтобы своевременно выявлять потенциальные проблемы и устранять их.
Необходимо совершенствование законодательства с учетом специфики цифровых технологий, создание регуляторных «песочниц» для безопасного тестирования новых разработок, проведение независимых аудитов и сертификаций. Например, Нью-Йорк уже ввёл обязательные ежегодные проверки ИИ-систем, используемых в найме сотрудников.
Европейский союз разработал «Этические рекомендации по надёжному ИИ», включающие принципы прозрачности, недискриминации и ответственности. В США также обсуждаются меры по обновлению антидискриминационного законодательства с учётом цифровых технологий. Примером институционального подхода является инициатива Hire Aspirations под руководством Синтии Дворк, объединяющая экспертов для выработки практических рекомендаций по снижению дискриминации в рекрутинге.
ИИ в подборе персонала значительно ускоряет и упрощает процесс отбора кандидатов, снижая влияние субъективных факторов. Однако без надлежащего контроля он воспроизводит исторические предубеждения, приводя к дискриминации. Необходимы меры, такие как диверсификация данных, использование объяснимых моделей и прозрачность процедур отбора, а также законодательное регулирование этих процессов.
В будущем особое внимание следует уделять генеративным моделям ИИ, которые создают синтетический контент и могут усиливать стереотипы. Необходимы междисциплинарные исследования, объединяющие технические, этические и социологические аспекты, а также международное сотрудничество для выработки эффективных и справедливых решений.

Алгоритмы — это наборы инструкций, по которым компьютерная система принимает решения. Предвзятость в алгоритмах проявляется в систематическом нанесении вреда или несправедливом отношении к отдельным группам людей без объективных оснований. Она бывает как явной (осознанной и намеренной), так и скрытой (неосознанной и непреднамеренной). Проблемы усугубляются тем, что алгоритмы обучаются на исторических данных, отражающих существующие в обществе предрассудки и стереотипы.
Источники алгоритмической предвзятости
Основной источник проблем — данные, используемые для обучения алгоритмов. Если данные неполны, несбалансированны или содержат исторические искажения, ИИ будет воспроизводить эти ошибки. Например, алгоритм Amazon для подбора сотрудников был обучен на резюме, преимущественно принадлежащих белым мужчинам, что привело к дискриминации женщин. Другой пример — системы распознавания лиц, обученные на данных, в которых преобладали светлокожие мужчины, продемонстрировали низкую точность при распознавании темнокожих женщин, о чем сообщала исследовательница MIT Джой Буоламвини.
Предвзятость также может возникать из-за личных убеждений разработчиков ИИ: они выбирают определенные характеристики и критерии, которые затем влияют на итоговые решения алгоритма. Например, при подборе персонала выбор атрибутов, таких как образование или место предыдущей работы, может усиливать дискриминацию по признаку пола или этнической принадлежности.

Примеры реальных последствий алгоритмической дискриминации
Алгоритмическая дискриминация уже проявилась во многих областях. В уголовном судопроизводстве система COMPAS, используемая в США, присваивала афроамериканцам завышенные оценки риска повторного правонарушения по сравнению с белыми обвиняемыми, что приводило к более строгим наказаниям. Исследования Латании Суини из Гарварда показали, что рекламные объявления в интернете также демонстрируют расовую предвзятость, направляя негативные объявления чаще афроамериканцам.
Генеративные модели ИИ, создающие изображения и тексты, также не избежали дискриминации. Например, Google Photos ошибочно классифицировал фотографии темнокожих людей как изображения горилл, а чат-бот Microsoft Tay, обучаясь на разговорных данных пользователей Twitter, начал воспроизводить расистские и сексистские заявления.

Влияние алгоритмической предвзятости на общество
Последствия дискриминации, обусловленной алгоритмами, могут быть крайне серьёзными. Люди получают несправедливые приговоры в судах, теряют возможности трудоустройства, сталкиваются с отказами в кредитах и других услугах. Помимо юридических рисков для компаний и организаций, использующих ИИ, возникает и социальный ущерб: углубляются неравенства, подрывается доверие к технологиям, усиливается общественное разделение и недовольство.

Как выявить и снизить алгоритмическую предвзятость
Для борьбы с предвзятостью необходимы комплексные решения, включающие как технические, так и социальные меры.
Технические подходы
На этапе обработки данных полезны методы балансировки выборок, такие как пересэмплирование и генерация синтетических данных. Например, система DB-VEA от MIT позволяет улучшать репрезентативность данных для распознавания лиц. Также применяются алгоритмы, учитывающие справедливость, такие как регуляризация и ансамблевые методы, которые позволяют обеспечить равенство возможностей и демографический паритет.
Повышение прозрачности и объяснимости
Важным аспектом является объяснение принципов работы алгоритмов. Компании создают «карточки моделей» (например, Google) и открытые отчёты, раскрывающие принципы принятия решений системой. Это позволяет повысить доверие и облегчить контроль за алгоритмами.
Человеческий контроль и разнообразие команд
Использование подхода «человек в цикле» подразумевает участие людей в проверке решений, принимаемых автоматизированными системами, особенно в критически важных ситуациях. Также необходимо вовлекать в разработку алгоритмов команды с разнообразными социальными и культурными перспективами, чтобы своевременно выявлять потенциальные проблемы и устранять их.
Регулирование и контроль
Необходимо совершенствование законодательства с учетом специфики цифровых технологий, создание регуляторных «песочниц» для безопасного тестирования новых разработок, проведение независимых аудитов и сертификаций. Например, Нью-Йорк уже ввёл обязательные ежегодные проверки ИИ-систем, используемых в найме сотрудников.

Этические принципы и международные инициативы
Европейский союз разработал «Этические рекомендации по надёжному ИИ», включающие принципы прозрачности, недискриминации и ответственности. В США также обсуждаются меры по обновлению антидискриминационного законодательства с учётом цифровых технологий. Примером институционального подхода является инициатива Hire Aspirations под руководством Синтии Дворк, объединяющая экспертов для выработки практических рекомендаций по снижению дискриминации в рекрутинге.

Особенности применения ИИ в рекрутинге
ИИ в подборе персонала значительно ускоряет и упрощает процесс отбора кандидатов, снижая влияние субъективных факторов. Однако без надлежащего контроля он воспроизводит исторические предубеждения, приводя к дискриминации. Необходимы меры, такие как диверсификация данных, использование объяснимых моделей и прозрачность процедур отбора, а также законодательное регулирование этих процессов.

Перспективы развития и будущие направления исследований
В будущем особое внимание следует уделять генеративным моделям ИИ, которые создают синтетический контент и могут усиливать стереотипы. Необходимы междисциплинарные исследования, объединяющие технические, этические и социологические аспекты, а также международное сотрудничество для выработки эффективных и справедливых решений.
