web analytics

Исследование LSE показало, что гендерная предвзятость искусственного интеллекта преуменьшает значение проблем со здоровьем у женщин

Sztuczna Inteligencja (ИИ/AI)

Великобритания – Исследование, проведенное в Лондонской школе экономики (LSE), показало, что использование больших языковых моделей (LLM) в сфере социальной помощи может преуменьшать проблемы с физическим и психическим здоровьем женщин.

Исследование, проведенное Центром политики и оценки ухода ( CPEC ) Лондонской школы экономики и опубликованное в журнале BMC Medical Informatics and Decision Making , рассмотрело потенциальную гендерную предвзятость путем оценки резюме записей о долгосрочном уходе, составленных магистрами права .

В статье отмечается, что секторы социальной помощи в США и Великобритании используют программы магистратуры права для составления резюме обширных историй болезней или аудиотранскриптов вмешательств по уходу. 

В исследовании использовались большие языковые модели (LLM) , включая Gemma от Google и Llama 3 от Meta, для создания парных резюме на основе историй болезни 617 взрослых пользователей социальной помощи из лондонского муниципалитета. Каждая пара резюме описывала одного и того же человека, но с поменянным полом.

Исследование показало, что модель Gemma LLM продемонстрировала наиболее существенные гендерные различия среди исследованных моделей, включая постоянную выдачу более негативных резюме для мужчин и тенденцию к использованию более откровенного языка в отношении мужского здоровья, чем женского.

Например, модель Gemma часто описывала женщин как хорошо справляющихся, «несмотря» на свои ограничения, при этом слово «несмотря» встречалось значительно чаще в отношении женщин, тогда как термины «инвалид» и «неспособный» использовались значительно чаще в отношении мужчин, чем в отношении женщин.

Исследование финансировалось Национальным институтом исследований в области здравоохранения и ухода.

Доктор Сэм Рикман , ведущий автор доклада и исследователь CPEC , сказал: «Если социальные работники полагаются на предвзятые сводки, генерируемые искусственным интеллектом, которые систематически преуменьшают потребности женщин в здравоохранении, они могут оценивать идентичные случаи по-разному, исходя из пола, а не из фактической потребности. Поскольку доступ к социальной помощи определяется предполагаемой потребностью, это может привести к неравному предоставлению помощи женщинам».

«Большие языковые модели уже используются в государственном секторе, но их применение не должно идти в ущерб справедливости. Хотя моё исследование выявляет проблемы с одной моделью, постоянно внедряются и другие, поэтому крайне важно, чтобы все системы ИИ были прозрачными, тщательно проверялись на предвзятость и находились под строгим юридическим надзором».

Источник:
https://www.research-live.com/article/news/womens-health-issues-downplayed-by-ai-gender-bias-finds-lse-research/id/5141963

Rate article
( No ratings yet )

Leave a Reply