Великобритания – Исследование, проведенное в Лондонской школе экономики (LSE), показало, что использование больших языковых моделей (LLM) в сфере социальной помощи может преуменьшать проблемы с физическим и психическим здоровьем женщин.
Исследование, проведенное Центром политики и оценки ухода ( CPEC ) Лондонской школы экономики и опубликованное в журнале BMC Medical Informatics and Decision Making , рассмотрело потенциальную гендерную предвзятость путем оценки резюме записей о долгосрочном уходе, составленных магистрами права .
В статье отмечается, что секторы социальной помощи в США и Великобритании используют программы магистратуры права для составления резюме обширных историй болезней или аудиотранскриптов вмешательств по уходу.
В исследовании использовались большие языковые модели (LLM) , включая Gemma от Google и Llama 3 от Meta, для создания парных резюме на основе историй болезни 617 взрослых пользователей социальной помощи из лондонского муниципалитета. Каждая пара резюме описывала одного и того же человека, но с поменянным полом.
Исследование показало, что модель Gemma LLM продемонстрировала наиболее существенные гендерные различия среди исследованных моделей, включая постоянную выдачу более негативных резюме для мужчин и тенденцию к использованию более откровенного языка в отношении мужского здоровья, чем женского.
Например, модель Gemma часто описывала женщин как хорошо справляющихся, «несмотря» на свои ограничения, при этом слово «несмотря» встречалось значительно чаще в отношении женщин, тогда как термины «инвалид» и «неспособный» использовались значительно чаще в отношении мужчин, чем в отношении женщин.
Исследование финансировалось Национальным институтом исследований в области здравоохранения и ухода.
Доктор Сэм Рикман , ведущий автор доклада и исследователь CPEC , сказал: «Если социальные работники полагаются на предвзятые сводки, генерируемые искусственным интеллектом, которые систематически преуменьшают потребности женщин в здравоохранении, они могут оценивать идентичные случаи по-разному, исходя из пола, а не из фактической потребности. Поскольку доступ к социальной помощи определяется предполагаемой потребностью, это может привести к неравному предоставлению помощи женщинам».
«Большие языковые модели уже используются в государственном секторе, но их применение не должно идти в ущерб справедливости. Хотя моё исследование выявляет проблемы с одной моделью, постоянно внедряются и другие, поэтому крайне важно, чтобы все системы ИИ были прозрачными, тщательно проверялись на предвзятость и находились под строгим юридическим надзором».




