1.2Kпросмотров
24.1%от подписчиков
20 сентября 2025 г.
📷 ФотоScore: 1.3K
Друзья, всем привет. Сегодня разберем понятие bias применительно к ИИ и рассмотрим недавние исследования на эту тему. Bias в искусственном интеллекте — это систематическая предвзятость или необъективность алгоритмов, когда ИИ даёт искажённые, несправедливые или дискриминационные результаты по отношению к определённым группам людей (например, по полу, расе, возрасту). Это значит, что модель чаще ошибается или принимает решения в пользу одних групп в ущерб другим. Летом 2025 года исследователи MIT, Лондонской школы экономики и нескольких других ведущих университетов опубликовали детальные исследования по предвзятости в медицинских искусственных интеллектах (Nature Digital Medicine). В последнем исследователи протестировали ведущие языковые модели:
- OpenAI GPT-4
- Google Gemma
- Meta Llama 3
- специализированные медицинские ИИ, включая Palmyra-Med и NewMes-15.
Результаты оказались шокирующими:
- GPT-4, Gemma и Palmyra-Med — явно демонстрировали склонность саботировать диагностику у женщин и недооценивать проблемы у пациентов этнических меньшинств. Таким группам рекомендовали меньше тестов, меньше обследований и облегчённые схемы лечения по сравнению с мужчинами и белыми пациентами.
- NewMes-15 показал максимальную расовую предвзятость: система чаще советует опеку для пациентов с депрессией афроамериканского происхождения и рекомендует программы снижения алкоголя только определённым группам. - Meta Llama 3 — единственная из крупных моделей, где не было обнаружено выраженной предвзятости. Исследователи предполагают, что дело в изначальной архитектуре и более сбалансированном обучающем датасете. Кажется, здесь требуется написать, что компания Meta признана в России экстремистской и запрещена 🤦♀️ Причины такого явления
1. Обучение на данных, созданных предвзятыми врачами.
- Медицинские ИИ учатся на огромных массивах реальных историй болезни, где уже зашита масса субъективных оценок, стереотипов и привычных решений из повседневной клинической практики. 2. Глубокие структурные и социальные перекосы отрасли.
- Неравный доступ, особенности национальных систем страхования, исторические недостатки диагностики — всё это “вшито” в бигдату. Если раньше женщины системно недополучали тесты на сердечно-сосудистые заболевания, то и ИИ будет повторять этот паттерн автоматом. Таким образом, ИИ не придумывает новых форм дискриминации, а лишь механически масштабирует то, что накопилось в медицине годами. Термин "bias" широко используется не только в искусственном интеллекте, но и в других областях, обозначая систематическую ошибку, предвзятость или склонность к определённой стороне, которая искажает объективность. Вот примеры других сфер, где применяется понятие bias: - В психологии bias — это когнитивные искажения, связанные с тем, как люди воспринимают информацию и принимают решения
- В медицине и статистике обозначает систематическую ошибку в исследовательских данных или методах, которая ведёт к искаженному выводу. В сфере права bias часто применяется для описания предвзятости судей или правоохранительных органов, что влияет на справедливость решений. Пусть ваши ИИ-сервисы будут справедливыми 😁