ИИ-диагносты проваливают тест на расизм и сексизм: Почему алгоритмы не видят болезни у женщин и чернокожих пациентов?

ИИ-диагносты проваливают тест на расизм и сексизм: Почему алгоритмы не видят болезни у женщин и чернокожих пациентов?

Чем больше ИИ внедряют в медицину, тем чаще всплывает проблема: алгоритмы дискриминируют женщин и чернокожих. Новое исследование в Science показало, что модель CheXzero (одна из передовых кстати, разработана в Стенфорде), созданная для анализа рентгенов грудной клетки, пропускает заболевания у чернокожих женщин в 50% случаев — будто смотрит на снимки через запотевшее стекло.

Что не так с CheXzero?

• Обучали на перекошенных данных: 400 тыс. снимков из Бостона, где большинство пациентов — белые мужчины 40–80 лет.

• Провалы в диагностике:

• У чернокожих пациентов ИИ чаще пропускал кардиомегалию (увеличение сердца).

• У женщин и людей младше 40 лет ошибки в обнаружении отёка лёгких.

• В комбинации «чёрная женщина» точность падала вдвое.

Почему алгоритм «видит» расу и пол, если врачи — нет?

Исследователи из UCLA выяснили:

• CheXzero угадывает расу по рентгену с точностью 80% (врачи — максимум 50%).

• Скрытые сигналы: Алгоритм находит паттерны в снимках, невидимые глазу. Например, связывает плотность костной ткани или форму органов с расой — и ошибочно привязывает это к диагнозам.

• Язык ярлыков: Если дать ИИ информацию о поле/расе пациента, точность улучшается, но ненадолго. Предвзятость зашита в самой архитектуре модели.

Итог:

ИИ в медицине — отличная вещь, но только для белых мужчин.

Подписывайтесь на мой TG канал - Neko.Play.Panic()там побольше делюсь мыслями, интересными находками и новостями о всяком.

116
19
7
4
2
2
1
55 комментариев