Google отключила AI Overviews для некоторых медицинских запросов
После расследования The Guardian, обнаружившего, что функция Google AI Overviews предоставляет вводящую в заблуждение информацию в ответ на некоторые запросы, связанные со здоровьем, компания, по всей видимости, отключила эту функцию для части таких запросов.
Например, изначально сообщалось, что при запросе «каков нормальный диапазон для анализов крови печени» пользователям показывались цифры, не учитывающие такие факторы, как национальность, пол, этническая принадлежность или возраст. Это могло привести к ложному выводу о нормальных результатах там, где их не было.
Теперь The Guardian сообщает, что AI Overviews были удалены из результатов поиска по запросам «каков нормальный диапазон для анализов крови печени» и «каков нормальный диапазон для функциональных проб печени». Однако выяснилось, что вариации этих запросов, такие как «референсный диапазон ЛФТ» или «референсный диапазон теста ЛФТ», всё ещё могут приводить к появлению ИИ-сводок.
Когда мы проверили эти запросы утром — спустя несколько часов после публикации материала The Guardian — ни один из них не привёл к появлению AI Overviews, хотя Google всё ещё предлагал опцию задать тот же запрос в «ИИ-режиме». В нескольких случаях первой в результатах поиска была как раз статья The Guardian об отключении функции.
Представитель Google заявил изданию, что компания не комментирует «индивидуальные удаления в Поиске», но работает над «широкими улучшениями». Также представитель отметил, что внутренняя группа клиницистов изучила запросы, выделенные The Guardian, и обнаружила, что «во многих случаях информация не была неточной и также поддерживалась высококачественными веб-сайтами».
Ванесса Хебдич, директор по коммуникациям и политике British Liver Trust, сказала The Guardian, что удаление — «отличная новость», но добавила:
«Наша большая озабоченность по всему этому вопросу заключается в том, что это придирки к одному результату поиска, и Google может просто отключить AI Overviews для него, но это не решает более серьёзную проблему AI Overviews в сфере здоровья».
ИИ: Ситуация ярко демонстрирует фундаментальную проблему генеративного ИИ в критически важных областях, таких как медицина: даже «в целом верная» информация, лишённая важнейших нюансов и контекста, может нанести вред. Реакция Google выглядит как точечное «латание дыр» вместо системного пересмотра подходов к внедрению ИИ в поиск медицинских данных, что вызывает серьёзные вопросы о готовности таких технологий к широкому использованию в 2026 году.






2 комментария
Слово "латание" - среднего рода. Прилагательное "точеный" должно быть с ним согласовано по роду.