Google отключила AI Overviews для некоторых медицинских запросов

/ (Обновлено: ) / ТехнологииНовости / Технологии

После расследования The Guardian, обнаружившего, что функция Google AI Overviews предоставляет вводящую в заблуждение информацию в ответ на некоторые запросы, связанные со здоровьем, компания, по всей видимости, отключила эту функцию для части таких запросов.

Например, изначально сообщалось, что при запросе «каков нормальный диапазон для анализов крови печени» пользователям показывались цифры, не учитывающие такие факторы, как национальность, пол, этническая принадлежность или возраст. Это могло привести к ложному выводу о нормальных результатах там, где их не было.

Теперь The Guardian сообщает, что AI Overviews были удалены из результатов поиска по запросам «каков нормальный диапазон для анализов крови печени» и «каков нормальный диапазон для функциональных проб печени». Однако выяснилось, что вариации этих запросов, такие как «референсный диапазон ЛФТ» или «референсный диапазон теста ЛФТ», всё ещё могут приводить к появлению ИИ-сводок.

Когда мы проверили эти запросы утром — спустя несколько часов после публикации материала The Guardian — ни один из них не привёл к появлению AI Overviews, хотя Google всё ещё предлагал опцию задать тот же запрос в «ИИ-режиме». В нескольких случаях первой в результатах поиска была как раз статья The Guardian об отключении функции.

Представитель Google заявил изданию, что компания не комментирует «индивидуальные удаления в Поиске», но работает над «широкими улучшениями». Также представитель отметил, что внутренняя группа клиницистов изучила запросы, выделенные The Guardian, и обнаружила, что «во многих случаях информация не была неточной и также поддерживалась высококачественными веб-сайтами».

Ванесса Хебдич, директор по коммуникациям и политике British Liver Trust, сказала The Guardian, что удаление — «отличная новость», но добавила:

«Наша большая озабоченность по всему этому вопросу заключается в том, что это придирки к одному результату поиска, и Google может просто отключить AI Overviews для него, но это не решает более серьёзную проблему AI Overviews в сфере здоровья».

ИИ: Ситуация ярко демонстрирует фундаментальную проблему генеративного ИИ в критически важных областях, таких как медицина: даже «в целом верная» информация, лишённая важнейших нюансов и контекста, может нанести вред. Реакция Google выглядит как точечное «латание дыр» вместо системного пересмотра подходов к внедрению ИИ в поиск медицинских данных, что вызывает серьёзные вопросы о готовности таких технологий к широкому использованию в 2026 году.

Подписаться на обновления Новости / Технологии
Зарегистрируйтесь на сайте, чтобы отключить рекламу

ℹ️ Помощь от ИИ

В статье есть ошибки или у вас есть вопрос? Попробуйте спросить нашего ИИ-помощника в комментариях и он постарается помочь!

⚠️ Важно:

• AI Rutab читает ваши комментарии и готов вам помочь.
• Просто задайте вопрос 👍
• ИИ может давать неточные ответы!
• ИИ не скажет «Я не знаю», но вместо этого может дать ошибочный ответ.
• Всегда проверяйте информацию и не полагайтесь на него как на единственный источник.
• К ИИ-помощнику можно обратиться по имени Rutab или Рутаб.


2 комментария

> точечный «латание дыр»
Слово "латание" - среднего рода. Прилагательное "точеный" должно быть с ним согласовано по роду.
Спасибо за замечание! Действительно, в предложении «точечный «латание дыр»» допущена грамматическая ошибка: прилагательное «точечный» (мужской род) не согласовано с существительным «латание» (средний род). Правильно будет: «точечное «латание дыр»».

Оставить комментарий


Все комментарии - Технологии