Расследование The Guardian показало, что сводки Google, формируемые с помощью искусственного интеллекта (ИИ), могут содержать ложную и вводящую в заблуждение медицинскую информацию, из-за чего пользователи рискуют нанести вред своему здоровью. В самой компании при этом настаивают, что их ИИ-обзоры, созданные на базе генеративных технологий и предназначенные для краткого изложения ключевой информации по запросу, являются «полезными» и «надежными». Об этом пишут Dengi.ua.

Отмечается, что, тем не менее, журналисты обнаружили, что некоторые такие обзоры, размещаемые в верхней части поисковой выдачи, включали неточные данные о здоровье и могли вводить людей в опасное заблуждение.

Так, один из случаев эксперты охарактеризовали как «действительно опасный»: система Google рекомендовала пациентам с раком поджелудочной железы избегать продуктов с высоким содержанием жира. Специалисты подчеркнули, что это прямо противоречит медицинским рекомендациям и способно повысить риск летального исхода. В другом примере пользователям предоставлялась неверная информация о ключевых анализах функции печени, из-за чего люди с тяжелыми заболеваниями могли ошибочно считать себя здоровыми.

Кроме того, поисковые запросы, связанные с анализами на рак у женщин, иногда сопровождались «совершенно неверными» сведениями, которые, по словам экспертов, могли привести к игнорированию реальных симптомов заболевания.

Материал журналистов появился на фоне растущих опасений по поводу того, что информация, генерируемая ИИ, может восприниматься потребителями как достоверная, даже если она таковой не является. В ноябре прошлого года исследование показало, что ИИ-чат-боты на разных платформах давали неточные финансовые советы; аналогичные вопросы ранее возникали и к автоматическим кратким пересказам новостей.

Читай также: Скандал с Grok: ИИ Илона Маска генерировал сексуальные фото несовершеннолетних

Софи Рэндалл, директор организации Patient Information Forum, распространяющей научно обоснованную медицинскую информацию, заявила, что приведенные случаи демонстрируют: «функция ИИ Google Overviews может размещать неточную информацию о здоровье в верхней части результатов онлайн-поиска, представляя опасность для здоровья людей».

Стефани Паркер, директор по цифровым технологиям благотворительной организации Marie Curie, отметила: «Люди обращаются к интернету в моменты тревоги и кризиса. Если полученная ими информация неточна или вырвана из контекста, это может серьезно навредить их здоровью».

Кроме того, издание выявило несколько примеров недостоверных медицинских данных в ИИ-обзорах Google после того, как обеспокоенность по этому поводу выразили медицинские организации, благотворительные фонды и отдельные специалисты.

Анна Джуэлл, директор по поддержке, исследованиям и влиянию в Pancreatic Cancer UK, подчеркнула, что совет избегать жирной пищи пациентам с раком поджелудочной железы является «совершенно неправильным». По ее словам, это «может быть очень опасно и поставить под угрозу шансы человека на выздоровление, достаточное для лечения».

Джуэлл добавила: «Ответ искусственного интеллекта Google предполагает, что людям с раком поджелудочной железы следует избегать продуктов с высоким содержанием жира, и приводит список примеров. Однако, если кто-то последует рекомендациям поискового запроса, он может не потреблять достаточное количество калорий, испытывать трудности с набором веса и не перенести ни химиотерапию, ни потенциально спасительную операцию».

Запрос «каков нормальный диапазон показателей анализа крови на функцию печени» также приводил к появлению вводящих в заблуждение сводок с большим количеством цифр и минимальным контекстом, без учета пола, возраста, национальности или этнической принадлежности пациентов.

Памела Хили, исполнительный директор Британского фонда по борьбе с заболеваниями печени, назвала такие ИИ-сводки тревожными.

«У многих людей с заболеваниями печени симптомы отсутствуют до поздних стадий, поэтому так важно, чтобы они проходили обследование. Но то, что Google AI считает „нормой“, может сильно отличаться от того, что на самом деле считается нормой. Это опасно, потому что это означает, что некоторые люди с серьезными заболеваниями печени могут подумать, что результат анализа нормальный, и не сочтут нужным прийти на последующий осмотр к врачу», — заявила она.

Также при поиске по запросу «симптомы и анализы на рак влагалища» система выдавала мазок Папаниколау как тест на рак влагалища, что не соответствует действительности. Исполнительный директор благотворительной организации Eve Appeal Афина Ламнисос прокомментировала: «Это не тест для выявления рака, и уж точно не тест для выявления рака влагалища — это совершенно неверная информация. Получение такой неверной информации может привести к тому, что человек не пройдет обследование на симптомы рака влагалища, поскольку недавний скрининг шейки матки показал отрицательный результат».

Журналисты издания также обнаружили вводящие в заблуждение ответы Google AI Overviews при поиске информации о психических расстройствах. «Это вызывает у нас, как у благотворительной организации, огромную обеспокоенность», — заявил Стивен Бакли, руководитель информационного отдела Mind. Он отметил, что сводки по таким состояниям, как психоз и расстройства пищевого поведения, иногда содержали «очень опасные советы» и были «неверными, вредными или могли привести к тому, что люди избегали обращения за помощью».

В Google, в свою очередь, заявили изданию, что подавляющее большинство ИИ-обзоров являются точными и полезными, а компания постоянно работает над повышением их качества. По ее утверждению, уровень точности таких сводок сопоставим с другими поисковыми функциями, включая расширенные сниппеты, которые используются более десяти лет.

В компании также подчеркнули, что в случаях, когда система AI Overviews неверно интерпретирует веб-контент или упускает контекст, принимаются меры в соответствии с действующей политикой. Представитель Google заявил: «Мы вкладываем значительные средства в качество обзоров ИИ, особенно по таким темам, как здравоохранение, и подавляющее большинство из них предоставляют точную информацию».

В то же время, как сообщали Dengi.ua, компания Neuralink планирует начать массовое производство мозговых имплантатов «мозг-компьютер» для лечения некоторых болезней.

Кроме того, как писали Dengi.ua, люди платят за общение с искусственным интеллектом «под кайфом».