Розслідування The Guardian показало, що зведення Google, які формуються за допомогою штучного інтелекту (ШІ), можуть містити неправдиву і таку, що вводить в оману медичну інформацію, через що користувачі ризикують завдати шкоди своєму здоров'ю. У самій компанії водночас наполягають, що їхні ШІ-огляди, створені на базі генеративних технологій і призначені для короткого викладу ключової інформації за запитом, є "корисними" і "надійними". Про це пишуть Dengi.ua.
Зазначається, що, проте, журналісти виявили, що деякі такі огляди, що розміщуються у верхній частині пошукової видачі, містили неточні дані про здоров'я і могли вводити людей у небезпечну оману.
Так, один із випадків експерти охарактеризували як "справді небезпечний": система Google рекомендувала пацієнтам із раком підшлункової залози уникати продуктів із високим вмістом жиру. Фахівці підкреслили, що це прямо суперечить медичним рекомендаціям і здатне підвищити ризик летального результату. В іншому прикладі користувачам надавали невірну інформацію про ключові аналізи функції печінки, через що люди з тяжкими захворюваннями могли помилково вважати себе здоровими.
Крім того, пошукові запити, пов'язані з аналізами на рак у жінок, іноді супроводжувалися "абсолютно невірними" відомостями, які, за словами експертів, могли призвести до ігнорування реальних симптомів захворювання.
Матеріал журналістів з'явився на тлі зростаючих побоювань з приводу того, що інформація, генерована ШІ, може сприйматися споживачами як достовірна, навіть якщо вона такою не є. У листопаді минулого року дослідження показало, що ШІ-чат-боти на різних платформах давали неточні фінансові поради; аналогічні питання раніше виникали і до автоматичних коротких переказів новин.
Софі Рендалл, директор організації Patient Information Forum, що поширює науково обґрунтовану медичну інформацію, заявила, що наведені випадки демонструють: "функція АІ Google Overviews може розміщувати неточну інформацію про здоров'я у верхній частині результатів онлайн-пошуку, становлячи небезпеку для здоров'я людей".
Стефані Паркер, директорка з цифрових технологій благодійної організації Marie Curie, зазначила: "Люди звертаються до інтернету в моменти тривоги та кризи. Якщо отримана ними інформація неточна або вирвана з контексту, це може серйозно зашкодити їхньому здоров'ю".
Крім того, видання виявило кілька прикладів недостовірних медичних даних у ШІ-оглядах Google після того, як занепокоєння з цього приводу висловили медичні організації, благодійні фонди та окремі фахівці.
Анна Джуелл, директорка з підтримки, досліджень і впливу в Pancreatic Cancer UK, наголосила, що порада уникати жирної їжі пацієнтам із раком підшлункової залози є "абсолютно неправильною". За її словами, це "може бути дуже небезпечно і поставити під загрозу шанси людини на одужання, достатнє для лікування".
Джуелл додала: "Відповідь штучного інтелекту Google припускає, що людям із раком підшлункової залози слід уникати продуктів із високим вмістом жиру, і наводить список прикладів. Однак, якщо хтось дослухається до рекомендацій пошукового запиту, він може не споживати достатню кількість калорій, зазнавати труднощів із набором ваги і не перенести ні хіміотерапію, ні потенційно рятівну операцію".
Запит "який нормальний діапазон показників аналізу крові на функцію печінки" також призводив до появи зведень, що вводять в оману, з великою кількістю цифр і мінімальним контекстом, без урахування статі, віку, національності або етнічної приналежності пацієнтів.
Памела Хілі, виконавча директорка Британського фонду по боротьбі із захворюваннями печінки, назвала такі ШІ-зведення тривожними.
"У багатьох людей із захворюваннями печінки симптоми відсутні до пізніх стадій, тому так важливо, щоб вони проходили обстеження. Але те, що Google AI вважає "нормою", може сильно відрізнятися від того, що насправді вважається нормою. Це небезпечно, тому що це означає, що деякі люди із серйозними захворюваннями печінки можуть подумати, що результат аналізу нормальний, і не вважатимуть за потрібне прийти на подальший огляд до лікаря", - заявила вона.
Також під час пошуку за запитом "симптоми та аналізи на рак піхви" система видавала мазок Папаніколау як тест на рак піхви, що не відповідає дійсності. Виконавчий директор благодійної організації Eve Appeal Афіна Ламнісос прокоментувала: "Це не тест для виявлення раку, і вже точно не тест для виявлення раку піхви - це абсолютно хибна інформація. Отримання такої невірної інформації може призвести до того, що людина не пройде обстеження на симптоми раку піхви, оскільки нещодавній скринінг шийки матки показав негативний результат".
Журналісти видання також виявили відповіді Google AI Overviews, що вводять в оману, під час пошуку інформації про психічні розлади. "Це викликає у нас, як у благодійної організації, величезну стурбованість", - заявив Стівен Баклі, керівник інформаційного відділу Mind. Він зазначив, що зведення щодо таких станів, як психоз і розлади харчової поведінки, іноді містили "дуже небезпечні поради" і були "неправильними, шкідливими або могли призвести до того, що люди уникали звернення по допомогу".
У Google, зі свого боку, заявили виданню, що переважна більшість ШІ-оглядів є точними і корисними, а компанія постійно працює над підвищенням їхньої якості. За її твердженням, рівень точності таких зведень можна порівняти з іншими пошуковими функціями, включно з розширеними сніппетами, які використовуються понад десять років.
У компанії також підкреслили, що у випадках, коли система AI Overviews невірно інтерпретує веб-контент або упускає контекст, вживають заходів відповідно до чинної політики. Представник Google заявив: "Ми вкладаємо значні кошти в якість оглядів ШІ, особливо за такими темами, як охорона здоров'я, і переважна більшість із них надають точну інформацію".
Водночас, як повідомляли Dengi.ua, компанія Neuralink планує розпочати масове виробництво мозкових імплантатів "мозок-комп'ютер" для лікування деяких хвороб.
Крім того, як писали Dengi.ua, люди платять за спілкування зі штучним інтелектом "під кайфом".


