В США зафиксирован случай, когда следование медицинским рекомендациям, сгенерированным нейросетью, привело к серьезным последствиям для здоровья. 60-летний мужчина, доверившийся совету чат-бота, оказался в психиатрической больнице с симптомами острого психоза.
Мужчина, у которого ранее не было психиатрических заболеваний, поступил в отделение неотложной помощи с жалобами на то, что его якобы пытается отравить сосед. При обследовании выяснилось, что пациент придерживался строгой диеты и самостоятельно дистиллировал воду. Он испытывал сильную жажду, впрочем с параноидальной опаской относился к воде, которую ему предлагали в лечебном учреждении.
Как удалось установить, причиной такого состояния стала диета, которую пенсионеру посоветовал искусственный интеллект. Мужчина обратился к чат-боту ChatGPT с вопросом, как полностью исключить из своего рациона соль. Нейросеть предложила ему заменить хлорид натрия на бромид, что и стало роковым решением.
Употребление соединений брома привело к развитию у пациента бромизма — хронического отравления этим веществом. Данное состояние характеризуется появлением кожных высыпаний, вялостью, нарушениями памяти и другими серьезными неврологическими и психическими расстройствами, включая паранойю.
Данный клинический случай был подробно изучен и описан учеными из Университета Вашингтона. Результаты своего исследования и выводы о потенциальной опасности получения медицинских советов от нейросетей специалисты опубликовали в научном журнале Annals of Internal Medicine.
Ранее житель США оказался в больнице из-за потребления бромида натрия по рекомендации ChatGPT.