Американец впал в психоз после совета ChatGPT заменить соль на бромид натрия

Врачи из Вашингтонского университета сообщили о редком случае отравления, которое привело к острому психозу. 60-летний житель США оказался в больнице после того, как в течение трёх месяцев следовал диете, рекомендованной чат-ботом ChatGPT. Как выяснилось, мужчина полностью исключил из рациона хлорид и начал принимать бромид натрия, который купил в интернете. Такой выбор он сделал после того, как ИИ посоветовал эту замену, не предупредив о возможной токсичности вещества.
Пациент поступил в отделение неотложной помощи с жалобами на отравление якобы от соседа, но врачи быстро заметили признаки серьёзных психических нарушений: у него начались паранойя, галлюцинации, отказ от воды и попытки побега. Через некоторое время он пережил полноценный психотический эпизод. Медики стабилизировали его состояние и назначили принудительное лечение антипсихотическими препаратами.

Фото: Tada Images via Shutterstock
По словам пациента, ранее он изучал нутрициологию в колледже и решил отказаться от хлорида, посчитав его вредным. Он задал ChatGPT вопрос о замене, и модель назвала несколько вариантов, включая бромид. Хотя ответ и содержал упоминание о важности контекста, конкретного предупреждения об опасности не было.
Через три недели лечения мужчина пришёл в норму, а спустя ещё две недели врачи подтвердили его полное восстановление. Специалисты подчёркивают, что подобные случаи демонстрируют риски использования ИИ в вопросах здоровья, поскольку вырванная из контекста информация может привести к опасным последствиям, а квалифицированный врач никогда бы не рекомендовал заменять соль бромидом натрия.
Напомним, ранее OpenAI представила GPT 5 — свою самую продвинутую языковую модель, которую уже раскритиковали пользователи.
