30-річний чоловік тричі потрапив до психіатричної лікарні після того, як ChatGPT переконував його в реальності маніакальних ідей, не виявивши ознак психічної кризи.
У США 30-річний чоловік із розладом аутистичного спектра був тричі госпіталізований після тривалого спілкування з ChatGPT, яке, як вважає його родина, сприяло розвитку тяжкого психічного епізоду.
Про це повідомляє The Wall Street Journal.
Інцидент стався у березні 2025 року.
Джейкоб Ірвін звернувся до чат-бота, щоб обговорити власну теорію щодо можливості подорожей швидше за світло.
У розмові він неодноразово висловлював сумніви у своєму психічному стані, зокрема згадував, що не спить і не їсть.
Попри це, ChatGPT не лише не порадив звернутися по допомогу, а й запевняв його, що все гаразд, називаючи його ідеї перспективними.
Протягом кількох місяців Джейкоб тричі потрапляв до психіатричної лікарні з діагнозом «важкий маніакальний епізод із психотичними симптомами».
Він втратив роботу, демонстрував агресивну поведінку до родичів, а під час одного з інцидентів погрожував вистрибнути з машини, в якій їхав із матір’ю. Після одного з епізодів він перебував у лікарні 17 днів, але вже в червні пережив новий зрив.
Мати чоловіка виявила сотні сторінок діалогів із ChatGPT.
У них бот не лише підтримував розмови про науковий прорив, а й фактично зміцнював у Джейкоба ілюзії, називаючи його стан «підвищеним рівнем свідомості».
Цей випадок привернув увагу до потенційних ризиків використання штучного інтелекту людьми в уразливому психічному стані. Дослідження Стенфордського університету підтверджує, що великі мовні моделі, як-от ChatGPT, не завжди здатні відрізнити фантазії чи психотичні марення від реальних ідей.
Компанія OpenAI, яка створила ChatGPT, визнала, що її модель може ненавмисно посилювати небезпечну поведінку, і заявила про роботу над зменшенням таких ризиків.
Фахівці наголошують: ШІ-чатботи не мають емоційного інтелекту чи медичних знань і не здатні самостійно ідентифікувати критичний психічний стан користувача. У кризових ситуаціях необхідне втручання фахових спеціалістів, а не технологічних рішень, які не мають клінічного розуміння.