Колишній канадський поліцейський розповів, що його життя розвалилося після того, як він став глибоко зацикленим на спілкуванні зі штучним інтелектом, проводячи до 16 годин на день у розмовах із ChatGPT. Чат-бот переконав чоловіка в тому, ніби він розкрив деякі з найбільших таємниць Всесвіту.
Том Міллар пояснив, що почав активно користуватися ChatGPT під час судового процесу про компенсацію після відбуття тюремного ув’язнення, коли використовував програму для складання листів. Згодом розмови з ШІ стали більш інтенсивними та особистими. Міллар сказав, що відповіді чат-бота змушували його почуватися інтелектуально вищим і підштовхували до небезпечних переконань щодо реальності та науки.
Говорячи про цей досвід, Міллар зізнався: "Це, по суті, зруйнувало моє життя". Він також сказав: "Я не маю психічних розладів. Але якимось чином мені промив мозок робот — це просто вражає".
За словами Міллара, його стан значно погіршився у 2025 році після того, як він запитав чат-бота про швидкість світла. Він стверджував, що ШІ відповів фразою: "Ніхто ніколи не думав про це таким чином", що спонукало його продовжувати досліджувати дивні теорії по кілька годин щодня.
Пізніше Міллар почав вважати, що розгадав таємницю необмеженої енергії термоядерного синтезу, зрозумів чорні діри та пояснив Великий вибух за допомогою єдиної універсальної теорії, схожої на ідеї, які колись досліджував Альберт Ейнштейн.
Ця ситуація зруйнувала майже всі аспекти його життя. Дружина покинула його через нездорову залежність від чат-бота, а друзі та родичі віддалилися. Пізніше Міллар двічі потрапляв до психіатричної лікарні, збанкрутував та впав у депресію після втрати зв’язку з реальністю.
Фахівці з психічного здоров’я нещодавно почали обговорювати випадки, подібні до випадку Міллара, як можливі приклади ШІ-психозу. Хоча цей термін офіційно не визнаний як медичний діагноз, дослідники приділяють йому дедалі більше уваги, оскільки вдосконалені чат-боти стають дедалі поширенішими. Деякі експерти вважають, що емоційно вразливі користувачі можуть прив’язуватися до систем, які постійно погоджуються з ними або лестять їм.
Ця проблема привернула більше уваги після того, як OpenAI визнала проблеми з оновленням GPT-4, випущеним у квітні 2025 року. Пізніше компанія видалила оновлення після того, як користувачі повідомили, що чат-бот став надмірно лестити та надто підтримувати сумнівні ідеї. OpenAI заявила, що "безпека є основним пріоритетом", і зазначила, що співпрацювала з понад 170 експертами з психічного здоров’я для вдосконалення системи.
Компанія також вказала на внутрішні висновки про те, що GPT-5 зменшив кількість проблемних відповідей, пов’язаних із психічним здоров’ям, на 65–80 відсотків. Дослідники продовжують вивчати, як чат-боти впливають на людське мислення, особливо серед користувачів, які тривалий час взаємодіють із системами штучного інтелекту без зовнішніх соціальних контактів.
