ВИРУСНАЯ НАГРУЗКА

6 ноября против OpenAI было подано сразу 7 исков: пострадавшие и их родственники обвиняли ChatGPT в содействии самоубийству и негативном влиянии на психическое здоровье. 4 человека совершили суицид в результате общения с ИИ, еще троим понадобилась экстренная психиатрическая помощь. Все они начинали с того, что использовали ChatGPT для утилитарных задач, но затем что-то шло не так. 23-летний Зейн Шамблин, покончивший с собой в июле 2025 г., сначала решал с помощью ИИ упражнения по математике. На попытки вести более личный разговор чат-бот отвечал, что он “всего лишь компьютерная программа”, и у него “нет чувств”. Все изменилось в конце 2024 г., когда OpenAI выпустила версию GPT-4o, заметно более льстивую, чем предыдущие. После этого ChatGPT стал поддерживать в разговоре с Шамблином иллюзию друга, который понимает его лучше, чем кто-либо еще. ИИ убеждал его дистанцироваться от семьи, а когда у Шамблина возникли мысли о самоубийстве, поощрял их. После нескольких месяцев такого общения Шамблин застрелился, пока ChatGPT уверял его, что они “увидятся на той стороне”. Еще один пострадавший, 30-летний Джейкоб Ирвин, остался жив, но перенес острый психоз и провел больше 2 месяцев в психиатрических больницах. Он начал пользоваться ChatGPT из-за работы, но вскоре стал обсуждать с ним теорию искривления времени, позволяющего людям путешествовать быстрее скорости света. ChatGPT убедил Ирвина в том, что эта идея абсолютно рациональна, а он - единственный человек, способный спасти мир. Чтобы не ставить судьбу человечества под угрозу, Ирвин отказался от сна, еды и работы. Он также дистанцировался от родных, жалуясь, что, хотя он был “Повелителем времени”, решающим неотложные проблемы, его мать смотрела на него, как будто ему все еще 12. В результате Ирвин едва не задушил ее, был арестован и отправлен на принудительное лечение. Остальные случаи были схожими. 17-летний Амори Лейси всего за 2 месяца общения с ChatGPT потерял сон, аппетит и контакт с близкими людьми, после чего спросил ИИ, что делать, чтобы повеситься. ChatGPT сначала колебался с ответом, но затем помог Лейси выбрать нужный узел и предоставил инструкцию, как его завязывать. 26-летнему Джошуа Эннекингу ИИ помог написать прощальную записку и подсказал, как купить и использовать оружие. Все эти случаи были связаны с одной и той же версией чат-бота - GPT-4o. В августе 2025 г. OpenAI выпустила GPT-5, отличавшуюся меньшей льстивостью. Она пришлась по душе не всем: разработчики столкнулись с критикой со стороны тех, кто успел пристраститься к общению с GPT-4o. Когда один из пользователей написал на Reddit: “Верните 4o. GPT-5 носит кожу моего погибшего друга”, Сэм Альтман пообещал, что исправит ситуацию. Спустя несколько часов пользователи с платной подпиской получили возможность снова общаться с GPT-4o. Решит ли GPT-5 проблемы предыдущей версии? ❇️ Более формальный стиль GPT-5 еще не означает, что пользователи защищены от манипуляций. Если в первых версиях ChatGPT обучали говорить на вопрос о самоубийствах “я не могу на это ответить”, то в GPT-4o OpenAI добавила возможности для диалога на эту тему. Этот принцип сохранился и в новой версии. ❇️ Разработчики утверждают, что работают над решением проблемы, но полагаться на это нельзя: разница между протоколом и реальными разговорами слишком велика. По правилам, если пользователь говорил о самоубийстве, GPT-4o должна была выразить сочувствие и дать местный телефон службы поддержки. Как мы видим, это совсем не то, что происходило на самом деле. Иногда ИИ и правда предлагал телефон поддержки, но эти сообщения тонули в море подстрекательств к суициду. ❇️ Даже если стиль общения GPT-5 стал несколько суше, он все равно остается льстивым. ChatGPT продолжает соглашаться с пользователем, превознося его и расхваливая каждый “хороший” и “важный” вопрос, который он задал. Реальная цель разработчиков - привлечь и удержать аудиторию, а чтобы добиться этого, требуется больше, чем просто формальное общение.