28/10/2025

OpenAI скорректировала паттерны поведения ChatGPT после того, как выяснилось, что за тестовую неделю 0,01% пользователей чат-бота продемонстрировало признаки тех или иных эмоциональных расстройств. 0,15% пользователей даже проявило суицидальные наклонности (это около 2,4 млн человек).

Теперь, по заявлению вендора, его ИИ в подобных ситуациях «постарается не поддерживать» собеседника, но предложит перейти на «более безопасную» модель, расскажет об антистресс-методиках и порекомендует срочно обратиться к профильному специалисту (конкретно для американских пользователей на такой случай заготовлены контакты горячей линии психологической поддержки).

За обучение бота на этом треке отвечали психологи и психиатры из созданной под эгидой OpenAI «глобальной врачебной сети» — в неё вошли 300 клиницистов из 60 стран. С их помощью удалось добиться сокращения «нежелательных» ответов в GPT-5 на 39-52% по сравнению с GPT-4o. Однако издание Wired считает эту оценку очень субъективной. Также пока рано говорить о реальной пользе описанной меры для людей, ведущих диалоги с нейросетью.