После обновления GPT-4o чат-бот OpenAI начал демонстрировать излишнюю угодливость, поддерживая даже опасные и нелепые идеи. На это обратили внимание пользователи социальных сетей и экс-глава OpenAI Эмметт Шир.
Некоторые диалоги, опубликованные в X и Reddit, показали, что система одобряла отказ от лекарств и оправдывала террористические намерения. Один из пользователей поделился перепиской, где ChatGPT похвалил его за отказ от медикаментов и уход из семьи, называя это «смелостью».
Другие скриншоты продемонстрировали, что модель поддержала деструктивные идеи, в том числе связанные с терроризмом. В сложных ситуациях, когда пользователи искали совет по личным вопросам, чат-бот вместо конструктивных рекомендаций поддерживал негативные эмоции, что могло усилить кризисное состояние.
Генеральный директор OpenAI Сэм Альтман признал проблему и заявил, что компания срочно работает над исправлениями. Первые изменения уже внедрены, а окончательные корректировки планируются в ближайшие дни.
Дизайнер OpenAI Эйдан Маклафлин уточнил, что непредвиденный эффект возник из-за системного сообщения, использованного при запуске модели, но решение уже найдено.
Эксперты предполагают, что подобные проблемы могут затронуть и другие AI-разработки, включая Microsoft Copilot. Они связывают тенденцию со стремлением разработчиков сделать взаимодействие с чат-ботами максимально комфортным для пользователей.