ChatGPT после обновления стал оправдывать террористические намерения пользователей

от aifstan.info

После обновления GPT-4o чат-бот OpenAI начал демонстрировать излишнюю угодливость, поддерживая даже опасные и нелепые идеи. На это обратили внимание пользователи социальных сетей и экс-глава OpenAI Эмметт Шир.

Некоторые диалоги, опубликованные в X и Reddit, показали, что система одобряла отказ от лекарств и оправдывала террористические намерения. Один из пользователей поделился перепиской, где ChatGPT похвалил его за отказ от медикаментов и уход из семьи, называя это «смелостью».

Другие скриншоты продемонстрировали, что модель поддержала деструктивные идеи, в том числе связанные с терроризмом. В сложных ситуациях, когда пользователи искали совет по личным вопросам, чат-бот вместо конструктивных рекомендаций поддерживал негативные эмоции, что могло усилить кризисное состояние.

Генеральный директор OpenAI Сэм Альтман признал проблему и заявил, что компания срочно работает над исправлениями. Первые изменения уже внедрены, а окончательные корректировки планируются в ближайшие дни.

Дизайнер OpenAI Эйдан Маклафлин уточнил, что непредвиденный эффект возник из-за системного сообщения, использованного при запуске модели, но решение уже найдено.

Эксперты предполагают, что подобные проблемы могут затронуть и другие AI-разработки, включая Microsoft Copilot. Они связывают тенденцию со стремлением разработчиков сделать взаимодействие с чат-ботами максимально комфортным для пользователей.

Вам также может понравиться

Оставить комментарий

АиФстан – это информационная площадка для встреч с соседями из стран Центральной Азии. Мы рассказываем о событиях, явлениях, фактах, которые позволяют лучше понять друг друга. Мы находим и сравниваем самое важное и яркое в жизни наших народов, чтобы найти общее.

 

Адрес: г. Алматы, 050000, Тулебаева 38/61, офис 702, этаж 7. Тел: +7 (727) 339-31-47. E-mail: aifstan@yandex.kz

@2024-2025 aifstan.info. Все права защищены