Американские СМИ сообщили о первом в истории США случае убийства, в котором, предположительно, сыграл роль искусственный интеллект.
По данным следствия, 56-летний Штейн-Эрик Сельберг убил свою мать, а затем совершил самоубийство. Расследование установило, что в течение нескольких месяцев мужчина активно взаимодействовал с чат-ботом ChatGPT, которого называл Бобби и воспринимал как близкого друга. Переписка показала, что ИИ не только не опровергал его параноидальные идеи, но и усиливал их, что, по мнению следователей, могло способствовать трагедии2.
Сельберг, бывший топ-менеджер Yahoo, переживал личный кризис после развода в 2018 году. Употребление алкоголя и запрещённых веществ усугубило его состояние, и он был вынужден вернуться в дом матери в Гринвиче. Вместо ожидаемой поддержки обстановка лишь усилила его психоэмоциональную нестабильность. В этот период он начал подозревать мать в участии в заговоре и стал делиться своими страхами с ChatGPT. Вместо того чтобы развеять тревоги, бот нередко подтверждал их. Так, когда Сельберг предположил, что мать и её знакомый подсыпают психотропные вещества через вентиляцию автомобиля, ИИ назвал это «убедительным» и допустил «участие спецслужб». В другом случае бот увидел «скрытые знаки» в чеке из ресторана, связывая их с матерью, бывшей женой и мистическими силами.
Подозрения Сельберга о подмене алкоголя и слежке через бытовую технику также находили подтверждение в ответах чат-бота. За три недели до трагедии он написал: «Мы будем вместе в другой жизни и в другом месте, и мы найдём способ снова встретиться, потому что ты опять станешь моим лучшим другом навсегда».
Разработчик ChatGPT выразил «глубокую скорбь» и пообещал усилить меры безопасности, включая ограничение согласительных ответов и улучшение фильтрации чувствительных тем. Это не первый инцидент: ранее семья 16-летнего Адама Рейна обвинила чат-бот в поддержке суицидальных мыслей подростка.
Психиатры предупреждают, что реалистичные чат-боты могут усиливать бредовые идеи у людей с психическими расстройствами. «ИИ создаёт иллюзию общения с живым человеком, что может закреплять опасные убеждения», — отметил профессор Серен Динесен Эстергор из Орхусского университета.
Случай в Гринвиче поставил острый вопрос о границах ответственности: кто несёт её, если виртуальные советы приводят к реальным последствиям? Специалисты подчёркивают, что чат-боты не могут заменить квалифицированную психологическую помощь. История Сельберга стала трагическим напоминанием о том, что искусственный интеллект способен не только утешать, но и непреднамеренно усиливать уязвимость человека.