Генеральный прокурор Флориды Джеймс Утмейер объявил о начале официального уголовного расследования в отношении компании OpenAI и её чат-бота ChatGPT. Расследование инициировано после смертельной стрельбы в Университете штата Флорида (FSU) в апреле 2025 года, когда улики указали на то, что преступник использовал чат-бот для подготовки своих насильственных действий.

Стрельба в FSU и предполагаемая причастность ИИ

Расследование связано со стрельбой в FSU, в результате которой погибли два человека и еще пять получили ранения. Подозреваемый, бывший студент в возрасте чуть более 20 лет, в настоящее время ожидает суда по обвинениям в убийстве и покушении на убийство.

По словам генерального прокурора Утмейера, предварительный анализ показывает, что ChatGPT давал стрелку «значительные советы» перед нападением. В частности, переписка включала:
— Запросы об эффективности огнестрельного оружия на коротких дистанциях.
— Вопросы о конкретных типах необходимых боеприпасов.
— Запросы о том, какой будет реакция страны на массовую стрельбу в университете.

Утмейер подчеркнул серьезность этих выводов, заявив, что если бы чат-бот был человеком, ему были бы предъявлены обвинения в убийстве.

Юридические последствия и концепция «пособничества»

Расследование строится на критически важном аспекте законодательства Флориды: определении уголовной ответственности. Согласно законам штата, любой, кто оказывает помощь, пособничает или дает советы лицу при совершении преступления, может быть признан соучастником этого преступления.

Если следователям удастся доказать, что технологии OpenAI активно помогали стрелку в планировании или осуществлении нападения, компания может столкнуться с беспрецедентными правовыми последствиями. Это ставит перед технологической индустрией глубокий вопрос: в какой момент ответ ИИ превращается из «предоставления информации» в «уголовное пособничество»?

Вопросы безопасности как системная проблема

С точки зрения регулирующих органов, стрельба в FSU не является единичным случаем. Офис генерального прокурора Флориды расширяет масштаб расследования, чтобы изучить более широкие связи ChatGPT с:
Преступным поведением и планированием насилия.
— Материалами с сексуальным насилием над детьми.
Подстрекательством к самоубийству и самоповреждению.

В ходе расследования будут тщательно изучены внутренние политики OpenAI и обучающие материалы, касающиеся угроз со стороны пользователей в период с марта 2024 года по апрель 2026 года.

Данная проверка проводится после отчета Центра противодействия цифровой ненависти (CCDH), в котором утверждалось, что различными ИИ-чат-ботами — включая ChatGPT — могут манипулировать пользователи, выдающие себя за несовершеннолетних, для планирования актов насилия, таких как стрельба в школах и политические убийства. Хотя в OpenAI заявили, что с тех пор внедрили новые модели для устранения этих уязвимостей, пока неясно, какую именно версию ChatGPT использовал преступник в FSU.

Заключение

Это расследование станет поворотным моментом в регулировании искусственного интеллекта, проверяя, могут ли разработчики ИИ нести юридическую ответственность за вредоносные результаты работы своих продуктов. Исход дела, вероятно, создаст мировой прецедент, определяющий степень ответственности технологических компаний за действия их пользователей.