Подозреваемый в смертельной стрельбе 10 февраля в Тамблер-Ридж, Британская Колумбия, Джесси Ван Рутселаар, вёл тревожные беседы с ChatGPT от OpenAI за месяцы до нападения, вызвав внутреннюю тревогу, которую в конечном итоге проигнорировали. По словам OpenAI, Рутселаар подробно описывал сцены насилия, что привело к срабатыванию автоматических протоколов безопасности и вызвало обеспокоенность у сотрудников, что эти взаимодействия могли предвещать реальное насилие.
Тревога, проигнорированная руководством OpenAI
Несмотря на эти опасения, руководство OpenAI отказалось обращаться в правоохранительные органы, решив, что действия Рутселаара не представляли собой “непосредственной и достоверной угрозы” причинения вреда. Аккаунт пользователя был заблокирован, но никаких других мер не было предпринято. Представитель OpenAI Кайла Вуд заявила, что анализ журналов не показал активного планирования нападения.
“Мы выражаем соболезнования всем, кого затронула трагедия в Тамблер-Ридж. Мы оперативно связались с Королевской канадской конной полицией, предоставив информацию об этом человеке и его использовании ChatGPT, и мы продолжим оказывать поддержку их расследованию.”
– Кайла Вуд, представитель OpenAI
Трагедия разворачивается
10 февраля погибли девять человек и 27 получили ранения в самой смертоносной массовой стрельбе в Канаде с 2020 года. Рутселаар был найден мёртвым на месте происшествия в средней школе Тамблер-Ридж, предположительно от огнестрельного ранения, нанесённого себе. Этот инцидент вновь разжёг дебаты об ответственности технологических компаний за вмешательство, когда пользователи выражают насильственные намерения, даже если эти намерения не являются явно преступными.
Баланс между конфиденциальностью и безопасностью
OpenAI утверждает, что своё решение приняло, основываясь на политике баланса между конфиденциальностью пользователей и общественной безопасностью, избегая “чрезмерно широкого привлечения правоохранительных органов”, что могло привести к непредвиденному вреду. Однако критики утверждают, что подход компании мог стоить жизней. Этот случай поднимает вопрос о том, должны ли AI-платформы быть обязаны сообщать о потенциальных угрозах властям, даже при отсутствии конкретных доказательств запланированного насилия.
Стрельба в Тамблер-Ридж подчеркивает сложность прогнозирования и предотвращения массового насилия, а также этические дилеммы, с которыми сталкиваются технологические компании при работе с тревожным поведением пользователей. Этот инцидент служит трагичным напоминанием о том, что бездействие может иметь смертельные последствия, даже если намерения не полностью оформлены.






























