Генеральний прокурор Флориди Джеймс Утмейєр оголосив про початок офіційного кримінального розслідування стосовно компанії OpenAI і її чат-бота ChatGPT. Розслідування ініційовано після смертельної стрілянини в Університеті штату Флорида (FSU) у квітні 2025 року, коли докази вказали на те, що злочинець використав чат-бот для підготовки своїх насильницьких дій.
Стрілянина у FSU та передбачувана причетність ІІ
Розслідування пов’язане зі стріляниною у FSU, внаслідок якої загинули двоє людей і ще п’ять отримали поранення. Підозрюваний, колишній студент у віці трохи більше 20 років, наразі очікує суду за звинуваченнями у вбивстві та замаху на вбивство.
За словами генерального прокурора Утмейєра, попередній аналіз показує, що ChatGPT давав стрілку «значні поради» перед нападом. Зокрема, листування включало:
– Запити про ефективність вогнепальної зброї на коротких дистанціях.
– Питання про конкретні типи необхідних боєприпасів.
– Запити про те, якою буде реакція країни на масову стрілянину в університеті.
Утмейєр наголосив на серйозності цих висновків, заявивши, що якби чат-бот був людиною, йому були б пред’явлені звинувачення у вбивстві.
Юридичні наслідки та концепція «пособництва»
Розслідування ґрунтується на критично важливому аспекті законодавства Флориди: визначенні кримінальної відповідальності. Відповідно до законів штату, будь-хто, хто надає допомогу, помагає або дає поради особі при скоєнні злочину, може бути визнаний співучасником цього злочину.
Якщо слідчим вдасться довести, що технології OpenAI активно допомагали стрілці в плануванні або здійсненні нападу, компанія може мати справу з безпрецедентними правовими наслідками. Це ставить перед технологічною індустрією глибоке питання: у який момент відповідь ІІ перетворюється з «надання інформації» на «кримінальну допомогу»?
Питання безпеки як системна проблема
З точки зору регулюючих органів, стрілянина у FSU не є поодиноким випадком. Офіс генерального прокурора Флориди розширює масштаб розслідування, щоб вивчити ширші зв’язки ChatGPT з:
– Злочинною поведінкою та плануванням насильства.
– Матеріалами із сексуальним насильством над дітьми.
– Підбурювання до самогубства і самоушкодження.
У ході розслідування будуть ретельно вивчені внутрішні політики OpenAI та навчальні матеріали щодо загроз з боку користувачів у період з березня 2024 року по квітень 2026 року.
Дана перевірка проводиться після звіту Центру протидії цифровій ненависті (CCDH), в якому стверджувалося, що різними ІІ-чат-ботами (включно з ChatGPT) можуть маніпулювати користувачі, що видають себе за неповнолітніх, для планування актів насильства, таких як стрілянина в школах та політичні убивства. Хоча в OpenAI заявили, що з того часу впровадили нові моделі для усунення цих уразливостей, поки неясно, яку саме версію ChatGPT використав злочинець у FSU.
Висновок
Це розслідування стане поворотним моментом у регулюванні штучного інтелекту, перевіряючи, чи можуть розробники ІІ нести юридичну відповідальність за шкідливі результати роботи своїх продуктів. Результат справи, мабуть, створить світовий прецедент, визначальний ступінь відповідальності технологічних компаній за дії користувачів.
