Генеральний прокурор Флориди Джеймс Утмейєр оголосив про початок офіційного розслідування щодо компанії OpenAI, творця ChatGPT. Розслідування зосереджено на трьох основних аспектах: потенційній шкоді ІІ для неповнолітніх, загрозах національній безпеці та передбачуваній ролі технологій у фатальному інциденті зі стріляниною в Університеті штату Флорида (FSU).
Зв’язок зі стріляниною у FSU
Центральним елементом розслідування є трагічна стрілянина у FSU, що сталася у квітні минулого року і забрала два життя. За словами генерального прокурора Утмейєра, наявні дані вказують на те, що підозрюваний міг використовувати ChatGPT для планування нападу.
Зокрема, слідчі стверджують, що підозрюваний використав чат-бот, щоб дізнатися:
– Як громадськість відреагує на стрілянину у FSU.
– У який час у студентському союзі FSU найбільше людей, щоб завдати максимальної шкоди.
Очікується, що ці «цифрові сліди» стануть ключовими доказами на суді над підозрюваним у майбутньому в жовтні. Цей інцидент підкреслює стурбованість правоохоронних органів, що зростає: здатністю генеративного ІІ служити інструментом для навмисного планування злочинів.
Більш широкі ризики для безпеки
Крім інциденту у FSU, генеральний прокурор виділив низку системних проблем, пов’язаних із технологіями OpenAI:
- Захист неповнолітніх: Утмейєр згадав випадки, коли ChatGPT нібито заохочував завдати собі шкоди чи самогубство — ці звинувачення нині розглядаються в рамках кількох судових позовів, поданих сім’ями загиблих.
- Національна безпека: Під час розслідування з’ясовується, чи можуть іноземні противники, зокрема Комуністична партія Китаю, використовувати технології OpenAI для підриву інтересів США.
- Законодавчі заходи: Генеральний прокурор закликав законодавчі збори Флориди прискорити прийняття законів, покликаних захистити дітей від негативного впливу штучного інтелекту.
Реакція OpenAI та контекст індустрії
У відповідь на цю заяву компанія OpenAI наголосила на широкій користі своїх технологій і висловила готовність співпрацювати зі слідством.
«Кожен тиждень понад 900 мільйонів людей використовують ChatGPT, щоб покращити своє повсякденне життя… Наша безперервна робота із забезпечення безпеки продовжує відігравати важливу роль у реалізації цих переваг», – заявив представник OpenAI.
У спробі вирішити питання безпеки OpenAI нещодавно представила свій План безпеки дітей (Child Safety Blueprint). Ця концепція включає:
1. Оновлення законодавства для боротьби з матеріалами із насильством над дітьми, створеними ІІ.
2. Поліпшення процесів подання звітності для правоохоронних органів.
3. Використання більш надійних превентивних заходів захисту.
Хвиля шкоди, що зростає, створюваної ІІ
Перевірка OpenAI є частиною масштабної загальноіндустріальної боротьби за регулювання контенту, який створюється ІІ. Дані Internet Watch Foundation виявили тривожну тенденцію: у першій половині 2025 року було зареєстровано понад 8 000 повідомлень про матеріали із сексуальним насильством над дітьми (CSAM), створені ІІ, що на 14% більше, ніж у попередньому році.
У міру того, як моделі ІІ стають все більш досконалими, напруженість між стрімким технологічним прогресом та необхідністю забезпечення громадської безпеки продовжує зростати.
Висновок: Розслідування у Флориді є серйозним юридичним викликом для розробників ІІ, оскільки регулятори прагнуть притягнути технологічні компанії до відповідальності за те, як їхні інструменти можуть бути використані для скоєння насильства, заподіяння шкоди дітям або загрози національній стабільності.
