Каліфорнія прийняла нові законодавчі заходи, що вимагають від AI-компаньйонів-чатботів явно ідентифікувати себе як нелюдські сутності та впроваджувати протоколи безпеки, включаючи заходи щодо запобігання самогубствам. Губернатор Гевін Ньюсом підписав SB 243 в закон у понеділок, що стало значним кроком на шляху до регулювання сфери штучного інтелекту, що стрімко розвивається.
Вимоги до розкриття інформації для неповнолітніх
Закон зобов’язує чатботів, які взаємодіють з користувачами віком до 18 років, кожні три години нагадувати про те, що вони не є людьми. Ця норма вирішує проблеми емоційної залежності та потенціалу для розвитку хворих прихильностей до AI-компаньйонів, особливо серед молоді. Закон спрямований на запобігання обману та забезпечення поінформованості користувачів про штучну природу їхньої взаємодії.
Протоколи запобігання самогубствам
SB 243 також вимагає від компаній, які розробляють чатботів, встановити чіткі протоколи для виявлення та реагування на суїцидальні думки або самоушкодження, виражені користувачами. Закон безпосередньо відповідає на зростання стурбованості з приводу впливу AI на психічне здоров’я, особливо після інцидентів, коли чатботи, як стверджується, були пов’язані з психологічним стресом користувачів. OpenAI, творець ChatGPT, вже зіткнувся з позовами від батьків, які стверджують, що платформа сприяла самогубству їхньої дитини, що спонукало компанію впровадити нові функції батьківського контролю.
Більш широке регулювання технологій у Каліфорнії
Це законодавство є частиною серії недавніх законів, підписаних Ньюсомом, спрямованих регулювання споживчих технологій. AB 56 вимагає нанесення попереджувальних написів на соціальні мережі, аналогічних тим, що використовуються на тютюнових виробах, тоді як інші заходи спрямовані на захист даних і обмеження агресивної реклами. Ці закони відображають загальну тенденцію до посилення контролю над технологічними компаніями в умовах зростання суспільного занепокоєння з приводу конфіденційності даних, психічного здоров’я і звикання дизайну, що викликає.
Реакція галузі
Розробники AI реагують на нові правила з різним ступенем відповідності. Replika, провідна платформа для AI-компаньйонів, заявила, що вона вже має системи виявлення самоушкоджень, і вона працює з регулюючими органами для забезпечення повної відповідності. OpenAI та Character.ai висловили підтримку законопроекту, визнавши необхідність відповідальної розробки AI.
“Встановивши чіткі кордони, Каліфорнія допомагає сформувати більш відповідальний підхід до розробки та впровадження AI по всій країні”, – заявив представник OpenAI Джеймі Радіце.
Наслідки SB 243 виходять за межі Каліфорнії, що потенційно створює прецедент для аналогічних правил по всій країні. У міру того, як AI продовжує інтегруватися у повсякденне життя, законодавці все більше уваги приділяють пом’якшенню ризиків, одночасно стимулюючи інновації. Законодавство підкреслює визнання того, що AI не є нейтральним і вимагає вдумливого нагляду для захисту вразливих користувачів.
Новий закон підкреслює напруженість між технологічним прогресом та етичною відповідальністю, вимагаючи від компаній, що розробляють AI, приділяти пріоритетну увагу безпеці користувачів поряд із розробкою продуктів. Дії Каліфорнії можуть сигналізувати про перехід до більш строгих правил регулювання AI, змушуючи розробників активно вирішувати потенційну шкоду, яку вони завдають технологіями.






























