Калифорния приняла новые законодательные меры, требующие от AI-компаньонов-чатботов явно идентифицировать себя как нечеловеческие сущности и внедрять протоколы безопасности, включая меры по предотвращению самоубийств. Губернатор Гэвин Ньюсом подписал SB 243 в закон в понедельник, что стало значительным шагом на пути к регулированию стремительно развивающейся сферы искусственного интеллекта.

Требования к раскрытию информации для несовершеннолетних

Закон обязывает чатботов, взаимодействующих с пользователями младше 18 лет, каждые три часа напоминать о том, что они не являются людьми. Эта норма решает проблемы эмоциональной зависимости и потенциала для развития нездоровых привязанностей к AI-компаньонам, особенно среди молодежи. Закон направлен на предотвращение обмана и обеспечение осведомленности пользователей об искусственной природе их взаимодействия.

Протоколы предотвращения самоубийств

SB 243 также требует от компаний, разрабатывающих чатботов, установить четкие протоколы для выявления и реагирования на суицидальные мысли или самоповреждение, выраженные пользователями. Закон напрямую отвечает на растущую обеспокоенность по поводу влияния AI на психическое здоровье, особенно после инцидентов, когда чатботы, как утверждается, были связаны с психологическим стрессом пользователей. OpenAI, создатель ChatGPT, уже столкнулся с исками от родителей, утверждающих, что платформа способствовала самоубийству их ребенка, что побудило компанию внедрить новые функции родительского контроля.

Более широкое регулирование технологий в Калифорнии

Это законодательство является частью серии недавних законов, подписанных Ньюсомом, направленных на регулирование потребительских технологий. AB 56 требует нанесения предупреждающих надписей на социальные сети, аналогичных тем, что используются на табачных изделиях, в то время как другие меры направлены на защиту пользовательских данных и ограничение агрессивной рекламы. Эти законы отражают общую тенденцию к усилению контроля над технологическими компаниями в условиях растущей общественной обеспокоенности по поводу конфиденциальности данных, психического здоровья и вызывающего привыкание дизайна.

Реакция отрасли

Разработчики AI реагируют на новые правила с разной степенью соответствия. Replika, ведущая платформа для AI-компаньонов, заявила, что у нее уже есть системы обнаружения самоповреждений, и она работает с регулирующими органами для обеспечения полного соответствия. OpenAI и Character.ai выразили поддержку законопроекту, признав необходимость ответственной разработки AI.

«Установив четкие границы, Калифорния помогает сформировать более ответственный подход к разработке и внедрению AI по всей стране», — заявил представитель OpenAI Джейми Радице.

Последствия SB 243 выходят за пределы Калифорнии, потенциально создавая прецедент для аналогичных правил по всей стране. По мере того, как AI продолжает интегрироваться в повседневную жизнь, законодатели все больше внимания уделяют смягчению его рисков, одновременно стимулируя инновации. Законодательство подчеркивает растущее признание того, что AI не является нейтральным и требует вдумчивого надзора для защиты уязвимых пользователей.

Новый закон подчеркивает напряженность между технологическим прогрессом и этической ответственностью, требуя от компаний, разрабатывающих AI, уделять приоритетное внимание безопасности пользователей наряду с разработкой продуктов. Действия Калифорнии могут сигнализировать о переходе к более строгим правилам регулирования AI, заставляя разработчиков активно решать потенциальный вред, наносимый их технологиями.