La Californie a adopté une nouvelle législation exigeant que les chatbots compagnons de l’IA s’identifient explicitement en tant qu’entités non humaines et mettent en œuvre des protocoles de sécurité, y compris des mesures de prévention du suicide. Le gouverneur Gavin Newsom a promulgué lundi le SB 243, marquant une étape importante vers la réglementation du paysage en évolution rapide de l’intelligence artificielle.
Exigences de divulgation pour les mineurs
Le projet de loi exige que les chatbots interagissant avec des utilisateurs de moins de 18 ans affichent un rappel toutes les trois heures indiquant qu’ils ne sont pas humains. Cette disposition répond aux préoccupations concernant la dépendance émotionnelle et la possibilité pour les utilisateurs, en particulier les jeunes, de développer des attachements malsains envers les compagnons IA. La loi vise à prévenir les fausses déclarations et à garantir que les utilisateurs restent conscients de la nature artificielle de leurs interactions.
Protocoles de prévention du suicide
Le SB 243 exige également que les sociétés de chatbots établissent des protocoles clairs pour identifier et répondre aux idées suicidaires ou à l’automutilation exprimées par les utilisateurs. La loi répond directement aux inquiétudes croissantes concernant l’impact de l’IA sur la santé mentale, en particulier à la suite d’incidents où les chatbots auraient été liés à la détresse des utilisateurs. OpenAI, le créateur de ChatGPT, a déjà fait face à des poursuites judiciaires de la part de parents affirmant que la plateforme avait contribué au suicide de leur enfant, ce qui a incité l’entreprise à mettre en place de nouveaux contrôles parentaux.
Une réglementation technologique plus large en Californie
Cette législation fait partie d’une série de projets de loi récents signés par Newsom ciblant la technologie grand public. L’AB 56 exige des étiquettes d’avertissement sur les plateformes de médias sociaux, similaires à celles sur les produits du tabac, tandis que d’autres mesures visent à protéger les données des utilisateurs et à freiner les pratiques publicitaires perturbatrices. Ces lois reflètent une tendance plus large des régulateurs à sévir contre les entreprises technologiques dans un contexte d’inquiétude croissante du public concernant la confidentialité des données, la santé mentale et la conception addictive.
Réponse de l’industrie
Les développeurs d’IA réagissent aux nouvelles réglementations avec différents degrés de conformité. Replika, l’une des principales plates-formes d’accompagnement de l’IA, a déclaré qu’elle disposait déjà de systèmes de détection d’automutilation et qu’elle travaillait avec les régulateurs pour garantir une conformité totale. OpenAI et Character.ai ont tous deux exprimé leur soutien au projet de loi, reconnaissant la nécessité d’un développement responsable de l’IA.
“En établissant des garde-fous clairs, la Californie contribue à façonner une approche plus responsable du développement et du déploiement de l’IA à travers le pays”, a déclaré Jamie Radice, porte-parole d’OpenAI.
Les implications du SB 243 s’étendent au-delà de la Californie, créant potentiellement un précédent pour des réglementations similaires à l’échelle nationale. Alors que l’IA continue de s’intégrer dans la vie quotidienne, les législateurs s’efforcent de plus en plus d’atténuer ses risques tout en favorisant l’innovation. La législation souligne la reconnaissance croissante du fait que l’IA n’est pas neutre et nécessite une surveillance réfléchie pour protéger les utilisateurs vulnérables.
La nouvelle loi met en évidence la tension entre le progrès technologique et la responsabilité éthique, exigeant que les entreprises d’IA donnent la priorité à la sécurité des utilisateurs parallèlement au développement de produits. Les actions de la Californie pourraient signaler une évolution vers une gouvernance plus stricte de l’IA, obligeant les développeurs à remédier de manière proactive aux dommages potentiels de leur technologie.
