Californië heeft nieuwe wetgeving aangenomen die AI-chatbots verplicht om zichzelf expliciet te identificeren als niet-menselijke entiteiten en veiligheidsprotocollen te implementeren, waaronder maatregelen ter voorkoming van zelfmoord. Gouverneur Gavin Newsom ondertekende SB 243 maandag in de wet, wat een belangrijke stap markeert in de richting van het reguleren van het snel evoluerende landschap van kunstmatige intelligentie.
Openbaarmakingsvereisten voor minderjarigen
Het wetsvoorstel schrijft voor dat chatbots die communiceren met gebruikers onder de 18 jaar elke drie uur een herinnering tonen dat ze geen mensen zijn. Deze bepaling komt tegemoet aan de zorgen over emotionele afhankelijkheid en het potentieel voor gebruikers, vooral jongeren, om ongezonde gehechtheden aan AI-metgezellen te ontwikkelen. De wet probeert een verkeerde voorstelling van zaken te voorkomen en ervoor te zorgen dat gebruikers zich bewust blijven van de kunstmatige aard van hun interacties.
Protocollen voor zelfmoordpreventie
SB 243 vereist ook dat chatbotbedrijven duidelijke protocollen opstellen voor het identificeren en reageren op zelfmoordgedachten of zelfbeschadiging die door gebruikers worden geuit. De wet reageert rechtstreeks op de groeiende bezorgdheid over de impact van AI op de geestelijke gezondheid, vooral na incidenten waarbij chatbots naar verluidt verband hielden met gebruikersproblemen. OpenAI, de maker van ChatGPT, heeft al te maken gehad met rechtszaken van ouders die beweren dat het platform heeft bijgedragen aan de zelfmoord van hun kind, wat het bedrijf ertoe heeft aangezet nieuw ouderlijk toezicht te implementeren.
Bredere technische regelgeving in Californië
Deze wetgeving maakt deel uit van een reeks recente wetsvoorstellen die door Newsom zijn ondertekend en die zich richten op consumententechnologie. AB 56 vereist waarschuwingslabels op sociale mediaplatforms, vergelijkbaar met die op tabaksproducten, terwijl andere maatregelen gericht zijn op het beschermen van gebruikersgegevens en het beteugelen van ontwrichtende reclamepraktijken. Deze wetten weerspiegelen een bredere trend van toezichthouders die hard optreden tegen technologiebedrijven, te midden van de toenemende publieke bezorgdheid over gegevensprivacy, geestelijke gezondheid en verslavend ontwerp.
Reactie van de industrie
AI-ontwikkelaars reageren in verschillende mate op de nieuwe regelgeving. Replika, een toonaangevend AI-begeleidend platform, verklaarde dat het al over detectiesystemen voor zelfbeschadiging beschikt en samenwerkt met toezichthouders om volledige naleving te garanderen. OpenAI en Character.ai spraken beide hun steun uit voor het wetsvoorstel en erkenden de noodzaak van een verantwoorde AI-ontwikkeling.
“Door duidelijke vangrails te plaatsen, draagt Californië bij aan het vormgeven van een meer verantwoorde benadering van de ontwikkeling en inzet van AI in het hele land”, zegt Jamie Radice, woordvoerder van OpenAI.
De implicaties van SB 243 reiken verder dan Californië en scheppen mogelijk een precedent voor soortgelijke landelijke regelgeving. Terwijl AI zich blijft integreren in het dagelijks leven, richten wetgevers zich steeds meer op het beperken van de risico’s ervan en het bevorderen van innovatie. De wetgeving onderstreept de groeiende erkenning dat AI niet neutraal is en doordacht toezicht vereist om kwetsbare gebruikers te beschermen.
De nieuwe wet benadrukt de spanning tussen technologische vooruitgang en ethische verantwoordelijkheid, en eist dat AI-bedrijven prioriteit geven aan gebruikersveiligheid naast productontwikkeling. De acties van Californië kunnen een verschuiving in de richting van een strenger AI-beheer signaleren, waardoor ontwikkelaars gedwongen worden proactief de potentiële schade van hun technologie aan te pakken.
