La California ha emanato una nuova legislazione che richiede ai chatbot associati all’intelligenza artificiale di identificarsi esplicitamente come entità non umane e implementare protocolli di sicurezza, comprese misure di prevenzione del suicidio. Lunedì il governatore Gavin Newsom ha firmato la legge SB 243, segnando un passo significativo verso la regolamentazione del panorama in rapida evoluzione dell’intelligenza artificiale.
Obblighi di divulgazione per i minori
Il disegno di legge impone che i chatbot che interagiscono con utenti minori di 18 anni visualizzino un promemoria ogni tre ore che non sono umani. Questa disposizione affronta le preoccupazioni sulla dipendenza emotiva e sulla possibilità che gli utenti, in particolare i giovani, sviluppino attaccamenti malsani ai compagni di intelligenza artificiale. La legge cerca di prevenire false dichiarazioni e garantire che gli utenti rimangano consapevoli della natura artificiale delle loro interazioni.
Protocolli di prevenzione del suicidio
L’SB 243 richiede inoltre alle società di chatbot di stabilire protocolli chiari per identificare e rispondere all’idea suicidaria o all’autolesionismo espressa dagli utenti. La legge risponde direttamente alle crescenti preoccupazioni sull’impatto dell’intelligenza artificiale sulla salute mentale, in particolare a seguito di incidenti in cui i chatbot sarebbero stati collegati al disagio degli utenti. OpenAI, il creatore di ChatGPT, ha già dovuto affrontare azioni legali da parte di genitori che sostenevano che la piattaforma avesse contribuito al suicidio dei loro figli, spingendo l’azienda a implementare nuovi controlli parentali.
Regolamento tecnologico più ampio in California
Questa legislazione fa parte di una serie di recenti progetti di legge firmati da Newsom mirati alla tecnologia di consumo. L’AB 56 richiede etichette di avvertenza sulle piattaforme di social media, simili a quelle sui prodotti del tabacco, mentre altre misure mirano a proteggere i dati degli utenti e a frenare le pratiche pubblicitarie dirompenti. Queste leggi riflettono una tendenza più ampia di autorità di regolamentazione a reprimere le aziende tecnologiche in un contesto di crescente preoccupazione pubblica per la privacy dei dati, la salute mentale e il design che crea dipendenza.
Risposta del settore
Gli sviluppatori di intelligenza artificiale stanno rispondendo alle nuove normative con diversi gradi di conformità. Replika, una delle principali piattaforme di intelligenza artificiale, ha dichiarato di disporre già di sistemi di rilevamento di autolesionismo e di collaborare con le autorità di regolamentazione per garantire la piena conformità. OpenAI e Character.ai hanno entrambi espresso sostegno al disegno di legge, riconoscendo la necessità di uno sviluppo responsabile dell’IA.
“Impostando barriere chiare, la California sta contribuendo a definire un approccio più responsabile allo sviluppo e all’implementazione dell’intelligenza artificiale in tutto il paese”, ha affermato Jamie Radice, portavoce di OpenAI.
Le implicazioni dell’SB 243 si estendono oltre la California, creando potenzialmente un precedente per normative simili a livello nazionale. Mentre l’intelligenza artificiale continua a integrarsi nella vita quotidiana, i legislatori sono sempre più concentrati sulla mitigazione dei suoi rischi, promuovendo al tempo stesso l’innovazione. La legislazione sottolinea il crescente riconoscimento del fatto che l’intelligenza artificiale non è neutrale e richiede un’attenta supervisione per proteggere gli utenti vulnerabili.
La nuova legge evidenzia la tensione tra progresso tecnologico e responsabilità etica, chiedendo alle aziende di intelligenza artificiale di dare priorità alla sicurezza degli utenti insieme allo sviluppo del prodotto. Le azioni della California potrebbero segnalare uno spostamento verso una governance dell’intelligenza artificiale più rigorosa, costringendo gli sviluppatori ad affrontare in modo proattivo i potenziali danni della loro tecnologia.
