Додому Nejnovější zprávy a články Kalifornie vyžaduje, aby chatboti s umělou inteligencí zveřejnili svůj nelidský status a...

Kalifornie vyžaduje, aby chatboti s umělou inteligencí zveřejnili svůj nelidský status a upřednostnili bezpečnost uživatelů

Kalifornie schválila novou legislativu, která vyžaduje, aby se společníci AI chatbotů jasně identifikovali jako nelidské entity a zavedli bezpečnostní protokoly, včetně opatření k prevenci sebevražd. Guvernér Gavin Newsom v pondělí podepsal zákon SB 243, což je významný krok směrem k regulaci rychle se vyvíjející oblasti umělé inteligence.

Požadavky na zveřejnění pro nezletilé

Zákon vyžaduje, aby chatboti při interakci s uživateli mladšími 18 let jim každé tři hodiny připomínali, že nejsou lidé. Toto nařízení se zabývá otázkami emoční závislosti a potenciálu rozvoje nezdravých připoutaností ke společníkům AI, zejména mezi mladými lidmi. Cílem zákona je zabránit klamání a zajistit, aby si uživatelé byli vědomi umělé povahy jejich interakcí.

Protokoly prevence sebevražd

SB 243 by také vyžadoval, aby společnosti, které vyvíjejí chatboty, zavedly jasné protokoly pro identifikaci a reakci na sebevražedné myšlenky nebo sebepoškozování vyjádřené uživateli. Zákon přímo řeší rostoucí obavy z dopadu umělé inteligence na duševní zdraví, zejména po incidentech, kdy byli chatboti údajně spojeni s psychickým strádáním uživatelů. OpenAI, tvůrce ChatGPT, již čelil žalobám rodičů, kteří tvrdili, že platforma přispěla k sebevraždě jejich dítěte, což přimělo společnost k zavedení nových funkcí rodičovské kontroly.

Větší regulace technologií v Kalifornii

Legislativa je součástí řady nedávných zákonů podepsaných společností Newsom zaměřených na regulaci spotřebitelských technologií. AB 56 by vyžadoval varovné štítky na platformách sociálních médií podobné těm, které se nacházejí na tabákových výrobcích, zatímco další opatření mají za cíl chránit uživatelská data a omezit agresivní reklamu. Zákony odrážejí obecný trend ke zvýšené kontrole technologických společností uprostřed rostoucích obav veřejnosti o soukromí dat, duševní zdraví a návykový design.

Odezva průmyslu

Vývojáři AI reagují na nová pravidla s různou mírou souladu. Replika, přední platforma pro společníky s umělou inteligencí, uvedla, že již má zavedeny systémy detekce sebepoškozování a spolupracuje s regulačními orgány na zajištění plného souladu. OpenAI a Character.ai vyjádřily podporu návrhu zákona a uznaly potřebu odpovědného vývoje AI.

„Stanovením jasných hranic pomáhá Kalifornie utvářet zodpovědnější přístup k vývoji a zavádění umělé inteligence v celé zemi,“ řekl mluvčí OpenAI Jamie Raditz.

Důsledky SB 243 přesahují Kalifornii a potenciálně vytvářejí precedens pro podobné předpisy v celé zemi. Jak se umělá inteligence stále integruje do každodenního života, zákonodárci se stále více zaměřují na zmírnění jejích rizik a zároveň na podporu inovací. Legislativa podtrhuje rostoucí uznání, že umělá inteligence není neutrální a vyžaduje pečlivý dohled, aby chránila zranitelné uživatele.

Nový zákon zdůrazňuje napětí mezi technologickým pokrokem a etickou odpovědností a vyžaduje, aby společnosti vyvíjející umělou inteligenci upřednostňovaly bezpečnost uživatelů vedle vývoje produktů. Krok Kalifornie by mohl signalizovat posun směrem k přísnějším pravidlům pro regulaci umělé inteligence, což donutí vývojáře, aby proaktivně řešili potenciální škody způsobené jejich technologiemi.

Exit mobile version