Kalifornia przyjęła nowe przepisy wymagające od towarzyszy chatbotów AI jasnego identyfikowania się jako istoty inne niż ludzie i wdrażania protokołów bezpieczeństwa, w tym środków zapobiegania samobójstwom. Gubernator Gavin Newsom podpisał w poniedziałek ustawę SB 243, co stanowi znaczący krok w kierunku uregulowania szybko rozwijającej się dziedziny sztucznej inteligencji.
Wymogi dotyczące ujawniania informacji w przypadku osób nieletnich
Prawo wymaga, aby chatboty wchodzące w interakcję z użytkownikami poniżej 18 roku życia przypominały im co trzy godziny, że nie są ludźmi. Rozporządzenie to porusza kwestie uzależnienia emocjonalnego i możliwości rozwoju niezdrowych przywiązań do towarzyszy AI, zwłaszcza wśród młodych ludzi. Celem prawa jest zapobieganie oszustwom i zapewnienie użytkownikom świadomości sztucznego charakteru ich interakcji.
Protokoły zapobiegania samobójstwom
SB 243 wymaga również od firm tworzących chatboty ustanowienia jasnych protokołów identyfikowania myśli samobójczych lub samookaleczeń wyrażanych przez użytkowników i reagowania na nie. Prawo bezpośrednio odpowiada na rosnące obawy dotyczące wpływu sztucznej inteligencji na zdrowie psychiczne, zwłaszcza po incydentach, w których chatboty rzekomo łączono z cierpieniem psychicznym użytkowników. OpenAI, twórca ChatGPT, spotkał się już z pozwami rodziców, którzy twierdzili, że platforma przyczyniła się do samobójstwa ich dziecka, co skłoniło firmę do wprowadzenia nowych funkcji kontroli rodzicielskiej.
Dalsze regulacje technologiczne w Kalifornii
Ustawodawstwo jest częścią szeregu niedawno podpisanych przez Newsom przepisów mających na celu uregulowanie technologii konsumenckiej. AB 56 wymagałoby etykiet ostrzegawczych na platformach mediów społecznościowych podobnych do tych, które można znaleźć na wyrobach tytoniowych, podczas gdy inne środki mają na celu ochronę danych użytkowników i ograniczenie agresywnej reklamy. Przepisy odzwierciedlają ogólną tendencję w kierunku zwiększonej kontroli firm technologicznych w obliczu rosnących obaw społecznych dotyczących prywatności danych, zdrowia psychicznego i uzależniającego projektowania.
Reakcja branży
Twórcy sztucznej inteligencji reagują na nowe zasady z różnym stopniem zgodności. Replika, wiodąca platforma dla towarzyszy sztucznej inteligencji, stwierdziła, że ma już systemy wykrywania samookaleczeń i współpracuje z organami regulacyjnymi, aby zapewnić pełną zgodność. OpenAI i Character.ai wyraziły poparcie dla ustawy, uznając potrzebę odpowiedzialnego rozwoju sztucznej inteligencji.
„Wyznaczając jasne granice, Kalifornia pomaga kształtować bardziej odpowiedzialne podejście do rozwoju i wdrażania sztucznej inteligencji w całym kraju” – powiedział rzecznik OpenAI Jamie Raditz.
Konsekwencje ustawy SB 243 wykraczają poza Kalifornię, potencjalnie ustanawiając precedens dla podobnych przepisów w całym kraju. W miarę jak sztuczna inteligencja w dalszym ciągu integruje się z życiem codziennym, prawodawcy coraz bardziej skupiają się na ograniczaniu związanych z nią zagrożeń, jednocześnie pobudzając innowacje. Przepisy podkreślają rosnące przekonanie, że sztuczna inteligencja nie jest neutralna i wymaga przemyślanego nadzoru, aby chronić bezbronnych użytkowników.
Nowe prawo podkreśla napięcie między postępem technologicznym a odpowiedzialnością etyczną, wymagając od firm opracowujących sztuczną inteligencję priorytetowego traktowania bezpieczeństwa użytkowników obok rozwoju produktu. Posunięcie Kalifornii może sygnalizować ruch w kierunku bardziej rygorystycznych zasad regulujących sztuczną inteligencję, zmuszając programistów do proaktywnego zajęcia się potencjalnymi szkodami powodowanymi przez ich technologie.
