Додому Najnowsze wiadomości i artykuły OpenAI wdraża wykrywanie wieku w ChatGPT, aby chronić nastolatki

OpenAI wdraża wykrywanie wieku w ChatGPT, aby chronić nastolatki

OpenAI rozpoczęło wdrażanie technologii wykrywania wieku w ChatGPT, której celem jest wzmocnienie środków bezpieczeństwa dla nieletnich użytkowników. Ogłoszony we wtorek system ma chronić nastolatków przed szkodliwymi treściami, biorąc pod uwagę wcześniejsze problemy prawne firmy związane z dobrem nastolatków.

Kontekst i kontekst prawny

Wdrożenie jest następstwem wielu procesów sądowych, w których zarzucono, że ChatGPT udzielał nastolatkom szkodliwych porad, w tym w przypadkach, gdy sztuczna inteligencja rzekomo wywoływała myśli samobójcze lub nie reagowała prawidłowo na wezwania pomocy. OpenAI kwestionuje zarzuty, ale przypadki skłoniły do ​​przeglądu protokołów bezpieczeństwa. W grudniu OpenAI zaktualizowało swoją specyfikację modelu — przewodnik po zachowaniu sztucznej inteligencji — aby uwzględnić w szczególności interakcje z użytkownikami poniżej 18 roku życia w sytuacjach krytycznych.

Jak działa wykrywanie wieku

Nowy system ChatGPT szacuje wiek na podstawie wzorców zachowań i sygnałów konta. Obejmuje to czas użytkowania, wiek konta, długoterminową aktywność i wszelkie samodzielnie zgłaszane dane dotyczące wieku. Jeśli model wykryje, że użytkownik ma mniej niż 18 lat, dostęp do drastycznych scen przedstawiających przemoc, obrazów przedstawiających samookaleczenie i wyraźnych treści związanych z odgrywaniem ról będzie ograniczony. Użytkownicy, którzy podczas tworzenia konta początkowo identyfikują się jako nieletni, automatycznie podlegają tym środkom bezpieczeństwa.

W przypadku kont, których wiek nie jest jasny, ChatGPT domyślnie przełącza się na bezpieczniejsze ustawienia. Dorośli użytkownicy błędnie oznaczeni jako nieletni mogą zweryfikować swój wiek za pośrednictwem Persona, zewnętrznej usługi weryfikacji tożsamości, która wymaga przesłania selfie.

Kwestie prywatności i bezpieczeństwa

Korzystanie z weryfikacji przez stronę trzecią budzi obawy dotyczące prywatności. OpenAI nie podało szczegółów dotyczących sposobu przechowywania przesłanych dokumentów tożsamości, co należy zachować ostrożność, biorąc pod uwagę włamanie na Discord w 2025 r., w wyniku którego ujawniono dziesiątki tysięcy dokumentów tożsamości wydanych przez rząd. Podkreśla to nieodłączne ryzyko związane z korzystaniem z zewnętrznych usług weryfikacji wieku.

OpenAI planuje z czasem poprawić dokładność wieku poprzez iteracyjne ulepszanie systemu w oparciu o dane uzyskane z początkowego wdrożenia. Firma zdaje sobie sprawę, że jest to proces ciągły.

Wprowadzenie wykrywania wieku jest bezpośrednią reakcją na presję prawną i rosnące obawy etyczne dotyczące bezpieczeństwa sztucznej inteligencji. Ograniczając dostęp do szkodliwych treści, OpenAI ma na celu ograniczenie potencjalnego ryzyka dla bezbronnych użytkowników. Jednak poleganie na weryfikacji przez strony trzecie wprowadza nowe luki w zabezpieczeniach, którymi należy ostrożnie zarządzać.

Exit mobile version