Додому Laatste nieuws en artikelen OpenAI implementeert leeftijdsvoorspelling in ChatGPT om tienergebruikers te beschermen

OpenAI implementeert leeftijdsvoorspelling in ChatGPT om tienergebruikers te beschermen

OpenAI is begonnen met het uitrollen van leeftijdsvoorspellingstechnologie binnen ChatGPT, een maatregel die is ontworpen om de veiligheidsmaatregelen voor adolescente gebruikers te verbeteren. Het systeem, dat dinsdag werd aangekondigd, heeft tot doel minderjarigen te beschermen tegen schadelijke inhoud en tegelijkertijd de juridische uitdagingen van het bedrijf in het verleden met betrekking tot het welzijn van tieners te erkennen.

Achtergrond en juridische context

De uitrol volgt op meerdere rechtszaken waarin wordt beweerd dat ChatGPT schadelijk advies heeft gegeven aan tieners, waaronder gevallen waarin de AI naar verluidt heeft bijgedragen aan zelfmoordgedachten of niet adequaat heeft gereageerd op noodsignalen. OpenAI heeft deze beschuldigingen betwist, maar de gevallen leidden tot een herevaluatie van de veiligheidsprotocollen. In december heeft OpenAI zijn Modelspecificatie (de gids voor het gedrag van zijn AI) geüpdatet, waarbij specifiek aandacht wordt besteed aan interacties met gebruikers onder de 18 jaar in kritieke situaties.

Hoe leeftijdsvoorspelling werkt

Het nieuwe systeem van ChatGPT schat de leeftijd met behulp van gedragspatronen en accountsignalen. Deze omvatten gebruikstijden, accountleeftijd, langetermijnactiviteit en eventuele zelfgerapporteerde leeftijd. Als het model vaststelt dat een gebruiker jonger is dan 18 jaar, wordt de toegang tot expliciet geweld, afbeeldingen van zelfbeschadiging en expliciete rollenspellen beperkt. Gebruikers die zich tijdens het aanmaken van een account aanvankelijk als minderjarig verklaren, zijn automatisch onderworpen aan deze waarborgen.

Voor accounts waarvan de leeftijd onzeker is, zal ChatGPT standaard de veiligere instellingen gebruiken. Volwassen gebruikers die ten onrechte als minderjarig zijn gemarkeerd, kunnen hun leeftijd verifiëren via Persona, een identiteitsverificatiedienst van derden waarvoor een selfie-inzending vereist is.

Privacy- en beveiligingsproblemen

Het gebruik van verificatie door derden leidt tot zorgen over de privacy. OpenAI heeft niet gedetailleerd beschreven hoe ingediende identiteitsbewijzen zullen worden opgeslagen, een punt van voorzichtigheid gezien de Discord-inbreuk in 2025 waarbij tienduizenden door de overheid uitgegeven identiteitsbewijzen openbaar werden gemaakt. Dit benadrukt de inherente risico’s van het vertrouwen op externe diensten voor leeftijdsverificatie.

OpenAI is van plan de nauwkeurigheid van leeftijdsvoorspellingen in de loop van de tijd te verfijnen, op basis van initiële uitrolgegevens. Het bedrijf erkent dat dit een continu proces is.

De implementatie van leeftijdsvoorspelling is een direct antwoord op juridische druk en groeiende ethische zorgen rond AI-veiligheid. Door de toegang tot schadelijke inhoud te beperken, probeert OpenAI potentiële risico’s voor kwetsbare gebruikers te beperken. De afhankelijkheid van verificatie door derden introduceert echter nieuwe beveiligingsproblemen die zorgvuldig moeten worden beheerd.

Exit mobile version