Kalifornien hat ein neues Gesetz erlassen, das von KI-Begleit-Chatbots verlangt, sich ausdrücklich als nichtmenschliche Einheiten zu identifizieren und Sicherheitsprotokolle, einschließlich Maßnahmen zur Suizidprävention, umzusetzen. Gouverneur Gavin Newsom unterzeichnete am Montag das Gesetz SB 243 und markierte damit einen bedeutenden Schritt zur Regulierung der sich schnell entwickelnden Landschaft der künstlichen Intelligenz.
Offenlegungspflichten für Minderjährige
Der Gesetzentwurf sieht vor, dass Chatbots, die mit Benutzern unter 18 Jahren interagieren, alle drei Stunden eine Erinnerung anzeigen, dass sie kein Mensch sind. Diese Bestimmung geht auf Bedenken hinsichtlich emotionaler Abhängigkeit und der Möglichkeit ein, dass Benutzer, insbesondere junge Menschen, ungesunde Bindungen zu KI-Begleitern entwickeln. Ziel des Gesetzes ist es, Falschdarstellungen zu verhindern und sicherzustellen, dass Nutzer sich der künstlichen Natur ihrer Interaktionen bewusst bleiben.
Protokolle zur Suizidprävention
SB 243 verlangt außerdem von Chatbot-Unternehmen, klare Protokolle zur Identifizierung und Reaktion auf von Benutzern geäußerte Selbstmordgedanken oder Selbstverletzungen zu erstellen. Das Gesetz reagiert direkt auf die wachsende Besorgnis über die Auswirkungen von KI auf die psychische Gesundheit, insbesondere nach Vorfällen, bei denen Chatbots angeblich mit Nutzerstress in Verbindung gebracht wurden. OpenAI, der Erfinder von ChatGPT, sah sich bereits mit Klagen von Eltern konfrontiert, die behaupteten, die Plattform habe zum Selbstmord ihres Kindes beigetragen, was das Unternehmen dazu veranlasste, neue Kindersicherungen einzuführen.
Umfassendere Technologieregulierung in Kalifornien
Dieses Gesetz ist Teil einer Reihe kürzlich von Newsom unterzeichneter Gesetzesentwürfe, die auf Verbrauchertechnologie abzielen. AB 56 schreibt Warnhinweise auf Social-Media-Plattformen vor, ähnlich denen auf Tabakprodukten, während andere Maßnahmen darauf abzielen, Benutzerdaten zu schützen und störende Werbepraktiken einzudämmen. Diese Gesetze spiegeln einen breiteren Trend wider, dass Regulierungsbehörden hart gegen Technologieunternehmen vorgehen, während die öffentliche Besorgnis über Datenschutz, psychische Gesundheit und suchterzeugendes Design zunimmt.
Reaktion der Branche
KI-Entwickler reagieren auf die neuen Vorschriften mit unterschiedlichem Grad an Compliance. Replika, eine führende KI-Begleitplattform, gab an, bereits über Selbstverletzungserkennungssysteme zu verfügen und mit den Aufsichtsbehörden zusammenzuarbeiten, um die vollständige Einhaltung sicherzustellen. OpenAI und Character.ai brachten beide ihre Unterstützung für den Gesetzentwurf zum Ausdruck und erkannten die Notwendigkeit einer verantwortungsvollen KI-Entwicklung an.
„Durch die Festlegung klarer Leitplanken trägt Kalifornien dazu bei, einen verantwortungsvolleren Ansatz für die KI-Entwicklung und den Einsatz im ganzen Land zu entwickeln“, sagte Jamie Radice, Sprecher von OpenAI.
Die Auswirkungen von SB 243 reichen über Kalifornien hinaus und könnten einen Präzedenzfall für ähnliche Vorschriften im ganzen Land schaffen. Da KI weiterhin in das tägliche Leben integriert wird, konzentrieren sich die Gesetzgeber zunehmend darauf, ihre Risiken zu mindern und gleichzeitig Innovationen zu fördern. Die Gesetzgebung unterstreicht die wachsende Erkenntnis, dass KI nicht neutral ist und eine sorgfältige Aufsicht erfordert, um gefährdete Benutzer zu schützen.
Das neue Gesetz verdeutlicht die Spannung zwischen technologischem Fortschritt und ethischer Verantwortung und fordert, dass KI-Unternehmen neben der Produktentwicklung auch der Benutzersicherheit Vorrang einräumen. Die Maßnahmen Kaliforniens könnten ein Signal für eine Verlagerung hin zu einer strengeren KI-Governance sein und Entwickler dazu zwingen, die potenziellen Schäden ihrer Technologie proaktiv anzugehen.
