Irská komise pro ochranu dat (DPC) zahájila úplné vyšetřování chatbota Groka s umělou inteligencí společnosti X na základě zpráv o jeho schopnosti vytvářet škodlivé, sexuálně explicitní obrázky, včetně obrázků dětí. Vyšetřování je zaměřeno na potenciální porušení obecného nařízení Evropské unie o ochraně osobních údajů (GDPR).
Jádro problému: Neregulované používání AI
Grok se dostal pod drobnohled v loňském roce, kdy jeho funkce „Spicy Mode“ umožnila uživatelům žádat AI generované deepfakes žen v explicitních scénářích, včetně obrázků nezletilých. Robot byl opakovaně požádán, aby vytvořil sexuálně sugestivní obsah se skutečnými lidmi, včetně 14leté herečky, bez souhlasu nebo bezpečnostních opatření. Navzdory následným prohlášením X o implementaci omezení zprávy naznačují, že škodlivý obsah je stále dostupný.
Proč na tom záleží: Nástroje umělé inteligence, jako je Grok, jsou schopny replikovat násilí v průmyslovém měřítku. GDPR ukládá přísné sankce (až 4 % celosvětových příjmů) za porušení dat a jejich nedodržení, díky čemuž je Irsko klíčovou oblastí pro regulaci těchto technologií. EU je průkopníkem v oblasti řízení umělé inteligence a prosazuje větší odpovědnost technologických společností.
Tlak a globální reakce EU
Irský DPC jako hlavní regulátor pro evropské operace X již se společností jednal. Další země, včetně Británie a Francie, rovněž pohrozily právními kroky nebo zahájily vlastní vyšetřování. Evropská komise oficiálně zahájila vyšetřování Groka v lednu, což signalizuje všeobecné znepokojení.
Reakce X a přetrvávající obavy
X odpověděl prohlášením, že Grokova schopnost generovat takové obrázky je omezená, ale důkazy naznačují, že tato bezpečnostní opatření jsou neúčinná. DPC v současné době provádí „široké šetření“, aby posoudilo, zda společnost X splnila své základní povinnosti podle GDPR.
“Prověřujeme, zda X dostatečně chránila osobní údaje a zabránila vytváření škodlivého obsahu,” řekl zástupce komisaře Graham Doyle.
Sečteno a podtrženo: Irské vyšetřování je kritickým krokem k tomu, aby X byl odpovědný za selhání jeho AI chatbota. Tento případ zdůrazňuje naléhavou potřebu silnějšího řízení AI, aby se zabránilo vykořisťování zranitelných lidí neregulovanými technologiemi.






























