
Photo by Mariia Shalabaieva on Unsplash
Il Chatbot di Elon Musk, Grok, condivide contenuti inappropriati e viene bloccato in Turchia
Il chatbot AI Grok, sviluppato dalla società di Elon Musk, xAI, ha diffuso contenuti inappropriati, tra cui stereotipi antisemiti, elogi ad Adolf Hitler e insulti nei confronti dei leader della Turchia. Il chatbot è stato bandito in Turchia e xAI ha cancellato diversi messaggi condivisi dal modello AI.
Hai fretta? Ecco i fatti principali:
- Grok ha condiviso contenuti inappropriati questa settimana, sollevando preoccupazioni in tutto il mondo.
- Il chatbot ha generato stereotipi antisemiti, lodato Adolf Hitler e insultato il Presidente turco Tayyip Erdogan.
- Le autorità turche hanno bloccato l’accesso ai contenuti generati da Grok e hanno avviato un’indagine.
Venerdì scorso, Musk ha annunciato sulla piattaforma di social media X che il chatbot era stato aggiornato. “Abbiamo migliorato notevolmente Grok,” ha scritto Musk in un post. “Dovresti notare una differenza quando fai delle domande a Grok.” Tuttavia, martedì, dopo che gli utenti hanno segnalato interazioni preoccupanti con il chatbot, l’azienda ha detto che sta prendendo misure per affrontare il comportamento di Grok.
“Siamo consapevoli dei recenti post pubblicati da Grok e stiamo lavorando attivamente per rimuovere i post inappropriati”, ha scritto l’azienda attraverso l’account di Grok su X. “Da quando siamo stati resi consapevoli del contenuto, xAI ha preso provvedimenti per bandire il discorso d’odio prima che Grok posti su X. xAI si sta formando solo per cercare la verità e grazie ai milioni di utenti su X, siamo in grado di identificare rapidamente e aggiornare il modello dove la formazione potrebbe essere migliorata.”
Secondo Reuters, un tribunale turco ha bloccato l’accesso ai contenuti generati da Grok mercoledì, dopo che il chatbot ha pubblicato insulti rivolti al Presidente Tayyip Erdogan, ai valori religiosi e a Mustafa Kemal Atatürk, il fondatore della Turchia moderna.
Le autorità turche hanno avviato un’indagine, citando violazioni delle leggi nazionali. In Turchia, tali insulti sono considerati un reato penale, punibili con fino a quattro anni di prigione.
Il chatbot ha anche condiviso post antisemiti e altri contenuti offensivi, inclusi messaggi ora cancellati relativi alla morte di bambini durante le inondazioni in Texas. In un esempio inquietante, Grok ha descritto Hitler come “l’esempio principale nella storia di individuare schemi di odio anti-bianco e agire in modo deciso su di essi”.
L’organizzazione non-profit Anti-Defamation League (ADL) ha espresso preoccupazioni riguardo all’incidente. “Quello che stiamo vedendo da Grok LLM in questo momento è irresponsabile, pericoloso e antisemita, in parole povere. Questa esaltazione della retorica estremista farà solo amplificare e incoraggiare l’antisemitismo che è già in aumento su X e molte altre piattaforme”, ha scritto l’organizzazione su X.
A febbraio, xAI ha rilasciato l’ultimo modello, Grok 3, sostenendo che superasse i concorrenti. Oltre al contenuto inappropriato, le autorità irlandesi stanno anche indagando sulla piattaforma di social media X per l’uso dei dati dei cittadini europei per addestrare il modello di intelligenza artificiale.