
Image by AbsolutVision, from Unsplash
Gli Editori Bloccano i Bot AI per Proteggere i Contenuti
Gli editori di notizie continuano a combattere contro i bot AI, citando in giudizio le aziende tecnologiche, mettendo in guardia che lo scraping rappresenta un pericolo per il giornalismo, i sistemi di giusta retribuzione, così come per il futuro del web aperto.
Sei di fretta? Ecco i fatti essenziali:
- Strumenti di intelligenza artificiale come ChatGPT riducono il traffico verso i siti di notizie.
- Cloudflare ha lanciato strumenti per aiutare a bloccare i raschietti AI non autorizzati.
- Reddit e iFixit hanno citato in giudizio o bloccato aziende di intelligenza artificiale come Anthropic.
In un nuovo rapporto di The Wall Street Journal (WSJ), gli editori di notizie stanno reagendo contro le aziende di intelligenza artificiale che estraggono contenuti dai loro siti web senza compensazione. Mentre strumenti di IA come ChatGPT e Gemini di Google crescono, molte aziende mediatiche stanno cercando di bloccare i bot che utilizzano il loro lavoro senza permesso.
“Volete che siano gli umani a leggere il vostro sito, non i bot, in particolare i bot che non vi restituiscono alcun valore”, ha dichiarato Nicholas Thompson, CEO di The Atlantic, che ha un accordo di licenza con OpenAI ma prevede di bloccare altre aziende di intelligenza artificiale, come riportato dal WSJ.
Questa tattica, nota come “scraping”, esiste fin dai primi giorni di Google. All’epoca, i motori di ricerca indirizzavano il traffico ai siti web degli editori. Ora, i chatbot di intelligenza artificiale permettono riepiloghi di notizie che reindirizzano i lettori lontano dalle loro fonti originali. La combinazione della riduzione del traffico guidata dai bot e il declino dei ricavi pubblicitari è diventata un problema comune per numerosi editori.
Per reagire, gli editori stanno ricorrendo a società tecnologiche come Cloudflare, che ha recentemente lanciato strumenti per permettere ai siti web di controllare se i bot AI possono accedere ai contenuti. Neil Vogel, CEO di Dotdash Meredith, la cui azienda concede in licenza contenuti anche a OpenAI, ha dichiarato: “Le persone che creano proprietà intellettuale devono essere protette o nessuno creerà più proprietà intellettuale”, come riportato dal WSJ.
Alcune aziende, come Reddit e iFixit, hanno intrapreso azioni legali. Reddit ha citato in giudizio la società AI Anthropic per scraping oltre 100.000 volte nonostante le richieste di interruzione. iFixit ha affermato che Anthropic ha colpito i suoi server un milione di volte in un solo giorno.
La battaglia si sta svolgendo anche in tribunale. Il New York Times sta facendo causa a Microsoft e OpenAI, mentre News Corp e le sue filiali stanno affrontando Perplexity. Anche la BBC ha minacciato azioni legali contro la startup di intelligenza artificiale Perplexity, accusandola di raschiare i suoi contenuti per addestrare il suo modello predefinito.
Nel frattempo, alcuni temono che regole anti-raschiatura più severe possano bloccare utilizzi legittimi come la ricerca accademica, come sottolineato dal WSJ.
Come ha avvertito Shayne Longpre dell’Iniziativa sulla Provenienza dei Dati, “Il web viene suddiviso al miglior offerente. Questo è davvero negativo per la concentrazione del mercato e l’apertura”, come riportato dal WSJ.