Opinione: L’IA nella Guerra—Il Silenzioso Cambiamento dell’Industria Tecnologica verso il Campo di Battaglia

Image generated using ChatGPT

Opinione: L’IA nella Guerra—Il Silenzioso Cambiamento dell’Industria Tecnologica verso il Campo di Battaglia

Tempo di lettura: 6 Min.

Il dibattito sulle armi autonome, le politiche sulla sicurezza tecnologica e l’etica dell’IA nell’ambito militare è in corso da tempo, ma i giorni recenti hanno portato sviluppi significativi. Leader di OpenAI, DeepSeek, e persino il fondatore di Spotify hanno annunciato nuovi accordi per lavorare con i governi sulle tecnologie di difesa e sull’IA strategica

Le tensioni attorno all’uso dell’intelligenza artificiale in guerra si sono acuite negli ultimi giorni. Questo mese, diverse aziende tecnologiche hanno annunciato nuove partnership strategiche con i governi per sviluppare progetti di difesa. E, come accade spesso nello spazio dell’IA, c’è stato un netto cambiamento negli ultimi mesi nel modo in cui l’IA viene affrontata per lo sviluppo militare e di armi.

Solo pochi giorni fa, OpenAI e il governo degli Stati Uniti hanno annunciato un contratto da $200 milioni per sviluppare strumenti di difesa alimentati da intelligenza artificiale. I dettagli rimangono scarsi, con i funzionari che sottolineano le “operazioni amministrative” come l’applicazione principale.

Nel frattempo, l’imprenditore svedese e fondatore di Spotify Daniel Ek ha sostenuto l’azienda tedesca Helsing guidando un round di investimenti da €600 milioni. Helsing, che inizialmente si concentrava sulla tecnologia del software, sta ora virando verso lo sviluppo di droni, sottomarini e aerei.

Reuters ha recentemente rivelato che DeepSeek sta aiutando le operazioni militari e di intelligence della Cina. Un alto funzionario statunitense ha dichiarato che la startup di intelligenza artificiale ha contribuito a risolvere le sfide nella guerra commerciale tra Stati Uniti e Cina, e il suo modello open-source sta aiutando il governo cinese nelle operazioni di sorveglianza.

I giganti della tecnologia stanno collaborando con i governi in modi che non siamo abituati a vedere – almeno non così pubblicamente – e si stanno coinvolgendo in attività che tradizionalmente non facevano parte del loro ruolo, come gli alti dirigenti tecnici che si uniscono alla Riserva dell’Esercito degli Stati Uniti.

Cosa sta succedendo?

Un Cambiamento nel Discorso

Le aziende tecnologiche sono passate dal “Non useremmo mai l’IA per scopi militari” a “Forse cancelleremo silenziosamente questa clausola dalle nostre politiche” fino a “Grandi notizie, stiamo ora costruendo armi alimentate dall’IA per il governo!”

Almeno, così sembra all’osservatore attento.

Non molto tempo fa, i giganti dell’IA sembravano orgogliosi di dichiarare che non avrebbero mai supportato applicazioni militari, ma qualcosa è cambiato. Google ne è un ottimo esempio.

Nel 2017, il Dipartimento della Difesa degli Stati Uniti ha lanciato il Progetto Maven, il Team Cross-Funzionale di Guerra Algoritmica, un’iniziativa per integrare l’IA nelle operazioni militari. Google era inizialmente coinvolta, ma le proteste interne – guidate dalle preoccupazioni degli impiegati riguardo l’etica – hanno spinto l’azienda a ritirarsi temporaneamente.

L’anno scorso, un altro impulso verso le attività militari è emerso, e quasi 200 lavoratori di Google DeepMind hanno esortato l’azienda a rinunciare ai contratti militari.

“Qualsiasi coinvolgimento con la produzione militare e di armi influisce sulla nostra posizione di leader nell’IA etica e responsabile, e va contro la nostra dichiarazione di missione e i principi di IA dichiarati,” hanno scritto i dipendenti preoccupati.

Questa volta, la risposta di Google è stata di attendere e aggiornare silenziosamente le sue linee guida sull’etica dell’IA rimuovendo la parte in cui affermavano che non avrebbero mai sviluppato una tecnologia IA che potesse causare danni. Demis Hassabis, capo dell’IA di Google, ha spiegato che si stavano semplicemente adattando ai cambiamenti nel mondo.

Sebbene il caso di Google illustra la relazione in evoluzione tra l’IA e l’uso militare, è solo un esempio di un cambiamento più ampio a livello di settore verso il servizio degli obiettivi di difesa.

L’IA sta ridefinendo il settore militare e della difesa

Il lancio del Progetto Maven, o come alcuni potrebbero chiamarlo, “quando il governo degli Stati Uniti si è reso conto che i grandi modelli linguistici potrebbero essere estremamente utili in guerra”, ha rivelato uno dei motivi per cui il governo degli Stati Uniti è interessato all’IA.

Le capacità dei sistemi IA di elaborare enormi quantità di dati, identificare oggetti sul campo di battaglia e analizzare immagini sono particolarmente attraenti nel settore della difesa.

Analisi potenziate, al di là delle capacità umane

Dal 2022, sia l’Ucraina che la Russia hanno iniziato a integrare i sistemi di intelligenza artificiale nelle loro operazioni militari.

Il governo ucraino ha stretto partnership con aziende tecnologiche e ha messo in atto diverse strategie per sfruttare al massimo i grandi modelli linguistici. Di recente ha elaborato 2 milioni di ore di filmati di campo di battaglia—l’equivalente di 228 anni di video—per addestrare i modelli di intelligenza artificiale per i processi militari. Quante persone avrebbero bisogno per analizzare una quantità di dati così vasta?

“Questo è cibo per l’IA: se vuoi insegnare a un’IA, gli dai 2 milioni di ore (di video), diventerà qualcosa di sovrannaturale,” ha spiegato il fondatore del sistema digitale non profit OCHI, Oleksandr Dmitriev. Le riprese possono ottimizzare le prestazioni delle armi e aiutare a migliorare le tattiche di combattimento.

Un altro sistema IA, Avengers, è la piattaforma di intelligence alimentata da IA sviluppata dal Centro di Innovazione del Ministero della Difesa dell’Ucraina, che elabora video in diretta da droni e identifica fino a 12.000 unità nemiche settimanalmente.

I Droni: Un Bene Prezioso Nel Campo di Battaglia

I droni sul campo di battaglia – spesso definiti “macchine killer” – sono attualmente tra le tecnologie più preziose nella guerra moderna grazie alla loro autonomia, precisione e basso costo. Questi robot permettono alle nazioni in guerra di effettuare attacchi ad alto impatto senza rischiare la vita dei piloti umani e con una frazione della spesa tradizionale.

Entro maggio di quest’anno, la Russia aveva dispiegato oltre 3,000 droni kamikaze Veter in Ucraina. Questi sistemi sono in grado di identificare i bersagli ed eseguire attacchi in modo autonomo.

Solo pochi giorni fa, i soldati ucraini hanno dispiegato il drone Gogol-M, un drone “nave madre” che può viaggiare fino a 300 chilometri, trasportare altri droni, eludere i radar volando a basse altitudini e scandagliare il terreno sottostante per rilevare e attaccare le truppe nemiche.

Secondo The Guardian, ogni attacco effettuato con questo potente drone costa circa $10.000, mentre un sistema missilistico che utilizza una tecnologia leggermente più vecchia avrebbe costato tra i $3 e i $5 milioni.

La nuovissima startup Theseus ha rapidamente raccolto $4.3 milioni dopo che i suoi giovani fondatori hanno condiviso un post sulla piattaforma di social media X lo scorso anno, affermando di aver costruito un drone per meno di $500 che potrebbe volare senza un segnale GPS.

Sebbene la tecnologia dei droni non sia ancora così precisa come alcuni sviluppatori sperano – specialmente quando è influenzata da condizioni meteorologiche che ne riducono la “visibilità” – ha mostrato un grande potenziale nel settore.

Un consenso globale difficile da raggiungere

Non sono solo i paesi in guerra o le principali potenze mondiali che stanno sviluppando nuove tecnologie alimentate dall’IA per la difesa. Molte nazioni hanno integrato l’IA negli sforzi di cybersecurity e nello sviluppo di armi autonome per anni. Questo non è solo un fenomeno del 2025.

Dal 2014, le Nazioni Unite stanno tentando di concordare quadri normativi con molteplici nazioni, senza successo.

Oltre 90 nazioni si sono recentemente riunite all’Assemblea Generale dell’ONU a New York per discutere il futuro delle armi autonome controllate dall’IA e le loro normative. Non hanno raggiunto un consenso, e l’Assemblea Generale ha solo approvato una risoluzione non vincolante del 2023, che avverte della necessità di affrontare i sistemi di armi letali autonome (LAWS).

Il grande dibattito ora verte su se implementare o no un quadro globale. Molti paesi concordano sulla necessità di nuove linee guida globali che possano regolamentare le aziende private di AI e le nazioni. Altri paesi, come gli Stati Uniti, la Cina, la Russia e l’India, preferiscono mantenere le attuali leggi internazionali e creare, indipendentemente, nuove leggi per ogni nazione in base alle loro esigenze locali – o interessi. E abbiamo appena assistito a quanto sia stato caotico il processo di creazione di nuove regolamentazioni sull’AI, anche a livello statale in California.

Le aziende tech sempre più coinvolte

Attivisti come Laura Nolan di Stop Killer Robots si preoccupano della mancanza di misure di sicurezza e di quadri legali che controllino l’avanzamento delle aziende tech nello sviluppo di armi autonome e software AI per l’esercito.

“Generalmente non ci fidiamo dell’autoregolamentazione delle industrie… Non c’è motivo per cui le aziende di difesa o tecnologiche dovrebbero essere più degne di fiducia,” ha detto Nolan a Reuters.

Nel 2024, i ricercatori hanno rivelato che le istituzioni cinesi hanno utilizzato il modello di linguaggio di grande portata open-source di Meta, Llama, per scopi militari. Il Pentagono ha raggiunto un accordo con Scale AI per sviluppare Thunderforge—un progetto di intelligenza artificiale per modernizzare il processo decisionale militare. E OpenAI si è associata con il contraente militare Anduril—un alleato di difesa dell’esercito degli Stati Uniti, del Regno Unito, dell’Ucraina e dell’Australia.

Anche le startup della difesa si sono sviluppate in Europa, guadagnando terreno non solo nello sviluppo di nuove tecnologie e progetti, ma anche nell’attrarre talenti di alto livello.

Uno Sviluppo Complicato

Un altro fattore strettamente legato al coinvolgimento delle aziende tecnologiche nelle strategie di difesa nazionale è il nazionalismo. Sempre più sviluppatori di software e esperti di IA stanno scegliendo di lavorare su progetti che si allineano con i loro ideali e radici culturali piuttosto che inseguire semplicemente stipendi più elevati. Alcuni hanno persino rifiutato posti di lavoro negli Stati Uniti che offrivano il doppio del salario—come Google o OpenAI—per unirsi a imprese europee come Helsing, per esempio.

I fili della politica, della tecnologia, del nazionalismo e delle battaglie ideologiche si stanno intrecciando sempre più – spesso lasciando indietro considerazioni di etica, moralità e umanesimo.

Gli sviluppi recenti rendono chiaro che i giganti della tecnologia stanno svolgendo un ruolo enorme negli sforzi militari e di difesa nazionale in tutto il mondo. Lo sviluppo di armi autonome e tecnologie legate alla guerra sta avanzando a un ritmo ultra-veloce, mentre gli sforzi delle Nazioni Unite per stabilire accordi e regolamenti internazionali per il futuro dell’umanità sembrano sempre più minimizzati.

Senza accordi internazionali – e con ambiziose aziende tecnologiche supportate dai governi per sviluppare le armi più potenti del mondo utilizzando l’IA – cosa riserva il futuro per l’umanità negli anni a venire?

Hai apprezzato questo articolo?
Valutalo!
L'ho odiato Non mi è piaciuto Non male Molto bene! L'ho amato!

Siamo felici che ti sia piaciuto il nostro lavoro!

In qualità di stimato lettore, ti dispiacerebbe lasciare una recensione su Trustpilot? Richiede poco tempo e significa tantissimo per noi. Grazie mille!

Valutaci su Trustpilot
0 Votato da 0 utenti
Titolo
Commento
Grazie per la tua opinione!