Ad oggi sono tre le grandi scoperte rivoluzionarie in campo bellico: la polvere da sparo, risalente al 9° secolo e alla ricerca degli antichi taolisti cinesi, la bomba ad idrogeno del 1949, ed infine l’Intelligenza Artificiale (IA) che sta rivoluzionando l’industria bellica e che nei prossimi anni si prevede sarà protagonista di scontri e minacce all’interno della comunità internazionale.
La ricerca ‘Artificial Intelligence and the Future of Warfare’ pubblicata dal think thank Chatham House, afferma che in futuro i robot militari potrebbero, grazie all’AI, svolgere missioni e spedizioni in maniera del tutto autonoma, andando a sostituire la presenza umana e contribuendo a salvare la vita dei militari.
Michael E. O’Hanlon, esperto di intelligence e sicurezza, sta lavorando ad un libro che illustra in che modo l’intelligenza artificiale potrebbe influenzare il futuro campo di battaglia. Per fare ciò, O’Hanlon immagina uno scenario del 2040 nel quale ipotizza un attacco della Russia ad un piccolo villaggio dell’Estonia orientale. Un’incipit di una terza guerra mondiale nato completamente dall’immaginario dell’autore, ma che si snoda in un susseguirsi di eventi che implicano l’utilizzo di ‘armi intelligenti’, lontane da quelle utilizzate fino ad oggi nei conflitti internazionali, ma vicinissime a quelle sulle quali Paesi come Russia, Stati Uniti o Cina stanno investendo. Dunque O’Hanlon ci presenta una realtà immaginaria nata da una sua ricerca e da uno studio reale dell’IA impiegata oggi negli armamenti bellici. Un immaginario puntellato, però, da elementi concreti quali: nuove tecniche di difesa aerea e navale, l’utilizzo di armi laser e nuove tecniche di spionaggio.
L’utilizzo dell’AI nei campi dei battaglia del futuro avrà importanti implicazioni sulla difesa missilistica, rappresenterà una minaccia sempre più grande rispetto al classico hacking informatico o allo spoofing di oggi. Grazie all’intelligenza artificiale sarà possibile penetrare sempre più facilmente nei sistemi informatici di un avversario impiegando capacità automatizzate con una massiccia potenza di calcolo, volta a prevedere continuamente le tattiche delle difese avversarie.
In base a queste previsioni, sorge spontaneo chiedersi in cosa consisterà il ‘cambiamento intelligente’ in termini di armi e tecniche di difesa. Secondo Piero Poccianti, presidente dell’Associazione Italiana per l’Intelligenza Artificiale, l’IA è un insieme di strumenti potenti, e, in quanto tali, capaci di condizionare fortemente ogni aspetto della nostra società. “Qualcuno ha paragonato il loro potere a quello dell’energia atomica. E come per l’energia atomica è corretto che siano i ricercatori per primi a porsi delle domande sulla ricerca e sul suo utilizzo. Inoltre, è fondamentale che cerchino di indirizzare gli effetti verso risultati positivi per l’umanità, evitando così rischi e pericoli”, afferma Poccianti.
Poccianti spiega che il DARPA (Dipartimento per la Difesa Americano) è stato, fin dagli anni ‘60, uno degli attori più importanti sia a livello di ricerca che di finanziamento dei progetti sull’Intelligenza Artificiale. “Durante le varie epoche, si sono susseguite primavere (momenti di entusiasmo) e inverni (momenti di disillusione) per i risultati mostrati dall’IA; ma l’uso in campo militare è sempre rimasto un obiettivo strategico per tutti i Paesi del mondo”, aggiunge e prosegue “Oggi, la capacità di analizzare grandi moli di dati, di percepire pattern complessi, di riconoscere il parlato, le immagini, le espressioni dei volti e persino rischi, strategie, anomalie comportamentali, solo per citarne alcuni, fanno prefigurare nuovi utilizzi di questi strumenti”.
Poccianti spiega che analogamente a quanto succede nel settore dell’automotive con la macchina che guida da sola, anche nel campo degli armamenti si prefigura la possibilità di utilizzare armi autonome, capaci di colpire un obiettivo senza bisogno di supporto umano. “Tra i diversi documenti che anticipano questa evoluzione della guerra, vorrei citarne almeno due: Visualizing the Tactical Ground Battlefield in the Year 2050: Workshop Report ARL-SR-0327 JUNE 2015 US Army Research Laboratory; Artificial Intelligence and the Future of Warfare M. L. Cummings International Security Department and US and the Americas Programme January 2017”. Poccianti afferma che il primo parla esplicitamente di combattimenti a terra e della possibilità di fornire ai soldati, non solo armi di precisione a puntamento automatico e parzialmente autonome, ma anche esoscheletri e strumenti di ausilio capaci di aumentare le loro facoltà in termini di percezione del territorio, comunicazione e forza fisica. Il secondo affronta invece più chiaramente il tema delle armi autonome comprese quelle di precisione, come ad esempio i droni, in grado di individuare un obiettivo in un modo molto più incisivo, riconoscendone, ad esempio, anche il volto, per attaccarlo con precisione chirurgica. “Attualmente il DARPA sta investendo 2 miliardi di dollari nella ricerca sull’AI nel mondo militare, ma, stando alle fonti ufficiali, non si svilupperanno armi autonome”, afferma Poccianti.
“Quando si parla di IA si pensa a quei sistemi che sono in grado di agire e anche pensare razionalmente. Questo è l’ideale che si sta cercando di costruire per il futuro, però, al momento, questi sistemi sono in grado di leggere i dati e le informazioni che raccolgono o che gli vengono forniti, ma non sono ancora in grado di interpretare questi stessi dati”, commenta Alessandra Giada Dibenedetto, analista desk Difesa e Sicurezza del Ce.S.I.
Ma quanto c’è di IA negli armamenti in uso? Poccianti afferma che non è facile rispondere a questa domanda perché alcune informazioni sono evidentemente segrete. “Sappiamo che i sistemi di puntamento ultimamente si sono evoluti, utilizzando le capacità di riconoscimento degli oggetti, per esempio, oppure aumentando quelle sensoriali del pilota”, afferma. È bene sapere, però, che da molto tempo esistono sistemi di questo tipo che sono già stati applicati in vari contesti, ad esempio nei sottomarini per riconoscere e classificare i rumori percepiti: distinguere un sottomarino da una megattera o ancora identificare a seconda del rumore del motore un sottomarino nemico da uno amico.
“Crediamo che negli armamenti ci sia ancora poca intelligenza artificiale, anche se la direzione intrapresa è sicuramente verso lo sviluppo di soluzioni in grado di applicare e/o potenziare l’AI nelle armi”, aggiunge Nicola Gatti, professore del Politecnico di Milano e Direttore dell’Osservatorio Artificial Intelligence del Polimi. Della stessa idea è Dibenedetto che afferma: “Negli armamenti già esistenti e attualmente in uso non si può ancora parlare propriamente di IA, ci sono sicuramente dei software che fanno parte del sistema e dell’utilizzo dell’armamento, che però non possono ancora essere definiti come IA in senso proprio”. Dibenedetto afferma che negli USA, ma anche in Europa, alcuni sistemi di questo tipo vengono già utilizzati soprattutto per quel che riguarda la sorveglianza, quindi la raccolta di informazioni. “Pensiamo ad esempio che gli USA li hanno usati molte volte in Africa, tramite le immagini satellitari per raccogliere informazioni rispetto a quello che aveva luogo sul territorio. Sono utilizzati anche per la sorveglianza marittima, quindi anche il questo caso è un raccogliere immagini che poi possono essere tradotte, ancora in questa fase, dall’uomo, e informazioni o dati che possano essere utili da applicare poi nel campo strategico”.
Dibenedetto spiega che attualmente gli USA sono il Paese più ‘avanti’, se parliamo di investimenti che vengono dedicati all’attività di ricerca e sviluppo in questo settore. Sono seguiti dalla Cina che nel suo progetto definito ‘Made in China 2025’, ha sottolineato l’obiettivo di portare avanti ricerche nel settore dell’IA e in particolare si sta specializzando sullo sviluppo di progetti per il riconoscimento facciale. “Ovviamente anche i Paesi europei stanno cercando di tenere testa allo sviluppo di USA e Cina, in particolare Francia e Germania sono al momento gli stati che stanno dedicando più attenzione al settore”. La Francia ha annunciato l’intento di investire circa 1 miliardo e mezzo di euro nella ricerca dedicata all’IA, entro i prossimi 2-3 anni.
Dibenedetto afferma che anche Vladimir Putin qualche mese fa aveva parlato dell’IA definendola ‘il futuro’, sempre nel campo della difesa. Aveva anche sottolineato che il Paese che diventerà esperto nella materia, avrà un grande potere a livello mondiale. “Questo poteva lasciar intendere un grande interesse della Russia circa lo sviluppo di tecnologie di IA, tuttavia, dati alla mano, pare che il budget che la Russia stia dedicando al settore sia effettivamente molto inferiore di quello dei suoi competitor come USA e Cina”, aggiunge Dibenedetto e prosegue: “Però anche la Russia sta lavorando ad una serie di progetti sui quali applicare IA, ad esempio per i loro caccia Su-35”
Oggi, l’AI viene utilizzata soprattutto in ambito di difesa, che da sempre svolge un ruolo principale e strategico. Applicare tale tecnologia alle misure di difesa permette, infatti, di sventare un attacco terroristico o intercettare dei missili. Gatti afferma che sulla base di questo, in futuro ci potremmo aspettare: un aumento delle capacità sensoriali dei missili, utilizzando molteplici strumenti di riconoscimento e tracciamento degli obiettivi; lo sviluppo di missili capaci di prevedere il comportamento degli obiettivi in termini di contromisure, cercando quindi di non farsi ingannare da queste ultime; ed infine la creazione di missili sempre più intelligenti per rispondere a loro volta a queste contromisure.
“È importante però sottolineare che i missili, che verranno sviluppati nel prossimo decennio, saranno armi che non avranno nulla in comune con quelle immaginate nei film di fantascienza. Le armi autonome e i robot armati in grado di prendere decisioni da soli sono visioni ben lontane dallo stato attuale della ricerca. Anche se questo campo di applicazione si presta facilmente a scenari distruttivi, bisogna quindi allontanare le immagini catastrofiche che non fanno altro che alimentare una falsa percezione dell’IA”, commenta Gatti.
Secondo Dibenedetto per quanto riguarda i sistemi missilistici, l’obiettivo sarebbe creare un prototipo di IA che possa analizzare le condizioni climatiche, ma anche quelli che sono i raggi di azione dei radar, per migliorare sia la velocità che la direzione del missile stesso. “Questo potrà essere applicato a tutti i domini: acqua, terra, aria”.
Di fronte a quest’incremento di investimenti e di ricerca nel settore un quadro normativo che si sta venendo a formare è stato pensato dall’UE: “proprio quest’anno si è attivata molto nell’ambito ed è riuscita anche a far firmare a tutti i 5 Stati dell’Unione una Dichiarazione di Cooperazione sull’IA, volta a dettare delle regole ancora molto generiche su come procedere in questo ambito”, afferma Dibenedetto.
Poccianti spiega che nel 2015 il Future Life Institute ha redatto una open letter per sollecitare la messa al bando delle armi autonome. Firmata ad oggi da 3978 ricercatori di AI e Robotica e altre 22539 persone. Questa lettera è stata successivamente trasformata in una petizione firmata da 244 organizzazioni e 3187 individui. Sempre il Future Life Institute ha prodotto un video esemplificativo di quello che potrebbe succedere volto a risvegliare le coscienze su questo argomento. “Il video mostra come, molto semplicemente, la tecnologia potrebbe essere usata dai terroristi per provocare attacchi mirati (nel caso del video a studenti nelle scuole)”.
Nel febbraio 2018 è stato rilasciato un altro documento sullo stesso tema, dal titolo ‘The Malicious Use of Artificial Intelligence: Forecasting, Prevention, and Mitigation’. Il paper è stato redatto dal Future of Humanity Institute, l’Università di Oxford, Centre of Study of existential risk, University of Cambridge, Centre of new American Security, Electronic Frontier Foundation, e Open AI.
“Anche se il dibattito è molto acceso in questo momento, in tutti i documenti che analizzano il futuro dell’IA, si preferisce parlare di come evitare i rischi e incrementarne i vantaggi. Questa tendenza si rileva anche nei documenti rilasciati dall’Amministrazione Obama a fine mandato, e anche in altri documenti Europei”, afferma Poccianti e prosegue citando la discussione ‘Autonomous weapons and international law’, durante la quale è emerso che il controllo delle macchine autonome deve comunque essere effettuato dagli uomini. Conclusione che evidenzia come di fatto non possono essere assolutamente autonome. “Basti ricordare come il colonnello russo, Stanislav Petrov, in piena Guerra Fredda, riuscì ad identificare un falso allarme lanciato dai satelliti e dai computer che sorvegliavano l’Unione Sovietica, evitando così lo scoppio della Terza Guerra Mondiale. Se al suo posto ci fosse stata una macchina probabilmente la Storia sarebbe diversa”, commenta Poccianti.
Ma quali capacità ha il diritto internazionale di incidere sull’evoluzione dell’IA negli armamenti?
Poccianti afferma che da un lato dobbiamo aspettarci che saranno le stesse IA a provocare delle possibili guerre mondiali, come già espresso da Elon Musk, Stephen Hawking e Bill Gates. Si tratta di IA fuori controllo che, ad esempio, potrebbero reagire ad una minaccia in modo esagerato e autonomo scatenando una nuova guerra totale. Dall’altro lato, dobbiamo invece aspettarci una crisi sociale sempre più radicale con un progressivo aumento delle diseguaglianze, perdita del lavoro da parte della popolazione e conseguente guerra per accaparrarsi le scarse risorse che l’umanità avrà a disposizione. “Ipotesi di guerre per l’acqua e il cibo che scarseggeranno in alcune zone del mondo a causa della desertificazione sono quindi molto probabili”, commenta Poccianti. “Inoltre, l’evoluzione della nostra società mostra la possibilità di usare questi strumenti anche per attacchi non tradizionali come ad esempio quelli digitali attraverso il phishing o altre forme di Cyber attacks, oppure lo sviluppo di strumenti capaci di condizionare la popolazione a livello politico. Pensate al recente lavoro di Brooke Borel ‘Click, bugie e videotape’ nel quale illustra la possibilità di manipolare audio e video per diffondere notizie false in modo credibile”.
Secondo Dibenedetto come in ogni cosa, anche nell’IA ci sono dei pro e dei contro. Se da un lato può essere molto d’aiuto nel fare una serie di azioni o nel fornire una serie di informazioni, difficilmente reperibili, dall’altro lato i problemi che si incontrano nell’utilizzo dell’IA sono molti: “pensiamo alla questione etica, pensiamo al fatto che un prodotto di IA potrebbe con le sue azioni violare le norme internazionali sulla condotta di una guerra. Il rispetto dei diritti umani è uno dei problemi principali a cui si deve far fronte quando si tratta quest’argomento”, afferma Dibenedetto.
Con una visione molto più ottimistica, possiamo pensare che l’IA potrebbe darci una mano proprio ad evitare i conflitti, aiutandoci a cambiare strada. “Per esempio cambiando il modello di sviluppo e aiutandoci a rimediare a tendenze autolesionistiche che l’umanità sta percorrendo”, aggiunge Poccianti e prosegue: “Pensate all’impatto ambientale, ma anche alla disoccupazione. Perché dobbiamo dare la colpa alle macchine se le persone perdono il lavoro? Potremmo tranquillamente lavorare meno e lavorare tutti, citando un vecchio slogan. Ricordo che in un famoso discorso nel 1930 a Madrid John Maynard Keynes disse: i miei nipoti non dovranno lavorare più di 15 ore alla settimana se vogliamo che il sistema economico non entri in crisi”.
Tuttavia, conclude Dibenedetto, per immaginarci uno scenario in cui la maggior parte dei sistemi d’arma utilizzati avranno effettivamente componenti di IA, dobbiamo aspettare ancora un paio di decenni. “C’è una presa di coscienza da parte degli Stati che l’IA sarà il futuro anche nel campo della difesa e che potrà portare grandi benefici, ovviamente se nelle mani di attori statali giusti”.