Terrorismo e Intelligenza Artificiale

È tecnologia tutto ciò che sulla base di un ragionamento porta a realizzare uno strumento, dalla penna al computer, utile a risolvere problemi concreti, a ottimizzare situazioni pratiche o a optare per una scelta strategica piuttosto che per un’altra. L’Intelligenza Artificiale, intesa come strumento ideato e adoperato dall’essere umano in funzione complementare, vale a dire non come sostituto ma come supplemento, fa parte del processo di evoluzione tecnologica.

Oggi, l’uomo si avvale di dispositivi “intelligenti” con l’obiettivo di massimizzare le sue prestazioni. Tuttavia, per le sue potenzialità, l’IA può trovare fruitori anche in contesti e con modalità distanti da quelli ritenuti leciti e legali, con riferimento tanto al diritto di uno Stato quanto a quello internazionale. È il caso, ad esempio, di individui o gruppi affiliati ad ambienti terroristici, come vedremo di seguito.

Nel dettaglio, l’obiettivo di questa analisi – che sintetizza un lavoro di tesi più ampio – è constatare se e in che modo attori del terrorismo domestico e internazionale abusano dell’IA, sia direttamente sul campo che negli ambiti di Terrorism Financing (TF), propaganda e disinformazione.

Verso una definizione di terrorismo e Intelligenza Artificiale

Il terrorismo può essere collocato all’interno della macrocategoria dell’eversione, accanto alla violenza politica, alla guerriglia e alla disinformazione. Con il termine “eversione”, infatti, si intendono tutte quelle attività volte a destabilizzare l’ordine e gli equilibri istituzionali di un Paese.

Fermo restando che una distinzione tra le varie sottocategorie non può essere netta, nel senso che i rispettivi confini risultano fortemente sfumati, è comunque possibile riconoscere l’esistenza di alcuni tratti distintivi del terrorismo, caratteristiche essenziali riconosciute nelle definizioni giuridiche fornite da diversi Stati.

Per poter essere considerato terroristico, un atto deve anzitutto ambire a intimidire la popolazione civile. La stessa parola “terrorismo” sottolinea la centralità dei concetti di paura e terrore, che sono sfruttati dal gruppo o dal singolo con la finalità di generare una reazione in colui che viene percepito come il vero nemico e che rappresenta l’uditorio bersaglio della condotta criminale. Per comprendere meglio questo punto, è importante sottolineare che il terrorismo si presenta come una forma di comunicazione, in quanto ogni sua esternazione costituisce un messaggio rivolto a bersagli che vanno oltre le vittime immediate dell’attentato[1]. Il suo scopo resta quello di suscitare uno stato emotivo tale per cui le azioni di una terza parte – che è l’obiettivo reale dell’atto terroristico – sono in qualche modo condizionate.

Poiché il terrorismo si configura come un’attività umana, non può che sottostare alle logiche di adattamento ed evoluzione che dettano l’esistenza dell’essere umano, le quali implicano quella flessibilità necessaria a sfruttare al meglio i nuovi strumenti di cui si dispone. Con ciò si fa cenno agli sviluppi tecnologici che hanno attraversato il fenomeno sin dal diciannovesimo secolo, con riferimento in primis all’uso delle tecnologie di comunicazione di massa. In questa prospettiva dovrebbe essere letto l’impiego dell’Intelligenza Artificiale da parte di agenti del terrorismo, ovvero come strumento che, così come nel caso di un uso neutro (o non criminale), consente di ottimizzare i risultati delle proprie azioni.

Dall’altra parte, parlare di Intelligenza Artificiale equivale a discutere di un fenomeno a sé stante complesso, di una realtà multidisciplinare in cui interagiscono e si intrecciano numerose altre scienze, dall’informatica e la biologia alla filosofia e la matematica. È una forma di Intelligenza Artificiale qualunque sistema che mostri di poter riprodurre capacità generalmente attribuite all’essere intelligente per eccellenza: l’essere umano. Così, è intelligente un sistema che sa ragionare, apprendere dalle sue passate esperienze, scoprire nuovi significati e comprendere un linguaggio.

Il punto, però, è che un sistema potenziato dall’Intelligenza Artificiale non è solo in grado di riprodurre quelle caratteristiche intelligenti tipiche dell’essere umano, ma è anche capace di agire di conseguenza e, soprattutto, autonomamente.

Impiego dell’IA sul campo

Il rapporto pubblicato dall’Office of Counter-Terrorism dell’UNICRI nel 2021, specifica che, nonostante l’appeal che le nuove tecnologie esercitano di fatto sui gruppi terroristici, soprattutto i più organizzati, non sono emerse prove concrete circa l’utilizzo (volontario e consapevole) dell’Intelligenza Artificiale da parte di organizzazioni di stampo terroristico. Le organizzazioni terroristiche, infatti, sono avverse al rischio, nel senso che tendono a operare secondo modalità di efficacia comprovata; caratteristica, questa, che le lega a uno stile per così dire tradizionale di azione criminale, con l’uso privilegiato di armi da fuoco ed esplosivi.

Al contempo, però, gli individui coinvolti in attività terroristiche sono «figli del loro tempo»[2], ossia si adattano alle tecnologie che il contesto mette loro a disposizione. Viceversa, queste stesse tecnologie raggiungono sempre, prima o poi, un livello di diffusione e disponibilità tale da renderle accessibili anche ad attori e per scopi criminali. In questo contesto, il potenziale di accrescimento degli effetti di un’operazione terroristica attraverso l’uso dell’IA, anche solo in termini di risonanza simbolica, vale come minimo la curiosità di un gruppo in relazione ai suoi possibili impieghi. In sintesi, non si può escludere in modo definitivo l’intenzione.

A conferma dell’orientamento delle organizzazioni terroristiche verso lo sfruttamento delle tecnologie più moderne, si pensi all’interesse espresso nell’ultimo decennio da gruppi del terrorismo islamico nei confronti dei veicoli autonomi o semi-autonomi. A questo riguardo, lo Stato Islamico dell’Iraq e del Levante (ISIL), che si serve di droni approssimativamente dal 2016, risulta aver costituito un’unità dedicata denominata “Unmanned Aircraft of the Mujahedeen[3].

In più, non è fondamentale per un’organizzazione terroristica acquisire internamente il know-how necessario per sviluppare le proprie tecnologie AI. Piuttosto, è sufficiente e più semplice affidarsi all’outsourcing, vale a dire acquistare prodotti già disponibili (anche se su canali illeciti[4]) o commissionarli ad attori criminali esterni al gruppo. In questo senso, la quantità di risorse economiche a disposizione è determinante – si pensi al supporto finanziario garantito da entità statali nel caso del terrorismo cosiddetto State-sponsored – sebbene il sequestro e il furto rimangano un’opzione valida. Pertanto, si può supporre a ragione che l’accessibilità di una tecnologia particolarmente sofisticata sia proporzionale al grado di organizzazione e alla capacità economica dell’agente criminale: è più probabile che sia un’organizzazione terroristica altamente strutturata e finanziata a entrare in possesso di ipotetiche armi AI-enabled piuttosto che un individuo che agisce da lone wolf.

Il fatto che gli sviluppi nel campo dell’Intelligenza Artificiale non siano prerogativa esclusiva del settore pubblico ma, anzi, dipendano fortemente da quello privato, aumenta di molto la possibilità che queste tecnologie finiscano nella mani di agenti criminali[5]. Tuttavia, dalla prematurità delle tecnologie in uso e sul mercato, e sulla base delle informazioni rese note, si può desumere che esse non costituiscano allo stato attuale una reale minaccia terroristica.

Ancora in riferimento all’impiego di veicoli, non sono stati rari gli attacchi terroristici realizzati per mezzo di automobili o autocarri lanciati sulla folla oppure in qualità di VBIED (Vechicle Borne Improvised Explosive Device). Si ricordino, a tal proposito, l’attacco di Berlino del 2016, quello di Barcellona dell’anno successivo e a Kabul nel 2018.

Già nel 2016, un filmato ottenuto da Sky News ha portato all’attenzione pubblica un centro di ricerca gestito dallo Stato islamico a Raqqa per lo sviluppo, tra le altre cose, di automobili driverless. Il video in questione mostra alcuni membri dell’organizzazione nel tentativo di manovrare il veicolo a distanza e predisporre un manichino per simulare un guidatore umano[6]. Nonostante il mezzo fosse appunto guidato da remoto e non fosse autonomo, l’accaduto testimonia le ambizioni tecnologiche del gruppo.

Comunque, considerando che veicoli su strada totalmente autonomi, ovvero che non richiedono in alcun caso l’intervento umano, sono ancora in via di sviluppo, e ipotizzando costi iniziali proibitivi, anche in questo caso il loro impiego in ambito terroristico non è realistico nel breve periodo.

IA e finanziamento del terrorismo

In relazione al finanziamento del terrorismo, nel report delle Nazioni Unite citato in precedenza, gli autori sostengono che algoritmi di Deep Learning per la creazione di audio deepfake possono ricoprire un ruolo significativo nell’esecuzione di truffe telefoniche ai danni di vittime convinte di comunicare con persone che conoscono. Nel caso in cui queste truffe dovessero configurarsi come metodo di fundraising di successo, le organizzazioni terroristiche potrebbero adoprarle per finanziare le loro operazioni criminali.

Malgrado ciò, è opportuno sottolineare che i metodi più accreditati di “raccolta fondi” dei gruppi terroristici hanno profondi collegamenti con altre attività illecite, spesso legate al crimine organizzato, tra cui il contrabbando di stupefacenti e armi, e il traffico di esseri umani. Oltre a questi, anche l’abuso di enti non profit, la richiesta o ricezione spontanea di donazioni e alcuni metodi tipici di un’entità statale, come la riscossione di tasse e il commercio di risorse naturali, quali petrolio e gas naturale.

Le truffe telefoniche, quindi, almeno sulla base della documentazione non classificata e disponibile, hanno un ruolo piuttosto marginale nel finanziamento del terrorismo, considerati anche i rischi legati a eventuali denunce e alla conseguente possibile esposizione della rete di appartenenza[7].

È utile considerare, poi, un ulteriore scenario possibile in relazione al finanziamento del terrorismo, ovvero l’abuso di crypto-asset, particolarmente vulnerabili ad attività illecite come Money Laundering (ML) e, appunto, Terrorism Financing (TF) per alcune loro caratteristiche[8]. Al riguardo, le Nazioni Unite suggeriscono la possibilità che attori criminali di matrice terroristica si servano di algoritmi AI come strumenti per massimizzare le attività di crypto-trading[9], ovvero l’acquisto e la vendita di criptovalute con l’intento di ricavarne un profitto. Algoritmi di Machine Learning potrebbero essere applicati con l’obiettivo specifico di fornire delle previsioni circa i rendimenti delle criptovalute[10], per analizzare trend e per migliorare le strategie di trading.

Nonostante ciò, resta il fatto che il cripto-spazio riveste un ruolo marginale nel finanziamento del terrorismo, se paragonato ad altri meccanismi di rendimento più consolidati e redditizi; ma soprattutto, i ricavi documentati derivanti dalle criptovalute sono più che altro connessi ad attività diverse, in primo luogo donazioni, campagne di fundraising e riciclaggio di denaro “sporco”.

Alla luce di questo, e considerando sia la volatilità del crypto-market che, naturalmente, il carattere emergente delle tecnologie AI correlate, la probabilità che individui od organizzazioni impieghino queste ultime per la speculazione finanziaria finalizzata al Terrorism Financing sembrerebbe al momento limitata.

Propaganda, disinformazione e recruitment

Secondo l’Organizzazione per la sicurezza e la Cooperazione in Europa (OSCE), una delle finalità per le quali estremisti violenti e gruppi terroristici si servono dell’Intelligenza Artificiale, nello specifico quella generativa, è produrre propaganda[11]. Al netto di altri possibili utilizzi dell’IA in questo settore, approfondiamo nello specifico l’abuso che viene fatto dei deepfake, vale a dire contenuti audio o video generati artificialmente per mezzo di Generative Adversarial Networks (GANs).

I deepfake rappresentano una minaccia concreta e del tutto attuale – come è evidente a un fruitore qualunque di contenuti online – sia per la caratteristica in sé dirompente di creare immagini, video e audio falsi ma sempre più realistici, sia per il loro abbinamento a modalità estremamente rapide di diffusione di contenuti, ovvero i social network e le applicazioni di messaggistica.

Relativamente al loro impiego con finalità terroristiche, i deepfake hanno il potenziale di danneggiare l’immagine e la credibilità di una personalità politica o di un gruppo che la rappresenta (e.g. i soldati dell’esercito di uno Stato), allo scopo di inibire la fiducia nei loro confronti. Più in generale, essi hanno il potenziale di diffondere notizie false per disseminare panico e terrore, o ancora di creare contenuti persuasivi rivolti a uno specifico uditorio bersaglio e manipolare l’opinione pubblica.

Per fornire un esempio, a marzo 2022 un video del Presidente ucraino mentre dichiara la resa del suo Paese alla Russia è stato trasmesso dall’emittente televisiva nazionale Ukraine 24 a seguito di un’operazione di hackers “nemici”, come affermato dalla stessa emittente[12]. Sebbene non sia del tutto chiara l’identità degli attori dietro questo attacco – se si tratti di un’operazione di information warfare eseguita direttamente dalla Federazione russa o dell’attività di gruppi pro-Russia – si può affermare che l’incidente sia in stretta correlazione con il fenomeno del terrorismo, instillando paura e caos tra la popolazione civile attraverso la disinformazione.

In ogni caso, la penetrabilità dei deepfake è certamente intrinseca, nel senso che dipende dalle caratteristiche che li contraddistinguono, ma è anche subordinata alla modalità con cui gli utenti usufruiscono dei servizi offerti dalle piattaforme di comunicazione. In altri termini, la superficialità con cui talvolta il pubblico “consuma” la notizia può condurre alla sua accettazione indiscriminata o, viceversa, al suo rifiuto sistematico, senza mettere in atto alcun meccanismo di selezione dell’informazione.

Conclusioni

In ultima analisi, si può affermare che nonostante la tendenza a operare secondo modalità e tecniche tradizionali, le organizzazioni terroristiche non si esimono dall’esplorare il potenziale dell’Intelligenza Artificiale e della sua integrazione nelle loro attività. Tuttavia, specialmente per quel che riguarda l’IA applicata “sul campo”, è essenziale tenere ben presente due ostacoli affatto trascurabili: la necessità di ingenti finanziamenti e le limitazioni definite dalla prematurità di molte tecnologie. Dall’altro lato, invece, è più maturo l’uso terroristico dell’IA per incoraggiare la radicalizzazione online, diffondere disinformazione e suscitare panico, vista anche l’ampia disponibilità di dataset utilizzati nella fase di training[13].


[1] Della Porta, D.; Terrorismo; Treccani; 2007; https://www.treccani.it/enciclopedia/terrorismo_res-441ff3f6-9bca-11e2-9d1b-00271042e8d9_(Enciclopedia-Italiana)/

[2] United Nations Office of Counter-Terrorism (UNOCT); Algorithms and Terrorism: The Malicious Use of Artificial Intelligence for Terrorist Purposes; United Nations Interregional Crime and Justice Research Institute (UNICRI); 2021.

[3] United Nations Office of Counter-Terrorism (UNOCT); Algorithms and Terrorism: The Malicious Use of Artificial Intelligence for Terrorist Purposes; United Nations Interregional Crime and Justice Research Institute (UNICRI); 2021.

[4] Lis, A., & Olech, A. K.; Technology and Terrorism: Artificial Intelligence In The Time Of Contemporary Terrorist Threats; Institute of New Europe; 2021.

[5] Wheeler, B.; Terrorists ‘certain’ to get killer robots, says defence giant; BBC; 2017; https://www.bbc.com/news/uk-politics-42153140

[6] Chulov, M; Inside the Isis terrorism workshops: video shows Raqqa research centre; The Guardian; 2016; https://www.theguardian.com/world/2016/jan/06/inside-isis-terrorism-workshops-video-shows-raqqa-research-centre

[7] Martynova, E; Terrorist Financing Through Scams: Current Evidence and Emerging Risks; 2025; Counter Extremism Project; https://www.counterextremism.com/blog/terrorist-financing-through-scams-current-evidence-and-emerging-risks

[8] European Banking Authority (EBA); Preventing money laundering and terrorism financing in the EU’s cryptoassets sector; 2024.

[9] United Nations Office of Counter-Terrorism (UNOCT); Algorithms and Terrorism: The Malicious Use of Artificial Intelligence for Terrorist Purposes; United Nations Interregional Crime and Justice Research Institute (UNICRI); 2021.

[10] Fang, F. et al.; Cryptocurrency trading: a comprehensive survey; Financial Innovation; 2022.

[11] Organizzazione per la sicurezza e la cooperazione in Europa (OSCE); Summary document of expert-level event: Artificial Intelligence in the Context of Preventing and Countering Violent Extremism and Terrorism: Challenges, Risks and Opportunities; 2024.

[12] Pearson, J., & Zinets, N.; Deepfake footage purports to show Ukrainian president capitulating; Reuters; 2022; https://www.reuters.com/world/europe/deepfake-footage-purports-show-ukrainian-president-capitulating-2022-03-16/

[13] Europol Innovation Lab; Facing reality? Law enforcement and the challenge of deepfakes; Europol; 2022.

Related Post

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *