La
diffusione di informazioni false, fuorvianti o manipolate – riassunta
nell’acronimo MDHM (misinformation, disinformation, malinformation e hate
speech) – rappresenta una delle sfide più critiche dell’era digitale, con
conseguenze profonde sulla coesione sociale, la stabilità politica e la
sicurezza globale. Questo studio analizza le caratteristiche distintive di
ciascun fenomeno e il loro impatto interconnesso, evidenziando come alimentino
l’erosione della fiducia nelle istituzioni, la polarizzazione sociale e
l’instabilità politica.
L’intelligenza
artificiale emerge come una risorsa cruciale per contrastare il MDHM, offrendo
strumenti avanzati per il rilevamento di contenuti manipolati e il monitoraggio
delle reti di disinformazione. Tuttavia, la stessa tecnologia alimenta nuove
minacce, come la creazione di deepfake e la generazione di contenuti
automatizzati che amplificano la portata e la sofisticazione della
disinformazione. Questo paradosso evidenzia la necessità di un uso etico e
strategico delle tecnologie emergenti.
Il lavoro propone un approccio multidimensionale per affrontare il MDHM, articolato su tre direttrici principali: l’educazione critica, con programmi scolastici e campagne pubbliche per rafforzare l’alfabetizzazione mediatica; la regolamentazione delle piattaforme digitali, mirata a bilanciare la rimozione dei contenuti dannosi con la tutela della libertà di espressione; la collaborazione globale, per garantire una risposta coordinata a una minaccia transnazionale.
In
conclusione, l’articolo sottolinea l’importanza di un impegno concertato tra
governi, aziende tecnologiche e società civile per mitigare gli effetti
destabilizzanti del MDHM e preservare la democrazia, la sicurezza e la fiducia
nelle informazioni.
Definizioni
e Distinzioni
La
diffusione di informazioni false, fuorvianti o manipolate costituisce una delle
sfide più complesse e pericolose dell’era digitale, con ripercussioni
significative sull’equilibrio sociale, politico e culturale. I fenomeni noti
come misinformation,disinformation, malinformatione hate speech,
sintetizzati nell’acronimo MDHM, rappresentano
manifestazioni distinte ma strettamente interconnesse di questa problematica.
Una comprensione approfondita delle loro specificità è imprescindibile per
sviluppare strategie efficaci volte a contenere e contrastare le minacce che
tali fenomeni pongono alla coesione sociale e alla stabilità delle istituzioni.
Misinformation:
Informazioni false diffuse senza l’intenzione di causare danno. Ad esempio, la
condivisione involontaria di notizie non verificate sui social media.
Disinformation:
Informazioni deliberatamente create per ingannare, danneggiare o manipolare
individui, gruppi sociali, organizzazioni o nazioni. Un esempio è la diffusione
intenzionale di notizie false per influenzare l’opinione pubblica o
destabilizzare istituzioni.
Malinformation:
informazioni basate su fatti reali, ma utilizzate fuori contesto per fuorviare,
causare danno o manipolare. Ad esempio, la divulgazione di dati personali con
l’intento di danneggiare la reputazione di qualcuno.
Hate
Speech: espressioni che incitano all’odio contro individui o gruppi
basati su caratteristiche come razza, religione, etnia, genere o orientamento
sessuale. Questo tipo di discorso può fomentare violenza e discriminazione.
Impatto sulla Società
La diffusione di misinformation, disinformation,
malinformation
e hate
speech rappresenta una sfida cruciale per la stabilità delle società
moderne. Questi fenomeni, potenziati dalla rapidità e dalla portata globale dei
media digitali, hanno conseguenze significative che si manifestano in vari
ambiti sociali, politici e culturali. Tra i principali effetti troviamo
l’erosione della fiducia nelle istituzioni, la polarizzazione sociale e
l’acuirsi delle minacce alla sicurezza.
Erosione della
Fiducia
L’informazione falsa o manipolata rappresenta un
attacco diretto alla credibilità delle istituzioni pubbliche, dei media e persino della comunità
scientifica. Quando le persone vengono sommerse da un flusso costante di
notizie contraddittorie o palesemente mendaci, il risultato inevitabile è una
crisi di fiducia generalizzata. Nessuna fonte viene risparmiata dal dubbio,
nemmeno i giornalisti più autorevoli o gli organismi governativi più
trasparenti. Questo processo mina le fondamenta della società e alimenta un
clima di incertezza che, a lungo andare, può trasformarsi in alienazione.
Un esempio emblematico si osserva nel contesto del
processo democratico, dove la disinformazione colpisce con particolare
intensità. Le campagne di manipolazione delle informazioni, mirate a diffondere
falsità sulle procedure di voto o sui candidati, hanno un effetto devastante
sull’integrità elettorale. Ciò non solo alimenta il sospetto e la sfiducia
nelle istituzioni democratiche, ma crea anche un senso di disillusione tra i cittadini,
allontanandoli ulteriormente dalla partecipazione attiva.
Le conseguenze diventano ancora più evidenti nella
gestione delle crisi globali. Durante la pandemia da COVID-19, l’ondata di
teorie del complotto e la diffusione di cure non verificate hanno rappresentato
un ostacolo significativo per gli sforzi della salute pubblica. La
disinformazione ha alimentato paure infondate e diffidenza verso i vaccini,
rallentando la risposta globale alla crisi e aumentando la diffusione del
virus.
Ma questa erosione della fiducia non si ferma al
singolo individuo. Le sue ripercussioni si estendono a tutta la società,
frammentandola. I legami sociali, già indeboliti da divisioni preesistenti,
diventano ancora più vulnerabili alla manipolazione. E così, si crea un terreno
fertile per ulteriori conflitti e instabilità, in cui le istituzioni si trovano
sempre più isolate, mentre cresce il rischio di una società incapace di reagire
a sfide collettive.
Polarizzazione
Sociale
Le campagne di disinformazione trovano terreno fertile
nelle divisioni già esistenti all’interno della società, sfruttandole con
l’obiettivo di amplificarle e renderle insormontabili. Questi fenomeni,
alimentati da strategie mirate e potenziati dalle piattaforme digitali,
intensificano il conflitto sociale e compromettono la possibilità di dialogo,
lasciando spazio a una polarizzazione sempre più marcata.
L’amplificazione delle divisioni è forse il risultato
più visibile della disinformazione. La manipolazione delle informazioni viene
utilizzata per radicalizzare le opinioni politiche, culturali o religiose,
costruendo una narrazione di contrapposizione tra un “noi” e un
“loro”. Nei contesti di tensioni etniche, per esempio, la
malinformation, diffusa con l’intento di distorcere eventi storici o di
strumentalizzare questioni politiche attuali, accentua le differenze percepite
tra gruppi sociali. Questi contrasti, spesso già esistenti, vengono esasperati
fino a cristallizzarsi in conflitti identitari difficili da sanare.
A ciò si aggiunge l’effetto delle cosiddette
“bolle informative”, create dagli algoritmi delle piattaforme
digitali. Questi sistemi, progettati per massimizzare l’engagement degli
utenti, propongono contenuti che rafforzano le loro opinioni preesistenti,
limitandone l’esposizione a prospettive alternative. Questo fenomeno, noto come
“filtro bolla”, non solo solidifica pregiudizi, ma isola gli individui
all’interno di una realtà mediatica che si nutre di conferme continue,
impedendo la comprensione di punti di vista differenti.
La polarizzazione, alimentata dal MDHM, non si ferma
però al piano ideologico. In molti casi, la radicalizzazione delle opinioni si
traduce in azioni concrete: proteste, scontri tra gruppi e, nei casi più
estremi, conflitti armati. Guerre civili e crisi sociali sono spesso il culmine
di una spirale di divisione che parte dalle narrative divisive diffuse
attraverso disinformazione e hate speech.
In definitiva, la polarizzazione generata dal MDHM non
danneggia solo il dialogo sociale, ma mina anche le fondamenta della coesione
collettiva. In un tale contesto, risulta impossibile trovare soluzioni
condivise a problemi comuni. Ciò che rimane è un clima di conflittualità
permanente, dove il “noi contro loro” sostituisce qualsiasi tentativo
di collaborazione, rendendo la società più fragile e vulnerabile.
Minaccia alla
Sicurezza
Nei contesti di conflitto, il MDHM si rivela un’arma
potente e pericolosa, capace di destabilizzare società e istituzioni con
implicazioni devastanti per la sicurezza collettiva e individuale. La
disinformazione, insieme al discorso d’odio, alimenta un ciclo di violenza e
instabilità politica, minacciando la pace e compromettendo i diritti umani. Gli
esempi concreti di come queste dinamiche si manifestano non solo illustrano la
gravità del problema, ma evidenziano anche l’urgenza di risposte efficaci.
La propaganda
e la destabilizzazione costituiscono uno degli utilizzi più insidiosi
della disinformazione. Stati e gruppi non statali sfruttano queste pratiche
come strumenti di guerra ibrida, mirati a indebolire il morale delle
popolazioni avversarie e a fomentare divisioni interne. In scenari geopolitici
recenti, la diffusione di informazioni false ha generato confusione e panico,
rallentando la capacità di risposta delle istituzioni. Questa strategia,
pianificata e sistematica, non si limita a disorientare l’opinione pubblica ma
colpisce direttamente il cuore della coesione sociale.
Il discorso
d’odio, amplificato dalle piattaforme digitali, è spesso un precursore
di violenze di massa. Ne è tragico esempio il genocidio dei Rohingya in
Myanmar, preceduto da una campagna di odio online che ha progressivamente deumanizzato
questa minoranza etnica, preparandone il terreno per persecuzioni e massacri.
Questi episodi dimostrano come lo hate
speech, una volta radicato, possa tradursi in azioni violente e
sistematiche, con conseguenze irreparabili per le comunità coinvolte.
Anche sul piano individuale, gli effetti del MDHM sono
profondamente distruttivi. Fenomeni come il doxxing – la divulgazione pubblica di informazioni personali con
intenti malevoli – mettono a rischio diretto la sicurezza fisica e psicologica
delle vittime. Questo tipo di attacco non solo espone le persone a minacce e
aggressioni, ma amplifica un senso di vulnerabilità che si estende ben oltre il
singolo episodio, minando la fiducia nel sistema stesso.
L’impatto cumulativo di queste dinamiche mina la stabilità
sociale nel suo complesso, creando fratture profonde che richiedono risposte
immediate e coordinate. Affrontare il MDHM non è solo una questione di difesa
contro la disinformazione, ma un passo essenziale per preservare la pace,
proteggere i diritti umani e garantire la sicurezza globale in un’epoca sempre
più interconnessa e vulnerabile.
Strategie di Mitigazione
La
lotta contro il fenomeno MDHM richiede una risposta articolata e coordinata,
capace di affrontare le diverse sfaccettature del problema. Dato l’impatto
complesso e devastante che questi fenomeni hanno sulla società, le strategie di
mitigazione devono essere sviluppate con un approccio multidimensionale,
combinando educazione, collaborazione tra i diversi attori e un quadro
normativo adeguato.
Educazione e
Consapevolezza
La prima e più efficace linea di difesa contro il
fenomeno MDHM risiede nell’educazione e nella promozione di una diffusa
alfabetizzazione mediatica. In un contesto globale in cui le informazioni
circolano con una rapidità senza precedenti e spesso senza un adeguato
controllo, la capacità dei cittadini di identificare e analizzare criticamente
i contenuti che consumano diventa una competenza indispensabile. Solo
attraverso una maggiore consapevolezza sarà possibile arginare gli effetti
negativi della disinformazione e costruire una società più resiliente.
Il pensiero critico
rappresenta la base di questa strategia. I cittadini devono essere messi nelle
condizioni di distinguere le informazioni affidabili dai contenuti falsi o
manipolati. Questo processo richiede l’adozione di strumenti educativi che
insegnino come verificare le fonti, identificare segnali di manipolazione e
analizzare il contesto delle notizie. È un impegno che va oltre la semplice
formazione: si tratta di creare una cultura della verifica e del dubbio
costruttivo, elementi essenziali per contrastare la manipolazione informativa.
Un ruolo cruciale in questa battaglia è giocato dalla formazione scolastica. Le scuole
devono diventare il luogo privilegiato per l’insegnamento dell’alfabetizzazione
mediatica, preparando le nuove generazioni a navigare consapevolmente nel
complesso panorama digitale. L’integrazione di questi insegnamenti nei
programmi educativi non può più essere considerata un’opzione, ma una
necessità. Attraverso laboratori pratici, analisi di casi reali e simulazioni,
i giovani possono sviluppare le competenze necessarie per riconoscere contenuti
manipolati e comprendere le implicazioni della diffusione di informazioni
false.
Tuttavia, l’educazione non deve limitarsi ai giovani.
Anche gli adulti, spesso più esposti e vulnerabili alla disinformazione, devono
essere coinvolti attraverso campagne di
sensibilizzazione pubblica. Queste iniziative, veicolate sia attraverso
i media tradizionali che digitali, devono illustrare le tecniche più comuni
utilizzate per diffondere contenuti falsi, sottolineando le conseguenze
negative di tali fenomeni per la società. Un cittadino informato, consapevole
dei rischi e capace di riconoscerli, diventa un elemento di forza nella lotta
contro la disinformazione.
Investire nell’educazione e nella sensibilizzazione
non è solo una misura preventiva, ma un pilastro fondamentale per contrastare
il MDHM. Una popolazione dotata di strumenti critici è meno suscettibile alle
manipolazioni, contribuendo così a rafforzare la coesione sociale e la
stabilità delle istituzioni democratiche. Questo percorso, pur richiedendo un
impegno costante e coordinato, rappresenta una delle risposte più efficaci a
una delle minacce più insidiose del nostro tempo.
Collaborazione
Intersettoriale
La complessità del fenomeno MDHM è tale che nessun
singolo attore può affrontarlo efficacemente da solo. È una sfida globale che
richiede una risposta collettiva e coordinata, in cui governi, organizzazioni
non governative, aziende tecnologiche e società civile collaborano per
sviluppare strategie condivise. Solo attraverso un impegno sinergico è
possibile arginare gli effetti destabilizzanti di questa minaccia.
Le istituzioni
governative devono assumere un ruolo guida. I governi sono chiamati a
creare regolamentazioni efficaci e ambienti sicuri per lo scambio di
informazioni, garantendo che queste misure bilancino due aspetti fondamentali:
la lotta contro i contenuti dannosi e la protezione della libertà di
espressione. Un eccesso di controllo rischierebbe infatti di scivolare nella
censura, minando i principi democratici che si intendono tutelare. L’approccio
deve essere trasparente, mirato e in grado di adattarsi all’evoluzione delle
tecnologie e delle dinamiche di disinformazione.
Le aziende
tecnologiche, in particolare i social
media, giocano un ruolo centrale in questa sfida. Hanno una responsabilità
significativa nel contrastare la diffusione del MDHM, essendo i principali
veicoli attraverso cui queste dinamiche si propagano. Devono investire nello
sviluppo di algoritmi avanzati, capaci di identificare e rimuovere i contenuti
dannosi in modo tempestivo ed efficace. Tuttavia, l’efficacia degli interventi
non può venire a scapito della libertà degli utenti di esprimersi. La
trasparenza nei criteri di moderazione, nella gestione dei dati e nei meccanismi
di segnalazione è fondamentale per mantenere la fiducia degli utenti e
prevenire abusi.
Accanto a questi attori, le organizzazioni non governative (ONG) e la società civile svolgono
un ruolo di intermediazione. Le ONG possono fungere da ponte tra istituzioni e
cittadini, offrendo informazioni verificate e affidabili, monitorando i
fenomeni di disinformazione e promuovendo iniziative di sensibilizzazione.
Queste organizzazioni hanno anche la capacità di operare a livello locale,
comprendendo meglio le dinamiche specifiche di determinate comunità e adattando
le strategie di contrasto alle loro esigenze.
Infine, è imprescindibile favorire partnership pubbliche e private. La
collaborazione tra settori pubblico e privato è essenziale per condividere
risorse, conoscenze e strumenti tecnologici utili a combattere il MDHM. In
particolare, le aziende possono offrire soluzioni innovative, mentre i governi
possono fornire il quadro normativo e il supporto necessario per implementarle.
Questa sinergia permette di affrontare la disinformazione con un approccio più
ampio e integrato, combinando competenze tecniche, capacità di monitoraggio e
intervento.
La risposta al MDHM non può dunque essere frammentata
né limitata a un singolo settore. Solo attraverso una collaborazione
trasversale e globale sarà possibile mitigare le conseguenze di questi
fenomeni, proteggendo le istituzioni, i cittadini e la società nel suo insieme.
Ruolo delle Tecnologie
Avanzate e Artificial Intelligence (AI) nel Contesto del MDHM
Le
tecnologie emergenti, in particolare l’intelligenza artificiale (IA), svolgono
un ruolo cruciale nel contesto di misinformation,
disinformation, malinformation e hate speech.
L’AI rappresenta un’arma a doppio taglio: da un lato, offre strumenti potenti
per individuare e contrastare la diffusione di contenuti dannosi; dall’altro,
alimenta nuove minacce, rendendo più sofisticati e difficili da rilevare gli
strumenti di disinformazione.
Rilevamento
Automatico
L’intelligenza artificiale ha rivoluzionato il modo in
cui affrontiamo il fenomeno della disinformazione, introducendo sistemi
avanzati di rilevamento capaci di identificare rapidamente contenuti falsi o
dannosi. In un panorama digitale in cui il volume di dati generato
quotidianamente è immenso, il monitoraggio umano non è più sufficiente. Gli
strumenti basati sull’AI si rivelano quindi essenziali per gestire questa
complessità, offrendo risposte tempestive e precise.
Tra le innovazioni più rilevanti troviamo gli algoritmi di machine learning, che rappresentano il cuore dei sistemi di
rilevamento automatico. Questi algoritmi, attraverso tecniche di apprendimento
automatico, analizzano enormi quantità di dati alla ricerca di schemi che
possano indicare la presenza di contenuti manipolati o falsi. Addestrati su
dataset contenenti esempi di disinformazione già identificati, questi sistemi
sono in grado di riconoscere caratteristiche comuni, come l’uso di titoli
sensazionalistici, un linguaggio emotivamente carico o la presenza di immagini
alterate. L’efficacia di tali strumenti risiede nella loro capacità di
adattarsi a nuovi modelli di manipolazione, migliorando costantemente le
proprie performance.
Un altro ambito cruciale è quello della verifica delle fonti. Strumenti basati
su AI possono confrontare le informazioni che circolano online con fonti
affidabili, identificando discrepanze e facilitando il lavoro dei fact-checker. In questo modo, la
tecnologia accelera i tempi di verifica, permettendo di contrastare in maniera
più efficiente la diffusione di contenuti falsi prima che raggiungano un
pubblico vasto.
L’AI è anche fondamentale per contrastare una delle
minacce più sofisticate: i deepfake, di cui più oltre
tratteremo. Grazie a tecniche avanzate, è possibile analizzare video e immagini
manipolati, individuando anomalie nei movimenti facciali, nella
sincronizzazione delle labbra o nella qualità complessiva del contenuto visivo.
Aziende come Adobe e Microsoft stanno sviluppando strumenti dedicati alla
verifica dell’autenticità dei contenuti visivi, offrendo una risposta concreta
a una tecnologia che può facilmente essere sfruttata per scopi malevoli.
Il monitoraggio
del linguaggio d’odio è un altro fronte in cui l’AI dimostra il suo
valore. Attraverso algoritmi di elaborazione del linguaggio naturale (NLP), è
possibile analizzare i testi in tempo reale per identificare espressioni di hate speech. Questi sistemi non solo
categorizzano i contenuti, ma assegnano priorità agli interventi, garantendo
una risposta rapida ed efficace ai casi più gravi. In un contesto in cui il
discorso d’odio può rapidamente degenerare in violenza reale, la capacità di
intervenire tempestivamente è cruciale.
Infine, l’intelligenza artificiale è in grado di rilevare
e analizzare reti di disinformazione. Attraverso l’analisi delle
interazioni social, l’AI può individuare schemi che suggeriscono campagne
coordinate, come la diffusione simultanea di messaggi simili da account
collegati. Questa funzione è particolarmente utile per smascherare operazioni
orchestrate, sia a livello politico che sociale, che mirano a destabilizzare la
fiducia pubblica o a manipolare l’opinione delle persone.
In definitiva, l’intelligenza artificiale rappresenta
uno strumento indispensabile per affrontare il fenomeno della disinformazione e
dell’hate speech. Tuttavia, come ogni
tecnologia, richiede un uso etico e responsabile. Solo attraverso
un’implementazione trasparente e mirata sarà possibile sfruttare appieno il
potenziale dell’AI per proteggere l’integrità delle informazioni e la coesione
sociale.
Generazione di
Contenuti
L’intelligenza artificiale, se da un lato rappresenta
una risorsa preziosa per contrastare la disinformazione, dall’altro
contribuisce a rendere il fenomeno MDHM ancora più pericoloso, fornendo
strumenti per la creazione di contenuti falsi e manipolati con livelli di
sofisticazione senza precedenti. È proprio questa ambivalenza che rende l’IA
una tecnologia tanto potente quanto insidiosa.
Un esempio emblematico è rappresentato dai citati deepfake,
prodotti grazie a tecnologie basate su reti generative avversarie (GAN). Questi
strumenti permettono di creare video e immagini estremamente realistici, in cui
persone possono essere mostrate mentre affermano o compiono azioni mai
avvenute. I deepfake compromettono
gravemente la fiducia nelle informazioni visive, un tempo considerate una prova
tangibile della realtà. Ma non si fermano qui: la loro diffusione può essere
utilizzata per campagne di diffamazione, per manipolare l’opinione pubblica o
per destabilizzare contesti politici già fragili. La capacità di creare realtà
alternative visive rappresenta una minaccia diretta alla credibilità delle
fonti visive e alla coesione sociale.
Parallelamente, i testi generati automaticamente da modelli di linguaggio avanzati,
come GPT, hanno aperto nuove frontiere nella disinformazione. Questi sistemi
sono in grado di produrre articoli, commenti e post sui social media che
appaiono del tutto autentici, rendendo estremamente difficile distinguere i
contenuti generati da una macchina da quelli scritti da una persona reale. Non
a caso, tali strumenti vengono già sfruttati per alimentare botnet, reti automatizzate che
diffondono narrazioni polarizzanti o completamente false, spesso con l’obiettivo
di manipolare opinioni e alimentare conflitti sociali.
Un ulteriore aspetto cruciale è rappresentato dalla scalabilità della disinformazione.
L’automazione garantita dall’AI consente la creazione e la diffusione di
contenuti falsi su larga scala, amplificandone in modo esponenziale l’impatto.
Ad esempio, un singolo attore malevolo, sfruttando questi strumenti, può
generare migliaia di varianti di un messaggio falso, complicando ulteriormente
il compito dei sistemi di rilevamento. In pochi istanti, contenuti manipolati
possono essere diffusi a livello globale, raggiungendo milioni di persone prima
che si possa intervenire.
Infine, l’AI offre strumenti per la mimetizzazione dei contenuti, che
rendono i messaggi manipolati ancora più difficili da individuare. Algoritmi
avanzati consentono di apportare modifiche minime ma strategiche a testi o
immagini, eludendo così i sistemi di monitoraggio tradizionali. Questa capacità
di adattamento rappresenta una sfida continua per gli sviluppatori di strumenti
di contrasto, che devono aggiornarsi costantemente per stare al passo con le
nuove tecniche di manipolazione.
In definitiva, l’intelligenza artificiale, nella sua
capacità di generare contenuti altamente sofisticati, rappresenta un’arma a
doppio taglio nel panorama del MDHM. Se non regolamentata e utilizzata in modo
etico, rischia di accelerare la diffusione della disinformazione, minando
ulteriormente la fiducia pubblica nelle informazioni e destabilizzando la
società. È indispensabile affrontare questa minaccia con consapevolezza e
strumenti adeguati, combinando innovazione tecnologica e principi etici per
limitare gli effetti di questa pericolosa evoluzione.
Sfide e Opportunità
L’impiego
dell’intelligenza artificiale nella lotta contro il fenomeno del MDHM
rappresenta una delle frontiere più promettenti ma anche più complesse dell’era
digitale. Sebbene l’IA offra opportunità straordinarie per contrastare la
diffusione di informazioni dannose, essa pone anche sfide significative,
evidenziando la necessità di un approccio etico e strategico.
Le
Opportunità Offerte dall’IA
Tra
i vantaggi più rilevanti, spicca la capacità
dell’AI di analizzare dati in tempo reale. Grazie a questa caratteristica,
è possibile anticipare le campagne di disinformazione, identificandone i
segnali prima che si diffondano su larga scala. Questo permette di ridurre
l’impatto di tali fenomeni, intervenendo tempestivamente per arginare i danni.
Un
altro aspetto fondamentale è l’impiego di strumenti avanzati per certificare l’autenticità dei contenuti.
Tecnologie sviluppate da organizzazioni leader nel settore consentono di
verificare l’origine e l’integrità dei dati digitali, restituendo fiducia agli
utenti. In un contesto in cui la manipolazione visiva e testuale è sempre più
sofisticata, queste soluzioni rappresentano un baluardo essenziale contro il
caos informativo.
L’AI
contribuisce inoltre a snellire le attività di fact-checking.
L’automazione delle verifiche consente di ridurre il carico di lavoro umano,
velocizzando la risposta alla diffusione di contenuti falsi. Questo non solo
migliora l’efficienza, ma permette anche di concentrare le risorse umane su
casi particolarmente complessi o delicati.
Le
Sfide dell’AI nella Lotta al MDHM
Tuttavia,
le stesse tecnologie che offrono queste opportunità possono essere sfruttate
per scopi malevoli. Gli strumenti utilizzati per combattere la disinformazione
possono essere manipolati per aumentare la
sofisticazione degli attacchi, creando contenuti ancora più
difficili da rilevare. È un paradosso che sottolinea l’importanza di un
controllo rigoroso e di un uso responsabile di queste tecnologie.
La
difficoltà nel distinguere tra contenuti autentici e manipolati
rappresenta un’altra sfida cruciale. Man mano che le tecniche di
disinformazione evolvono, anche gli algoritmi devono essere costantemente
aggiornati per mantenere la loro efficacia. Questo richiede non solo
investimenti tecnologici, ma anche una collaborazione continua tra esperti di
diversi settori.
Infine,
è impossibile ignorare i bias insiti nei modelli di AI,
che possono portare a errori significativi. Algoritmi mal progettati o
addestrati su dataset non rappresentativi rischiano di rimuovere contenuti
legittimi o, al contrario, di non individuare alcune forme di disinformazione.
Questi errori non solo compromettono l’efficacia delle operazioni, ma possono
minare la fiducia nel sistema stesso.
Conclusione
L’intelligenza
artificiale è una risorsa strategica nella lotta contro misinformation, disinformation,
malinformation e hate speech, ma rappresenta anche una sfida complessa. La sua
ambivalenza come strumento di difesa e al contempo di attacco richiede un uso
consapevole e responsabile. Mentre da un lato offre soluzioni innovative per
rilevare e contrastare contenuti manipolati, dall’altro consente la creazione
di disinformazione sempre più sofisticata, amplificando il rischio per la
stabilità sociale e istituzionale.
Il
MDHM non è un fenomeno isolato o temporaneo, ma una minaccia sistemica che mina
le fondamenta della coesione sociale e della sicurezza globale. La sua
proliferazione alimenta un circolo vizioso in cui l’erosione della fiducia, la
polarizzazione sociale e le minacce alla sicurezza si rafforzano
reciprocamente. Quando la disinformazione contamina il flusso informativo, la
fiducia nelle istituzioni, nei media e persino nella scienza si sgretola.
Questo fenomeno non solo genera alienazione e incertezza, ma riduce la capacità
dei cittadini di partecipare attivamente alla vita democratica.
La
polarizzazione sociale, amplificata dalla manipolazione delle informazioni, è
un effetto diretto di questa dinamica. Narrativi divisivi e contenuti
polarizzanti, spinti da algoritmi che privilegiano l’engagement a scapito
dell’accuratezza, frammentano il tessuto sociale e rendono impossibile il
dialogo. In un clima di contrapposizione “noi contro loro”, le
divisioni politiche, culturali ed etniche si trasformano in barriere
insormontabili.
A
livello di sicurezza, il MDHM rappresenta una minaccia globale. Le campagne di
disinformazione orchestrate da stati o gruppi non statali destabilizzano intere
regioni, fomentano violenze e alimentano conflitti armati. L’uso del hate
speech come strumento di deumanizzazione ha dimostrato il suo potenziale
distruttivo in numerosi contesti, contribuendo a un clima di vulnerabilità
collettiva e individuale.
Affrontare
questa sfida richiede un approccio integrato che combini educazione, regolamentazione
e cooperazione globale.
Promuovere
l’educazione critica: l’alfabetizzazione mediatica deve essere
una priorità. Educare i cittadini a riconoscere e contrastare la
disinformazione è il primo passo per costruire una società resiliente.
Programmi educativi e campagne di sensibilizzazione devono dotare le persone
degli strumenti necessari per navigare nel complesso panorama informativo.
Rafforzare
la regolamentazione delle piattaforme digitali: le aziende
tecnologiche non possono più essere semplici spettatori. È indispensabile che
adottino standard chiari e trasparenti per la gestione dei contenuti dannosi,
garantendo al contempo il rispetto della libertà di espressione. Una
supervisione indipendente può assicurare l’equilibrio tra sicurezza e diritti
fondamentali.
Incentivare
la collaborazione globale: la natura transnazionale del MDHM
richiede una risposta coordinata. Governi, aziende private e organizzazioni
internazionali devono lavorare insieme per condividere risorse, sviluppare
tecnologie innovative e contrastare le campagne di disinformazione su scala
globale.
Solo
attraverso un’azione concertata sarà possibile mitigare gli effetti devastanti
del MDHM e costruire una società più resiliente e informata. Il futuro della
democrazia, della coesione sociale e della sicurezza dipende dalla capacità
collettiva di affrontare questa minaccia con determinazione, lungimiranza e
responsabilità.
La nuova Siria: tra minaccia islamista, risposta preventiva di Israele e la ‘buffer zone’ turca.
di Claudio Bertolotti.
La recente conquista di Damasco da parte del leader jihadista Ahmed al-Sharaa, già noto con il nome di battaglia Abu Mohammed al-Jolani, capo di Hayat Tahrir al-Sham (HTS), segna un punto di svolta nell’equilibrio politico-militare del Medio Oriente. La Siria, dopo tredici anni di guerra civile contro il regime di Bashar al-Assad, si ritrova ora nella fase più critica della sua storia contemporanea: l’ascesa al potere degli islamisti guidati da al-Jolani, già affiliati ad al-Qaeda, si avvia a trasformare il Paese in uno “Stato islamico” destinato a rimodellare gli assetti regionali. E, ancora una volta, la variabile jihadista si manifesta come un fattore di destabilizzazione dagli effetti potenzialmente globali.
L’occupazione israeliana del Golan: una manovra preventiva e strategica L’avanzata islamista in Siria, con il conseguente venir meno del controllo centralizzato di Damasco, crea un vuoto di potere all’interno del quale proliferano gruppi radicali e attori esterni in cerca di vantaggi geostrategici. L’azione di Israele – nello specifico il consolidamento dell’occupazione delle alture del Golan – va letta in questo quadro: non si tratta di un’ennesima incursione di natura espansionistica, bensì di una manovra difensiva e preventiva. Da un lato, Gerusalemme mira a evitare che forze jihadiste possano insediarsi lungo il proprio confine settentrionale, minacciando direttamente la sua sicurezza. Dall’altro, la presenza militare israeliana nell’area svolge anche un ruolo di protezione a favore delle forze di interposizione delle Nazioni Unite, potenzialmente esposte ad attacchi da parte di gruppi radicali in assenza di un potere centrale affidabile a Damasco.
L’attacco preventivo contro arsenali strategici e chimici La lezione appresa in Afghanistan e in Iraq – dove arsenali convenzionali e non convenzionali sono passati di mano favorendo gruppi estremisti – ha reso evidente la necessità di interventi rapidi e chirurgici. L’attacco preventivo di Israele contro i depositi di armi strategiche siriane, inclusi quelli sospettati di contenere agenti chimici, intende prevenire il rischio che tali strumenti finiscano nelle mani dei jihadisti. Non si tratta solo di un interesse israeliano: se fossero i movimenti radicali a impadronirsi di armamenti chimici, l’intera regione, e persino l’Occidente, ne subirebbero le conseguenze. Come evidenziato dalle ultime analisi dell’Institute for the Study of War (Iran Update, 11 dicembre 2024), il controllo degli arsenali siriani da parte di attori non statali apre scenari ad altissimo rischio. Israele agisce dunque con un’intelligenza strategica che mira a prevenire futuri attacchi terroristici su larga scala.
La mossa israeliana e la scelta turca: due facce della stessa medaglia La politica israeliana nel Golan non può essere letta in modo isolato: è coerente, nella logica strategica di contenimento delle minacce, con la scelta turca di occupare parti del territorio siriano al confine settentrionale. Ankara, come già dimostrato in passato, intende mantenere una “buffer zone” tra le aree sotto il proprio controllo e le regioni abitate dai curdi siriani, considerati una minaccia perché in collegamento con il PKK in Turchia. Tale azione non solo limita i movimenti delle milizie curde, ma risponde a un duplice obiettivo: arginare il potere curdo e, al contempo, impedire l’insediamento di gruppi islamisti ostili alla Turchia. L’avanzata israeliana sul Golan e la buffer zone turca formano, in modi diversi, due esempi di contenimento preventivo della minaccia jihadista.
L’ascesa degli islamisti in Siria: l’incognita dei diritti e il parallelismo con i talebani La presa del potere da parte di al-Jolani e dei suoi uomini non può essere vista con favore. Le dichiarazioni rassicuranti nei confronti delle minoranze, delle donne e della comunità cristiana suonano come pura retorica. Sappiamo bene quale sia la storia dei movimenti jihadisti: la sharia applicata in modo letterale, l’assenza di rispetto per le differenze religiose e culturali, l’eliminazione di ogni spazio di pluralismo. allo scioglimento del parlamento siriano seguirà l’imposizione di un governo di unna shurà musulmana, non eletta né rappresentativa dell’estrema eterogeneità etno-culturale e religiosa siriana. Come già osservato nel caso dell’Afghanistan dei talebani, l’instaurazione di uno Stato islamico sotto la guida di ex qaedisti “riciclati” in forza politica locale non farà altro che istituzionalizzare un regime repressivo e contrario ai principi fondamentali dei diritti umani.
La minaccia terroristica si estende all’Occidente La vittoria islamista in Siria, come fu per il ritorno dei talebani a Kabul nel 2021, agirà da catalizzatore per il terrorismo internazionale. Le cronache recenti mostrano che ogni avanzamento dell’ideologia jihadista si accompagna a un incremento degli attacchi e della propaganda violenta, spingendo individui radicalizzati o simpatizzanti a compiere gesti emulativi in Occidente. Come osservato da recenti analisi su media internazionali (si veda il 5° Rapporto sul Radicalismo e il Contrasto al Terrorismo #ReaCT2024 e Il Giornale), il successo di Hts in Siria accresce il rischio che l’Europa diventi bersaglio di nuovi attacchi, ispirati e orchestrati da soggetti che trarranno nuovo slancio e legittimazione simbolica dalla “vittoria” di al-Jolani. La dimensione mediatica del jihad è tale per cui il controllo di un territorio – e la proclamazione di uno Stato islamico – si trasforma in un messaggio di potenza rivolto a potenziali sostenitori e reclute.
Prospettive e conclusioni La nuova Siria di al-Jolani non è meno pericolosa del regime di Assad. Anzi, l’aperta adesione ai principi fondamentalisti, la lotta per il potere che seguirà tra gruppi islamisti e jihadisti in competizione – in primis con il gruppo Stato islamico – l’influenza di gruppi radicali e l’assenza di un sistema di garanzie internazionali rendono il contesto più imprevedibile. La mossa israeliana nel Golan e la strategia turca a nord riflettono una comprensibile, anche se parziale, risposta a queste minacce. L’Occidente non può permettersi di cadere nell’illusione di un al-Jolani “pragmatico”: la natura islamista e jihadista della nuova leadership è un dato di fatto. Se a ciò si sommano i rischi legati alla disponibilità di armi strategiche e chimiche, l’interesse nazionale israeliano e turco di creare zone cuscinetto e di colpire preventivamente gli arsenali appare tragicamente sensato. In questo scenario – al pari dell’Afghanistan talebano – la Siria potrebbe fungere da polo attrattivo per un jihadismo oggi in cerca di legittimazione e vittorie simboliche, con conseguenze dirette anche per l’Europa.
Corso ISPI “Prevenire la guerra: quale modello di Difesa?”
Il nuovo corso dell’Istituto per gli Studi di Politica Internazionale (ISPI, Milano) avrà luogo il 7 e l’8 marzo 2025
Chi si iscrive entro il 15 dicembre 2024 può beneficiare della quota agevolata
“In un mondo sempre più complesso e interconnesso, comprendere le dinamiche della difesa è cruciale per garantire la sicurezza e la stabilità internazionale. Questo corso si propone di esplorare i modelli di difesa più attuali, analizzando sia le realtà nazionali che le prospettive europee.”
Il concetto strategico del Capo di Stato Maggiore della Difesa
Claudio Bertolotti
12.15-13.15
Lo sviluppo di un’Europa della Difesa tra ambizioni e criticità
Sonia Lucarelli, Università degli studi di Bologna
14.15-15.15
Il ruolo della NATO nella Difesa europea
Una prospettiva politica
Sonia Lucarelli
15.15-16.15
La dimensione cyber della Difesa I
Giampiero Giacomello, Università di Bologna
16.30-17.30
La dimensione cyber della Difesa II
Giampiero Giacomello
PROGRAMMA DELL’8 MARZO 2025
9.00-10.00
La politica industriale della Difesa I
Nicolò Petrelli, Università degli studi Roma tre
10.00-11.00
La politica industriale della Difesa II
Nicolò Petrelli
11.15-12.15
Gli attori privati come componente integrata della Difesa I
Stefano Ruzza, Università degli studi di Torino
12.15-13.15
Gli attori privati come componente integrata della Difesa II
Stefano Ruzza
La strategia russa: offensiva (azione e interferenza), difensiva e deterrente. Diplomazia digitale, guerra informatica e intelligenza artificiale nella competizione globale.
di Claudio Bertolotti.
Abstract
Questo articolo
esplora la strategia russa di diplomazia digitale, guerra informatica e uso
dell’intelligenza artificiale (AI) come strumenti fondamentali nella
competizione globale. La soft diplomacy russa, inizialmente accolta con favore,
ha subito evoluzioni altalenanti a causa di campagne informative che hanno
danneggiato l’immagine internazionale del paese. Negli ultimi anni, la Russia
ha sviluppato una “diplomazia digitale” per influenzare l’opinione
pubblica internazionale, sfruttando strumenti come i social media per
diffondere messaggi polarizzanti e notizie alternative. Parallelamente, il
paese ha potenziato le sue capacità di guerra informatica, considerandola una
componente essenziale delle operazioni di informazione e un mezzo per
raggiungere un equilibrio militare asimmetrico contro l’Occidente. L’uso
dell’AI amplifica queste operazioni, consentendo la creazione di
disinformazione su vasta scala e potenziando tecniche di spionaggio e attacchi
cibernetici, con l’obiettivo di destabilizzare gli avversari e consolidare
l’influenza russa a livello globale.
Soft
diplomacy
pubblica, diplomazia digitale e operazioni informatiche
All’inizio del 21° secolo, l’affermarsi della soft diplomacy pubblica russa è stata
accolta con ottimismo sia dagli analisti che dall’opinione pubblica
internazionale. Tuttavia, successivamente, la diplomazia pubblica russa ha
attraversato diverse fasi altalenanti a causa di campagne informative che hanno
danneggiato l’immagine della Russia a livello globale, in particolare dopo il
conflitto russo-georgiano del 2008.
Un altro aspetto significativo legato al progresso digitale
dell’informazione è l’uso crescente della guerra dell’informazione, ora
potenziata dall’intelligenza artificiale, che è diventata un fattore cruciale
nel raggiungimento di obiettivi strategici.[3]
La strategia e la dottrina russe hanno sempre attribuito
grande importanza alla sicurezza informatica e alle operazioni cibernetiche,
considerandole una parte essenziale delle più ampie operazioni di informazione.
Questo approccio rende spesso indistinguibile la linea di confine tra capacità
militari e civili, poiché entrambe collaborano all’interno della strategia
nazionale complessiva. Le principali agenzie informatiche russe, infatti,
partecipano attivamente, anche ai più alti livelli, all’interno del Consiglio
di sicurezza del governo, che include membri come il ministro della Difesa, il
capo del Servizio di sicurezza federale (FSB) e il capo di stato maggiore
generale.
La dottrina militare del 2015, che ha preceduto la dottrina
per la sicurezza informatica del 2016, sottolinea l’importanza della protezione
dello spazio cibernetico come parte integrante della sicurezza nazionale russa,
affidando questo compito alle forze armate. In linea con questa dottrina, nel
2017 la Russia ha istituito “unità per le operazioni di informazione”,
inizialmente concepite per la difesa del cyberspazio, ma che hanno rapidamente
assunto un ruolo più ampio, includendo attività di informazione tradizionali e
operazioni psicologiche. La “Direzione Principale dello Stato Maggiore” (GU),
precedentemente nota come GRU, insieme ai suoi comandi subordinati, come l’85°
Centro Servizi Speciali Principali (Unità 26165) e il 72° Centro Servizi
Speciali (Unità 54777), sotto il diretto controllo del capo di stato maggiore
delle forze armate russe, è considerata l’entità principale responsabile delle
operazioni cibernetiche offensive e di influenza.
Figura 1.
Evoluzione della Diplomazia russa e delle operazioni informatiche.
Il grafico in Figura 1 rappresenta l’evoluzione della diplomazia russa e delle
operazioni informatiche, mostrando come queste siano diventate sempre più
influenti nel tempo. Le fasi temporali sono così illustrate:
Prima fase: inizio del 21° secolo –
Introduzione della soft diplomacy
pubblica.
Seconda fase: 2008-2012 – Sviluppo
della diplomazia digitale e delle prime operazioni informatiche, specialmente
dopo il conflitto russo-georgiano.
Terza fase: 2013-Presente –
Consolidamento e intensificazione delle operazioni informatiche e
dell’influenza attraverso la diplomazia digitale, potenziate dall’intelligenza
artificiale.
Il grafico evidenzia un aumento
progressivo del livello di influenza di queste strategie nel contesto globale.
La diplomazia pubblica della Russia: tra strategia
e meccanismi
La diplomazia pubblica russa contemporanea si fonda sulla
strategia di politica estera delineata nel 2013. In un articolo intitolato
“Russia and the Changing World“,
pubblicato nel febbraio 2012, il presidente russo Vladimir Putin ha definito il
soft power come un insieme di
strumenti e metodi per conseguire obiettivi di politica estera senza ricorrere
all’uso di armi o altre forme di pressione, con un’enfasi particolare
sull’utilizzo della leva finanziaria.[4] In linea con questa visione, il
“Concetto di politica estera della Federazione Russa”, approvato da
Putin nel febbraio 2013, dichiara che il soft
power, un insieme completo di strumenti per il raggiungimento degli
obiettivi di politica estera basato sul potenziale della società civile,
dell’informazione, e su metodi e tecnologie culturali alternativi alla
diplomazia tradizionale, è diventato una componente essenziale nelle relazioni
internazionali contemporanee.
Tuttavia, l’intensificazione della competizione globale e
l’aumento del rischio di crisi possono talvolta portare a un uso distorto e
illegale del soft power e dei diritti
umani «per esercitare pressioni politiche sui paesi sovrani, interferire nei
loro affari interni, destabilizzare la situazione politica e manipolare
l’opinione pubblica, anche attraverso il finanziamento di progetti culturali e
sui diritti umani».[5] La
citazione inquadra molto bene l’atteggiamento della Russia verso il concetto di
soft power, inteso come motore delle cosiddette “rivoluzioni
colorate” e delle attività dell’Occidente che la Russia considera sfavorevoli
per sé stessa. Russia che, nello sviluppo della propria diplomazia pubblica, ha
fatto ampio utilizzo degli strumenti d’influenza per condizionare la vita
politica di paesi terzi.[6]
Con queste ambizioni, nel 2010 la Russia ha creato due
agenzie diplomatiche: il “Russian World”, focalizzato sulla diffusione della
lingua russa, e il “Fondo Alexander Gorchakov per la Diplomazia Pubblica”.
Inoltre, già nel 2008, all’interno del ministero degli Affari Esteri era stata
istituita la Divisione Rossotrudnichestvo,
l’Agenzia federale responsabile degli affari della Comunità degli Stati
Indipendenti, dei compatrioti all’estero e della cooperazione umanitaria
internazionale. Questa agenzia si occupa dei russi e delle comunità di lingua
russa all’estero. Nel 2020, Rossotrudnichestvo
ha ampliato la sua struttura aggiungendo dipartimenti dedicati all’informazione
e alla sicurezza informatica, alla scienza e all’istruzione, e agli aiuti
esteri.
Nel complesso, l’approccio russo alla diplomazia pubblica
mostra una continua evoluzione nella comunicazione strategica e nel marketing
politico di Mosca, in cui strumenti come messaggi mirati, tweet, e il coinvolgimento del pubblico diventano sempre più
centrali, sia nella comunicazione tradizionale che in quella digitale.[7]
L’influenza russa attraverso la diffusione di informazioni è
limitata dalla scarsa accessibilità e penetrazione dei contenuti in lingua
russa, soprattutto in Europa e negli Stati Uniti. Per superare questo ostacolo,
la Russia sta efficacemente potenziando le sue capacità di azione e
penetrazione nel cyberspazio. Considerando le pressioni politiche e
l’inefficacia della diplomazia culturale tradizionale russa, è la diplomazia
digitale e dei dati che viene utilizzata come strumento per diffondere
“notizie alternative” nei paesi di interesse per il Cremlino. In
questo contesto, i messaggi politici e le comunicazioni divisive sono mirati a
polarizzare le opinioni pubbliche nazionali tramite social network come Facebook, Twitter e YouTube, utilizzati come
strumenti di guerra informativa da utenti registrati in Russia.[8]
Attraverso questi strumenti, la diplomazia pubblica russa ha intensificato i
suoi sforzi durante la pandemia da Covid-19, sfruttando il supporto umanitario
russo per presentarsi in modo credibile alle opinioni pubbliche straniere.
Paesi come la Serbia nei Balcani, la Siria in Medio Oriente, il Venezuela in
America Latina e persino l’Italia nell’Unione Europea hanno ricevuto aiuti
russi, la cui portata è stata promossa sui social
network attraverso una campagna propagandistica ben organizzata ed
efficace.
Information
warfare, artificial
intelligence e la competizione con la Nato
Come discusso, la Russia percepisce l’Occidente come una
minaccia. Questo punto di vista è stato ribadito dal capo di stato maggiore
generale delle forze armate russe, Valery Gerasimov, nell’aprile 2019, quando
ha sottolineato il pericolo rappresentato dall’espansione della NATO verso i
confini russi e dai tentativi occidentali di destabilizzare il governo del
presidente Putin attraverso l’uso della “guerra ibrida”.[9]
Questa percezione è ulteriormente rafforzata dalla
consapevolezza della debolezza delle forze armate convenzionali russe, ritenute
non sufficientemente preparate per affrontare un eventuale conflitto con la
NATO. I vertici militari russi credono fermamente che sia essenziale evitare
una guerra convenzionale, preferendo spostare il confronto sul piano
cibernetico per raggiungere un equilibrio militare asimmetrico. Questa
strategia è attivamente perseguita dal Cremlino per garantire alla Russia un
vantaggio militare capace di contrastare le ambizioni dell’Alleanza Atlantica,
senza dover ricorrere all’uso della forza cinetica convenzionale.
L’approccio russo può essere descritto come una forma di
“dissuasione strategica”, o come ha indicato lo stesso Gerasimov, una
“strategia di difesa attiva”, nota in Occidente come “guerra
ibrida” o “attività sotto soglia”. Questo concetto si basa su
operazioni non cinetiche mirate a indebolire, nel lungo termine, i potenziali
avversari durante il tempo di pace, creando divisioni politiche e sociali al
loro interno per minare la risolutezza e la capacità decisionale strategica
dello Stato bersaglio. Gli obiettivi principali sarebbero i paesi fortemente
anti-russi, in particolare quelli situati sul fianco orientale della NATO, dove
la Russia potrebbe concentrare un’intensa guerra d’informazione per provocare
cambiamenti politici significativi. In questo modo, la Russia potrebbe
perseguire la sua dottrina di “autoaffermazione sovrana” e ottenere
maggiore libertà di azione in regioni critiche come la Siria, il Medio Oriente
e l’Africa. Queste misure preventive potrebbero anche servire a ostacolare
qualsiasi decisione collettiva della NATO, compresa l’eventualità di un
intervento diretto contro Mosca.[10] In
linea con questa lettura, in occasione dell’avvio della guerra russo-ucraina nel
febbraio 2022 è stata registrata un’ondata di azioni per penetrare le reti
della Nato all’inizio del conflitto, una precauzione ragionevole dal punto di
vista russo, dato il timore di un possibile intervento dell’Alleanza a supporto
di Kiev.
Information Warfare e Intelligenza Artificiale (AI)
Come già menzionato, Gerasimov ha sottolineato l’importanza
crescente dell’informazione per neutralizzare gli oppositori dello Stato, sia
interni che esterni. Secondo Gerasimov, «le tecnologie dell’informazione»
stanno diventando «uno dei tipi di armi più promettenti» da impiegare contro
altri paesi. Per questo motivo, egli afferma che «lo studio dei temi legati
alla preparazione e alla conduzione delle azioni di informazione è il compito
più importante della scienza militare».
Con questo approccio, la Russia ha dato priorità allo
sviluppo di operazioni informative avanzate piuttosto che all’espansione di
armi convenzionali, come carri armati o sistemi missilistici, poiché oggi le
“tecnologie dell’informazione” possono essere notevolmente potenziate
dall’intelligenza artificiale (AI).[11]
Il pensiero delle forze armate russe riguardo allo sviluppo e all’impiego
dell’intelligenza artificiale in ambito militare si focalizza sui vantaggi che
essa può offrire nel supporto alle operazioni militari. Questi vantaggi spaziano
dal miglioramento dei sistemi autonomi e di altre tecnologie militari fino alla
gestione dell’informazione, in particolare a livello strategico globale. In
questo contesto, l’intelligenza artificiale agisce come un amplificatore,
potenziando le operazioni di disinformazione attraverso la diffusione
intenzionale di notizie false e ingannevoli, con l’obiettivo di influenzare
politiche e società e di creare instabilità su larga scala mediante la
manipolazione delle informazioni e attività cibernetiche.[12]
Durante la crisi in Ucraina, la Russia avrebbe messo in atto
un’ampia campagna di operazioni informative mirate a influenzare l’opinione
pubblica e a creare confusione nello spazio dell’informazione, diffondendo una
combinazione di informazioni vere, parzialmente vere e false per renderle
credibili. Un esempio significativo di questi sforzi è rappresentato dai più di
65.000 tweet diffusi da falsi account
russi nelle ventiquattr’ore successive all’abbattimento del volo MH-17 della
Malaysia Airlines il 17 luglio 2014, con l’obiettivo di attribuire la colpa
dell’incidente al governo ucraino. Inoltre, durante l’annessione della Crimea,
le forze russe avrebbero oscurato nove canali televisivi ucraini in Crimea,
sostituendoli con emittenti televisive russe per silenziare i media
filo-governativi ucraini:[13]
un fatto che confermerebbe la condotta di azioni di guerra elettronica (Electronic
warfare, EW) come fattore abilitante per le operazioni di informazione.[14]
Le azioni menzionate evidenziano la
determinazione della Russia a migliorare e intensificare le proprie capacità
nel contesto della guerra informatica, che all’interno della dottrina militare
russa è considerata una componente della più ampia guerra dell’informazione. La
minaccia strategica posta dalla guerra informatica potenziata dall’intelligenza
artificiale sarà particolarmente pericolosa, poiché gli strumenti informatici
diventeranno sempre più capaci di generare disinformazione dettagliata e
credibile (inclusi i “deep fake“[15]) in volumi tali da rendere estremamente difficile distinguere la verità
reale da un’enorme quantità di informazioni contrastanti.[16] L’AI consentirà di saturare lo spazio informativo con dati artificiali,
creando una “verità virtuale” che potrà confondere e destabilizzare
gli avversari, aprendo la strada a una possibile “guerra cognitiva” che
la Russia potrebbe dominare.
Un altro aspetto cruciale della
guerra informatica riguarda il piano tecnico: lo spionaggio, l’installazione di
malware, la distruzione selettiva e, in particolare, la ricerca di
vulnerabilità nei sistemi informatici degli avversari. Con l’avvento dell’AI,
queste tecniche cibernetiche diventeranno sempre più efficaci, permettendo di
individuare le debolezze dei sistemi IT avversari con maggiore rapidità.[17]
Figura 2.
Evoluzione dell’importanza della sicurezza informatica nella strategia russa.
Il grafico
rappresenta l’evoluzione dell’importanza attribuita alla sicurezza informatica
e alle operazioni cibernetiche nella strategia russa nel corso degli anni. Il
grafico mostra un aumento significativo dell’enfasi sulla sicurezza informatica
dal 2010 al 2020, indicando la sua crescente priorità nella pianificazione
strategica della Russia.
[1] J. Fieke, Digital Activism in
the Middle East: Mapping Issue Networks in Egypt, “Knowledge Management for
Development Journal” 6 (1), 2010, pp. 37–52.
[2] N. Tsvetkova, D. Rushchin, (2021), Russia’s Public Diplomacy: From Soft Power
to Strategic Communication, Journal of Political Marketing. 20. 1-12.
10.1080/15377857.2020.1869845.
[3] R. Thornton & M. Miron, Towards
the ‘Third Revolution in Military Affairs’, The RUSI Journal, 165:3, 2020,
pp. 12-21, DOI: 10.1080/03071847.2020.1765514:
https://doi.org/10.1080/03071847.2020.1765514.
[4] V. Putin (2012), Russia and the
Changing World, “Rossiyskaya Gaseta”. Accessed October 20, 2020.
[5] A. Sergunin, L. Karabeshkin, Understanding
Russia’s Soft Power Strategy, “Politics” 35
(3–4):347–63,
2015.
[6] U.S. Congress. 2015. “U.S.
Senate Committee on the Judiciary. Extremist Content and Russian Disinformation
Online:
Working with Tech to Find Solutions.”. In: https://www.judiciary.senate.gov/meetings/extremist-content-and-russian-disinformation-online-working-with-tech-to-find-solutions
(ultimo accesso 21 luglio 2021).
[7] N. Tsvetkova & D. Rushchin, Russia’s
Public Diplomacy…, cit.
[8] J. Bērziņš (2014), Russia’s
New Generation Warfare in Ukraine: Implications for Latvian Defense Policy,
Policy Paper No 02, (Riga: National Defence Academy of Latvian Center for
Security and Strategic Research, April 2014), 5.
[9] V. Gerasimov, Vektory Razvitiya
Voyennoy Strategii [“The Vectors of Military Strategic Development”],
“Krasnaya Zvezda” [Red Star], 3 aprile 2019, in
http://redstar.ru/vektory-razvitiya-voennoj-strategii/.
[10] R. Thornton & M. Miron, Towards
the ‘Third Revolution…, cit.
[13] Office of the UN High Commissioner
for Human Rights, ‘Report on the Human Rights Situation in Ukraine’, 15
July 2014, p. 31. In:
https://www.ohchr.org/Documents/Countries/UA/Ukraine_Report_15July2014.pdf
(ultimo accesso 21 luglio 2021).
[14] D. McCrory (2021), Russian
Electronic Warfare, Cyber and Information Operations in Ukraine, “The RUSI
Journal”, 2021, pp –.
[15]Deepfake: tecnica per la rielaborazione
dell’immagine umana basata sull’intelligenza artificiale, usata per combinare e
sovrapporre immagini e video esistenti con altri video, o immagini originali,
tramite una tecnica di apprendimento automatico, nota come rete antagonista
generativa.
[16] R. Thornton &
M. Miron, Towards the ‘Third Revolution…, cit.
Introduzione di Claudio Bertolotti, Direttore dell’Osservatorio ReaCT
In qualità di Direttore dell’Osservatorio sul Radicalismo e il Contrasto al Terrorismo (ReaCT), sono lieto, oltreché onorato, di presentare per il quinto anno consecutivo il nostro annuale prodotto di ricerca e analisi sul terrorismo e il radicalismo in Europa. Nel solco tracciato dai precedenti quattro numeri, #ReaCT2024 – 5° Rapporto sul radicalismo e il terrorismo in Europa è frutto dell’impegno e della costanza di ricercatori, accademici, professionisti che, con differenti approcci, metodi e punti di osservazione, collocandosi su un piano trasversale e multidisciplinare teso a definire le origini, le ragioni, i punti di forza e le vulnerabilità di un fenomeno poliedrico che la tradizionale metodologia analitica non è più in grado di collocare all’interno di definizioni che non siano meramente didascaliche o formali. È ormai consolidata l’evoluzione dei fenomeni di devianza sociale – così come anticipammo in maniera dettagliata e approfondita all’inizio del nostro percorso di ricerca ed editoriale a partire dal 2020 – che progressivamente si sovrappongono o si associano ai fenomeni di violenza radicale, sempre più a partecipazione individuale, emulativa con una rilevante ambizione “spettacolare”, rientranti in sfere ideologiche o identitarie dal crescente carattere “compartimentato”.
Il rapporto, coerentemente con il percorso sin qui tracciato, si propone come combinazione unica di rivista scientifica e volume collettivo, con contributi di vari autori, ricercatori e collaboratori che hanno dedicato il loro tempo, la loro esperienza e le loro conoscenze. A loro, indistintamente, va la gratitudine del board di ReaCT e mia personale, per il prezioso contributo di ricerca sul campo e per i loro immani sforzi intellettuali. Voglio altresì ringraziare il Ministero della Difesa italiano per aver confermato la stima e la fiducia nell’Osservatorio che dirigo concedendo il patrocinio agli eventi di presentazione del rapporto.
Quali risultati ci consegna la ricerca continua dell’Osservatorio?
Guardando agli ultimi cinque anni, nel più ampio contesto di un’evoluzione storica e operativa, da un punto di vista quantitativo l’incidenza degli attacchi terroristici di matrice jihadista si presenta lineare, con una percettibile diminuzione registrata negli ultimi anni, attestandosi ai livelli pre-fenomeno Isis/Stato islamico. Dal 2019 al 2023 sono stati registrati nell’Unione Europea, nel Regno Unito e in Svizzera 92 attacchi (12 sia nel 2023 che nel 2024 – dati al 30 settembre 2024), di successo e fallimentari: 99 quelli rilevati nel precedente periodo 2014-2018 (12 nel 2015). Sulla scia dei grandi eventi terroristici in Europa nel nome del gruppo Stato islamico, e successivamente in verosimile relazione con gli elementi galvanizzanti conseguenti alla presa del potere talebano in Afghanistan e all’appello del gruppo palestinese Hamas associato alla guerra contro Israele, sono stati registrate 194 azioni in nome del jihad dal 2014 al 2023, delle quali 70 esplicitamente rivendicate dallo Stato islamico. Nel 2023 sono state registrate 12 azioni jihadiste, coerenti con i dati del 2024 ma in lieve flessione rispetto ai 18 attacchi annuali del 2022 e 2021, e con un aumento significativo di azioni di tipo “emulativo”, ossia ispirate da altri attacchi nei giorni precedenti, che ha portato il dato ad attestarsi sui livelli elevati degli anni precedenti. Il 2023 e il 2024 hanno inoltre confermato un trend ormai consolidato nell’evoluzione del fenomeno, con una sostanzialmente esclusiva predominanza di azioni individuali, non organizzate, in genere improvvisate.
Il Rapporto, dopo la disamina storica e quantitativa del fenomeno terroristico, approfondisce poi il tema dello Stato Islamico Khorasan e la possibile minaccia rivolta all’Europa con particolare attenzione al jihad di ritorno dal Sahel al Nord Africa. Allargando il campo di osservazione, #ReaCT2024 si concentra sulle variabili del terrorismo e i caratteri delle manifestazioni antisistema rilevando la necessità di analizzare un fenomeno estremamente dinamico in funzione degli spazi di azione e, su un piano paradigmatico, di procedere urgentemente verso una nuova e condivisa definizione di terrorismo poiché da questa discendono gli strumenti legislativi e giudiziari di prevenzione e contrasto del fenomeno. Altro tema approfondito è quello del “terrorismo solitario” inteso come fenomeno molteplice e puntiforme grazie al ruolo giocato dai social network, dalle dinamiche collettive, dai cluster e dalle ondate e comunità online, a cui si associa l’evoluzione di forme di estremismi “giovani, autonomi ed emancipati”.
In tale contesto in costante evoluzione si inseriscono i fenomeni di radicalizzazione ed estremismo negli ecosistemi digitali fra nuove tecnologie e intelligenza artificiale, i discorsi d’odio digitali come precursori della violenza estremista che apre all’ipotesi suggestiva del “caos armato” a cui il Rapporto dedica un’ampia analisi con un focus sull’accelerazionismo militante, dall’estrema sinistra all’estrema destra.
Sul piano della prevenzione, ampio spazio viene dedicato all’analisi sulla RAN (Radicalization Awareness Network), attraverso un bilancio approfondito su successi, limiti e fallimenti in termini di policy e pratiche, ponendo l’accento sulla vexata quaestio: i radicali torneranno mai a de-radicalizzarsi?
Ampio spazio viene poi dedicato all’insorgere di nuovi estremismi portatori di istanze anti-democratiche, per poi invitare i lettori a riflettere sull’evoluzione dei fenomeni attraverso due casi studio specifici: il primo sulla prevenzione della radicalizzazione e dell’estremismo violento attraverso il contributo delle forze di sicurezza in Portogallo; il secondo sulla sistematica discriminazione di genere in Afghanistan sotto il governo islamista dei talebani, teorizzando la sistematicità di un’apartheid di genere. In conclusione, anche il contributo di quest’anno ha voluto confermare l’ambizione dell’Osservatorio di essere testimonianza della forza e della dedizione della nostra comunità di studiosi e operatori nella lotta in corso contro l’evolvere dei fenomeni di devianza sociale violenta, dei radicalismi e dei terrorismi. Auspico, in qualità di Direttore dell’Osservatorio, che i risultati e le suggestioni contenute in questo Rapporto contribuiscano sempre più a una migliore comprensione dell’evoluzione della minaccia dei terrorismi in Europa e servano come appello all’azione per tutti i soggetti interessati a lavorare insieme ai fini della prevenzione e del contrasto agli estremismi violenti.
Grazie ancora a tutti gli Autori che, con il loro encomiabile lavoro, hanno contribuito ancora una volta alla realizzazione di #ReaCT2024. Un ringraziamento speciale va, come sempre, a START InSight, che ha consentito la pubblicazione e la distribuzione internazionale del nostro rapporto annuale. Infine, un doveroso ricordo al nostro amico Marco Cochi, ricercatore serio e capace, prematuramente scomparso.
Ucraina e Medioriente, conflitti e politica estera. C. Bertolotti ne parla su SkyTG24
Trasmissione del 12 agosto 2024
Nascita ed evoluzione del training camp di Arvier per giornalisti e operatori umanitari
Il primo corso HEFAT immersivo in Italia dedicato a giornalisti e operatori umanitari
di Ugo Lucio Borga
Centinaia di documenti, email, PEC, comunicazioni con le Istituzioni. E poi documenti contabili, preventivi, programmi, liberatorie, verbali, immagini, video. La storia del primo corso Hefat immersivo in Italia destinato a giornalisti e operatori umanitari che lavorano in aree di crisi e di guerra è diligentemente conservata in un paio di hard disk dall’aria anonima. Ma per parlare della sua nascita, bisogna tornare al gennaio 2015. Io e la fotografa Loredana Taglieri, fondatori, insieme alla fotografa Sophie Anne Herin, dell’Associazione Six Degrees, ci troviamo a Donetsk, per raccontare l’ennesima guerra per giornali italiani e spagnoli. Questo fa l’Associazione Six Degrees: racconta le guerre, soprattutto quelle dimenticate, i conflitti etnici, religiosi e razziali, le situazioni di instabilità politica e sociale e le problematiche connesse a migrazioni, povertà, emarginazione e discriminazione in ogni parte del mondo.
Nel gennaio 2015 si combatte duramente nell’aeroporto di Donetsk, l’assedio di Debaltseve è nelle sue fasi finali, il fronte si srotola come un cavo elettrico da Lugansk a Donetsk. E troppi giornalisti muoiono, come sempre succede a qualsiasi latitudine. Molti di loro sono freelance, esclusi da qualsiasi tipo di formazione specifica e con pochi mezzi.
L’IDEA Nasce da questa consapevolezza l’idea dell’Associazione Six Degrees di creare un percorso formativo che permetta ai giornalisti e agli operatori umanitari impegnati in contesti di crisi e di guerra di acquisire tutte le competenze necessarie per operare nella massima sicurezza possibile.
Nel
marzo 2015 l’Associazione si mette al lavoro. Occorre un percorso organico che
riunisca tutte le competenze indispensabili, dalla medicina tattica alla
sicurezza informatica, in un corso che abbia tre fondamentali caratteristiche.
La
prima: deve essere un corso immersivo, ovvero capace di trasferire le
conoscenze ai corsisti attraverso la sperimentazione diretta di situazioni
tipiche dei contesti di crisi e di guerra, avvalendosi di professionisti di
comprovata esperienza nel settore.
La
seconda: deve essere un corso spartano, spogliato di tutto ciò che è inutile o
non finalizzato alla sicurezza. Pochi fronzoli, niente chiacchiere, nessuna
comodità: si dorme in tenda, si mangia quando possibile, esercitazioni
continue, di notte e di giorno. Lo stress deve essere una componente
essenziale, così come accade quando sei sul terreno.
La terza: a differenza dei corsi HEFAT esistenti in Italia e all’estero, che hanno prezzi inaffrontabili per i freelance, deve avere costi contenuti garantendo al contempo uno standard qualitativo d’eccezione. Essendo l’Associazione Six Degrees priva di scopo di lucro, la quota di partecipazione deve essere sufficiente solo a coprire le spese dei materiali e dei docenti.
La formazione, sin dalla prima edizione del 2015, è riservata ai soli soci dell’Associazione Six Degrees: per partecipare al training devi essere regolarmente associato.
PRIMI CONTATTI La sfida è trovare un luogo che si presti al training, e al contempo del personale già formato e in grado di ricreare situazioni immersive. Il primo contatto, nel marzo del 2015, avviene con Alex Junin, Presidente di una Associazione softair che opera nel territorio di Arvier, un Comune in Valle d’Aosta. Quando si dice la fortuna: Alex non solo comprende immediatamente il senso del percorso formativo che l’Associazione sta cercando di organizzare, ma mette le sue competenze e la sua profonda conoscenza del territorio a disposizione. Nei mesi successivi vengono individuati, grazie a lui, i terreni e gli spazi in cui si svolgeranno tutte le edizioni del training Camp, dal 2015 a oggi.
Il
secondo contatto è con il Sindaco del bellissimo Comune che è divenuto, dopo
otto edizioni del training e oltre 100 giornalisti e operatori umanitari
formati e brevettati, il polo di riferimento per la formazione di coloro che
sono destinati ad operare in zone di crisi e di guerra: Arvier, in Valle
d’Aosta.
Anche in questo caso, questione di fortuna, o destino. il Sindaco, Mauro Lucianaz, condivide la valenza sociale del progetto: Il Comune di Arvier è stato colpito, nel corso dell’occupazione nazifascista, da una strage che ne ha segnato profondamente la storia e la coscienza collettiva, ed è quindi molto sensibile all’argomento. Dopo un incontro con la Giunta e la presentazione di un programma di massima, l’Associazione Six Degrees ottiene il via libera. Il supporto del Comune di Arvier, che ogni anno mette a disposizione la bellissima sala polivalente nel centro del paese e che patrocina l’evento, è fondamentale.
IL NOME War reporting training Camp. Questo il primo nome che viene attribuito, nel 2015, dall’Associazione Six Degrees, al percorso formativo. Efficace, ma si può fare di meglio: il riferimento troppo esplicito alla guerra può rendere “difficile” per le Istituzioni collaborare all’evento. Non solo: come sperimentato, inibisce gli eventuali sponsor, perché nessuno vuole vedere il proprio marchio associato a quel termine. Infatti, nessuna delle realtà internazionali che si occupa del settore lo utilizza.
Inoltre,
sembra limitare ai soli contesti di guerra la formazione erogata, mentre il
training Camp di Arvier forma giornalisti e operatori umanitari che siano in
grado di lavorare in sicurezza anche in casi di calamità naturali o altre
situazioni emergenziali.
In
ultimo, la sigla: WRTC è già in uso, si riferisce al World Radiosport Team
Championship, ciò che nel tempo comporta alcuni equivoci, soprattutto sui
social media.
Il nome rimane in uso per otto edizioni: l’Associazione ha stabilito di procedere, infine, con il tanto auspicato cambio del nome a partire dalla IX edizione del training Camp di Arvier.
IL TEAM Nella primavera del 2015 lo staff dell’Associazione Six Degrees inizia a lavorare sul terreno con i collaboratori individuati dal Presidente Alex Junin. Lo scopo, quello di creare delle situazioni immersive assolutamente aderenti alla realtà. Vengono ripresi e analizzati eventi vissuti in prima persona e accadimenti che hanno segnato la storia del giornalismo di guerra, e riproposti nei minimi dettagli. Gli addestramenti si protraggono per tutta l’estate del 2015, in previsione del primo evento del training camp, che si svolge dal 9 al 13 settembre 2015.
Intanto, l’Associazione cerca figure professionali e collaboratori che possano mettere a disposizione le loro competenze. Avendo frequentato l’ottavo corso per giornalisti impegnati in aree di crisi organizzato dalla FNSI in collaborazione con l’Esercito Italiano, invio una prima mail allo Stato Maggiore della Difesa il 19 maggio del 2015, per chiederne la partecipazione.
Alcune settimane prima, il 16 aprile 2015, contatto il collega Cristiano Tinazzi, invitandolo a collaborare alla realizzazione del training progettato dall’Associazione. Inizialmente collaboratore esterno, Cristiano Tinazzi diventa membro effettivo del direttivo dell’Associazione Six Degrees dal maggio 2019 al gennaio 2024.
Si
aggiungono poi, a partire dalla prima edizione, Paolo Fusinaz, istruttore TAS
(topologia applicata al soccorso) membro dell’Associazione dal maggio del 2019,
Laura Lambertucci, psicologa specializzata in EMDR, e gli istruttori di BLSD
Sergio Pesavento e Christian Voyat. La tutor del training, a partire
dall’edizione del 2018, è Anais Foretier, membro del direttivo
dell’Associazione, mentre i tutor delle attività immersive sono Alex Junin e
Mattia Cubito. A partire dal 2021, la formazione riguardante la medicina
tattica e gli esplodenti viene assicurata dal personale della TFA, Tactical
Firearms Academy – Tactical Rescue Unit- società riconosciuta a livello
internazionale e autorizzata dal Ministero della Difesa americano DoD per la
fornitura di training certificati e qualificati NATO.
Ad oggi, lo staff che partecipa alle varie fasi degli addestramenti previsti durante il training camp di Arvier supera le 30 unità; il numero massimo di corsisti ammessi è di 12 unità.
L’EVOLUZIONE Il programma del training Camp di Arvier si è costantemente aggiornato e ampliato, per rispondere con maggiore efficacia alle esigenze formative dei giornalisti e degli operatori umanitari destinati a operare in aree di crisi o di guerra. Per citare un esempio, a partire dalla VIII edizione, il training Camp di Arvier assicura crediti formativi per i giornalisti iscritti all’Ordine nazionale dei giornalisti. La durata del training, il cui programma è stato integrato con l’imprescindibile formazione in ambito NBC (rischio Nucleare, Biologico, Chimico) SERE (Survival, Evasion, Resistance and Escape) e una nuova formazione sulla difesa passiva da droni FPV, è passata da 5 a 7 giorni. Così pure sono cambiati, nel tempo, alcuni dei collaboratori di cui l’Associazione si avvale, nel tentativo costante di migliorare ulteriormente l’offerta formativa: ad affiancare lo staff dell’Associazione Six Degrees nella conduzione del training, saranno quest’anno le giornaliste Nancy Porsia e Luciana Coluccello, con il loro straordinario bagaglio di talento ed esperienza.
La IX edizione del Training Camp di Arvier si terrà quest’anno dal 15 al 22 settembre 2024
Per info e iscrizioni: training@fromthefrontline.net
La nuova strategia di intelligence USA: implicazioni per il Sistema di Informazioni e Sicurezza della Repubblica.
di Niccolò Petrelli, START InSight, Assistant Professor, Strategic Studies
Nell’Agosto 2023 l’US Office of the Director of National Intelligence (ODNI) ha pubblicato una National Intelligence Strategy (NIS) incentrata sulla nuova era di competizione con la Cina che nel corso degli ultimi mesi ha iniziato ad essere attuata.[1] Uno degli elementi centrali del documento, che essenzialmente delinea la visione per il futuro dell’ODNI più che una vera e propria strategia, è la decisione di rafforzare ed espandere la rete internazionale di “collegamenti” con altri servizi informativi (nonché con vari tipi di attori privati).[2] Quale l’eventuale impatto sul Sistema di Informazioni e Sicurezza della Repubblica (SISR)? Esiste la possibilità che la strategia di collegamento USA si traduca in opportunità per il sistema d’intelligence italiano?
Per rispondere a queste domande è
possibile partire da un precedente analogo nella storia dell’intelligence
USA. Tra la seconda metà del 1945 e la prima metà del 1947 infatti, l’emergere
della competizione con l’Unione Sovietica spinse l’apparato informativo
statunitense ad investire in maniera sistematica risorse, capacità, expertise,
e relazioni personali nella creazione di una massiccia e stratificata
infrastruttura di collegamenti con i servizi segreti di numerosi paesi
dell’Europa occidentale.[3]
In un primo momento a guidare tale strategia furono principalmente requisiti di
“accesso” e ampliamento della raccolta informativa sull’URSS e i suoi “alleati”
in Europa orientale: i paesi dell’Europa occidentale rappresentavano infatti
quella che potremmo definire la più valida “piattaforma” per accedere a tali
obiettivi informativi. Nel 1946 ad esempio fu raggiunto un tacito accordo in
base al quale la MUST e la FRA, le due agenzie di intelligence militare
svedesi, iniziarono a passare all’intelligence USA tutti le informazioni
di HUMINT e SIGINT sulle attività militari sovietiche nella regione baltica in
cambio di finanziamenti e equipaggiamento per la raccolta informativa tecnica. Un
altro esempio, più noto, è quello dell’accordo UKUSA, sempre del 1946, in base
a cui la State-Army-Navy Communications Intelligence Board degli Stati
Uniti e la London SIGINT Board si impegnavano a condividere ogni
prodotto informativo di raccolta tecnica, mettendo di fatto in piedi una
ripartizione del lavoro che l’ex direttore del Government Communications Headquarters
(GCHQ) David Omand ha definito basata sui “soldi statunitensi e cervelli
britannici”.[4]
La
situazione iniziò tuttavia a cambiare approssimativamente dal 1949. L’intelligence
americana modificò progressivamente la propria azione di collegamento,
strutturandola in base alla percezione della natura della competizione
prevalente a Washington, ovvero quella di un confronto in primo luogo politico-ideologico
con l’URSS. Ciò si riteneva
richiedesse una fusione dei paradigmi strategici di “guerra” e “pace” in uno sforzo
unitario e coordinato di political warfare,[5] come la definì George Kennan. Tanto la
CIA quanto le varie componenti dell’intelligence militare
intensificarono dunque le proprie attività di collegamento in Europa
occidentale promuovendo, in modi e forme diverse a seconda delle circostanze,
lo sviluppo di tutte quelle capacità ritenute essenziali per gestire il nuovo
tipo di confronto: propaganda, guerra psicologica, sostegno clandestino a forze
politiche locali e, qualora necessario, contro-guerriglia.[6]
In Germania ad esempio, oltre alla creazione di diverse reti stay-behind
(S/B), documentazione recentemente declassificata ha gettato luce sul sostegno
fornito dalla CIA e dall’intelligence militare USA per attività
clandestine condotte dall’Organizzazione Gehlen (la prima struttura di intelligence
di quella che sarebbe diventata la Repubblica Federale Tedesca), al fine di
minare la stabilità della zona di occupazione sovietica della Germania.[7]
Dove si rivelò più difficile cooperare ad ampio spettro con le controparti
locali la comunità di intelligence statunitense combinò attività di
collegamento ad operazioni clandestine. Un approccio di questo tipo fu adottato
ad esempio in Italia, dove dalla fine della Seconda Guerra Mondiale l’intelligence
americana operò simultaneamente a due diversi livelli: da un lato collaborando
con i servizi segreti italiani, in particolare nel programma S/B, dall’altro
sviluppando autonomamente reti clandestine per condurre attività di guerra
psicologica, propaganda e destabilizzazione.
La strategia di collegamento USA generò
dunque effetti trasformativi della struttura, capacità, e funzioni degli
apparati informativi europei occidentali, rischi di vario tipo, basti pensare
proprio al caso dell’Italia, ma anche opportunità, in particolare di
beneficiare di finanziamenti, anche cospicui, nonché di forniture di
equipaggiamento tecnologicamente avanzato. Non tutti i servizi europei
occidentali tuttavia furono parimenti in grado di sfruttare tali opportunità.
Ciò dipese da variabili di vario tipo legate al contesto, la natura delle
relazioni diplomatiche con gli USA, il grado di fiducia esistente tra i
decisori politici ed i vertici degli apparati informativi, la condizione
politica prodotta dalla Seconda Guerra Mondiale e, non da ultimo, la posizione
geografica dei vari paesi rispetto agli obiettivi informativi di prioritario
interesse per la comunità d’intelligence USA. Di cruciale importanza
furono tuttavia anche taluni fattori squisitamente materiali, ovvero il grado di
“interoperabilità” con il sistema d’intelligence statunitense, l’adattabilità
e funzionalità delle capacità, esistenti e potenziali, dei servizi dell’Europa
occidentale rispetto alle missioni affidate al sistema d’intelligence USA
nel quadro della political warfare nei confronti del blocco comunista, e
da ultimo la complementarietà di capacità e competenze rispetto a quelle
espresse dalle varie componenti del sistema USA.
Il GCHQ britannico fu ad esempio in grado, capitalizzando sulle proprie
competenze specifiche in termini di analisi politica del sistema internazionale
e crittoanalisi, nonché sulla “interoperabilità” tecnica con il sistema USA, di
massimizzare i vantaggi derivanti dalla strategia di collegamento attuata dagli
USA arrivando, come visto sopra, a siglare un accordo che garantiva accesso ad
ogni prodotto (in teoria) di raccolta tecnica statunitense. L’intelligence
svedese, da parte sua, riuscì, in particolare in virtù delle proprie autonome
capacità di raccolta tecnica in un’area di cruciale importanza strategica per
gli USA, ad assicurarsi finanziamenti e equipaggiamento per rafforzare un
settore di raccolta prioritario per la sicurezza nazionale del paese. Il caso
italiano dimostra invece come, nonostante l’abilità dimostrata in diverse
circostanze dai vertici dell’apparato informativo nello sfruttare a proprio
vantaggio la propensione USA ad intensificare i collegamenti, come ad esempio
nel caso del programma congiunto S/B Italia-USA “Gladio” avviato nel 1951,
limiti capacitivi impedirono di cogliere ulteriori potenziali opportunità. Infatti,
le scarse competenze analitiche dell’intelligence italiana, in
particolare sotto il profilo economico, sociologico e politologico, e la
conseguente incapacità di sviluppare analisi ad ampio spettro della base di
sostegno e infrastruttura sociale del Partito Comunista Italiano (PCI)
contribuì in maniera non trascurabile a far sì che l’intelligence USA
procedesse in maniera autonoma sia alla raccolta informativa che ad una serie
di attività operative di contrasto nei confronti del PCI.[8]
Allo stesso modo la mancanza di una solida capacità di raccolta SIGINT da parte
dell’apparato informativo italiano precluse l’opportunità, intorno alla metà
degli anni ’50, nel momento in cui Washington era particolarmente interessata a
monitorare l’intensificazione dell’attività navale sovietica nel Mediterraneo,
di estendere i collegamenti con il sistema d’intelligence USA a
condizioni vantaggiose per l’Italia, e rappresentò molto probabilmente una
delle ragioni alla base della creazione da parte statunitense nel 1960 di una
struttura SIGINT gestita dall’Air Force Security Group (USAFSS) a San
Vito dei Normanni.[9]
Basandoci su quanto sopra, si può ipotizzare che l’attuazione della strategia
di collegamento delineata nella NIS 2023 presenterà per l’apparato informativo
italiano, con buona probabilità, opportunità analoghe a quelle che emersero al
principio della Guerra Fredda. Due sono dunque gli elementi su cui concentrare
l’attenzione per comprendere come esse potrebbero essere sfruttate nella
maniera più efficace: il primo è la percezione USA della natura della
competizione con la Cina, il secondo sono le capacità (a livello aggregato) che
i vertici dell’intelligence USA stanno sviluppando ed intendono
promuovere per i prossimi anni.
Per quanto riguarda il primo elemento, dopo un periodo piuttosto lungo
di dibattito, la natura della competizione con la Cina ha iniziato ad essere
definita con maggiore precisione. Benché l’assunto di partenza rimanga quello
di una competizione globale in ogni ambito, economico, politico, sociale, dell’informazione,
e militare, è recentemente emerso un consenso sempre più ampio circa il fatto
che la componente centrale di tale competizione sia di natura tecnologico-economica.[10]
In altre parole, si ritiene che essa sia incentrata sulla creazione di un
vantaggio competitivo duraturo nelle principali tecnologie di frontiera, intelligenza
artificiale generale, microprocessori e reti di comunicazione di prossima
generazione, produzione avanzata, stoccaggio e produzione di energie,
biotecnologie, al fine di poter plasmare l’economia globale della prossima
generazione e definire gli standard di accesso e impiego a tali tecnologie.[11]
In merito al secondo elemento, per comprendere il tipo di capacità che
l’ODNI intende promuovere nella comunità d’intelligence USA è possibile
fare riferimento alla nozione di Revolution in Intelligence Affairs (RIA),
da alcuni anni ormai popolare nel dibattito professionale e politico USA sull’intelligence.
Benché nella NIS non vi siano espliciti riferimenti al concetto, appare
evidente come la RIA rappresenti il costrutto-guida de facto impiegato per
coordinare una serie di trasformazioni, nel procurement e integrazione
di nuove tecnologie, nella struttura organizzativa, e nelle procedure operative
del sistema d’intelligence USA, al fine di porlo nelle condizioni
migliori per affrontare le sfide dei prossimi decenni, in primis quelle legate
alla competizione con la Cina.
La trasformazione immaginata dall’ODNI prevede di procedere in primo
luogo all’acquisizione e integrazione su vasta scala di intelligenza
artificiale, sensori all’avanguardia e tecnologie di automazione, evitando
approcci incrementali o settoriali. Simultaneamente, alla luce della velocità,
della scala, e della complessità a cui opereranno queste tecnologie, verranno
promossi rapidi cambiamenti organizzativi e operativi volti ad agevolare forme
di integrazione tra raccolta e analisi, promuovere ridondanza tra le varie fasi
del ciclo di intelligence, nonché a creare meccanismi più rapidi per la
diffusione in tempo reale dei prodotti informativi. In altre parole, si intende
promuovere un modus operandi “a rete” per il sistema di intelligence
basato sulla fusione completa dei flussi di dati prodotti da ogni tipo di
sensori e piattaforme, la sincronia e integrazione di tutte le attività
operative, e la trasmissione rapida e continua di prodotti a operatori umani,
macchine e decisori in tutti i dominii.[12]
Quali dunque le capacità e competenze su cui il SISR dovrebbe puntare
per essere in grado di cogliere le opportunità generate dalla strategia di
collegamento dell’intelligence USA? Essenziale è che esse rispondano
alla percezione della competizione come di un confronto essenzialmente
tecno-economico, e che siano complementari alle capacità espresse dal sistema
d’intelligence USA.
In primo luogo dunque il SISR dovrebbe rafforzare le proprie capacità
di raccolta e analisi in ambito economico e tecnologico. La questione non è
nuova, il dibattito sul rafforzamento dell’intelligence economica risale
agli anni 90, con il lavoro delle commissioni Ortona (1992) e Jucci (1997).[13]
Approssimativamente nello stesso periodo inoltre in seno al Comitato Esecutivo
per i Servizi di Informazione e Sicurezza (CESIS) fu attivato un “gruppo
permanente per l’intelligence economica”. Di recente l’ex direttore del SISDE
Mori ha rilanciato l’idea di un organismo collegiale dove siano rappresentati il
Dipartimento delle Informazioni per la Sicurezza (DIS), le due agenzie (Aisi e
Aise), i ministeri interessati e le associazioni degli imprenditori. Nel caso
specifico tuttavia la questione chiave sarebbe, in coerenza con quello che è
l’approccio USA all’intelligence economico-tecnologica, adottare una
postura proattiva, che includa attività offensive su base continuativa nei
confronti non solo della Cina e dei suoi principali partner economici e
tecnologici, ma anche di imprese e enti privati riconducibili a quello che
potremmo chiamare “l’ecosistema tecno-economico” cinese.
In secondo luogo, il SISR dovrebbe investire sullo sviluppo ulteriore
delle proprie capacità operative in aree in cui gode di un vantaggio competitivo,
ed in cui esse possano impiegarsi in maniera complementare a quelle del sistema
d’intelligence statunitense. La scelta più logica appare l’area del
Mediterraneo, dove da diversi decenni ormai il sistema d’intelligence
italiano conduce attività operativa di ampio respiro. Proprio nel Mediterraneo
infatti negli ultimi anni la Cina ha, con discrezione, ampliato la propria
presenza attraverso grandi aziende private (Shanghai
International Port Group, China Merchants) e pubbliche (COSCO, China
Communications and Construction Company) stipulando accordi commerciali di
vario tipo, accordi per partecipazioni nei porti di paesi situati lungo rotte
marittime vitali per la Belt and Road Initiative, e acquisendo aziende di medie
dimensioni, spesso allo scopo di avere accesso a tecnologie Europee.[14]
Il necessario presupposto ovviamente, come evidenziano gli esempi di UK
e Svezia durante la Guerra Fredda, è che il sistema d’intelligence
italiano goda di un buon livello di “interoperabilità” con quello USA. Ciò, a
sua volta, richiede che i vertici dell’apparato informativo proseguano, e
auspicabilmente diano ulteriore impulso, a quel processo di acquisizione e
integrazione di tecnologie dell’informazione di ultima generazione, sensori
avanzati, Intelligenza Artificiale e sistemi di apprendimento automatico, che
sembra essere iniziato da qualche anno.
[6] US Department of
State, Foreign Relations of the United States,
1951, Vol. I, National Security Affairs, Foreign Economic
Policy, Washington DC, Government
Printing Office, 1979 (FRUS 1951), Doc. 18 Attachment to Memorandum for the
National Security Council by the Executive Secretary, 8 maggio 1951.
[8] Niccolò Petrelli, “Alcide De Gasperi e le Origini
del Servizio Informazioni Forze Armate (SIFAR)”, in Mario Caligiuri (a
cura di) De Gasperi e L’Intelligence (in corso di pubblicazione).
[10]Intelligence
Innovation. Repositioning for Future Technology Competition, Second Intelligence Interim Panel Report (IPR) of the Special
Competitive Studies Project (SCSP), Aprile 2024.
[11] Brandon Kirk
Williams, The Innovation Race: US-China Science and Technology Competition
and the Quantum Revolution (Washington DC: Woodrow Wilson Center, 2023).
[14] Claudia De Martino,
The Growing Chinese Presence in the Mediterranean, Med-Or Geopolitics, 22 April
2024, https://www.med-or.org/en/news/la-crescente-penetrazione-cinese-nel-mediterraneo.
Iran, Israele, Hamas, Russia, NATO: il commento di C. Bertolotti a SKY TG24
La presentazione di Gaza Underground – il libro, a SKY TG24: le incognite e le difficoltà nella guerra urbana e sotterranea. E ancora: la morte del presidente di Raisi e la sua successione: quali ripercussioni a livello interno ed esterno? La Russia minaccia di ridefinire i confini marittimi: provocazione o atto deliberato?
Il commento di Claudio Bertolotti a TIMELINE, SKY TG24 (puntata del 22 maggio 2024).
Terrorismo: lo Stato islamico e i campionati di calcio.
di Claudio Bertolotti. Dall’intervista di Giampaolo Musumeci per Radio 24 – Nessun Luogo è Lontano del 9 aprile 2024.
Il Cairo, 9 apr. (Adnkronos) – Il sedicente Stato Islamico, tornato a spaventare l’Europa dopo l’attentato a Mosca, ha minacciato di lanciare un attacco contro i quattro stadi in cui da stasera si disputeranno i quarti di finale di Champions League. Al-Azaim, uno degli organi di propaganda dell’Isis, ha confermato queste intenzioni pubblicando l’immagine dei quattro stadi in cui si disputeranno le partite di andata – il Parco dei Principi di Parigi, il Santiago Bernabeu di Madrid, il Metropolitan sempre di Madrid e l’Emirates di Londra – accompagnata dalla didascalia “Uccideteli tutti”.
Una necessaria premessa: l’esperienza dell’ISIS, così come l’abbiamo conosciuta in Iraq e Siria si è conclusa nel giugno 2014 con la proclamazione del Califfato da parte di al-Baghdadi e l’istituzione dello Stato islamico. L’ISIS non esiste più, al suo posto lo Stato islamico dunque. Non è una precisazione da poco, perché segna l’avvio dell’epoca post-territoriale del movimento, quella che stiamo osservando e subendo oggi, sia in Occidente, sia in Medioriente come dimostra la forza sempre più manifesta di questo gruppo in particolare in Siria e Afghanistan.
Quanto seria è questa minaccia? Ricordiamo una allerta simile il 30 marzo in Germania.
Un primo aspetto. In questo caso, come nella maggior parte degli episodi, non è lo Stato islamico ma i suoi gruppi affiliati a chiamare alla lotta. E quella attuale sembra non tanto una avvisaglia quanto un appello a colpire, e dunque non una minaccia diretta. Anche perchè, come ci ha dimostrato la storia recente dello Stato islamico e dei suoi affiliati in franchise, quando il gruppo colpisce lo fa senza preavvertire – di fatto sfruttando l’effetto sorpresa per ottenere il massimo dei risultati. Quanto accaduto in Russia ne è una conferma. Però, e questo è il secondo aspetto, coerentemente con gli attacchi degli ultimi anni, attribuiti o rivendicati dallo Stato islamico, è l’appello a colpire che viene colto da singoli soggetti, o più raramente da parte di piccoli gruppi, spesso disorganizzati o scarsamente organizzati, che costituisce la forza propulsiva del gruppo che, di norma e per evidente opportunità, rivendica solamente quelli di successo, una minima parte, non citando quelli invece più numerosi che si concludono con un risultato fallimentare.
Dopo l’attentato a Mosca, queste minacce e l’arresto ieri a Roma di un tajiko ex miliziano Isis, ci sono a tuo parere le condizioni per capire quale sia la strategia dell’Isis? Sta rialzando la testa? Riacquisendo forza?
Lo Stato islamico sta rialzando la testa, e lo sta facendo in maniera dirompente ed efficace, riportandoci sul piano emotivo e del terrore ai terribili anni 2015-2017 quando l’Europa fu travolta da una serie di eventi dirompenti, a loro volta in grado di riportare le emozioni agli attacchi dial-Qa’idain Europa del 2004, a Madrid e a Londra. Oggi è sufficiente guardare alla Siria, dove si pensava – complici anche i riflettori mediatici rivolti altrove – che lo Stato islamico fosse stato sconfitto: non è così. Al contrario, l’aumento progressivo di attacchi dello Stato islamico, gli assalti continui e ripetuti alle carceri per liberare i combattenti detenuti dal regime siriano, la capacità di colpire sostanzialmente ovunque. È un campanello d’allarme che suona molto forte e che anticipa una nuova ondata che si autoalimenta: dalla retorica della vittoria talebana in Afghanistan, alla competizione con i talebani, all’aumentare degli affiliati, singoli e gruppi dal Medioriente al Sud-Est asiatico, fino all’Europa. Non uno Stato islamico ex-novo, ma è un fenomeno che si sta risvegliando.
Per fornire le migliori esperienze, utilizziamo tecnologie come i cookie per memorizzare e/o accedere alle informazioni del dispositivo. Il consenso a queste tecnologie ci permetterà di elaborare dati come il comportamento di navigazione o ID unici su questo sito. Non acconsentire o ritirare il consenso può influire negativamente su alcune caratteristiche e funzioni.
Funzionale
Sempre attivo
L'archiviazione tecnica o l'accesso sono strettamente necessari al fine legittimo di consentire l'uso di un servizio specifico esplicitamente richiesto dall'abbonato o dall'utente, o al solo scopo di effettuare la trasmissione di una comunicazione su una rete di comunicazione elettronica.
Preferenze
L'archiviazione tecnica o l'accesso sono necessari per lo scopo legittimo di memorizzare le preferenze che non sono richieste dall'abbonato o dall'utente.
Statistiche
L'archiviazione tecnica o l'accesso che viene utilizzato esclusivamente per scopi statistici.L'archiviazione tecnica o l'accesso che viene utilizzato esclusivamente per scopi statistici anonimi. Senza un mandato di comparizione, una conformità volontaria da parte del vostro Fornitore di Servizi Internet, o ulteriori registrazioni da parte di terzi, le informazioni memorizzate o recuperate per questo scopo da sole non possono di solito essere utilizzate per l'identificazione.
Marketing
L'archiviazione tecnica o l'accesso sono necessari per creare profili di utenti per inviare pubblicità, o per tracciare l'utente su un sito web o su diversi siti web per scopi di marketing simili.