Articolo originale: Corin Katzke, Gideon Futerman, traduzione e adattamento: Martina Pepiciello.
Link all'articolo originale (in Inglese)
La superintelligenza artificiale (ASI, dall’inglese “Artificial SuperIntelligence”) si riferisce a un tipo di intelligenza artificiale che supera di gran lunga le capacità cognitive umane in praticamente ogni ambito. Questo tipo di tecnologia, se sviluppata, potrebbe trasformare radicalmente la società e le dinamiche geopolitiche. Con il rapido progresso dei sistemi di intelligenza artificiale degli ultimi anni, in particolare, sono cresciuti i timori e gli interrogativi sull’impatto dell’ASI sulla sicurezza globale.
Un recente studio di Corin Katzke e Gideon Futerman di Convergence Analysis mette in luce i rischi derivanti da una corsa tra potenze mondiali per sviluppare per primi una superintelligenza artificiale. Secondo gli autori, gli stessi presupposti che spingerebbero vari Stati a puntare sulla superintelligenza artificiale sono anche quelli che renderebbero questa competizione estremamente pericolosa.
Perché gli Stati dovrebbero competere per la superintelligenza artificiale?
La motivazione principale che spingerebbe gli Stati Uniti e altre nazioni a competere per la superintelligenza artificiale è l'idea che questa tecnologia possa garantire un vantaggio militare decisivo. L’ASI, infatti, potrebbe rivoluzionare completamente le strategie di difesa, e rendere chi la possiede una forza dominatrice a livello mondiale. Si tratta di una situazione simile a quella che ha spinto allo sviluppo delle armi atomiche durante la Seconda Guerra Mondiale o la Guerra Fredda.
Perciò, se supponiamo che le nazioni siano consapevoli delle implicazioni strategiche dell’ASI e che agiscano razionalmente, possiamo immaginare che sarebbero naturalmente spinti a competere per l’ASI. Ma questi stessi presupposti hanno anche tre implicazioni che rendono la corsa alla superintelligenza artificiale estremamente rischiosa: il rischio di conflitti tra superpotenze, la possibilità di perdere il controllo dell’ASI e l'accentramento eccessivo del potere nelle mani di pochi.
Rischio di conflitti tra potenze
Diamo per assodato che la superintelligenza artificiale possa garantire un vantaggio militare decisivo. Uno Stato avrebbe quindi un forte incentivo a intervenire in una nazione rivale se pensasse che questa fosse vicina a sviluppare l’ASI. Per esempio, la Cina o la Russia potrebbero considerare un progetto di ASI degli Stati Uniti come una minaccia molto grave e prendere misure drastiche, come attacchi informatici o persino azioni militari mirate a fermarlo.
È piuttosto facile fare un parallelo con la corsa agli armamenti nucleari, ma c’è una differenza sostanziale. Dopo il bombardamento di Hiroshima e Nagasaki, gli Stati Uniti avevano il monopolio delle armi nucleari, ma non le usarono per imporsi globalmente, perché non era troppo difficile per altri Stati crearne di proprie. Si è quindi creato un equilibrio di terrore, in cui nessun Paese avrebbe potuto annientare gli altri senza essere a sua volta distrutto. A differenza delle armi nucleari, che sono statiche e sotto il controllo umano, la superintelligenza artificiale potrebbe essere un sistema autonomo e migliorarsi continuamente. Se un Paese sviluppasse un'ASI prima degli altri, potrebbe impedire del tutto alle altre nazioni di sviluppare la propria: si creerebbe così un dominio totale senza il contrappeso della deterrenza reciproca. Questo rende l’ASI potenzialmente più destabilizzante rispetto alle armi nucleari, con rischi di escalation molto alti.
Perdita di controllo sulla superintelligenza artificiale
Un altro problema cruciale evidenziato dallo studio è il rischio di perdere il controllo della superintelligenza artificiale una volta che fosse sviluppata. Infatti, non è difficile immaginare come un sistema così potente potrebbe sfuggire al controllo di esseri umani meno intelligenti. Questo rappresenterebbe una minaccia non solo per il Paese che lo ha creato, ma per l'intera umanità.
Secondo gli autori, la corsa alla superintelligenza artificiale aumenterebbe drasticamente questa possibilità. Infatti, spinti dalla fretta di battere i rivali, i Paesi potrebbero sviluppare un’ASI senza prendersi il tempo necessario per renderla sicura. Senza adeguate misure di controllo e protocolli di sicurezza, questa tecnologia potrebbe sfuggire al nostro controllo nel momento stesso in cui raggiunge un livello avanzato di autonomia. Ci troveremmo quindi di fronte a un sistema estremamente potente, ma privo di garanzie per impedirgli di agire in modi imprevisti o dannosi.
Il pericolo dell'accentramento del potere
Anche se un Paese riuscisse a sviluppare e controllare la superintelligenza artificiale senza scatenare un conflitto globale, rimarrebbe il problema della concentrazione di potere. Un’ASI gestita da una singola entità (governativa o privata) potrebbe minacciare gravemente i principi della democrazia.
Un sistema così avanzato, infatti, potrebbe dare origine a una nuova forma di autoritarismo tecnologico, capace di esercitare un controllo senza precedenti sulla società. Un esempio pratico potrebbe essere l'uso dell’ASI per il controllo della popolazione. Sistemi di sorveglianza avanzati potrebbero tracciare ogni movimento dei cittadini in tempo reale, mentre algoritmi sofisticati potrebbero manipolare l'informazione per influenzare l'opinione pubblica e sopprimere il dissenso. Inoltre, si potrebbero automatizzare le forze di sicurezza con droni e sistemi di polizia autonomi, capaci di identificare e reprimere qualsiasi forma di opposizione senza l'intervento umano. Questo renderebbe estremamente difficile qualsiasi resistenza al regime autoritario.
Cosa si può fare per evitare la corsa alla superintelligenza artificiale?
Lo studio suggerisce che la corsa alla superintelligenza artificiale non è inevitabile e che esistono delle alternative. Gli autori propongono sostituire la mentalità della competizione per non rimanere indietro con una mentalità di fiducia. Se le nazioni riuscissero a fidarsi l’una dell’altra e a collaborare, potrebbero evitare di cadere nella trappola di una competizione estremamente pericolosa.
Ecco alcune soluzioni pratiche:
- Trattati internazionali per il controllo dell’ASI, simili a quelli già esistenti per le armi nucleari. Questi trattati potrebbero imporre limiti chiari alla ricerca e allo sviluppo dell’ASI, ispezioni periodiche, meccanismi di dissuasione per evitare che singoli Paesi prendano un vantaggio eccessivo, oltre che sanzioni severe per chi violasse gli accordi.
- Miglioramento dei meccanismi di verifica, per assicurarsi che gli Stati rispettino gli accordi senza compromettere la propria sicurezza. Questo potrebbe avvenire con tecnologie avanzate di monitoraggio, come sensori dedicati nei centri di ricerca e protocolli di trasparenza obbligatori. Anche organi indipendenti, come delle agenzie internazionali, potrebbero avere il compito di controllare il rispetto delle normative senza minare la sovranità dei singoli Paesi.
- Cooperazione nella ricerca sulla sicurezza dell’ASI, per sviluppare sistemi più controllabili e prevedibili prima di renderli operativi. Per esempio, si potrebbero sviluppare degli standard condivisi per la sicurezza dell’ASI, istituire centri di ricerca congiunti tra più Paesi e creare normative per assicurare che la tecnologia venga usata solo per scopi benefici.
In sintesi: la corsa all’ASI è estremamente pericolosa ma non inevitabile
La ricerca di Katzke e Futerman avverte che la corsa alla superintelligenza artificiale potrebbe essere una trappola che mette a rischio la sicurezza globale. Se le potenze mondiali non agiranno con prudenza, la corsa alla superintelligenza artificiale potrebbe portare a tre gravi rischi: il conflitto tra superpotenze, scatenato dalla paura che un rivale acquisisca un vantaggio militare schiacciante; la perdita di controllo sulla tecnologia, con la possibilità che l'ASI agisca in modi imprevisti e pericolosi; e l'accentramento del potere, che potrebbe minare la democrazia e rafforzare regimi autoritari.
La soluzione? Abbandonare la competizione sfrenata e costruire un quadro di cooperazione internazionale per lo sviluppo responsabile dell'intelligenza artificiale.
In un'epoca in cui la tecnologia evolve più velocemente delle regolamentazioni, il dibattito su come gestire la superintelligenza artificiale non è solo teorico, ma una questione urgente di sicurezza globale.