Opinione
4.5.2025

Intelligenza artificiale generale entro il 2030? Perché i prossimi cinque anni potrebbero cambiare tutto

Illustrazione: Martina Pepiciello
Di
Testo originale: Benjamin Todd, traduzione e adattamento: Martina Pepiciello.
Link al testo originale (in Inglese)

Negli ultimi mesi, i CEO delle principali aziende di intelligenza artificiale (IA) sono sembrati sempre più fiduciosi sulla rapidità dei progressi verso l’intelligenza artificiale generale (AGI): Sam Altman (OpenAI) dice di sapere come costruirla, Dario Amodei (Anthropic) è convinto che ci siamo quasi, e Demis Hassabis (Google DeepMind) ha ridotto le sue previsioni da dieci a cinque anni. 

Entusiasmo eccessivo o realtà?

Questo articolo cerca di spiegare perché questi dirigenti sono così ottimisti, cosa sta realmente accadendo dietro le quinte, e perché i prossimi cinque anni potrebbero rivelarsi decisivi per il futuro dell’intelligenza artificiale.

Cosa sta guidando il progresso dell’IA

Negli ultimi dieci anni, i modelli di intelligenza artificiale hanno fatto passi da gigante e superato di colpo limiti che sembravano invalicabili. Oggi si parla non solo di chatbot, ma di agenti capaci di svolgere compiti complessi e catene di azioni, come se fossero programmatori, ricercatori o analisti. Questi agenti potrebbero presto soddisfare molte delle definizioni di AGI.

Questa accelerazione è stata possibile grazie a quattro fattori chiave:

  1. Modelli più grandi: aumentando la potenza di calcolo e la quantità di dati usati per l’addestramento, i modelli diventano più intelligenti.
  2. Ragionamento: oggi si riesce a “insegnare” ai modelli come risolvere problemi, e non solo imitare il linguaggio umano.
  3. Più tempo per pensare: se permettiamo ai modelli di riflettere più a lungo prima di rispondere, le loro prestazioni migliorano.
  4. Strutture da agente: molti modelli moderni sono dotati di strumenti, come l’accesso a internet o la possibilità di eseguire codice, che permettono loro di agire in modo autonomo per raggiungere un obiettivo complesso.

Tutti questi elementi stanno migliorando rapidamente e continueranno a farlo almeno fino al 2028, secondo le proiezioni attuali. Vediamoli nel dettaglio uno per uno.

1. Modelli sempre più grandi: dal deep learning all’intelligenza generale

Nel 2010 l’intelligenza artificiale era data per morta. Poi, la combinazione di vecchie idee con nuovi dati e maggiore potenza di calcolo ha fatto nascere il deep learning. Da allora, i modelli sono passati da semplici imitatori di testo a sistemi capaci di superare gli umani in molti test di ragionamento, scienze e programmazione.

Il salto da GPT-2 a GPT-4, ad esempio, è stato principalmente una questione di “quantità”: più dati e più potenza di calcolo. Nel 2019, GPT-2 riusciva a malapena a non andare fuori tema per un paio di paragrafi, e questo era già considerato un progresso straordinario. Oggi GPT-4 può scrivere codice complesso, riassumere documenti, analizzare dati, cimentarsi in scrittura creativa, elaborare strategie personalizzate per raggiungere gli obiettivi più disparati, e molto altro. E se i trend continuano, nel 2028 potremmo avere un GPT-6 300.000 volte più potente del GPT-4.

2. Insegnare all’IA a ragionare

Un’altra svolta recente è stata usare l’apprendimento per rinforzo per insegnare ai modelli a ragionare. In pratica, si fanno risolvere all’IA problemi matematici o domande scientifiche di cui si conosce esattamente la risposta, chiedendo di descrivere la sequenza di ragionamento che ha portato alla risposta. Quando la risposta è corretta, il modello viene modificato per comportarsi in modo più simile a quanto appena fatto, e il procedimento si ripete. 

Questo paradigma ha portato modelli come o1 e o3 (versioni rafforzate di GPT-4) a superare performance umane in test da dottorandi. Nel giro di pochi mesi, l’IA è passata dal “tirare a indovinare” a risolvere problemi che richiedono ragionamenti complessi. Questo probabilmente spiega le dichiarazioni particolarmente ottimistiche dei leader delle aziende di IA. Il cambio di opinione di Sam Altman, per esempio, coincide esattamente con il lancio del modello o3 a dicembre 2024.

3. Quando l’IA può pensare meglio e più a lungo

Se per ipotesi riflettessimo su un problema complesso per un minuto, probabilmente non faremmo molta strada. Se invece potessimo pensare per un mese, riusciremmo a fare molto di più, anche con lo stesso livello di intelligenza.

Fino a poco tempo fa, i modelli di IA non riuscivano a pensare a un problema per più di un minuto, perché “perdevano il filo”. Ma ora, grazie a strutture più stabili, possono riflettere per ore o persino giorni. Questo significa che possono affrontare problemi sempre più lunghi e complessi.

GPT-4o poteva pensare per circa un minuto, mentre sembra che GPT-o1 e DeepSeek-R1 possano pensare per l’equivalente di un’ora circa. Se i trend attuali continuano, i modelli futuri potranno affrontare progetti di una settimana, un mese o più.

4. Gli agenti IA

Le aziende di intelligenza artificiale stanno trasformando i chatbot IA in “agenti”. Si tratta di modelli che possono pianificare, agire, usare strumenti, tenere memoria di ciò che fanno, e in generale svolgere lunghe catene di azioni per raggiungere obiettivi senza bisogno di un’assistenza continua.

Ad esempio, se volessimo creare un’app, invece di chiedere aiuto all’IA ad ogni step, potremmo semplicemente dire “Crea un’app che faccia X”. Il modello chiederebbe poi informazioni aggiuntive, costruirebbe un prototipo, farebbe test e correggerebbe bug, per poi consegnare il prodotto finito, quasi come uno sviluppatore umano.

Questi agenti iniziano già a funzionare per compiti di poche ore: per esempio, semplici agenti basati su GPT-o1 e Claude 3.5 Sonnet battono esperti umani in problemi complessi di ricerca sull’intelligenza artificiale su un tempo di due ore. Se i miglioramenti continueranno con il ritmo attuale fino al 2028, questi agenti saranno in grado di gestire progetti di più settimane allo stesso livello di esperti umani. 

Cosa possiamo aspettarci entro il 2030

Se i trend attuali continuano, nel 2028 potremmo avere sistemi IA capaci di:

  • avere conoscenze da esperti in ogni campo;
  • ragionare meglio della maggior parte degli esseri umani;
  • rispondere a domande scientifiche e matematiche di livello professionale;
  • programmare meglio di sviluppatori esperti;
  • completare in autonomia progetti di più settimane.

In pratica, avremmo sistemi in grado di svolgere una larga parte del lavoro intellettuale oggi riservato agli esseri umani. In particolare, ci si aspetta che l’IA potrà potenziare in modo significativo lo sviluppo software, la ricerca scientifica, e la ricerca sull’IA stessa.

Per di più, questi modelli potrebbero anche contribuire a creare nuovi modelli, innescando una cascata di auto-accelerazione.

Perché i prossimi cinque anni saranno cruciali

La crescita dell’IA dipende da due cose: più potenza di calcolo e algoritmi migliori. Oggi entrambi questi fattori stanno crescendo a ritmi esponenziali, ma questo trend non potrà durare per sempre. Entro il 2030, potrebbero emergere degli ostacoli:

  • economici: addestrare modelli all’avanguardia costerebbe moltissimo;
  • energetici: modelli sempre più avanzati richiedono sempre più energia per funzionare;
  • industriali: produrre molti chip in più rispetto ad oggi sarebbe una sfida enorme;
  • algoritmici: mantenere un progresso costante negli algoritmi IA richiede un aumento esponenziale della forza lavoro impegnata nella ricerca.

Se entro il 2028 non saremo riusciti a creare IA capaci di auto-migliorarsi o generare abbastanza valore da finanziare il proprio sviluppo, il ritmo del progresso rallenterà bruscamente.

In sintesi, siamo in una corsa contro il tempo: o l’IA riuscirà a “decollare” e diventare autosufficiente, o assisteremo a una stagnazione. E lo sapremo, molto probabilmente, nei prossimi cinque anni.

E se invece ci sbagliamo?

Non tutti gli esperti sono ottimisti. Alcuni pensano che l’IA resterà inefficace nei compiti vaghi, ambigui o che richiedono molto contesto, cioè gran parte del lavoro umano reale. Questo perché questi compiti non prevedono risposte facilmente verificabili, e quindi non si può sfruttare l’allenamento per rinforzo. Un esempio emblematico di compito vago e complesso è fare nuove scoperte.

Inoltre, il progresso dei modelli non sempre si traduce in applicazioni pratiche, per limiti normativi, economici o culturali. Altri temono che le prestazioni sui test siano sovrastimate o che i dati usati per l’addestramento siano di qualità troppo bassa per portare a ulteriori miglioramenti.

Eppure, anche gli scettici hanno ridotto drasticamente le loro stime sui tempi per l’arrivo dell’AGI. Una decina di anni fa si parlava del 2070. Oggi, anche molti dei più cauti dicono “entro vent’anni”.

Conclusione

L’idea che avremo un’intelligenza artificiale generale entro il 2030 non è più fantascienza. È una possibilità concreta, sostenuta da tendenze osservabili e da progressi già raggiunti.

Come durante i primi segnali della pandemia di COVID-19, potremmo essere davanti a un cambiamento epocale, ma senza rendercene ancora conto. E se anche alla fine non raggiungeremo una “superintelligenza”, basterebbe una buona IA capace di fare ricerca per accelerare enormemente il progresso scientifico e tecnologico del mondo.

Leggi Anche