Il 2025 è iniziato davvero col botto per tutti coloro che lavorano nel modo del digital marketing e dell’IT. Dopo la decisione di Zuckerberg di modificare il formato dei post della griglia profilo di Instagram e di eliminare i filtri beauty di terze parti, arrivano, a distanza di poche ore una dall’altra, due bombe sganciate da due aziende cinesi. La prima, a cui a capo c’è un certo Liang Wenfeng, imprenditore poco conosciuto fino a qualche giorno fa, ha inferto il primo duro colpo a Open AI che, ancora lo stava metabolizzando quando le è arrivato il secondo. A infliggerlo questa volta è un vero e proprio colosso: Alibaba, gruppo noto in tutto il mondo per la sua piattaforma e-commerce globale.
Le notizie si rincorrono, gli articoli e le interviste si sprecano, i notiziari nazionali ne parlano. Una cosa è certa: se provate a scrivere in Google Trends il termine ‘deepseek’, noterete che dal 25 gennaio l’impennata di ricerche è evidente. Da quando l’omonima startup cinese ha lanciato sul mercato il suo modello AI open-source il mondo IT è letteralmente impazzito. La Silicon Valley ha iniziato a tremare, Wall Street pure.
Visto tutto questo tam tam mediatico e l’importanza di un tema che diventa ogni giorno più attuale, ci sembra a questo punto doveroso ripercorrere la storia di questa intelligenza artificiale, andando a ritroso per scoprirne origini e sviluppi di qualcosa che ha rivoluzionato numerosi settori, dall'assistenza sanitaria alla finanza, dall'automazione industriale alla comunicazione. Questa tecnologia, che un tempo era relegata alla fantascienza, come ben sappiamo è oggi una realtà tangibile e in continua evoluzione.
L'idea di creare macchine capaci di imitare l'intelligenza umana affonda le sue radici nell'antichità, ma il concetto moderno di AI inizia nel XX secolo. Alan Turing, matematico britannico, è considerato uno dei padri fondatori dell'AI. Nel 1936 ha introdotto il concetto di Macchina di Turing, un modello teorico che ha avuto un impatto fondamentale nello sviluppo della scienza computazionale, della matematica e della logica. Si trattava di unmodello astratto di calcolo, che definiva una macchina ideale capace di eseguire operazioni su simboli scritti su un nastro infinito. I suoi componenti erano: un nastro infinito, suddiviso in celle, ciascuna delle quali poteva contenere un simbolo, che fungeva da memoria per la macchina; una testina di lettura/scrittura, che poteva leggere il simbolo presente in una cella del nastro, scrivere un nuovo simbolo e spostarsi a sinistra o a destra; una tabella delle regole che definiva le istruzioni che la macchina doveva seguire in base allo stato attuale e al simbolo letto.
Turing introdusse la sua macchina per affrontare il famoso Entscheidungsproblem (problema della decisione) proposto da David Hilbert. Questo problema chiedeva se esistesse un metodo generale, un algoritmo, capace di determinare la verità o la falsità di qualsiasi affermazione matematica.
Attraverso la sua macchina Turing dimostrò che non esiste un tale algoritmo universale in grado di risolvere tutti i problemi matematici. In altre parole, attestò che esistevano limiti fondamentali a ciò che può essere calcolato meccanicamente.
Negli anni '50 e '60 si iniziò a fare sul serio e l'AI prese piano piano forma come disciplina accademica. I ricercatori svilupparono i primi algoritmi di apprendimento automatico e le reti neurali semplici. Nel 1956, la conferenza di Dartmouth segnò la partenza ufficiale della ricerca sull'AI. Organizzato da John McCarthy, Marvin Minsky, Nathaniel Rochester e Claude Shannon, questo evento, che riunì circa 10 ricercatori provenienti da diverse istituzioni - tra cui il Massachusetts Institute of Technology (MIT), l'IBM e la Princeton University – coincise con l'inizio di un'era di ricerca intensiva e innovativa, gettando le basi per lo sviluppo di tecnologie che oggi sono parte integrante della nostra vita quotidiana.
L'obiettivo principale della Conferenza di Dartmouth era quello di esplorare la possibilità di creare una macchina che potesse simulare ogni aspetto dell'apprendimento o qualsiasi altra caratteristica dell'intelligenza umana.
Nonostante le promettenti scoperte iniziali, L'Intelligenza Artificiale ha attraversato diverse fasi di entusiasmo e delusione sin dalla sua nascita. Tra queste, i cosiddetti Inverni dell'AI rappresentano periodi significativi in cui l'interesse, il finanziamento e il progresso subirono un drastico calo con una conseguente battuta d’arresto nell’avanzamento della ricerca.
Questi periodi sono spesso il risultato di una combinazione di fattori che portarono a una revisione critica delle potenzialità dell'AI. Il primo si registrò tra metà degli anni Settanta e l’inizio degli anni Ottanta: la potenza di calcolo disponibile era insufficiente per supportare gli algoritmi avanzati proposti. Inoltre, la mancanza di dati adeguati ostacolava l'addestramento di modelli efficaci portando di conseguenza a un declino dell’interesse accademico e a una sospensione di diversi ambiziosi progetti.
Il secondo momento storico di stasi avvenne poco dopo il primo, a causa di uno scetticismo continuo e a problemi di scalabilità, per cui gli algoritmi esistenti faticavano a scalare per compiti più complessi, limitando la loro applicabilità pratica. Altri settori dell'informatica, come lo sviluppo di sistemi operativi e reti, guadagnarono terreno, attirando risorse e talenti che, quindi, si allontanarono sempre di più dal mondo dell’AI.
Come un cane che si morde la coda, questo clima di sfiducia e disinteresse innescò a cascata un ulteriore riduzione dei finanziamenti e lo spostamento dell’attenzione su altre tecnologie.
Negli anni '90, l'IA cominciò finalmente a riprendersi grazie a progressi nella potenza di calcolo e all'accesso a grandi quantità di dati. Il lancio di Internet e la digitalizzazione di molte attività fornirono chiaramente le basi per lo sviluppo di algoritmi più sofisticati.
Il 1997 vide uno dei momenti storici e più emblematici dell'AI con la vittoria di Deep Blue, l'AI di IBM, contro il campione di scacchi Garry Kasparov. Questo evento non solo dimostrò le potenzialità delle macchine nel risolvere problemi complessi, ma segnò anche un punto di svolta nella percezione pubblica e accademica delle capacità dell'AI.
Negli anni '90, gli scacchi erano considerati un campo di battaglia ideale per testare le capacità dell'Intelligenza Artificiale. Garry Kasparov, allora campione mondiale di scacchi, era riconosciuto come uno dei più grandi giocatori di tutti i tempi, noto per la sua strategia avanzata e la sua capacità di prevedere le mosse dell'avversario. IBM, da parte sua, aveva già tentato in passato di sviluppare macchine in grado di competere con i migliori giocatori di scacchi, con Deep Blue come progetto principale. La prima versione di Deep Blue aveva già sfidato Kasparov nel 1996, ma fu sconfitta, anche se con prestazioni molto vicine al campione.
Ma cos’era Deep Blue? Si trattava di un supercomputer progettato specificamente per giocare a scacchi a un livello competitivo elevato con una potenza di calcolo in grado di eseguire circa 200 milioni di mosse al secondo, grazie alla combinazione di un hardware specializzato e processori paralleli. Utilizzava sofisticati algoritmi di valutazione delle posizioni scacchistiche, combinati con tecniche di ricerca come l'Alpha-Beta Pruning, per esplorare in modo efficiente il vasto albero delle possibili mosse. Inoltre, era dotato di un ampio database contenente milioni di partite precedenti, aperture e finali, che gli permettevano di riconoscere schemi e strategie efficaci. Era stato sviluppato per lavorare in stretta collaborazione con scacchisti umani, integrando quindi le loro conoscenze nel processo decisionale.
Come è facile immaginare la vittoria di Deep Blue su Garry Kasparov ebbe profonde ripercussioni nel campo dell'AI. Oltra a dimostrare per la prima volta che le macchine potevano competere e persino superare gli esseri umani in compiti altamente complessi e strategici, incentivò ulteriori ricerche nel campo del machine learning, dell'elaborazione parallela e delle tecniche di intelligenza artificiale applicate ai giochi. Tutto ciò chiaramente iniziò anche a sollevare dibattiti sull'etica dell'AI e sulle implicazioni della crescente autonomia delle macchine nelle decisioni strategiche.
Il vero punto di svolta nell'AI è avvenuto con l'avvento del deep learning, una branca del machine learning che utilizza reti neurali profonde, ispirate dalla struttura e dal funzionamento del cervello umano. Grazie a questa tecnologia, l'AI ha raggiunto livelli di prestazioni senza precedenti in vari ambiti, tra cui il riconoscimento delle immagini, il rilevamento dei volti, la comprensione del linguaggio naturale e la guida autonoma.
Il deep learning presenta diversi vantaggi. Grazie alla sua capacità di apprendere rappresentazioni complesse, infatti, può raggiungere livelli di precisione superiori rispetto ai metodi tradizionali in molti compiti. Inoltre, la sua capacità di automatizzare l’estrazione delle caratteristiche riduce la necessità di interventi manuali nella pre-elaborazione e nell'estrazione delle caratteristiche dai dati.
Le fasi che abbiamo ripercorso ci hanno portato fino a qui, per assistere a un cambiamento epocale e ad alcune evoluzioni talmente ravvicinate, da preoccupare quasi per la rapidità con cui si stanno susseguendo e per le implicazioni che ne derivano.
Nel panorama odierno l'Intelligenza Artificiale presenta una vasta gamma di modelli avanzati che ha rivoluzionato il modo in cui affrontiamo problemi complessi e innoviamo in diversi settori. Questi modelli, sviluppati attraverso anni di ricerca e perfezionamento, sfruttano architetture sofisticate e tecniche di apprendimento avanzate per offrire soluzioni altamente efficienti e precise. Dalle reti neurali profonde alle architetture transformer, ogni modello presenta caratteristiche uniche che lo rendono più adatto per specifiche applicazioni, come il riconoscimento delle immagini, l'elaborazione del linguaggio naturale, la visione artificiale e molto altro.
Vediamo quindi di esplorare i principalimodelli di AI attualmente disponibili, analizzandone le funzionalità, i punti di forza e le potenziali applicazioni, per fornire una panoramica completa delle tecnologie che stanno plasmando, volenti o nolenti, il nostro futuro.
Le reti neurali profonde sono alla base della maggior parte dei progressi recenti nell'AI. Questi modelli sono composti da numerosi strati di neuroni artificiali, che permettono di apprendere rappresentazioni complesse dei dati.
I modelli di linguaggio naturale (NLP) sono progettati per comprendere, interpretare e generare linguaggio umano.
Questi modelli sono specializzati nell'interpretazione e nell'analisi delle immagini e dei video.
L'apprendimento rinforzato (RL) si concentra sull'addestramento di agenti che prendono decisioni sequenziali per massimizzare una ricompensa cumulativa.
I modelli multimodali combinano diverse tipologie di dati, come testo, immagini e suoni, per fornire risposte più complete e contestualmente ricche.
Per tornare all’incipit di questo articolo e alle notizie di questi giorni, la novità in ambito AI è sicuramente quella che riguarda la start-up Deepseek, già in vetta alle classifiche negli app store, e l’impero Alibaba, che spiazzano i competitor con il loro modelli di intelligenza artificiale. Un terremoto non annunciato, che arriva e scuote letteralmente non solo Open AI, Gemini, Anthropic e Meta, ma anche la borsa statunitense con i titoli big tech a picco.
Deepseek rilascia due modelli nel giro di pochi mesi: il primo è V3, il secondo R1 solo lo scorso 20 gennaio, ed entrambi fanno discutere soprattutto per i costi di addestramento dichiarati relativamente bassi e per l’efficienza nel consumo energetico. R1 è paragonabile ai modelli o1 e o1 mini di OpenAI, e si basa sul ragionamento esplicito unito a una ricerca in tempo reale sul web.
La risposta di Alibaba non si è fatta attendere: con Qwen 2.5 (o meglio Qwen-2.5-Max), l’azienda di Hangzhou punta non solo a competere con la nuova stella dell’IA cinese, ma anche a insidiare i modelli di punta di colossi come OpenAI e Meta (GPT-4o e Llama-3.1-405B).
Un tempismo perfetto, viene da dire, fatto sta che la temperatura in Cina ora è decisamente salita e tutti gli occhi di chi segue con passione le vicende di un mondo sempre più tecnologico sono puntati lì, quasi come se questo fosse solo l’inizio di una storia che ci riserverà altre, scioccanti, puntate.