Tutti noi ci stiamo divertendo, ultimamente, ad utilizzare i nuovi Modelli di AI, per ritoccare le foto, per generare immagini, per chiacchierarci come se fossero un essere umano, e così via. Ed è qualcosa che era impensabile solo tre anni e mezzo fa, fino a quando non è stato reso pubblico Chat GPT3, dal novembre 2021.
Eppure, l’ Intelligenza Artificiale viene da lontano, e questo termine fu coniato addirittura nel 1956 da John McCharty, anche se già da prima le basi teoriche erano state poste da Alan Turing (ricorderete il film “The Imitation Game”). Turing definì quello che da allora si chiama il “Test di Turing“, che definisce la soglia oltre la quale una macchina può essere ritenuta “intelligente” come una persona. Il test è semplice: se una persona comunica da remoto, tramite terminale, o con qualsiasi altro mezzo, con una AI e con una persona, e non riesce a distinguere l’uno dall’altro nella interazione, allora la macchina è ritenuta intelligente quanto un umano. Questo test non era mai stato superato fino ad oggi da nessun sistema di AI, ma oggi ci siamo arrivati. Ancora qualche perfezionamento nel dialogo e i sistemi di AI definiti LLM (Large Language Model), come Chat-GPT, avranno raggiunto l’obiettivo.

Ma davvero a quel punto un sistema di AI potrà essere ritenuto intelligente? La domanda non vi sembri banale, perchè definire il termine “intelligenza” è molto arduo, dato che molte sono le ambiguità e le diverse spiegazioni che se ne danno. Ad aumentare la confusione poi ci si è messo McCharty, che ha definito questa branca della Cibernetica come “Intelligenza”, per quanto artificiale. E come se non bastasse la loro architettura oggi è basata su un modello definito “Rete Neurale“, con una diretta analogia col cervello umano.
La così battezzata “Intelligenza Artificiale” viene quindi da lontano, ma perchè ce ne stiamo occupando solo oggi, e solo oggi sono stati messi in commercio sistemi così potenti? La ragione è molto facile da individuare. L’AI “classica” era basata su dei software abbastanza semplici, che rispondevano a domande o davano soluzioni sulla base di regole predefinite dagli esperti, come se venisse eseguito un qualsiasi software: se tu mi chiedi questo, e se quest’altro e fatto così, e la regola dice questo, allora la risposta è quest’altra. Un semplice prodotto software, che fu diffuso negli anni ’80 e ’90 col nome di “Sistemi Esperti“.
Quando si arriva agli anni ’80 assistiamo alla nascita, e poi alla progressiva espansione, di Internet, e con la rete si creano canali di comunicazione veloci e facili da utilizzare. Parallelamente, la potenza dei processori aumenta esponenzialmente, con la cosiddetta “Legge di Moore“, che dice che il numero di transistor inseribili in un chip raddoppia circa ogni due anni, e anche se la curva della crescita si è rallentata, per motivi fisici, la crescita continua. Come continua ad aumentare la mole di dati, che produciamo e diffondiamo ogni minuto su internet, determinando la più straordinaria crescita di informazioni della storia in tempi molto rapidi. Il 90% di tutti i dati della storia umana sono stati prodotti negli ultimi tre anni. E’ questo il tempo dei cosiddetti “Big Data“. Se a questi sviluppi aggiungiamo poi la velocità delle connessioni, con l’aumento della banda trasmissiva, abbiamo tutti gli ingredienti per una rivoluzione vera e propria.

Manca l’ultimo passaggio, quello della creazione dei sistemi di “apprendimento” per addestrare i sistemi di AI, visto che la mole di dati necessaria a disposizione ce l’abbiamo, e che la potenza elaborativa che abbiamo sviluppato negli ultimi anni ha prodotto enormi data center per macinare informazioni. Questi sistemi sono stati creati, con le già citate “Rete Neurali“. Senza entrare in dettaglio, possiamo dire che una Rete Neurale è fatta di tanti nuclei elaborativi, per analizzare migliaia di parametri e metterli in correlazione tra loro, per arrivare a delle conclusioni molto attendibili. Durante l’addestramento il sistema “impara” analizzando dati e soluzioni già disponibili, quindi, in un certo senso, impara la logica del ragionamento, impara a “pensare” per così dire. Una Rete Neurale potente sfrutta le cosiddette tecniche del “Deep Learning” per arrivare alle sue decisioni.

A questo punto la nuova Intelligenza Artificiale è stata creata. Analizza dati, impara, ricava delle regole da sola, e arriva a delle conclusioni, di qualunque tipo esse siano. Questi sistemi vengono oggi adottati per moltissimi scopi: per le ricerche, per creare delle chat bot intelligenti, per elaborare immagini, per fare previsioni economiche, per il riconoscimento dei volti, e anche per gli armamenti, purtroppo.
Ma possiamo paragonare un Modello di AI ad un essere umano? Assolutamente no, perchè c’è una caratteristica umana che un sistema di AI non potrà mai avere, e non sono affatto le “emozioni”, altro termine ambiguo e soggetto a mille interpretazioni, ma la capacità, del tutta umana, di commettere errori, di provare rimorso per questo, e di correggersi, evolvendosi in modo empatico. Un software potrà essere infallibile in futuro, ma non avrà mai questa capacità, o questo “difetto” se vogliamo vederla così.
Lo sviluppo dei sistemi di AI ci sta ponendo moltissimi problemi, di tipo etico, sociale, legislativo e procedurale, e le legislazioni stanno cercando faticosamente di adeguarsi a questa evoluzione, come ha fatto l’Europa con l’ AI Act. Ma non tutti i paesi sono sulla stessa lunghezza d’onda, perchè molti preferiscono dare carta bianca alla ricerca e agli sviluppi di questi sistemi. Insomma, siamo in un’epoca di grandi problemi, che comportano grandi rischi, e anche notevoli pericoli. Ma la sfida del futuro è tutta qui, nella gestione e nell’utilizzo di questi straordinari prodotti della scienza e della tecnologia.
Un saluto a tutti.



































