Esiste ancora la verità?

L’ Intelligenza Artificiale, con cui facciamo i conti ogni giorno, continua a sorprenderci, e compie dei passi in avanti con cadenza quasi quotidiana. A partire dal marzo di due anni, con il rilascio di ChatGPT da parte di OpenAI, tutto il mondo ha imparato a conoscere e a iniziato a parlarne, i Large Language Model come GPT, e come altri che ne sono seguiti, da Gemini a Grok, a LLAMA. Anche il mondo del design, dell’arte, della fotografia, ha iniziato a usare questi strumenti, man mano che dal testo e dal dialogo si passava a generare immagini, sulla base di istruzioni fornite dall’utente. I LLM sono così diventati “generalisti“, passando dal testo alle immagini, ai filmati. Alcuni, come Midjourney e diverse altre app, si sono specializzati sulla generazione di immagini, con caratteristiche diverse dai LLM. Il risultato di questa evoluzione è stato straordinario. Da un lato siamo venuti in possesso di strumenti formidabili, per lo studio, il lavoro, l’arte, la grafica, dall’altro il modo dell’informazione è stato invaso da foto e filmati generati da prodotti di AI, molto spesso non dichiarandone l’origine, e quindi inquinando il mercato dell’informazione.

Le regolamentazioni come l’ AI Act, in vigore dall’agosto 2024, impongono di dichiarare in modo chiaro e riconoscibile che un testo o immagine è stata prodotta utilizzando strumenti di AI. L’art. 50-2 del Regolamento (UE 2024/1689 – AI Act) così recita:

I fornitori di sistemi di IA, compresi i sistemi di IA per finalità generali, che generano contenuti audio, immagine, video o testuali sintetici, garantiscono che gli output del sistema di IA siano marcati in un formato leggibile meccanicamente e rilevabili come generati o manipolati artificialmente.”

Naturalmente una cosa è il regolamento, altro è quello che succede su un mercato vastissimo e multinazionale, e anche se le sanzioni sono pesantissime, questa indicazione molto spesso non è seguita, in particolare se questi prodotti vengono generati in paesi dove l’AI Act, e altre regolamentazioni simili, non sono in vigore. Abbiamo assistito quindi ad un proliferare di immagini AI Generated, con effetti a volte divertenti, ma in generale deleteri, perchè il settore dell’informazione è stato gravemente inquinato, al punto che non si riesce a distinguere, molto spesso, quali immagini siano reali e quali invece siano generate dall’AI. Stesso discorso per i testi, generati da LLM come Chat-GPT e suoi simili, che vengono spesso utilizzati senza chiarirne la fonte, a volte con risultati molto negativi, vista la frequente approssimazione e le cosiddette “Allucinazioni” di cui soffrono ancora questi sistemi.

Tornando alle immagini, nei giorni scorsi in rete ci sono state molte polemiche sulle immagini provenienti da Gaza, che mostravano alcune della atrocità che questa guerra sta generando. Questo ha dato spazio ad accese polemiche, anche di famosi giornalisti e politologi. Il problema è che a volte si riesce a chiarire cosa sia vero e cosa no, ma più spesso occorre fare analisi molto approfondite per stabilire l’origine. Naturalmente è possibile rilevare errori marchiani, commessi dal modello generativo, tipo mani a sei dita, immagini dei volti palesemente distorte, illuminazione incoerente con le ombre, e così via, ma altre volte il risultato prodotto raggiunge quasi la perfezione.

Sono così nati dei prodotti che analizzano le immagini, con un metodo tecnicamente inverso a quello della generazione, per riuscire ad identificare quelle tracce che dimostrino la realtà o meno dell’immagine. Ci sono alcuni strumenti sul mercato che, con buona approssimazione, riescono a darci una diagnosi: AI or Not, HuggingFace AI detectors, e FotoForensics sono i più diffusi. E ultimamente è nata anche una startup italiana, fondata a Milano da Marco Ramilli e Marco Castaldo, che ha raccolto dei finanziamenti e ha prodotto uno strumento che si sta rivelando tra i migliori disponibili. Si tratta di IdentifAI (https://web.identifai.net/), che può essere usato, anche se con molte limitazioni, in modo gratuito, tramite interfaccia web.

Ho fatto qualche test per provarlo, usando tre immagini diverse: una reale, una prodotta con l’ Intelligenza Artificiale e l’altra ricavata da uno screenshot di un Avatar in Second Life. I risultati sono stati molto interessanti: mentre per la foto reale e per quella generata dall’AI il responso è stato molto chiaro, vicino al 100% di attendibilità, per l’avatar di Second Life il risultato è stato inaspettato. Vi riporto i report forniti per ognuna delle tre immagini.

Analisi effettuata sulla foto reale.

Analisi su foto generata da AI

Analisi sulla foto di un Avatar scattata in Second Life

La foto dell’Avatar è stata classificata come “Umana” al 99,97%, in un tool,, e al 59,05% in un altro tool. Sarebbe interessante accedere agli altri due tool, ancora più potenti, per vedere se il risultato cambia, ma non ho voglia per ora di pagare l’ennesimo abbonamento. Chi vuole, può tranquillamente farlo, e farci magari conoscere il risultato!

Per ora, l’Avatar viene classificato come “Umano”. Ma questo … lo sapevamo già.

Un saluto.

E se pensassero come noi..?

Tutti noi ci stiamo divertendo, ultimamente, ad utilizzare i nuovi Modelli di AI, per ritoccare le foto, per generare immagini, per chiacchierarci come se fossero un essere umano, e così via. Ed è qualcosa che era impensabile solo tre anni e mezzo fa, fino a quando non è stato reso pubblico Chat GPT3, dal novembre 2021.

Eppure, l’ Intelligenza Artificiale viene da lontano, e questo termine fu coniato addirittura nel 1956 da John McCharty, anche se già da prima le basi teoriche erano state poste da Alan Turing (ricorderete il film “The Imitation Game”). Turing definì quello che da allora si chiama il “Test di Turing“, che definisce la soglia oltre la quale una macchina può essere ritenuta “intelligente” come una persona. Il test è semplice: se una persona comunica da remoto, tramite terminale, o con qualsiasi altro mezzo, con una AI e con una persona, e non riesce a distinguere l’uno dall’altro nella interazione, allora la macchina è ritenuta intelligente quanto un umano. Questo test non era mai stato superato fino ad oggi da nessun sistema di AI, ma oggi ci siamo arrivati. Ancora qualche perfezionamento nel dialogo e i sistemi di AI definiti LLM (Large Language Model), come Chat-GPT, avranno raggiunto l’obiettivo.

Ma davvero a quel punto un sistema di AI potrà essere ritenuto intelligente? La domanda non vi sembri banale, perchè definire il termine “intelligenza” è molto arduo, dato che molte sono le ambiguità e le diverse spiegazioni che se ne danno. Ad aumentare la confusione poi ci si è messo McCharty, che ha definito questa branca della Cibernetica come “Intelligenza”, per quanto artificiale. E come se non bastasse la loro architettura oggi è basata su un modello definito “Rete Neurale“, con una diretta analogia col cervello umano.

La così battezzata “Intelligenza Artificiale” viene quindi da lontano, ma perchè ce ne stiamo occupando solo oggi, e solo oggi sono stati messi in commercio sistemi così potenti? La ragione è molto facile da individuare. L’AI “classica” era basata su dei software abbastanza semplici, che rispondevano a domande o davano soluzioni sulla base di regole predefinite dagli esperti, come se venisse eseguito un qualsiasi software: se tu mi chiedi questo, e se quest’altro e fatto così, e la regola dice questo, allora la risposta è quest’altra. Un semplice prodotto software, che fu diffuso negli anni ’80 e ’90 col nome di “Sistemi Esperti“.

Quando si arriva agli anni ’80 assistiamo alla nascita, e poi alla progressiva espansione, di Internet, e con la rete si creano canali di comunicazione veloci e facili da utilizzare. Parallelamente, la potenza dei processori aumenta esponenzialmente, con la cosiddetta “Legge di Moore“, che dice che il numero di transistor inseribili in un chip raddoppia circa ogni due anni, e anche se la curva della crescita si è rallentata, per motivi fisici, la crescita continua. Come continua ad aumentare la mole di dati, che produciamo e diffondiamo ogni minuto su internet, determinando la più straordinaria crescita di informazioni della storia in tempi molto rapidi. Il 90% di tutti i dati della storia umana sono stati prodotti negli ultimi tre anni. E’ questo il tempo dei cosiddetti “Big Data“. Se a questi sviluppi aggiungiamo poi la velocità delle connessioni, con l’aumento della banda trasmissiva, abbiamo tutti gli ingredienti per una rivoluzione vera e propria.

Manca l’ultimo passaggio, quello della creazione dei sistemi di “apprendimento” per addestrare i sistemi di AI, visto che la mole di dati necessaria a disposizione ce l’abbiamo, e che la potenza elaborativa che abbiamo sviluppato negli ultimi anni ha prodotto enormi data center per macinare informazioni. Questi sistemi sono stati creati, con le già citate “Rete Neurali“. Senza entrare in dettaglio, possiamo dire che una Rete Neurale è fatta di tanti nuclei elaborativi, per analizzare migliaia di parametri e metterli in correlazione tra loro, per arrivare a delle conclusioni molto attendibili. Durante l’addestramento il sistema “impara” analizzando dati e soluzioni già disponibili, quindi, in un certo senso, impara la logica del ragionamento, impara a “pensare” per così dire. Una Rete Neurale potente sfrutta le cosiddette tecniche del “Deep Learning” per arrivare alle sue decisioni.

A questo punto la nuova Intelligenza Artificiale è stata creata. Analizza dati, impara, ricava delle regole da sola, e arriva a delle conclusioni, di qualunque tipo esse siano. Questi sistemi vengono oggi adottati per moltissimi scopi: per le ricerche, per creare delle chat bot intelligenti, per elaborare immagini, per fare previsioni economiche, per il riconoscimento dei volti, e anche per gli armamenti, purtroppo.

Ma possiamo paragonare un Modello di AI ad un essere umano? Assolutamente no, perchè c’è una caratteristica umana che un sistema di AI non potrà mai avere, e non sono affatto le “emozioni”, altro termine ambiguo e soggetto a mille interpretazioni, ma la capacità, del tutta umana, di commettere errori, di provare rimorso per questo, e di correggersi, evolvendosi in modo empatico. Un software potrà essere infallibile in futuro, ma non avrà mai questa capacità, o questo “difetto” se vogliamo vederla così.

Lo sviluppo dei sistemi di AI ci sta ponendo moltissimi problemi, di tipo etico, sociale, legislativo e procedurale, e le legislazioni stanno cercando faticosamente di adeguarsi a questa evoluzione, come ha fatto l’Europa con l’ AI Act. Ma non tutti i paesi sono sulla stessa lunghezza d’onda, perchè molti preferiscono dare carta bianca alla ricerca e agli sviluppi di questi sistemi. Insomma, siamo in un’epoca di grandi problemi, che comportano grandi rischi, e anche notevoli pericoli. Ma la sfida del futuro è tutta qui, nella gestione e nell’utilizzo di questi straordinari prodotti della scienza e della tecnologia.

Un saluto a tutti.