Da utenti a creatori

La proliferazione delle foto e dei video generati da AI sta divertendo tutti noi, e molte questioni si pongono, al di là del divertimento che proviamo.

Al primo punto c’è naturalmente la preoccupazione sulla riconoscibilità di questi artefatti. E’ una questione di grande rilevanza, perchè la diffusione di foto o video generati da AI è funzionale alla disinformazione, condotta da attori statali o proxy. La disinformazione sul web utilizza oggi ampiamente questi strumenti, e ne abbiamo esempi ogni giorno. Il tema è tanto importante che la regolamentazione europea sull’AI (AI Act) lo ha regolamentato, nell’Art. 50 sulla Trasparenza. Purtroppo questa normativa vale solo per i cittadini dell’Unione, anche se molti altri paesi stanno seguendo il nostro esempio.

Una delle più famose immagini Fake create con AI

Lasciando da parte questa questione, che impatta su temi di carattere normativo e sociale, il tema che interessa noi produttori di contenuti, è invece è quello della creatività e dell’attribuzione di un’opera, una foto ad esempio. I prodotti di AI ci consentono di creare una foto, o un video, solo basandoci su una descrizione testuale (“prompt”) o anche partendo da una o più foto di riferimento, che completiamo poi con le indicazioni dettagliate del prompt.

Il risultato, a volte scadente, ma altre davvero eccezionale, a seconda del prodotto utilizzato, è una creazione complessa, che non possiamo attribuire a noi, ma neanche all’AI. Si tratta del nuovo modo di utilizzare i modelli generativi, non solo foto o video, ma anche testo. Molti degli articoli, e anche interi libri, che vedete in giro, sul mercato, sui giornali e sul web, sono stati prodotti utilizzando gli LLM (GPT, Gemini, Claude, ecc.).

Questo nuovo modo di lavorare implica una collaborazione, tra il creatore umano e il creatore artificiale. L’AI non genera da solo quel prodotto, non saprebbe cosa fare, ma segue le indicazioni che gli diamo noi attraverso i prompt o anche usando delle nostre foto come riferimento. Spesso questo processo richiede ore di lavoro, quindi è effettivamente un lavoro fatto da noi umani, e dai nostri “team-mate” artificiali.

Immagine di una ragazza generata a partire da un Avatar

E’ meglio? E’ peggio? No, è diverso. Quando cominciammo a riprendere paesaggi e persone utilizzando le macchine fotografiche, ci ponemmo il problema se fossero meglio le foto che stavamo scattando o i quadri, creati dai grandi paesaggisti? E che dire della scrittura, che fu criticata addirittura da Platone (intorno al 370 a.C.), nella sua opera “Fedro” ? Platone sosteneva che la parola scritta avrebbe indebolito la nostra memoria, ci avrebbe reso pigri, impedendo ai giovani di apprendere. Non solo, ma Platone sosteneva che si sarebbe creata l’illusione della conoscenza solo leggendo le cose, senza approfondirle. Sembra di leggere argomenti di pressante attualità, sollevati dall’utilizzo degli LLM, i modelli di AI Generativa del linguaggio. Tanto che è stata creata, da ricercatori italiani, una nuova parola per definire questo effetto: “Epistemia“. Un termine che ha fatto il giro del mondo.

Tornando all’utilizzo dei prodotti di AI generativa per i contenuti, si tratta semplicemente dell’avanzamento della scienza, e della tecnologia che l’accompagna, che mette a nostra disposizione strumenti sempre nuovi, in particolare negli ultimi anni. E noi siamo costretti oggi a rincorrere il progresso, che ha assunto una velocità evolutiva esponenziale, per capire prima, e per usare poi, la nostra cassetta degli attrezzi, che si riempie continuamente di nuovi strumenti, che siano la scrittura, la stampa, la macchina fotografica, o l’Intelligenza artificiale.

Quindi, in conclusione, le opere che creiamo noi utilizzando i modelli generativi di Intelligenza Artificiale sono sempre creati da noi, col nostro pensiero soprattutto, la nostra idea che vogliamo realizzare, ma anche con questi nuovi strumenti che abbiamo a disposizione. Come sempre è successo nella storia, del resto…

Un saluto a tutti.

Esiste ancora la verità?

L’ Intelligenza Artificiale, con cui facciamo i conti ogni giorno, continua a sorprenderci, e compie dei passi in avanti con cadenza quasi quotidiana. A partire dal marzo di due anni, con il rilascio di ChatGPT da parte di OpenAI, tutto il mondo ha imparato a conoscere e a iniziato a parlarne, i Large Language Model come GPT, e come altri che ne sono seguiti, da Gemini a Grok, a LLAMA. Anche il mondo del design, dell’arte, della fotografia, ha iniziato a usare questi strumenti, man mano che dal testo e dal dialogo si passava a generare immagini, sulla base di istruzioni fornite dall’utente. I LLM sono così diventati “generalisti“, passando dal testo alle immagini, ai filmati. Alcuni, come Midjourney e diverse altre app, si sono specializzati sulla generazione di immagini, con caratteristiche diverse dai LLM. Il risultato di questa evoluzione è stato straordinario. Da un lato siamo venuti in possesso di strumenti formidabili, per lo studio, il lavoro, l’arte, la grafica, dall’altro il modo dell’informazione è stato invaso da foto e filmati generati da prodotti di AI, molto spesso non dichiarandone l’origine, e quindi inquinando il mercato dell’informazione.

Le regolamentazioni come l’ AI Act, in vigore dall’agosto 2024, impongono di dichiarare in modo chiaro e riconoscibile che un testo o immagine è stata prodotta utilizzando strumenti di AI. L’art. 50-2 del Regolamento (UE 2024/1689 – AI Act) così recita:

I fornitori di sistemi di IA, compresi i sistemi di IA per finalità generali, che generano contenuti audio, immagine, video o testuali sintetici, garantiscono che gli output del sistema di IA siano marcati in un formato leggibile meccanicamente e rilevabili come generati o manipolati artificialmente.”

Naturalmente una cosa è il regolamento, altro è quello che succede su un mercato vastissimo e multinazionale, e anche se le sanzioni sono pesantissime, questa indicazione molto spesso non è seguita, in particolare se questi prodotti vengono generati in paesi dove l’AI Act, e altre regolamentazioni simili, non sono in vigore. Abbiamo assistito quindi ad un proliferare di immagini AI Generated, con effetti a volte divertenti, ma in generale deleteri, perchè il settore dell’informazione è stato gravemente inquinato, al punto che non si riesce a distinguere, molto spesso, quali immagini siano reali e quali invece siano generate dall’AI. Stesso discorso per i testi, generati da LLM come Chat-GPT e suoi simili, che vengono spesso utilizzati senza chiarirne la fonte, a volte con risultati molto negativi, vista la frequente approssimazione e le cosiddette “Allucinazioni” di cui soffrono ancora questi sistemi.

Tornando alle immagini, nei giorni scorsi in rete ci sono state molte polemiche sulle immagini provenienti da Gaza, che mostravano alcune della atrocità che questa guerra sta generando. Questo ha dato spazio ad accese polemiche, anche di famosi giornalisti e politologi. Il problema è che a volte si riesce a chiarire cosa sia vero e cosa no, ma più spesso occorre fare analisi molto approfondite per stabilire l’origine. Naturalmente è possibile rilevare errori marchiani, commessi dal modello generativo, tipo mani a sei dita, immagini dei volti palesemente distorte, illuminazione incoerente con le ombre, e così via, ma altre volte il risultato prodotto raggiunge quasi la perfezione.

Sono così nati dei prodotti che analizzano le immagini, con un metodo tecnicamente inverso a quello della generazione, per riuscire ad identificare quelle tracce che dimostrino la realtà o meno dell’immagine. Ci sono alcuni strumenti sul mercato che, con buona approssimazione, riescono a darci una diagnosi: AI or Not, HuggingFace AI detectors, e FotoForensics sono i più diffusi. E ultimamente è nata anche una startup italiana, fondata a Milano da Marco Ramilli e Marco Castaldo, che ha raccolto dei finanziamenti e ha prodotto uno strumento che si sta rivelando tra i migliori disponibili. Si tratta di IdentifAI (https://web.identifai.net/), che può essere usato, anche se con molte limitazioni, in modo gratuito, tramite interfaccia web.

Ho fatto qualche test per provarlo, usando tre immagini diverse: una reale, una prodotta con l’ Intelligenza Artificiale e l’altra ricavata da uno screenshot di un Avatar in Second Life. I risultati sono stati molto interessanti: mentre per la foto reale e per quella generata dall’AI il responso è stato molto chiaro, vicino al 100% di attendibilità, per l’avatar di Second Life il risultato è stato inaspettato. Vi riporto i report forniti per ognuna delle tre immagini.

Analisi effettuata sulla foto reale.

Analisi su foto generata da AI

Analisi sulla foto di un Avatar scattata in Second Life

La foto dell’Avatar è stata classificata come “Umana” al 99,97%, in un tool,, e al 59,05% in un altro tool. Sarebbe interessante accedere agli altri due tool, ancora più potenti, per vedere se il risultato cambia, ma non ho voglia per ora di pagare l’ennesimo abbonamento. Chi vuole, può tranquillamente farlo, e farci magari conoscere il risultato!

Per ora, l’Avatar viene classificato come “Umano”. Ma questo … lo sapevamo già.

Un saluto.

E se pensassero come noi..?

Tutti noi ci stiamo divertendo, ultimamente, ad utilizzare i nuovi Modelli di AI, per ritoccare le foto, per generare immagini, per chiacchierarci come se fossero un essere umano, e così via. Ed è qualcosa che era impensabile solo tre anni e mezzo fa, fino a quando non è stato reso pubblico Chat GPT3, dal novembre 2021.

Eppure, l’ Intelligenza Artificiale viene da lontano, e questo termine fu coniato addirittura nel 1956 da John McCharty, anche se già da prima le basi teoriche erano state poste da Alan Turing (ricorderete il film “The Imitation Game”). Turing definì quello che da allora si chiama il “Test di Turing“, che definisce la soglia oltre la quale una macchina può essere ritenuta “intelligente” come una persona. Il test è semplice: se una persona comunica da remoto, tramite terminale, o con qualsiasi altro mezzo, con una AI e con una persona, e non riesce a distinguere l’uno dall’altro nella interazione, allora la macchina è ritenuta intelligente quanto un umano. Questo test non era mai stato superato fino ad oggi da nessun sistema di AI, ma oggi ci siamo arrivati. Ancora qualche perfezionamento nel dialogo e i sistemi di AI definiti LLM (Large Language Model), come Chat-GPT, avranno raggiunto l’obiettivo.

Ma davvero a quel punto un sistema di AI potrà essere ritenuto intelligente? La domanda non vi sembri banale, perchè definire il termine “intelligenza” è molto arduo, dato che molte sono le ambiguità e le diverse spiegazioni che se ne danno. Ad aumentare la confusione poi ci si è messo McCharty, che ha definito questa branca della Cibernetica come “Intelligenza”, per quanto artificiale. E come se non bastasse la loro architettura oggi è basata su un modello definito “Rete Neurale“, con una diretta analogia col cervello umano.

La così battezzata “Intelligenza Artificiale” viene quindi da lontano, ma perchè ce ne stiamo occupando solo oggi, e solo oggi sono stati messi in commercio sistemi così potenti? La ragione è molto facile da individuare. L’AI “classica” era basata su dei software abbastanza semplici, che rispondevano a domande o davano soluzioni sulla base di regole predefinite dagli esperti, come se venisse eseguito un qualsiasi software: se tu mi chiedi questo, e se quest’altro e fatto così, e la regola dice questo, allora la risposta è quest’altra. Un semplice prodotto software, che fu diffuso negli anni ’80 e ’90 col nome di “Sistemi Esperti“.

Quando si arriva agli anni ’80 assistiamo alla nascita, e poi alla progressiva espansione, di Internet, e con la rete si creano canali di comunicazione veloci e facili da utilizzare. Parallelamente, la potenza dei processori aumenta esponenzialmente, con la cosiddetta “Legge di Moore“, che dice che il numero di transistor inseribili in un chip raddoppia circa ogni due anni, e anche se la curva della crescita si è rallentata, per motivi fisici, la crescita continua. Come continua ad aumentare la mole di dati, che produciamo e diffondiamo ogni minuto su internet, determinando la più straordinaria crescita di informazioni della storia in tempi molto rapidi. Il 90% di tutti i dati della storia umana sono stati prodotti negli ultimi tre anni. E’ questo il tempo dei cosiddetti “Big Data“. Se a questi sviluppi aggiungiamo poi la velocità delle connessioni, con l’aumento della banda trasmissiva, abbiamo tutti gli ingredienti per una rivoluzione vera e propria.

Manca l’ultimo passaggio, quello della creazione dei sistemi di “apprendimento” per addestrare i sistemi di AI, visto che la mole di dati necessaria a disposizione ce l’abbiamo, e che la potenza elaborativa che abbiamo sviluppato negli ultimi anni ha prodotto enormi data center per macinare informazioni. Questi sistemi sono stati creati, con le già citate “Rete Neurali“. Senza entrare in dettaglio, possiamo dire che una Rete Neurale è fatta di tanti nuclei elaborativi, per analizzare migliaia di parametri e metterli in correlazione tra loro, per arrivare a delle conclusioni molto attendibili. Durante l’addestramento il sistema “impara” analizzando dati e soluzioni già disponibili, quindi, in un certo senso, impara la logica del ragionamento, impara a “pensare” per così dire. Una Rete Neurale potente sfrutta le cosiddette tecniche del “Deep Learning” per arrivare alle sue decisioni.

A questo punto la nuova Intelligenza Artificiale è stata creata. Analizza dati, impara, ricava delle regole da sola, e arriva a delle conclusioni, di qualunque tipo esse siano. Questi sistemi vengono oggi adottati per moltissimi scopi: per le ricerche, per creare delle chat bot intelligenti, per elaborare immagini, per fare previsioni economiche, per il riconoscimento dei volti, e anche per gli armamenti, purtroppo.

Ma possiamo paragonare un Modello di AI ad un essere umano? Assolutamente no, perchè c’è una caratteristica umana che un sistema di AI non potrà mai avere, e non sono affatto le “emozioni”, altro termine ambiguo e soggetto a mille interpretazioni, ma la capacità, del tutta umana, di commettere errori, di provare rimorso per questo, e di correggersi, evolvendosi in modo empatico. Un software potrà essere infallibile in futuro, ma non avrà mai questa capacità, o questo “difetto” se vogliamo vederla così.

Lo sviluppo dei sistemi di AI ci sta ponendo moltissimi problemi, di tipo etico, sociale, legislativo e procedurale, e le legislazioni stanno cercando faticosamente di adeguarsi a questa evoluzione, come ha fatto l’Europa con l’ AI Act. Ma non tutti i paesi sono sulla stessa lunghezza d’onda, perchè molti preferiscono dare carta bianca alla ricerca e agli sviluppi di questi sistemi. Insomma, siamo in un’epoca di grandi problemi, che comportano grandi rischi, e anche notevoli pericoli. Ma la sfida del futuro è tutta qui, nella gestione e nell’utilizzo di questi straordinari prodotti della scienza e della tecnologia.

Un saluto a tutti.

Gli apprendisti stregoni

Negli ultimi mesi siamo più volte tornati sul tema dell’Intelligenza Artificiale nei Mondi Virtuali, perchè questo è il tema prevalente di questo Magazine. Ma le discussioni sull’impiego dei sistemi di AI hanno ormai preso il sopravvento su qualsiasi altra discussione, in tutti i settori e in tutti i contesti. E il motivo è molto serio: si sono visti i progressi enormi con cui questi sistemi si stanno evolvendo, e si vede che il ritmo del loro miglioramento è esponenziale, non lineare. Più questi sistemi vengono impiegati, più si addestrano, e più si addestrano, più forniscono risposte e prestazioni migliori, e più vengono utilizzati, dappertutto. E’ una spinta inarrestabile.

Questi sistemi stanno entrando in tutti i contesti, dall’istruzione al giornalismo, dagli studi legali alle diagnosi mediche, dalle auto a guida autonoma alla gestione intelligente delle città, con enormi benefici, ma anche con enormi rischi da gestire. Il primo tema riguarda la perdita di posti di lavoro, che sta avvenendo ad un ritmo impressionante, in tutti i settori in cui le macchine “pensanti” sono molto più efficienti di noi. E la cattiva notizia è che questi settori non sono più solo quelli con attività manuali o ripetitive, ma sono tutti i settori. Proprio tutti, nessuno escluso. Certamente stanno nascendo nuove professioni: i Prompt Engineers, i Data Scientists, I supervisori degli algoritmi di Machine Learning, e così via. E tutti i centri di ricerca sostengono, non so su quali basi, che il numero di posti di lavoro che si creeranno saranno di più di quelli che perderemo. Non so se si possa essere d’accordo su questo, io sono del parere opposto, ma non ho alcuna ricerca scientifica a sostegno di questa mia ipotesi, perchè prevedere queste evoluzioni non è possibile al momento. Quello che dovrà avvenire sarà sicuramente una rimodulazione complessiva dei tempi di vita e di lavoro, ma questo richiederà tempi lunghi, e forse crisi e rivoluzioni sociali. Questo è quello che sta avvenendo, sotto i nostri occhi.

Insieme a questa evoluzione sociale, ci stiamo ponendo però anche delle domande riguardanti la nostra stessa esistenza, come umanità. Questi sistemi comportano dei gravi rischi, se non controllati e gestiti con regole e limiti efficaci. Questa discussione, ampia e approfondita, ha portato l’Unione Europea alla promulgazione, ad agosto 2024, dell’ AI-Act, un capolavoro di visione dei rischi e di messa in campo di regole importanti, a salvaguardia della vita e della dignità delle persone. Purtroppo, la velocità con cui si procede è molto più elevata delle iniziative legislative e regolamentari, e molti paesi non vogliono affatto subire controlli, o porsi dei limiti nella ricerca e nello sviluppo. Quindi, regolamentazioni come l’AI Act sono fondamentali, ma non bastano.

I rischi riguardano, all’estremo, il pericolo che sistemi non controllati possano prendere il sopravvento sui controlli, ed agire in base ai loro algoritmi, e ai parametri di valutazione con cui sono stati progettati. Ed esiste il rischio che armi dotate di Intelligenza Artificiale possano scegliersi degli obiettivi, ed agire di conseguenza. E se è classico l’esempio dell’auto a guida autonoma, che si vede costretta a scegliere se investire un ragazzino o un vecchio laddove non esiste altra soluzione, è facile immaginare cosa potrebbe fare un sistema rivolto alla salvaguardia ambientale, per fare un esempio, che individuasse come specie parassita, e quindi pericolosa per l’ambiente, quella umana, decidendo quindi di porre rimedio a questo pericolo.

Il tema del Controllo è fondamentale, non solo per lo sviluppo sano di questi sistemi, ma per la salvaguardia stessa della specie umana. Molti scienziati, tra cui anche Steve Hawking e Jeoffrey Hinton, premio Nobel per la fisica lo scorso anno, hanno chiaramente delineato questi rischi come paragonabili a quelli posti dall’uso di armi nucleari. Siamo di fronte allo stesso ordine di grandezza del livello di rischio. Sarebbe quindi necessario creare degli organismi internazionali di controllo, e arrivare a dei trattati internazionali per il controllo della proliferazione di armi controllate dai sistemi di AI.

Come nel caso dell’ambiente e dei cambiamenti climatici, anche nel caso del controllo dell’AI l’umanità non sta affrontando il problema nel modo e con l’urgenza che sarebbe necessaria. Se vogliamo evitare la catastrofe, che al momento, non solo è possibile, ma potrebbe già essere inevitabile, occorre muoversi con grande determinazione. Perchè la velocità con cui si stanno evolvendo questi sistemi, esponenziale come detto, è giunta ormai al limite del possibile controllo umano.

Il mio è il pessimismo della ragione, di chi vede i popoli e gli stati continuare a sterminarsi come se un secolo di tragedie fosse passato invano. Occorrerebbe uno scatto culturale ed emotivo in avanti, perchè il tempo si sta esaurendo …

Che cosa ci facciamo con l’AI ?

Sono quasi due anni che non sentiamo parlare d’altro, tutti i giorni, che di Intelligenza Artificiale (AI). La causa scatenante è stata la pubblicazione in rete del Chet-Bot Chat-GPT di Open AI, (https://openai.com/) una chat “intelligente” che dà risposte a qualsiasi nostra domanda, simulando l’interazione con un essere umano “esperto”, su qualsiasi problematica. Naturalmente, le risposte che fornisce Chat-GPT sono basate sull’enorme mole di materiale raccolto in rete, dalle pubblicazioni scientifiche ai libri di testo, agli articoli di giornale e persino dai social network.

https://www.punto-informatico.it/limite-conoscenza-chatgpt-esteso-fino-2023/#:~:text=OpenAI%20ha%20annunciato%20di%20aver,limite%20di%20ChatGPT%20al%202023.

Sulla base di queste informazioni, aggiornate a fine 2023, è stata addestrata con la supervisione di esseri umani, per eliminare eventuali schemi di ragionamento derivanti da preconcetti o errori dovuti ad errata interpretazione. Il risultato è quello che vediamo, nulla di “intelligente” ma estremamente efficace. E abbiamo anche imparato che a volte la chat ci dà risposte errate, quando non ha abbastanza indicazioni su come formulare la risposta, semplicemente inventa le cose e “riempie i buchi”, a volte a casaccio. Quindi, da un lato occorre sempre verificare gli output ottenuti con fonti attendibili, dall’altro bisogna imparare a formulare delle richieste molto precise, per delimitare al massimo il margine di errore.

E’ nata così la professione del “Prompt Engineer“, l’abilità tecnica di formulare richieste molto precise, per ottenere risposte affidabili. I cosiddetti “Prompt”. Compilare un prompt è diventata una caratteristica indispensabile per chi vuole utilizzare una AI per lavoro, per studio, per attività professionali, e questa nuova scienza ha già iniziato ad essere strutturata, con precisi “Framework” di riferimento, su come formulare le richieste, come comporre i prompt. Le modalità possono variare da semplici frasi in linguaggio naturale, come le domande che tutti noi abbiamo fatto a Chat-GPT in questi mesi, a dei modelli schematici precisi, per organizzare le richieste in un modo, per così dire, “scientifico”.

Ad esempio, utilizzando Midjourney o Copilot, applicazioni AI di elaborazione di immagini, possiamo dire semplicemente:

“Dammi una immagine di un cavaliere crociato di fronte ad un drago in una foresta”.

E l’immagine che otteniamo è la seguente (da Copilot di Microsoft):

Oppure fornire come input una immagine di partenza da elaborare, a Midjourney, come la seguente:

accompagnandola con precise istruzioni su cosa vogliamo che produca, con tanto di istruzioni tecniche, di parole chiave e anche di descrizioni in linguaggio naturale, con indicazioni molto precise su cosa si vuole ottenere:

donna bionda, volto serio illuminato dal sole che filtra dall’alto, sguardo profondo, alta definizione, 8K, sfondo scuro –ar 4:3 –q 5″.

Il risultato può essere il seguente:

Sono esempi semplici, basati su chat e immagini, ma per poter utilizzare le applicazioni di AI in modo professionale è indispensabile utilizzare i Framework che dicevamo prima, perchè il risultato che vogliamo ottenere serve per il nostro lavoro, di sviluppatori software, o di medici, o di giuristi.

Si sono così sviluppati due modelli di Framework, uno relativo a richieste abbastanza semplici, denominato Modello RTF, l’altro invece denominato Modello CREATE, che serve per richieste o obiettivi molto complessi, e richiede quindi una molteplicità di indicazioni precise su tutti gli aspetti del lavoro da fare.

Il Modello RTF è l’acronimo di Role (l’obiettivo dettagliato che vogliamo ottenere e il ruolo di chi lo richiede), Task (descrizione dettagliata del lavoro da fare), e Format (il formato con cui presentarci il risultato del lavoro.

Ad esempio posso formulare la seguente rischiesta a Chat-GPT:

“Sono un programmatore Python e ho bisogno di un programma che calcoli il valore minimo tra due numeri interi da acquisire in input. Il risultato dev’essere il codice Python eseguibile.”

La richiesta è precisa e descrive esattamente il risultato che voglio ottenere. Infatti, Chat-GPT mi fornisce la risposta adeguata:

“inizio”

Certo! Ecco un semplice programma in Python che calcola il valore minimo tra due numeri interi inseriti dall’utente:

——————————————————————————————————-

# Funzione per trovare il minimo tra due numeri
def trova_minimo(num1, num2):
    if num1 < num2:
        return num1
    else:
        return num2

# Acquisizione input dall'utente
numero1 = int(input("Inserisci il primo numero intero: "))
numero2 = int(input("Inserisci il secondo numero intero: "))

# Calcolo del minimo
minimo = trova_minimo(numero1, numero2)

# Stampa del risultato
print(f"Il valore minimo tra {numero1} e {numero2} è: {minimo}")
----------------------------------------------------------------------------

Puoi copiare e incollare questo codice in un file Python (.py) ed eseguirlo. Il programma richiederà all’utente di inserire due numeri interi e poi stamperà il valore minimo tra di essi.

“fine”

Il Modello CREATE invece, è l’acronimo di Character (il ruolo che assumiamo nel creare il risultato), Request (l’esposizione dettagliata della richiesta che facciamo), Examples (esempi precisi del risultato che vogliamo ottenere), Adjustment (i vincoli di cui tener conto nel creare il risultato), Type of output (descrizione precisa del tipo di risultato che vogliamo), ed Evaluation (indicazioine di precisi indicatori con cui misurare la qualità del risultato ottenuto). Richiederebbe molto tempo darvi un esempio preciso, ma questo è il lavoro da fare.

Come si vede, per poter ottenere risultati di qualità occorre lavorare molto sulle indicazioni da fornire, ci penserà poi l’AI ad utilizzare tali indicazioni per creare la risposta più adeguata, avendo anche ottenuto da noi opportuni parametri per valutare il risultato, prima di fornirlo.

Questa del Prompt Engineer è quindi una figura molto importante, per le aziende, gli enti e gli studi professionali. Altre professioni riguardano poi l’abilità di creare le AI con gli algoritmi e le strategie di ricerca più adeguate agli scopi che vogliamo ottenere, o anche i controlli di qualità da inserire nelle fasi di addestramento delle AI, e così via. Sono queste professioni necessarie alle aziende che producono i sistemi di AI. Insomma, sono tanti, e molto diversificati, i nuovi “mestieri” che stanno nascendo. Ed altri ne nasceranno, perchè l’AI sta dando un’accelerata straordinaria a tutta la nostra civiltà, alla tecnologia e all’industria.

Abbiamo già parlato, in altri articoli su questo Magazine, anche dei rischi connessi all’utilizzo delle applicazioni di AI, in particolare nelle infrastrutture critiche e per gli utilizzi militari, e non a caso è appena entrato in vigore l’AI-Act dell’Unione Europea, e anche altri paesi, come gli USA, si sono dotati di analoghi strumenti di controllo. Ma la strada è aperta per un utilizzo sempre più esteso di queste applicazioni e gestirne i rischi è compito dei governi e degli enti regolatori, e le opportunità di crescita che stiamo creando sono davvero enormi.

Un saluto.

Intelligenza Artificiale

Il mondo dei media digitali è fantastico, insegue le ondate di popolarità sugli argomenti del giorno, e c’è persino chi intorno a ogni parola d’ordine del momento propone corsi di formazione, stage, workshop, e via dicendo. Un mondo fatto di fuffa, e di gente che cerca di sbarcare il lunario vendendo qualche decina di prodotti. Lo hanno fatto fino a ieri l’altro col “Metaverso”, e ora si sono precipitati sull’Intelligenza Artificiale. Ormai la fuffa si riconosce a un miglio di distanza, quindi liberiamocene e andiamo avanti.

Parliamo invece di cose serie. Perchè sono molti gli esperti veri che intorno a questo argomento si stanno facendo domande serissime sulle potenzialità ed i rischi di questa tecnologia. Parliamoci chiaro, lo spartiacque è stata l’istruttoria aperta dal nostro Garante per la Privacy, che ha riguardato Chap-GPT. A beneficio di quei tre che non sanno cosa sia Chat-GPT riporto la definizione che la stessa applicazione di AI dà di se stessa:

“Chat GPT è un modello di linguaggio naturale di grandi dimensioni sviluppato da OpenAI, basato sull’architettura GPT (Generative Pre-trained Transformer). Chat GPT è stato addestrato su vasti corpus di testo in modo da apprendere i modelli linguistici e di contesto del linguaggio naturale. Questo gli consente di generare testo coerente e plausibile in risposta a domande, richieste e conversazioni, come se fosse una persona reale che comunica attraverso un sistema di chat. Chat GPT può essere utilizzato per fornire assistenza all’utente, per generare testo creativo, per l’elaborazione del linguaggio naturale, e in molte altre applicazioni che richiedono una comprensione avanzata del linguaggio umano.”

Fonte: https://www.laregione.ch

E’ una applicazione molto avanzata di AI che, dallo studio di linguaggi e di testi, appresi da un’enorme ricerca di dati fatta in rete fino al 2021, è in grado, utilizzando algoritmi avanzati di Machine Learning, di riprodurre in maniera molto plausibile delle risposte a ogni tipo di domande fatte da chi voglia utilizzarla. Se la si usa in maniera acritica fa prendere delle grandi cantonate, perchè le risposte sono spesso errate dal punto di vista sostanziale, pur avendo una perfetta sintassi, che le rende molto “verosimili”. Commette una serie di strafalcioni facilmente riconoscibili da quelli che conoscono gli argomenti, ma possono passare per verità se a fare le domande sono dei ragazzini o delle persone poco esperte. Se qualcuno gli risponde che si è sbagliata, si scusa immediatamente, cambiando la risposta (costruendone un’altra).

Il nostro garante per la privacy si è mosso, primo al mondo, facendo una serie di contestazioni all’azienda Open-AI che ha progettato il software. Domande che riguardano l’uso di dati personali, che vengono usati anche come apprendimento dall’AI, riguardano la necessità di fornire agli utenti la possibilità di fare una richiesta di correzione per dati errati, e anche l’obbligo di verificare l’età degli utenti che pongono domande. Il Garante ha fatto il suo mestiere, nè più nè meno, in una logica ineccepibile di salvaguardia dei dati personali degli utenti, sanciti dal GDPR, la normativa europea in vigore dal 25 maggio 2018, la più avanzata al mondo su questo tema che molti paesi ci stanno copiando.

Fonte: https://lateralcode.it

C’è da dire che l’Azienda è stata molto collaborativa, adottando nel giro di pochissimi giorni una serie di modifiche alla presentazione del prodotto, in modo da rispondere ai rilievi del Garante. Altro resta da fare, ma il clima di dialogo che si è instaurato rende molto ottimisti sull’esito di questo confronto, che va a beneficio di tutti. Intanto, una task force è partita anche a livello di Unione Europea su questo tema.

La cosa incredibile è un’altra. Molti “esperti” o presunti tali, supertifosi della tecnologia a ogni costo, hanno pesantemente criticato il provvedimento del Garante, come una iniziativa che rallenterebbe il “progresso”. Questa gente probabilmente è la stessa che su Facebook posta le foto dei figli o i dati personali, dimostrando di non capire, nel modo più assoluto, il valore dei dati personali ed i rischi che si corrono nel diffonderli, a uso e consumo di chiunque, anche di malintenzionati. C’è chi è arrivato a definire l’intervento del Garante “una pagliacciata”.

Questa gente purtroppo non è attenta a quello che è successo in questi ultimi anni, in relazione all’uso illegittimo dei dati personali di decine di milioni di persone. Basta informarsi, per capire il danno che è stato provocato consentendo una profilazione di massa senza precedenti, fino ad influenzare scelte democratiche, come le elezioni americane o la Brexit (e anche le elezioni in Europa). Lasciamo lavorare il Garante, e le stesse aziende di buona volontà, che miglioreranno sempre di più queste applicazioni, per tutelare chi le utilizza.

Le questioni che invece io vedo del tutto aperte sono quelle che riguardano il futuro. Il tema dei dati personali non è certo l’unica questione da tenere sotto controllo, perchè un utilizzo massivo delle AI potrebbe creare dei problemi enormi, non solo per l’uso dei dati, ma anche per le decisioni che riguardano le persone, gli impianti industriali, l’industria dei trasporti e, non ultima, quella bellica. Le AI sono ormai diffuse dappertutto, ed è urgentissimo arrivare a delle regole che pongano dei limiti al loro utilizzo, consentendo all’umanità di averne sempre il controllo. Perchè non ci vuole poi molto a passare dalla risposta a domande banali ad azioni compiute direttamente sui sistemi informatici, a volte senza l’intervento umano. E teniamo conto che siamo ancora all’ABC delle applicazioni di AI, perchè gli algoritmi miglioreranno se stessi, e la mole di informazioni, e le tecniche per trattarle, stanno aumentando esponenzialmente. Ad oggi si è in grave ritardo per arrivare ad un AI-Act a livello Europeo, ancora siamo fermi ad una “proposta di regolamento” in fase di discussione, e su cui ancora non si trova l’accordo tra i vari paesei dell’UE.

Lasciando da parte la fuffa mediatica, ed anche i tifosi della tecnologia ad ogni costo, dobbiamo concentrarci quindi sui rischi, e sulla necessità di imparare ad utilizzare nel modo migliore questa nuova e pervasiva tecnologia, perchè siamo in una fase storica in cui un salto quantistico di civiltà è in corso. Dobbiamo gestire questi problemi di fondo, e dobbiamo anche pensare a come minimizzare i danni che deriveranno dalla perdita di milioni di posti di lavoro, per tutte le attività che le AI saranno in grado di svolgere meglio di noi. Occorrerà pensare ad ammortizzatori sociali, ad una formazione su tematiche più avanzate, e a formare tutti gli specialisti di cui abbiamo bisogno, perchè quelli che formiamo, in università italiane anche di eccellenza, scappano all’estero per gli stipendi da fame ed i contratti precari che gli vengono offerti. E’ una rivoluzione da gestire, e dovevamo partire dieci anni fa. Un saluto.

Impariamo a dialogare con l’Intelligenza Artificiale Chat-GPT

Chat-GPT dell’azienda Open-AI è la più straordinaria applicazione di Intelligenza Artificiale che sia mai stata messa a disposizione di un vasto pubblico. Se provate a dialogare con lei vi accorgerete che siamo quasi arrivati a far superare da una macchina il “Test di Turing“, il padre dell’Intelligenza Artificiale.

Turing, uno dei più grandi matematici del secolo scorso, fu il responsabile del gruppo di lavoro del Regno Unito che nel corso della seconda guerra mondiale decifrava i messaggi in codice usati dai tedeschi, usando un primo rudimentale elaboratore elettromeccanico nei laboratori di Bletchley Park, vicino Londra. Il lavoro di quel gruppo consentiva di prevedere in anticipo le mosse dei tedeschi, decifrando i messaggi che questi si scambiavano utilizzando la famosa macchina ENIGMA. Si stima che quel gruppo di lavoro abbia consentito di abbraviare la guerra di due anni, risparmiando milioni di morti.

Tornando a noi, il famoso Test di Turing fu formulato per testare il comportamento di una macchina, e per capire se si comportasse o meno in modo “intelligente“. Naturalmente a quel tempo questa prospettiva sembrava molto futuristica, ma oggi non è più così. Il Test suggerito da Turing consiste nel porre le stesse domande a due entità, un essere umano e una macchina, e nel momento in cui le due entità fossero indistinguibili da chi poneva la domanda, si sarebbe potuto affermare che quella macchina aveva comportamenti “intelligenti”.

Chat-GPT, l’acronimo di “Chat Generative Pretrained Transformer”, ci mette alla prova, e si avvicina moltissimo a questo risultato. E’ una applicazione di Intelligenza Artificiale, addestrata su una mole enorme di dati, e sottoposta a test preliminari supervisionati dai tecnici che hanno seguito il suo addestramento, per correggere gli errori di impostazione nelle risposte che man mano venivano fatti dall’AI.

Le applicazioni sono infinite, dalla stesura di testi, alle ricerche approfondite su qualsiasi tema, alla scrittura di codice per i computer, alle traduzioni, allo svolgimento di lavori letterari, e così via.

Il risultato è straordinario, e potete testarlo voi stessi, come descritto di seguito.

Andate sul sito di Open-AI: https://openai.com/blog/chatgpt/ e cliccate “Try CHATGPT” si aprirà un pannello in cui vi chiede di registrarvi, e successivamente si aprirà il pannello della Chat, con l’ultima riga in basso digitabile per le domande.

Quello che può fare Chat-GPT vi lascerà a bocca aperta: risponde a domande di ogni tipo, tranne quelle ritenute non consone, tipo come ci si suicida, come costruire una bomba o domande di tipo razzista su specifiche etnie, e così via. Questo è il limite di questa AI, ma è anche una garanzia che certe pratiche non devono essere “aiutate” dall’AI. Potremmo discutere all’infinito su chi è che mette questi paletti, e di che tipo siano gli eventuali pregiudizi di chi ha supervisionato l’addestramento della AI, ma non arriveremmo a nessuna conclusione, è un fatto, una “valvola di sicurezza etica” se vogliamo.

Del resto, a chiunque ponessimo delle domande, dall’uomo della strada al più famoso esperto di una certa materia, avremmo comunque una risposta formulata in base alle sue convinzioni e allla sua esperienza. Il tema importante da affrontare è quello, appunto, di sviluppare delle applicazioni di AI che contengano dei limiti etici che dovremmo definire nel miglior modo possibile, e col più ampio consenso.

Non a caso, nell’ambito dell’Unione Europea, è stato varato una bozza preliminare di “Codice Etico” dopo ampia e approfondita discussione nell’ambito di una equipe di 52 esperti (due italiani tra questi), che ha definito dei paletti e dei principi generali per l’utilizzo delle AI:

(https://www.europarl.europa.eu/doceo/document/TA-9-2020-0275_IT.html)

(https://digital-strategy.ec.europa.eu/en/policies/expert-group-ai)

(https://www.hdblog.it/2019/04/09/intelligenza-artificiale-ia-codice-etico-ue/)

Sono temi che non appartengono più al futuro ormai, ma al presente. Tocca a noi aggiornarci e seguirne gli sviluppi, senza preconcetti, ma in modo consapevole. Tenendo ben presente che o seguiamo noi il progresso, o ci troveremo emarginati nel nuovo mondo che sta nascendo. Un saluto.

Impariamo dalle Intelligenze Artificiali.

In questi giorni ci si sta divertendo a giocare con l’intelligenza arttificiale ChatGPT, sviluppata da OpenAI e che vede l’ingresso di Microsoft come principale azionista, in grado di investire cifre favolose, si parla di 10 miliardi di dollari.

ChatGPT non è naturalmente la prima piattaforma del genere, basti ricordare il famosissimo Watson dell’IBM, o i vari SIRI e Alexa, ma è la prima che sta spopolando presso il grande pubblico su internet, messa a disposizione da OpenAI per giocarci un pò.

Di applicazioni del genere ce ne sono dappertutto, è un lnto progredire, senza che noi ce ne accorgiamo, e in modo sempre più pervasivo. E’ un bene, certamente. Le AI daranno un aiuto fondamentale all’umanità, in molti settori, dalla formazione alle diagnosi mediche, dal controllo intelligente del traffico nelle smart cities alla guida delle grandi navi portaconteiners, e via dicendo.

Molti mestieri attualmente svolti dagli umani non saranno più sostenibili, verranno svolti dalle macchine, da robot guidati da AI sempre più efficienti, in tutti i campi, non solo nei lavori manuali, ma anche nelle professioni intellettuali. Basti pensare al grado di affidabilità di una AI nel formulare una diagnosi medica, con un’accuratezza di molto superiore a quella di qualsiasi medico. Purtroppo, e lo stiamo vedendo in Ucraina con l’uso di droni e di armi intelligenti, il progresso si estende anche alla tecnologia militare, ma questo è sempre successo nella storia dell’umanità.

Dobiamo abituarci a questi enormi, e veloci, cambiamenti. Molti di noi dovranno cambiare mestiere, o modo di lavorare. Occorrerà studiare, e accrescere le proprie competenze nelle varie professionalità, come successo nell’esempio famoso dei bigliettai alla stazione Termini di Roma, estinti …