La proliferazione delle foto e dei video generati da AI sta divertendo tutti noi, e molte questioni si pongono, al di là del divertimento che proviamo.
Al primo punto c’è naturalmente la preoccupazione sulla riconoscibilità di questi artefatti. E’ una questione di grande rilevanza, perchè la diffusione di foto o video generati da AI è funzionale alla disinformazione, condotta da attori statali o proxy. La disinformazione sul web utilizza oggi ampiamente questi strumenti, e ne abbiamo esempi ogni giorno. Il tema è tanto importante che la regolamentazione europea sull’AI (AI Act) lo ha regolamentato, nell’Art. 50 sulla Trasparenza. Purtroppo questa normativa vale solo per i cittadini dell’Unione, anche se molti altri paesi stanno seguendo il nostro esempio.
Una delle più famose immagini Fake create con AI
Lasciando da parte questa questione, che impatta su temi di carattere normativo e sociale, il tema che interessa noi produttori di contenuti, è invece è quello della creatività e dell’attribuzione di un’opera, una foto ad esempio. I prodotti di AI ci consentono di creare una foto, o un video, solo basandoci su una descrizione testuale (“prompt”) o anche partendo da una o più foto di riferimento, che completiamo poi con le indicazioni dettagliate del prompt.
Il risultato, a volte scadente, ma altre davvero eccezionale, a seconda del prodotto utilizzato, è una creazione complessa, che non possiamo attribuire a noi, ma neanche all’AI. Si tratta del nuovo modo di utilizzare i modelli generativi, non solo foto o video, ma anche testo. Molti degli articoli, e anche interi libri, che vedete in giro, sul mercato, sui giornali e sul web, sono stati prodotti utilizzando gli LLM (GPT, Gemini, Claude, ecc.).
Questo nuovo modo di lavorare implica una collaborazione, tra il creatore umano e il creatore artificiale. L’AI non genera da solo quel prodotto, non saprebbe cosa fare, ma segue le indicazioni che gli diamo noi attraverso i prompt o anche usando delle nostre foto come riferimento. Spesso questo processo richiede ore di lavoro, quindi è effettivamente un lavoro fatto da noi umani, e dai nostri “team-mate” artificiali.
Immagine di una ragazza generata a partire da un Avatar
E’ meglio? E’ peggio? No, è diverso. Quando cominciammo a riprendere paesaggi e persone utilizzando le macchine fotografiche, ci ponemmo il problema se fossero meglio le foto che stavamo scattando o i quadri, creati dai grandi paesaggisti? E che dire della scrittura, che fu criticata addirittura da Platone (intorno al 370 a.C.), nella sua opera “Fedro” ? Platone sosteneva che la parola scritta avrebbe indebolito la nostra memoria, ci avrebbe reso pigri, impedendo ai giovani di apprendere. Non solo, ma Platone sosteneva che si sarebbe creata l’illusione della conoscenza solo leggendo le cose, senza approfondirle. Sembra di leggere argomenti di pressante attualità, sollevati dall’utilizzo degli LLM, i modelli di AI Generativa del linguaggio. Tanto che è stata creata, da ricercatori italiani, una nuova parola per definire questo effetto: “Epistemia“. Un termine che ha fatto il giro del mondo.
Tornando all’utilizzo dei prodotti di AI generativa per i contenuti, si tratta semplicemente dell’avanzamento della scienza, e della tecnologia che l’accompagna, che mette a nostra disposizione strumenti sempre nuovi, in particolare negli ultimi anni. E noi siamo costretti oggi a rincorrere il progresso, che ha assunto una velocità evolutiva esponenziale, per capire prima, e per usare poi, la nostra cassetta degli attrezzi, che si riempie continuamente di nuovi strumenti, che siano la scrittura, la stampa, la macchina fotografica, o l’Intelligenza artificiale.
Quindi, in conclusione, le opere che creiamo noi utilizzando i modelli generativi di Intelligenza Artificiale sono sempre creati da noi, col nostro pensiero soprattutto, la nostra idea che vogliamo realizzare, ma anche con questi nuovi strumenti che abbiamo a disposizione. Come sempre è successo nella storia, del resto…
Negli ultimi mesi siamo più volte tornati sul tema dell’Intelligenza Artificiale nei Mondi Virtuali, perchè questo è il tema prevalente di questo Magazine. Ma le discussioni sull’impiego dei sistemi di AI hanno ormai preso il sopravvento su qualsiasi altra discussione, in tutti i settori e in tutti i contesti. E il motivo è molto serio: si sono visti i progressi enormi con cui questi sistemi si stanno evolvendo, e si vede che il ritmo del loro miglioramento è esponenziale, non lineare. Più questi sistemi vengono impiegati, più si addestrano, e più si addestrano, più forniscono risposte e prestazioni migliori, e più vengono utilizzati, dappertutto. E’ una spinta inarrestabile.
Questi sistemi stanno entrando in tutti i contesti, dall’istruzione al giornalismo, dagli studi legali alle diagnosi mediche, dalle auto a guida autonoma alla gestione intelligente delle città, con enormi benefici, ma anche con enormi rischi da gestire. Il primo tema riguarda la perdita di posti di lavoro, che sta avvenendo ad un ritmo impressionante, in tutti i settori in cui le macchine “pensanti” sono molto più efficienti di noi. E la cattiva notizia è che questi settori non sono più solo quelli con attività manuali o ripetitive, ma sono tutti i settori. Proprio tutti, nessuno escluso. Certamente stanno nascendo nuove professioni: i Prompt Engineers, i Data Scientists, I supervisori degli algoritmi di Machine Learning, e così via. E tutti i centri di ricerca sostengono, non so su quali basi, che il numero di posti di lavoro che si creeranno saranno di più di quelli che perderemo. Non so se si possa essere d’accordo su questo, io sono del parere opposto, ma non ho alcuna ricerca scientifica a sostegno di questa mia ipotesi, perchè prevedere queste evoluzioni non è possibile al momento. Quello che dovrà avvenire sarà sicuramente una rimodulazione complessiva dei tempi di vita e di lavoro, ma questo richiederà tempi lunghi, e forse crisi e rivoluzioni sociali. Questo è quello che sta avvenendo, sotto i nostri occhi.
Insieme a questa evoluzione sociale, ci stiamo ponendo però anche delle domande riguardanti la nostra stessa esistenza, come umanità. Questi sistemi comportano dei gravi rischi, se non controllati e gestiti con regole e limiti efficaci. Questa discussione, ampia e approfondita, ha portato l’Unione Europea alla promulgazione, ad agosto 2024, dell’ AI-Act, un capolavoro di visione dei rischi e di messa in campo di regole importanti, a salvaguardia della vita e della dignità delle persone. Purtroppo, la velocità con cui si procede è molto più elevata delle iniziative legislative e regolamentari, e molti paesi non vogliono affatto subire controlli, o porsi dei limiti nella ricerca e nello sviluppo. Quindi, regolamentazioni come l’AI Act sono fondamentali, ma non bastano.
I rischi riguardano, all’estremo, il pericolo che sistemi non controllati possano prendere il sopravvento sui controlli, ed agire in base ai loro algoritmi, e ai parametri di valutazione con cui sono stati progettati. Ed esiste il rischio che armi dotate di Intelligenza Artificiale possano scegliersi degli obiettivi, ed agire di conseguenza. E se è classico l’esempio dell’auto a guida autonoma, che si vede costretta a scegliere se investire un ragazzino o un vecchio laddove non esiste altra soluzione, è facile immaginare cosa potrebbe fare un sistema rivolto alla salvaguardia ambientale, per fare un esempio, che individuasse come specie parassita, e quindi pericolosa per l’ambiente, quella umana, decidendo quindi di porre rimedio a questo pericolo.
Il tema del Controllo è fondamentale, non solo per lo sviluppo sano di questi sistemi, ma per la salvaguardia stessa della specie umana. Molti scienziati, tra cui anche Steve Hawking e Jeoffrey Hinton, premio Nobel per la fisica lo scorso anno, hanno chiaramente delineato questi rischi come paragonabili a quelli posti dall’uso di armi nucleari. Siamo di fronte allo stesso ordine di grandezza del livello di rischio. Sarebbe quindi necessario creare degli organismi internazionali di controllo, e arrivare a dei trattati internazionali per il controllo della proliferazione di armi controllate dai sistemi di AI.
Come nel caso dell’ambiente e dei cambiamenti climatici, anche nel caso del controllo dell’AI l’umanità non sta affrontando il problema nel modo e con l’urgenza che sarebbe necessaria. Se vogliamo evitare la catastrofe, che al momento, non solo è possibile, ma potrebbe già essere inevitabile, occorre muoversi con grande determinazione. Perchè la velocità con cui si stanno evolvendo questi sistemi, esponenziale come detto, è giunta ormai al limite del possibile controllo umano.
Il mio è il pessimismo della ragione, di chi vede i popoli e gli stati continuare a sterminarsi come se un secolo di tragedie fosse passato invano. Occorrerebbe uno scatto culturale ed emotivo in avanti, perchè il tempo si sta esaurendo …
L’introduzione dei sistemi di Intelligenza Artificiale nei Mondi Virtuali era solo questione di tempo, e infatti ci siamo arrivati. I primi AI-bot sono stati introdotti in Second Life, che come sempre è di un passo avanti agli altri, ma anche in Spatial, in VR_Chat ed in Horizon World. Ma presto li vedremo dappertutto, così come sta avvenendo nel mondo reale.
Siamo stati affascinati, negli ultimi due anni, da sistemi come Chat-GPT, Gemini, Llama, e altri che stanno nascendo come funghi, e ci siamo prima divertiti a usarli, a testarli, e poi ad utilizzarli come ausilio al nostro lavoro, negli studi, nelle ricerche. Questo modo di utilizzare i chat-bot sta mettendo in crisi, giustamente, i sistemi di ricerca tradizionali, come la search di Google, ma è l’evoluzione tecnologica, va benissimo per tutti. Io utilizzo Chat-GPT per scrivere codice o per controllare quegli script che non mi funzionano, o anche per generare immagini, che inserisco, ad esempio, nei miei post, o per ricerche bibliografiche. Bisogna però stare attenti, altrimenti si rischia di incorrere in gravi inesattezze, ad esempio portando in tribunale della giurisprudenza inventata di sana pianta, come è successo in un tribunale italiano quelche giorno fa, o anche in USA prima ancora.
Occorre essere certi che le risposte che ci fornisce siano corrette, prima di usarle. E questi Chat-bot li stanno naturalmente utilizzando gli studenti, per fare i compiti o svolgere esercitazioni, e qui piuttosto che demonizzarli o impedirne l’uso, cosa ormai impossibile, gli insegnanti dovrebbero insegnare ad usarli al meglio, preparandosi bene per questo compito.
Ma l’AI non è solo Chat-bot e Chat-GPT, è anche tante altre cose. I sistemi di AI controllano ormai quasi tutti i sistemi gestionali, dal pilotare gli aerei, ai sistemi d’arma, alle procedure di istruttoria bancarie, e fino ad un massiccio impiego, in certi paese, per il riconoscimento facciale delle persone, in un sistema di controllo pervasivo, che in Unione Europea, ad esempio, è vietato dall’AI-Act. E questo benedetto AI-Act, approvato nell’agosto scorso, andrebbe letto a fondo, perchè è un esempio grandioso di elaborazione concettuale e di analisi di questi sistemi, che ha portato ad un insieme di regole e di indicazioni, a protezione della privacy, del rispetto delle persone, della trasparenza e della riconoscibilità di questi sistemi. E’ uno dei risultati più importanti, dopo l’Euro ed il mercato comune, prodotti dall’Unione Europea.
Il problema della “riconoscibilità” è fondamentale, quando pensiamo all’introduzione di questi sistemi nei Mondi Virtuali, perchè occorre essere certi che quando incontriamo una persona in ambiente virtuale, siamo in grado di risconoscere se sia un umano o un AI-bot introdotto sulla piattaforma come Avatar. Così come pure dobbiamo essere certi che questi AI-bot, ben riconoscibili, non usino i nostri dati scambiati nelle chat per il loro addestramento, con grave danno alla nostra privacy, se non autorizzati da noi.
E questi sono stati i temi della Town Hall di ieri, organizzata con grande sensibilità dal management della Linden Lab. Ci sono stati tantissimi interventi su questi temi, così come su quelli della protezione della proprietà intellettuale, e sulla introduzione in piattaforma e sul marketplace di prodotti generati con AI, un altro tema sensibilissimo posto dall’introduzione di questi sistemi inworld. E’ stato un dibattito molto interessante, in cui sono intervenuto sul tema della “identificabilità“. Siamo ancora all’inizio della discussione, naturalmente, e molti passi in avanti occorrerà fare, ma sono i temi di cui si dibatte in tutto il mondo, e anch’io, per quello che posso, cerco di dare qualche contributo, per quanto minimo possa essere rispetto ai giganti dell’AI.
E’ mia opinione che i TOS delle piattaforme virtuali vadano aggiornati, per dare delle indicazioni e delle regole certe sull’utilizzo di questi sistemi di AI. Le regole non sono facili da imporre, perchè nel creare un account, come faceva notare ieri Philip Rosedale, si può mantenere l’anonimato, quindi non è facile imporre una tag di riconoscimento, se non basandosi sulla buona fede di chi crea l’account. Credo che su questo punto bisogna fare dei passi in avanti da parte dei progettisti, perchè un sistema per imporre l’identificazione degli AI-Avatar si può, e si deve, trovare. Altre regole andrebbero poi poste sulla privacy, estendendo i TOS già attualmente in vigore, come anche sulla proibizione di mettere sui marketplace dei prodotti generati da AI.
Occorrerebbe insomma, ed è una proposta che faccio alla Linden Lab, creare un comitato di esperti, che nel giro di qualche settimana produca una serie di linee guida, che possano servire per effettuare delle modifiche tecniche ed ai TOS. Credo sarebbe il modo più efficace per capitalizzare tante competenze, che pure sono emerse nella Town Hall di ieri, e per adeguare la piattaforma a queste nuove evoluzioni, ma anche a questi nuovi rischi.
Un saluto.
ENGLISH VERSION
The Invasion of Artificial Intelligences
The introduction of Artificial Intelligence systems into Virtual Worlds was only a matter of time, and now, it’s happening. The first AI bots have been introduced in Second Life, which, as always, is one step ahead of the rest, but also in platforms like Spatial, VRChat, and Horizon Worlds. And soon, we’ll see them everywhere, just as we are in the real world.
Over the past couple of years, we’ve been fascinated by systems like ChatGPT, Gemini, Llama, and many others popping up like mushrooms. At first, we played with them, tested them out, and then started using them to support our work, studies, and research. This way of using chatbots is rightfully challenging traditional search systems, like Google Search—but that’s technological evolution, and it’s a good thing for everyone. I personally use ChatGPT to write code or to debug scripts that don’t work, to generate images I use in my posts, or even for bibliographic research. But we need to be careful—otherwise, we risk running into serious inaccuracies. For example, there was a recent case in an Italian court where someone presented entirely fabricated legal precedents, generated by AI, just like it had already happened in the U.S.
We must be sure the answers these tools give us are accurate before relying on them. Naturally, students are also using these chatbots to do their homework or complete assignments. Rather than demonize or ban their use, which is now impossible, teachers should focus on showing students how to use them wisely, and prepare themselves accordingly for this task.
But AI isn’t just about chatbots and ChatGPT. It’s also so much more. AI systems are now behind almost every management system, from piloting aircraft, to weapon systems, to banking procedures, and even, in some countries, widespread facial recognition as part of a pervasive surveillance system. In the European Union, for example, this kind of surveillance is banned by the AI Act. And this AI Act, approved last August, really deserves to be read carefully, because it’s a remarkable example of conceptual clarity and thoughtful analysis of these technologies. It has resulted in a set of rules and guidelines to protect privacy, uphold human dignity, and ensure transparency and traceability of AI systems. It’s one of the most important achievements of the European Union, right up there with the euro and the single market.
The issue of recognizability is fundamental when we think about introducing these systems into Virtual Worlds. We need to be sure that, when we meet someone in a virtual environment, we’re able to tell whether we’re interacting with a human or an AI bot introduced into the platform as an avatar. Likewise, we must be certain that these AI bots, clearly identifiable, are not using the data exchanged in chats to train themselves, which would be a serious violation of our privacy if done without our consent.
These were exactly the topics discussed at yesterday’s Town Hall, thoughtfully organized by Linden Lab’s management. There were many contributions on these issues, as well as on the protection of intellectual property and the introduction of AI-generated content on the platform and in the marketplace—another extremely sensitive topic brought on by the arrival of these systems inworld. It was a very engaging debate, and I personally wrote on the topic of “identifiability.” Naturally, we’re still at the beginning of this conversation, and there’s a long way to go, but these are the same issues being discussed all over the world. And I too, in my own small way, try to contribute—however modest that may be compared to the giants of AI.
In my opinion, the Terms of Service of virtual platforms need to be updated to provide clear guidelines and rules for the use of AI systems. Setting rules isn’t easy, because, as Philip Rosedale pointed out yesterday, it’s possible to remain anonymous when creating an account. That makes it difficult to enforce any kind of identification tag, unless we rely on the good faith of the person creating the account. I believe this is an area where developers need to make progress, because a system to require the identification of AI avatars can and must be found.
Additional rules should also be introduced regarding privacy—by expanding the current Terms of Service, as well as restrictions on selling AI-generated content in the marketplace.
In short, and this is a proposal, I’d like to make to Linden Lab, there should be a committee of experts formed to produce, within a few weeks, a set of guidelines that can lead to technical adjustments and updates to the Terms of Service. I believe this would be the most effective way to capitalize on the wealth of expertise that emerged during yesterday’s Town Hall, and to adapt the platform to these new developments, but also to the new risks they bring.
Utilizziamo i cookie per essere sicuri che tu possa avere la migliore esperienza sul nostro sito. Non sono installati cookies di profilazione ma solo quelli tecnici di Google Analytics e i bottoni per i social networks. Se continui ad utilizzare questo sito noi assumiamo che tu ne sia felice.