Da utenti a creatori

La proliferazione delle foto e dei video generati da AI sta divertendo tutti noi, e molte questioni si pongono, al di là del divertimento che proviamo.

Al primo punto c’è naturalmente la preoccupazione sulla riconoscibilità di questi artefatti. E’ una questione di grande rilevanza, perchè la diffusione di foto o video generati da AI è funzionale alla disinformazione, condotta da attori statali o proxy. La disinformazione sul web utilizza oggi ampiamente questi strumenti, e ne abbiamo esempi ogni giorno. Il tema è tanto importante che la regolamentazione europea sull’AI (AI Act) lo ha regolamentato, nell’Art. 50 sulla Trasparenza. Purtroppo questa normativa vale solo per i cittadini dell’Unione, anche se molti altri paesi stanno seguendo il nostro esempio.

Una delle più famose immagini Fake create con AI

Lasciando da parte questa questione, che impatta su temi di carattere normativo e sociale, il tema che interessa noi produttori di contenuti, è invece è quello della creatività e dell’attribuzione di un’opera, una foto ad esempio. I prodotti di AI ci consentono di creare una foto, o un video, solo basandoci su una descrizione testuale (“prompt”) o anche partendo da una o più foto di riferimento, che completiamo poi con le indicazioni dettagliate del prompt.

Il risultato, a volte scadente, ma altre davvero eccezionale, a seconda del prodotto utilizzato, è una creazione complessa, che non possiamo attribuire a noi, ma neanche all’AI. Si tratta del nuovo modo di utilizzare i modelli generativi, non solo foto o video, ma anche testo. Molti degli articoli, e anche interi libri, che vedete in giro, sul mercato, sui giornali e sul web, sono stati prodotti utilizzando gli LLM (GPT, Gemini, Claude, ecc.).

Questo nuovo modo di lavorare implica una collaborazione, tra il creatore umano e il creatore artificiale. L’AI non genera da solo quel prodotto, non saprebbe cosa fare, ma segue le indicazioni che gli diamo noi attraverso i prompt o anche usando delle nostre foto come riferimento. Spesso questo processo richiede ore di lavoro, quindi è effettivamente un lavoro fatto da noi umani, e dai nostri “team-mate” artificiali.

Immagine di una ragazza generata a partire da un Avatar

E’ meglio? E’ peggio? No, è diverso. Quando cominciammo a riprendere paesaggi e persone utilizzando le macchine fotografiche, ci ponemmo il problema se fossero meglio le foto che stavamo scattando o i quadri, creati dai grandi paesaggisti? E che dire della scrittura, che fu criticata addirittura da Platone (intorno al 370 a.C.), nella sua opera “Fedro” ? Platone sosteneva che la parola scritta avrebbe indebolito la nostra memoria, ci avrebbe reso pigri, impedendo ai giovani di apprendere. Non solo, ma Platone sosteneva che si sarebbe creata l’illusione della conoscenza solo leggendo le cose, senza approfondirle. Sembra di leggere argomenti di pressante attualità, sollevati dall’utilizzo degli LLM, i modelli di AI Generativa del linguaggio. Tanto che è stata creata, da ricercatori italiani, una nuova parola per definire questo effetto: “Epistemia“. Un termine che ha fatto il giro del mondo.

Tornando all’utilizzo dei prodotti di AI generativa per i contenuti, si tratta semplicemente dell’avanzamento della scienza, e della tecnologia che l’accompagna, che mette a nostra disposizione strumenti sempre nuovi, in particolare negli ultimi anni. E noi siamo costretti oggi a rincorrere il progresso, che ha assunto una velocità evolutiva esponenziale, per capire prima, e per usare poi, la nostra cassetta degli attrezzi, che si riempie continuamente di nuovi strumenti, che siano la scrittura, la stampa, la macchina fotografica, o l’Intelligenza artificiale.

Quindi, in conclusione, le opere che creiamo noi utilizzando i modelli generativi di Intelligenza Artificiale sono sempre creati da noi, col nostro pensiero soprattutto, la nostra idea che vogliamo realizzare, ma anche con questi nuovi strumenti che abbiamo a disposizione. Come sempre è successo nella storia, del resto…

Un saluto a tutti.

La grandezza di Midjourney

Con il progredire dei Large Language Model, come GPT, Gemini, o LLAMa, la loro tendenza a diventare Multimodali, cioè generalisti, trattando oltre al testo anche le immagini, e poi i video, è andata diffondendosi. Sono nate delle immagini generate di grande qualità, e tutti noi ci siamo sbizzarriti a crearle. L’effetto negativo è la creazione di Deep Fake, che spesso contribuiscono alla disinformazione, e alla manipolazione delle persone. Ma questa è un’altra storia.

Sono così comparsi molti sistemi di intelligenza artificiale capaci di generare immagini partendo da una semplice descrizione (prompt): oltre a quelli citati anche DALL-E, Stable Diffusion, Firefly, Ideogram, e altri ancora. Eppure, uno di questi continua a spiccare in modo evidente: Midjourney. Chiunque l’abbia provato lo sa bene, perchè le immagini che produce sembrano spesso uscite da una rivista, o da un sogno. Ma cosa lo rende così speciale?

La differenza nasce da un insieme di scelte intelligenti e da una visione artistica molto precisa. Midjourney non impara da immagini casuali prese dal web, ma da collezioni selezionate con cura, privilegiate per la loro qualità estetica (altissima qualità dei dataset di addestramento). È come se il modello avesse frequentato una scuola d’arte, imparando dai migliori esempi di fotografia, illustrazione e design.

Anche la sua struttura tecnica è progettata per cogliere ogni minimo dettaglio: luce, profondità, texture, composizione. Per questo le immagini di Midjourney appaiono sempre equilibrate e piene di sfumature, mentre altri modelli di intelligenza artificiale, pur precisi, spesso sembrano più “meccanici”.

C’è poi un elemento unico: la community. Ogni giorno milioni di persone creano, votano e reinterpretano immagini, e il sistema utilizza questo flusso continuo di feedback per migliorarsi. Midjourney evolve insieme ai suoi utenti, seguendo i gusti, le tendenze e persino le mode visive che emergono online.

E’ quello che tecnicamente si chiama “Reinforcement Learning” utilizzato anche da altri LLM ma non a livello di comunità, quanto piuttosto di pregettisti.

Un altro punto di forza è la comprensione dei prompt, le descrizioni testuali da cui tutto parte. Con Midjourney non serve usare codici complicati o termini tecnici: basta scrivere come si parlerebbe a un artista, in linguaggio naturale (preferisce l’inglese). Il modello interpreta il tono, lo stile e perfino l’intenzione estetica di chi scrive, restituendo immagini coerenti con l’idea di partenza.

Ogni creazione, inoltre, viene rifinita automaticamente: il sistema migliora i dettagli, aumenta la nitidezza e rende l’immagine pronta per la pubblicazione senza bisogno di fotoritocchi esterni (non ci serve Photoshop).

A dirigere tutto questo c’è David Holz, già cofondatore di Leap Motion, che ha voluto fare di Midjourney non solo un progetto tecnologico, ma un’esperienza creativa. Il suo obiettivo non è semplicemente riprodurre la realtà, ma creare bellezza. È per questo che le immagini di Midjourney non colpiscono solo per la loro precisione, ma anche per la loro forza evocativa.

In fondo, Midjourney è qualcosa di più di un generatore di immagini: è un laboratorio collettivo dove la tecnologia incontra la sensibilità umana, e dove ogni prompt diventa un piccolo atto di immaginazione condivisa.

Esiste ancora la verità?

L’ Intelligenza Artificiale, con cui facciamo i conti ogni giorno, continua a sorprenderci, e compie dei passi in avanti con cadenza quasi quotidiana. A partire dal marzo di due anni, con il rilascio di ChatGPT da parte di OpenAI, tutto il mondo ha imparato a conoscere e a iniziato a parlarne, i Large Language Model come GPT, e come altri che ne sono seguiti, da Gemini a Grok, a LLAMA. Anche il mondo del design, dell’arte, della fotografia, ha iniziato a usare questi strumenti, man mano che dal testo e dal dialogo si passava a generare immagini, sulla base di istruzioni fornite dall’utente. I LLM sono così diventati “generalisti“, passando dal testo alle immagini, ai filmati. Alcuni, come Midjourney e diverse altre app, si sono specializzati sulla generazione di immagini, con caratteristiche diverse dai LLM. Il risultato di questa evoluzione è stato straordinario. Da un lato siamo venuti in possesso di strumenti formidabili, per lo studio, il lavoro, l’arte, la grafica, dall’altro il modo dell’informazione è stato invaso da foto e filmati generati da prodotti di AI, molto spesso non dichiarandone l’origine, e quindi inquinando il mercato dell’informazione.

Le regolamentazioni come l’ AI Act, in vigore dall’agosto 2024, impongono di dichiarare in modo chiaro e riconoscibile che un testo o immagine è stata prodotta utilizzando strumenti di AI. L’art. 50-2 del Regolamento (UE 2024/1689 – AI Act) così recita:

I fornitori di sistemi di IA, compresi i sistemi di IA per finalità generali, che generano contenuti audio, immagine, video o testuali sintetici, garantiscono che gli output del sistema di IA siano marcati in un formato leggibile meccanicamente e rilevabili come generati o manipolati artificialmente.”

Naturalmente una cosa è il regolamento, altro è quello che succede su un mercato vastissimo e multinazionale, e anche se le sanzioni sono pesantissime, questa indicazione molto spesso non è seguita, in particolare se questi prodotti vengono generati in paesi dove l’AI Act, e altre regolamentazioni simili, non sono in vigore. Abbiamo assistito quindi ad un proliferare di immagini AI Generated, con effetti a volte divertenti, ma in generale deleteri, perchè il settore dell’informazione è stato gravemente inquinato, al punto che non si riesce a distinguere, molto spesso, quali immagini siano reali e quali invece siano generate dall’AI. Stesso discorso per i testi, generati da LLM come Chat-GPT e suoi simili, che vengono spesso utilizzati senza chiarirne la fonte, a volte con risultati molto negativi, vista la frequente approssimazione e le cosiddette “Allucinazioni” di cui soffrono ancora questi sistemi.

Tornando alle immagini, nei giorni scorsi in rete ci sono state molte polemiche sulle immagini provenienti da Gaza, che mostravano alcune della atrocità che questa guerra sta generando. Questo ha dato spazio ad accese polemiche, anche di famosi giornalisti e politologi. Il problema è che a volte si riesce a chiarire cosa sia vero e cosa no, ma più spesso occorre fare analisi molto approfondite per stabilire l’origine. Naturalmente è possibile rilevare errori marchiani, commessi dal modello generativo, tipo mani a sei dita, immagini dei volti palesemente distorte, illuminazione incoerente con le ombre, e così via, ma altre volte il risultato prodotto raggiunge quasi la perfezione.

Sono così nati dei prodotti che analizzano le immagini, con un metodo tecnicamente inverso a quello della generazione, per riuscire ad identificare quelle tracce che dimostrino la realtà o meno dell’immagine. Ci sono alcuni strumenti sul mercato che, con buona approssimazione, riescono a darci una diagnosi: AI or Not, HuggingFace AI detectors, e FotoForensics sono i più diffusi. E ultimamente è nata anche una startup italiana, fondata a Milano da Marco Ramilli e Marco Castaldo, che ha raccolto dei finanziamenti e ha prodotto uno strumento che si sta rivelando tra i migliori disponibili. Si tratta di IdentifAI (https://web.identifai.net/), che può essere usato, anche se con molte limitazioni, in modo gratuito, tramite interfaccia web.

Ho fatto qualche test per provarlo, usando tre immagini diverse: una reale, una prodotta con l’ Intelligenza Artificiale e l’altra ricavata da uno screenshot di un Avatar in Second Life. I risultati sono stati molto interessanti: mentre per la foto reale e per quella generata dall’AI il responso è stato molto chiaro, vicino al 100% di attendibilità, per l’avatar di Second Life il risultato è stato inaspettato. Vi riporto i report forniti per ognuna delle tre immagini.

Analisi effettuata sulla foto reale.

Analisi su foto generata da AI

Analisi sulla foto di un Avatar scattata in Second Life

La foto dell’Avatar è stata classificata come “Umana” al 99,97%, in un tool,, e al 59,05% in un altro tool. Sarebbe interessante accedere agli altri due tool, ancora più potenti, per vedere se il risultato cambia, ma non ho voglia per ora di pagare l’ennesimo abbonamento. Chi vuole, può tranquillamente farlo, e farci magari conoscere il risultato!

Per ora, l’Avatar viene classificato come “Umano”. Ma questo … lo sapevamo già.

Un saluto.

E se pensassero come noi..?

Tutti noi ci stiamo divertendo, ultimamente, ad utilizzare i nuovi Modelli di AI, per ritoccare le foto, per generare immagini, per chiacchierarci come se fossero un essere umano, e così via. Ed è qualcosa che era impensabile solo tre anni e mezzo fa, fino a quando non è stato reso pubblico Chat GPT3, dal novembre 2021.

Eppure, l’ Intelligenza Artificiale viene da lontano, e questo termine fu coniato addirittura nel 1956 da John McCharty, anche se già da prima le basi teoriche erano state poste da Alan Turing (ricorderete il film “The Imitation Game”). Turing definì quello che da allora si chiama il “Test di Turing“, che definisce la soglia oltre la quale una macchina può essere ritenuta “intelligente” come una persona. Il test è semplice: se una persona comunica da remoto, tramite terminale, o con qualsiasi altro mezzo, con una AI e con una persona, e non riesce a distinguere l’uno dall’altro nella interazione, allora la macchina è ritenuta intelligente quanto un umano. Questo test non era mai stato superato fino ad oggi da nessun sistema di AI, ma oggi ci siamo arrivati. Ancora qualche perfezionamento nel dialogo e i sistemi di AI definiti LLM (Large Language Model), come Chat-GPT, avranno raggiunto l’obiettivo.

Ma davvero a quel punto un sistema di AI potrà essere ritenuto intelligente? La domanda non vi sembri banale, perchè definire il termine “intelligenza” è molto arduo, dato che molte sono le ambiguità e le diverse spiegazioni che se ne danno. Ad aumentare la confusione poi ci si è messo McCharty, che ha definito questa branca della Cibernetica come “Intelligenza”, per quanto artificiale. E come se non bastasse la loro architettura oggi è basata su un modello definito “Rete Neurale“, con una diretta analogia col cervello umano.

La così battezzata “Intelligenza Artificiale” viene quindi da lontano, ma perchè ce ne stiamo occupando solo oggi, e solo oggi sono stati messi in commercio sistemi così potenti? La ragione è molto facile da individuare. L’AI “classica” era basata su dei software abbastanza semplici, che rispondevano a domande o davano soluzioni sulla base di regole predefinite dagli esperti, come se venisse eseguito un qualsiasi software: se tu mi chiedi questo, e se quest’altro e fatto così, e la regola dice questo, allora la risposta è quest’altra. Un semplice prodotto software, che fu diffuso negli anni ’80 e ’90 col nome di “Sistemi Esperti“.

Quando si arriva agli anni ’80 assistiamo alla nascita, e poi alla progressiva espansione, di Internet, e con la rete si creano canali di comunicazione veloci e facili da utilizzare. Parallelamente, la potenza dei processori aumenta esponenzialmente, con la cosiddetta “Legge di Moore“, che dice che il numero di transistor inseribili in un chip raddoppia circa ogni due anni, e anche se la curva della crescita si è rallentata, per motivi fisici, la crescita continua. Come continua ad aumentare la mole di dati, che produciamo e diffondiamo ogni minuto su internet, determinando la più straordinaria crescita di informazioni della storia in tempi molto rapidi. Il 90% di tutti i dati della storia umana sono stati prodotti negli ultimi tre anni. E’ questo il tempo dei cosiddetti “Big Data“. Se a questi sviluppi aggiungiamo poi la velocità delle connessioni, con l’aumento della banda trasmissiva, abbiamo tutti gli ingredienti per una rivoluzione vera e propria.

Manca l’ultimo passaggio, quello della creazione dei sistemi di “apprendimento” per addestrare i sistemi di AI, visto che la mole di dati necessaria a disposizione ce l’abbiamo, e che la potenza elaborativa che abbiamo sviluppato negli ultimi anni ha prodotto enormi data center per macinare informazioni. Questi sistemi sono stati creati, con le già citate “Rete Neurali“. Senza entrare in dettaglio, possiamo dire che una Rete Neurale è fatta di tanti nuclei elaborativi, per analizzare migliaia di parametri e metterli in correlazione tra loro, per arrivare a delle conclusioni molto attendibili. Durante l’addestramento il sistema “impara” analizzando dati e soluzioni già disponibili, quindi, in un certo senso, impara la logica del ragionamento, impara a “pensare” per così dire. Una Rete Neurale potente sfrutta le cosiddette tecniche del “Deep Learning” per arrivare alle sue decisioni.

A questo punto la nuova Intelligenza Artificiale è stata creata. Analizza dati, impara, ricava delle regole da sola, e arriva a delle conclusioni, di qualunque tipo esse siano. Questi sistemi vengono oggi adottati per moltissimi scopi: per le ricerche, per creare delle chat bot intelligenti, per elaborare immagini, per fare previsioni economiche, per il riconoscimento dei volti, e anche per gli armamenti, purtroppo.

Ma possiamo paragonare un Modello di AI ad un essere umano? Assolutamente no, perchè c’è una caratteristica umana che un sistema di AI non potrà mai avere, e non sono affatto le “emozioni”, altro termine ambiguo e soggetto a mille interpretazioni, ma la capacità, del tutta umana, di commettere errori, di provare rimorso per questo, e di correggersi, evolvendosi in modo empatico. Un software potrà essere infallibile in futuro, ma non avrà mai questa capacità, o questo “difetto” se vogliamo vederla così.

Lo sviluppo dei sistemi di AI ci sta ponendo moltissimi problemi, di tipo etico, sociale, legislativo e procedurale, e le legislazioni stanno cercando faticosamente di adeguarsi a questa evoluzione, come ha fatto l’Europa con l’ AI Act. Ma non tutti i paesi sono sulla stessa lunghezza d’onda, perchè molti preferiscono dare carta bianca alla ricerca e agli sviluppi di questi sistemi. Insomma, siamo in un’epoca di grandi problemi, che comportano grandi rischi, e anche notevoli pericoli. Ma la sfida del futuro è tutta qui, nella gestione e nell’utilizzo di questi straordinari prodotti della scienza e della tecnologia.

Un saluto a tutti.

L’invasione delle Intelligenze Artificiali

L’introduzione dei sistemi di Intelligenza Artificiale nei Mondi Virtuali era solo questione di tempo, e infatti ci siamo arrivati. I primi AI-bot sono stati introdotti in Second Life, che come sempre è di un passo avanti agli altri, ma anche in Spatial, in VR_Chat ed in Horizon World. Ma presto li vedremo dappertutto, così come sta avvenendo nel mondo reale.

Siamo stati affascinati, negli ultimi due anni, da sistemi come Chat-GPT, Gemini, Llama, e altri che stanno nascendo come funghi, e ci siamo prima divertiti a usarli, a testarli, e poi ad utilizzarli come ausilio al nostro lavoro, negli studi, nelle ricerche. Questo modo di utilizzare i chat-bot sta mettendo in crisi, giustamente, i sistemi di ricerca tradizionali, come la search di Google, ma è l’evoluzione tecnologica, va benissimo per tutti. Io utilizzo Chat-GPT per scrivere codice o per controllare quegli script che non mi funzionano, o anche per generare immagini, che inserisco, ad esempio, nei miei post, o per ricerche bibliografiche. Bisogna però stare attenti, altrimenti si rischia di incorrere in gravi inesattezze, ad esempio portando in tribunale della giurisprudenza inventata di sana pianta, come è successo in un tribunale italiano quelche giorno fa, o anche in USA prima ancora.

Occorre essere certi che le risposte che ci fornisce siano corrette, prima di usarle. E questi Chat-bot li stanno naturalmente utilizzando gli studenti, per fare i compiti o svolgere esercitazioni, e qui piuttosto che demonizzarli o impedirne l’uso, cosa ormai impossibile, gli insegnanti dovrebbero insegnare ad usarli al meglio, preparandosi bene per questo compito.

Ma l’AI non è solo Chat-bot e Chat-GPT, è anche tante altre cose. I sistemi di AI controllano ormai quasi tutti i sistemi gestionali, dal pilotare gli aerei, ai sistemi d’arma, alle procedure di istruttoria bancarie, e fino ad un massiccio impiego, in certi paese, per il riconoscimento facciale delle persone, in un sistema di controllo pervasivo, che in Unione Europea, ad esempio, è vietato dall’AI-Act. E questo benedetto AI-Act, approvato nell’agosto scorso, andrebbe letto a fondo, perchè è un esempio grandioso di elaborazione concettuale e di analisi di questi sistemi, che ha portato ad un insieme di regole e di indicazioni, a protezione della privacy, del rispetto delle persone, della trasparenza e della riconoscibilità di questi sistemi. E’ uno dei risultati più importanti, dopo l’Euro ed il mercato comune, prodotti dall’Unione Europea.

Il problema della “riconoscibilità” è fondamentale, quando pensiamo all’introduzione di questi sistemi nei Mondi Virtuali, perchè occorre essere certi che quando incontriamo una persona in ambiente virtuale, siamo in grado di risconoscere se sia un umano o un AI-bot introdotto sulla piattaforma come Avatar. Così come pure dobbiamo essere certi che questi AI-bot, ben riconoscibili, non usino i nostri dati scambiati nelle chat per il loro addestramento, con grave danno alla nostra privacy, se non autorizzati da noi.

E questi sono stati i temi della Town Hall di ieri, organizzata con grande sensibilità dal management della Linden Lab. Ci sono stati tantissimi interventi su questi temi, così come su quelli della protezione della proprietà intellettuale, e sulla introduzione in piattaforma e sul marketplace di prodotti generati con AI, un altro tema sensibilissimo posto dall’introduzione di questi sistemi inworld. E’ stato un dibattito molto interessante, in cui sono intervenuto sul tema della “identificabilità“. Siamo ancora all’inizio della discussione, naturalmente, e molti passi in avanti occorrerà fare, ma sono i temi di cui si dibatte in tutto il mondo, e anch’io, per quello che posso, cerco di dare qualche contributo, per quanto minimo possa essere rispetto ai giganti dell’AI.

E’ mia opinione che i TOS delle piattaforme virtuali vadano aggiornati, per dare delle indicazioni e delle regole certe sull’utilizzo di questi sistemi di AI. Le regole non sono facili da imporre, perchè nel creare un account, come faceva notare ieri Philip Rosedale, si può mantenere l’anonimato, quindi non è facile imporre una tag di riconoscimento, se non basandosi sulla buona fede di chi crea l’account. Credo che su questo punto bisogna fare dei passi in avanti da parte dei progettisti, perchè un sistema per imporre l’identificazione degli AI-Avatar si può, e si deve, trovare. Altre regole andrebbero poi poste sulla privacy, estendendo i TOS già attualmente in vigore, come anche sulla proibizione di mettere sui marketplace dei prodotti generati da AI.

Occorrerebbe insomma, ed è una proposta che faccio alla Linden Lab, creare un comitato di esperti, che nel giro di qualche settimana produca una serie di linee guida, che possano servire per effettuare delle modifiche tecniche ed ai TOS. Credo sarebbe il modo più efficace per capitalizzare tante competenze, che pure sono emerse nella Town Hall di ieri, e per adeguare la piattaforma a queste nuove evoluzioni, ma anche a questi nuovi rischi.

Un saluto.

ENGLISH VERSION

The Invasion of Artificial Intelligences

The introduction of Artificial Intelligence systems into Virtual Worlds was only a matter of time, and now, it’s happening. The first AI bots have been introduced in Second Life, which, as always, is one step ahead of the rest, but also in platforms like Spatial, VRChat, and Horizon Worlds. And soon, we’ll see them everywhere, just as we are in the real world.

Over the past couple of years, we’ve been fascinated by systems like ChatGPT, Gemini, Llama, and many others popping up like mushrooms. At first, we played with them, tested them out, and then started using them to support our work, studies, and research. This way of using chatbots is rightfully challenging traditional search systems, like Google Search—but that’s technological evolution, and it’s a good thing for everyone. I personally use ChatGPT to write code or to debug scripts that don’t work, to generate images I use in my posts, or even for bibliographic research. But we need to be careful—otherwise, we risk running into serious inaccuracies. For example, there was a recent case in an Italian court where someone presented entirely fabricated legal precedents, generated by AI, just like it had already happened in the U.S.

We must be sure the answers these tools give us are accurate before relying on them. Naturally, students are also using these chatbots to do their homework or complete assignments. Rather than demonize or ban their use, which is now impossible, teachers should focus on showing students how to use them wisely, and prepare themselves accordingly for this task.

But AI isn’t just about chatbots and ChatGPT. It’s also so much more. AI systems are now behind almost every management system, from piloting aircraft, to weapon systems, to banking procedures, and even, in some countries, widespread facial recognition as part of a pervasive surveillance system. In the European Union, for example, this kind of surveillance is banned by the AI Act. And this AI Act, approved last August, really deserves to be read carefully, because it’s a remarkable example of conceptual clarity and thoughtful analysis of these technologies. It has resulted in a set of rules and guidelines to protect privacy, uphold human dignity, and ensure transparency and traceability of AI systems. It’s one of the most important achievements of the European Union, right up there with the euro and the single market.

The issue of recognizability is fundamental when we think about introducing these systems into Virtual Worlds. We need to be sure that, when we meet someone in a virtual environment, we’re able to tell whether we’re interacting with a human or an AI bot introduced into the platform as an avatar. Likewise, we must be certain that these AI bots, clearly identifiable, are not using the data exchanged in chats to train themselves, which would be a serious violation of our privacy if done without our consent.

These were exactly the topics discussed at yesterday’s Town Hall, thoughtfully organized by Linden Lab’s management. There were many contributions on these issues, as well as on the protection of intellectual property and the introduction of AI-generated content on the platform and in the marketplace—another extremely sensitive topic brought on by the arrival of these systems inworld. It was a very engaging debate, and I personally wrote on the topic of “identifiability.” Naturally, we’re still at the beginning of this conversation, and there’s a long way to go, but these are the same issues being discussed all over the world. And I too, in my own small way, try to contribute—however modest that may be compared to the giants of AI.

In my opinion, the Terms of Service of virtual platforms need to be updated to provide clear guidelines and rules for the use of AI systems. Setting rules isn’t easy, because, as Philip Rosedale pointed out yesterday, it’s possible to remain anonymous when creating an account. That makes it difficult to enforce any kind of identification tag, unless we rely on the good faith of the person creating the account. I believe this is an area where developers need to make progress, because a system to require the identification of AI avatars can and must be found.

Additional rules should also be introduced regarding privacy—by expanding the current Terms of Service, as well as restrictions on selling AI-generated content in the marketplace.

In short, and this is a proposal, I’d like to make to Linden Lab, there should be a committee of experts formed to produce, within a few weeks, a set of guidelines that can lead to technical adjustments and updates to the Terms of Service. I believe this would be the most effective way to capitalize on the wealth of expertise that emerged during yesterday’s Town Hall, and to adapt the platform to these new developments, but also to the new risks they bring.

Best regards.

Una AI umano-centrica anche nei Mondi Virtuali

Nel corso del meeting di ieri sera organizzato dalla Linden Lab sulle quattro land della Town Hall si è discusso molto sui progetti in corso, e due annunci importanti sono stati fatti: la possibilità di usare il viewer Firestorm in modalità streaming per accedere a Second Life e l’introduzione come Alfa Test di un linguaggio di scripting molto innovativo, il LUA, creato nel 1993 e molto semplice da usare. Faciliterà sicuramente lo scripting, allargando la base di programmatori che attualmente usano il LSL.

Ma quello che mi ha colpito ieri sera non sono stati questi annunci tecnologici ma la presenza nella hall di tantissimi avatar con cartelli che chiedevano di non utilizzare le AI in Second Life. Naturalmente molti hanno suggerito, anche il management della Linden Lab, che l’AI è dappertutto, che può aiutare in tantissimi compiti, dalle traduzioni simultanee alla sicurezza, ecc. Quindi chiudere Second Life agli agenti di AI sembra sicuramente una scelta fuori dai tempi ed autolesionista, quando poi noi stessi abbiamo ormai agenti di AI dappertutto, dai nostri cellulari, ai PC, alle apparecchiature connesse a internet, ai Social Networks e così via. Oggi le AI sono profondamente integrate nelle nostre attività, sia digitali che reali, quindi fare una crociata per “tenerle fuori” è del tutto velleitario e incomprensibile.

Detto questo però, la nostra attenzione si sposta sulle regole: come vanno utilizzate le AI, come evitare che creino danni con le loro scelte, come impedire che diffondano in modo massiccio fake-news, influendo direttamente anche su scelte politiche democratiche, come successe in UK durante il referendum per la Brexit e, ormai giornalmente intervenendo pesantemente sull’informazione, e sulle nostre attività di lavoro e persino nei compiti scolastici che svolgono a casa i nostri figli.

E qui si aprono discussioni a non finire, perchè la questione delle “regole “Regole” è ormai un elemento fondamentale della discussione pubblica quotidiana, anche politica. L’impostazione degli americani è quella di lasciar libera la ricerca, con pochissime regole (vedremo ora la nuova presidenza come le cambierà), per consentire di mantenere la competitività verso la Cina, che sta investendo enormemente in questo settore. La scelta dell’Europa è stata più politica, ma maggiormente aderente alla protezione dei valori etici e umani delle nostre società. Infatti, e dal mese di agosto 2024 che è operativo il cosiddetto “Artificial Intelligence Act“, una regolamentazione europea che definisce i cosiddetti “sistemi ad alto rischio“, indica quali attività sono espressamente vietate, quali sono le precauzioni da prendere quando si sviluppa un sistema di AI, e quali sono gli obblighi che le aziende che li sviluppano e che li utilizzano devono rispettare (https://commission.europa.eu/news/ai-act-enters-force-2024-08-01_it).

Io credo che, come indica il nuovo settoredi ricerca della “Human Centered AI“, i valori umani e la protezione degli individui vadano messi al primo posto, e che se si lasciano briglie sciolte alla ricerca rischiamo anche di finir male, come specie umana. I sistemi di AI possono avere una potenza inimmaginabile, molto superiore a qualsiasi tecnologia precedentemente impiegata, e potrebbero rivelarsi persino un pericolo per la specie umana. Quindi da qui le regole: quali sono le precauzioni da prendere, quali i divieti, e come rispettarli. E’ il grande dibattito in corso oggi.

Per quanto riguarda i Mondi Virtuali, le regole non possono che essere quelle dettate dalle regolamentazioni, e l’AI Act è una pietra miliare su questo terreno, per ora e per il futuro. Quindi, i sistemi di AI devono essere chiaramente identificati, in modo che non ci siano dubbi sull’identità di un Avatar, e chiunque possa sapere con chi ha a che fare, se con un essere umano o con un LLM basato sull’addestramento con i dati che gli sono stati forniti, e con quelli che continuiamo a fornirgli noi.

Altra questione, fondamentale, è il rispetto della privacy e le regole sulla raccolta di dati riguardanti i comportamenti degli Avatar. I dati che è possibile raccogliere sulle abitudini e i comportamenti in rete sono sterminati, e già con i social questo problema è molto rilevante, ma in un Mondo Virtuale ci sono anche i comportamenti personali, le frequentazioni, i dialoghi, e così via, tipici anche del mondo fisico. Il rispetto delle regole è fondamentale per la privacy e per la protezione dei dati personali, in un ambiente virtuale molto di più che su una semplice piattaforma online.

La tecnologia serve a tanto e ci aiuta moltissimo, ma ricordiamoci sempre che l’uso che è possibile farne può essere di ogni tipo, da quelli più utili a quelli più dannosi, e persino letali per l’umanità. Chi ha equiparato la potenza dei sistemi di AI alle armi nucleari, non ha affatto esagerato a mio parere. Quindi quando si parla di “Regole” non storciamo il naso, dobbiamo abituarci ad utilizzarle, per il nostro bene, e ora anche per la nostra sopravvivenza.

Un saluto.

Gli attacchi alle terre di Second Life

L’esistenza di soggetti malevoli, che conducono attacchi diretti alle land in Second Life, è storia vecchia. Ci sono sempre stati individui che per divertimento, interesse, vendette varie hanno portato attacchi tesi a interrompere il servizio in determinate regioni. Si tratta di soggetti che hanno una certa conoscenza dei tool della piattaforma, e che mirano a causare un sovraccarico computazionale su una determinata istanza del simulatore, in modo da provocarne il crash sistemico.

Questi attacchi sono classicamente condotti con degli script abbastanza banali, che mandano in esecuzione delle istruzioni in “loop”, in un circolo senza uscita, in modo da sovraccaricare le risorse assegnate a quell’istanza di simulatore dal server. Un altro sistema è quello dei “megaprims” che invadono tutte le risorse dedicate al building, provocando, anche in questo caso, il sovraccarico delle risorse elaborative assegnate a quella land.

Ci sono ovviamente varie versioni di queste due tipologie di attacco, anche abbastanza complesse, in modo da camuffare gli script “avvelenati” o indurre gli utenti ad accettare payload malevoli che veicolano il software di attacco. La tipologia classica del phishing, usata in questi casi, è abbastanza riconoscibile per gli utenti più avveduti, e quindi si può contrastare facilmente, con condotte prudenti verso “offerte” non ben identificate.

Una ipotesi di studio è poi il cosiddetto “attacco DOS” o anche un DDOS, condotto in questo secondo caso da una rete di macchine bot appositamente compromesse in precedenza. Un attacco di tal genere dovrebbe essere rivolto ai server su cui girano i simulatori di Second Life, e mi sento di escludere in partenza questa ipotesi, dato che dal 2020 è terminata la migrazione dei server della Linden Lab sul Cloud AWS di Amazon, e non basterebbero quattro scannagatti per attaccarli, per i sistemi di difesa che ogni Cloud Services Provider attua in modo molto efficace e professionale.

Un’ultima cosa devo dire, riguardo alla considerazione e alla condiscendenza verso determinati personaggi che seguono questa pratica di attacco, o si organizzano in gang. Il modo migliore per difendersi, come ci hanno insegnato anni di lotta alla criminalità organizzata, è quello di isolarli, di non accettare amicizie ambigue, di non inserirsi in qualche gang, e tantomeno assoggettarsi alla “protezione”, nel caso venisse offerta in cambio di amicizia e condiscendenza, o addirittura assumendoli come “protettori” dietro compenso (“security”). Oltre ad essere moralmente riprovevole, si potrebbe configurare il reato di fiancheggiamento se si scoprisse che trattasi di estorsione, comunque camuffata.

Questa la problematica da affrontare, e ora passiamo alle contromisure.

Innanzitutto, occorre raccogliere informazioni sull’”incidente” e fornire al supporto della Linden Lab tutti i dettagli raccolti, compresi quelli dell’autore dell’attacco, se identificato, e formalizzare un “Abuse Report” per la violazione dei ToS relativi alla sicurezza. Questo passo è fondamentale, per rendere evidente l’esistenza di questi attacchi ed il numero di questi, anche riconducibili a specifici account. Se questi AR non venissero fatti, la Linden Lab non avrebbe modo di venire a conoscenza del problema, e tantomeno dedicare risorse per prevenirne altri. Il numero di AR risulterà quindi determinante per dare ai ticket aperti il giusto livello di priorità, nella coda delle centinaia di richieste che un servizio di supporto riceve tutti i giorni da ogni parte del mondo.

Il Service Management si basa sulle priorità, prima vengono gestiti gli incidenti “catastrofici” (ad esempio falle di sicurezza, caduta di server di un’intera regione, azioni di violazione di normative o leggi vigenti, ecc.), sono i cosiddetti “Major Incident”.

Con minore priorità vengono poi gestiti gli incidenti “gravi”, quelli “lievi” e di seguito quelli “normali”. E ogni azienda ha la sua organizzazione per gestirli nella maniera più efficace. È del tutto evidente che nessuna azienda ha risorse infinite, e deve quindi lavorare per priorità dettate dalla gravità e dall’impatto provocato dall’incidente, pur nel rispetto degli obblighi di servizio.

Aprire un ticket, descrivendo bene le circostanze e la gravità del fenomeno, è fondamentale, e quanti più ticket vengono aperti, più l’incidente diventa grave, sale nella classifica delle priorità, e prima viene gestito. Questa la base di partenza di ogni contromisura, effettuare un AR, nel numero appropriato al numero di incidenti che si verificano.

In seguito all’apertura dei ticket il risultato che ci si potrà attendere sarà quello del “ban” dell’account incriminato, con la perdita dell’identità del personaggio, e di tutte le risorse accumulate nell’inventario del soggetto bannato. Questa è la procedura standard, che per un griefer incallito e organizzato può avere un effetto molto limitato, visto che può creare altri accont e proseguire nella sua attività di attacco. Un danno maggiore gli viene provocato se l’account deteneva nell’inventario beni o script importanti e di valore, in questo caso la perdita sarebbe anche economica. Altro danno, collaterale, è la perdita di un Avatar riconosciuto e rispettato da un certo ambiente.

Quindi il ticket, per quanto indispensabile per le ragioni che abbiamo detto, non basta. A meno che il livello di attacco non acquisisca caratteristiche assimilabili ai reati comuni, come il taglieggiamento, o la violazione palese, e legalmente rilevante, di norme relative alla privacy. Il taglieggiamento fa identificare l’aggressore come appartenente alla categoria dei criminali, per cui possono essere attivate le forze dell’ordine, cosa che dovrebbe essere fatta da chiunque subisca azioni penalmente rilevanti, o che abbiano creato danni economici. Per procedere occorre identificare univocamente l’aggressore reale, con nominativo e località. Dobbiamo ricordare, se ancora fosse necessario, che le leggi dello Stato valgono sempre, anche in ambienti virtuali, e nessuno può contare sull’impunità.

Sono, in questi casi, indagini molto complesse, perché naturalmente non basta l’indirizzo IP dell’attaccante, che di solito è un indirizzo variabile, o mascherato da accessi via VPN, o anche su rete decentralizzata peer-to-peer. Per individuare il soggetto sarebbe necessario aprire una investigazione, e condurre indagini approfondite, anche con il supporto delle autorità competenti. Quindi questa strada è molto lunga e tortuosa, ma alla fine produce danni notevoli all’attaccante, con conseguenza legali ed economiche.

Questi passi, seppure non risolutivi, sono però essenziali, per spingere il gestore del servizio a migliorare le contromisure di tipo software nella difesa delle land, contromisure comunque che sono già parte integrante delle difese possibili su una land.

E veniamo infine alle contromisure immediate e, nella gran parte dei casi risolutive, per contrastare gli attacchi. Sono le misure di sicurezza della land da impostare:

  1. Disattivare gli script
  2. Assegnare il building solo ad uno specifico gruppo di staff
  3. Impostare il tempo di return degli oggetti ad un valore molto basso
  4. Impostare l’accesso ad un gruppo di “amici” limitato
  5. Limitare la complessità degli avatar sulla land ad un valore non “illimitato”
  6. Disattivare la visibilità dell’avatar, dalle impostazioni del territorio, in modo che non ci sia visibilità fuori dalla land
  7. Impedire la riproduzione di suoni da altri avatar esterni al gruppo
  8. Inserire tutti i nominativi dei greafer noti nella black list di land. Opportuno sarebbe lo scambio di informazioni tra gli owner, usate pure il Gruppo di Cybersecurity per scambiarvi i dati
  9. Inserire dei dispositivi di sicurezza sulla land, usando quelli in dotazione o anche acquistati da vendor certificati

Tutte queste cautele vanno graduate a seconda delle necessità, ma sono la barriera di sicurezza più efficace per contrastare gli attacchi. Sarebbe opportuno avere delle land su Mainland, il territorio gestito dalla Linden Lab, piuttosto che affittarle da un real estate privato, e sarebbe anche opportuno avere il controllo di una intera sim, in modo da poter controllare tutte queste impostazioni direttamente, e non tramite il proprietario, non sempre disponibile a adottare queste contromisure.

Il problema naturalmente è il costo, ma credo che con opportune politiche collaborative, di tipo “consortile” tra più owner fidati, si possa procedere ad una ripartizione opportuna della sim in parcel individuali, suddividendo in tal modo il costo. Si avrebbe così il pieno controllo di una intera sim su Mainland.

La sicurezza informatica non ha un unico elemento risolutivo, è fatta da tanti “strati”, ognuno importante, è quella che in Cybersecurity si chiama “Defense in Depth”. Occorre avere pazienza e costanza, e adottare le contromisure necessarie, in modo da poter vivere serenamente l’esperienza virtuale.

Il problema delle interfacce dei Mondi Virtuali

Tra le tante diatribe che aleggiano sul web, nel tentativo di dare una definizione al “Metaverso“, quello della questione interfacce ha assunto un certo interesse. La diatriba è alquanto inconsistente, e va inquadrata nei tentativi, velleitari, di dare una veste di concretezza cercando una esatta definizione di un termine, il “Metaverso” appunto, puramente di fantasia, nato dalla penna di uno scrittore. E’ una delle tante battaglie che non andrebbero mai combattute, perchè basate sul nulla, e che hanno contribuito a dare un’immagine poco chiara dei Mondi Virtuali, ostacolandone l’adozione presso aziende e altre organizzazioni. Lasciando da parte queste discussioni, vediamo però l’aspetto pratico della questione, perchè l’accesso ai sistemi virtuali è importante, dal punto di vista della usabilità e della facilità d’uso di queste piattaforme.

Evidentemente, l’aspetto “immersivo” è fondamentale nella User Experience dei Mondi Virtuali, è quello che contraddistingue questo tipo di esperienza rispetto al web tradizionale, ma da qui a definire un’unica modalità di accesso come legittima, rappresentata dai Visori VR come Meta Quest e Visual-Pro, ce ne corre. Le esperienze d’uso devo essere diversificate, a seconda del contesto e delle esigenze degli utilizzatori. Questo aspetto è fondamentale, perchè il problema che abbiamo oggi, per allargare l’utilizzo dei Mondi Virtuali, è quello di facilitarne l’uso, adeguandolo alle esigenze più diverse. Per decenni l’accesso ai Mondi Virtuali, per gioco o per attività progettuali, è avvenuto utilizzando i classici strumenti di schermo, tastiera e mouse, perchè erano i soli strumenti disponibili. L’introduzione di Oculus Rift nel 2016, da parte della Oculus VR, poi rilevata da Meta, è stato un passo in avanti notevole, subito messo in pratica dalla Linden Lab con la creazione del suo mondo virtuale Sansar nel 2017. E’ uno strumento questo che consente una completa immersività, ma prevede anche diverse controindicazioni.

I limiti di questo strumento sono non solo il costo, ancora non alla portata di tutti, ma anche le modalità di fruizione. Molte persone, infatti, non trovano affatto agevole indossare un Visore di VR per un tempo prolungato, alcuni soffrono anche del cosiddetto “Motion Sickness“, un disagio che può portare a disturbi di equilibrio e a sensazioni spiacevoli nell’uso. E’ un problema limitato a poche persone, che non riescono, per motivi diversi, ad abituarsi all’uso. E’ un problema da non trascurare. A parte il disagio fisico, è poi anche più difficile utilizzare strumenti di lavoro e di produttività indossando un Visore, è difficile usare prodotti software, fogli di lavoro, interrogazioni a Data Base, ecc. Ed è a volte spiacevole, o divertente, a seconda dei punti di vista, vedere gli avatar rappresentati da zombie a braccia roteanti che si muovono nell’ambiente virtuale.

In molti casi le modalità di lavoro non consentono di estraniarsi completamente dall’ambiente circostante, perchè si è in ufficio, o si è in un ambiente condiviso con scarse possibilità di movimento nell’ambiente fisico. E c’è poi la necessità di fare altre cose, mentre si sfruttano le possibilità dell’ambiente virtuale. Stando poi in un ambiente familiare l’estraniarsi completamente non è una sensazione desiderabile, e chi ha figli, o anche bambini piccoli, non desidera escluderli completamente dal proprio ambiente, perchè vedere un figlio che si avvicina per chiedere consigli per i compiti mentre si lavora, è un qualcosa di imprescindibile, per tutti in una famiglia.

Certamente esistono due modalità di fruizione in cui la completa immersività è utile e piacevole, o anche necessaria, e sono l’esperienza di gioco e quella di poter avere un ambiente di simulazione immersiva completa, magari per esercitazioni, o per la formazione all’uso di nuove apparecchiature, mezzi di locomozione, ambienti pericolosi, ecc. In sostanza, tutto dipende dall’uso che se ne vuole fare, e dal modo in cui si vuole vivere l’esperienza immersiva.

Un altro problema da gestire, per quanto riguarda l’accesso, è il tipo di device da utilizzare. L’uso di uno Smartphone non consente un’esperienza immersiva, ed è utile unicamente per gestire attività di servizio e di comunicazione all’interno del Mondo Virtuale, e questo per motivi più che evidenti, data la limitata potenza di elaborazione dei dispositivi e la limitata possibilità di renderizzare ambienti complessi. L’accesso in streaming da browser, invece, può essere una modalità di facile utilizzo, ed è simile al tradizionale accesso da PC per mondi virtuali semplici, in cui la renderizzazione è eseguita in modo efficiente sui server dell’azienda di gestione, magari su Cloud, come il recente esperimento di Second Life, o come altre piattaforme, come Spatial. Si sfrutta con questa modalità la potenza dei server, e non si penalizzano gli utenti che posseggono PC poco performanti per renderizzare sul client.

In conclusione, più viene data flessibilità nell’uso di piattaforme virtuali, più se ne facilita la diffusione e l’utilizzo. Non c’è un solo modo, un modo “migliore” per vivere gli ambienti virtuali, è necessario adeguarne l’accesso alle diverse esigenze e modalità d’uso, per lavoro o per uso ludico. Si tratta, ancora una volta, di privilegiare l’accesso “sociale” e di accessibilità dei Mondi Virtuali, e non lasciarsi fuorviare, in questa direzione, dall’ultimo ritrovato, dalla tecnologia fine a se stessa.

Un saluto.

Perchè Linden Lab non riesce a produrre un’App per mobile efficiente?

E’ da circa 4 anni che la Linden Lab sta lavorando per realizzare un’App per smartphone, sia Android che IOS, con risultati non sufficientemente qualitativi per gli utenti. L’App realizzata ha tutte le funzionalità più importanti ma la grafica lascia molto a desiderare, deformando enormemente le figure degli Avatar, così come le performances.

Non avendo contatti diretti con la Linden Lab (spero che nel prossimo meeting di Venerdì 6 novembre ci si possa confrontare), posso solo fare un’analisi tecnica molto superficiale, da osservatore esterno, non conoscendo i dettagli della loro implementazione. Il punto da cui partire è che la potenza elaborativa di uno smartphone, anche dei più moderni e performanti, non può essere neanche lontanamente paragonata a quella di un moderno desktop, sia per il processore, sia per la scheda grafica, che per la RAM. Questo deve porre dei limiti invalicabili alle caratteristiche di qualsiasi App su smartphone, in particolare se si tratta di partire da una esperienza desktop consolidata ed apprezzata.

Inoltre, Second Life utilizza il motore grafico OpenGL, che oggi è ritenuto obsoleto e poco performante, la cui ultima versione, la 4.6, risale al 2017. Esistono motori grafici più moderni ed efficienti, come Vulkan e il DirectX 12, di Microsoft, usato per Xbox, che consentono una gestione diretta delle GPU. Ma oggi, le maggiori piattaforme utilizzano ambienti di sviluppo grafico completi, come Unreal Engine e Unity. L’architettura di base di Second Life è quindi obsoleta e non sfrutta al meglio le potenzialità delle moderne GPU. Naturalmente, cambiare l’architettura comporterebbe investimenti notevoli per una piccola azienda come la Linden Lab, e non voglio neanche pensare a come verrebbe gestita la cosa, considerando l’esperienza dell’App mobile.

Detto questo, e tenendoci stretto il motore grafico obsoleto, è completamente irrealistico pensare di replicare SL su Smartphone conservandone tutte le caratteristiche, e lo sviluppo dovrebbe limitarsi alle caratteristiche fondamentali (chat, inventario, transazioni, un minimo di grafica), come fece a suo tempo Alina Lyvette per Lumiya. Purtroppo Alina non manutiene più da tempo Lumiya, che comunque non era multipiattaforma ma si limitava alla versione Android. Negli ultimi anni il mondo è andato avanti, con le nuove GPU, molto performanti, e gli ambienti di sviluppo grafici.

La scelta da fare per la Linden Lab, considerati i vincoli suddetti, avrebbe dovuto essere minimalista, limitando all’essenziale la grafica, eliminando gran parte dei paesaggi e degli oggetti non essenziali, mentre forse è stata eccessivamente ambiziosa. Si è sempre in tempo per rivedere le scelte tecniche. Se naturalmente si arriva a queste conclusioni. Si potrebbe poi gradualmente migliorare i risultati, ma almeno si offrirebbe agli utenti una esperienza più accettabile.

Si potrebbero poi fare tante altre cose, oltre a cambiare il motore OpenGL, e quello fisico Havok 4 (introdotto nel 2008 in sostituzione del vecchio motore sviluppato da Linden Lab), come ad esempio lasciare sui server in Cloud il lavoro grafico, trasmettendo ai client il flusso dei dati in streaming. Ma qui ci vorrebbero ulteriori investimenti, a meno di non pensare a cedere la piattaforma ad una delle aziende più grandi sul mercato, come ad esempio la Epic Games, che gestisce oggi Fortnite, la più utilizzata di tutte le piattaforme Virtuali, con 350 milioni di utenti mensili !

Occorrono scelte strategiche, con una visione e una prospettiva di lungo periodo, altrimenti Second Life resterà tagliata fuori dai prossimi progressi di questo mercato.

Il Vero Nome

Avrete tutti le tasche piene di “Snow Crash” di Neal Stephanson, lo citano ogni volta che si parla di Metaverso. Ed in effetti il termine “Metaverso” è stato inventato da Neal in questo romanzo. Per dirla tutta, è unicamente in relazione a questo romanzo che si può parlare di “Metaverso”, perchè tutte le piattaforme esistenti, che implementano i diversi Mondi Virtuali, non sono affatto “Metaverso”, se a questa parola dobbiamo attribuire il significato che il suo inventore le ha dato, di universo unico, onnicomprensivo e accedibile da chiunque al mondo attraverso una connessione.

E allora si sono inventati il passaggio intermedio, che cioè oggi siamo in presenza di tanti “Metaversini” indipendenti, come un momento di passaggio verso quello che sarà il METAVERSO futuro, in cui i metaversini confluiranno e andranno, finalmente, a formare il Metaverso di Neal Stephenson. Pura follia, per motivi più che evidenti, che solo i cantastorie si ostinano a negare.

Innanzitutto, mettere d’accordo tante piattaforme concorrenti tra loro per fondersi, o “interoperare” tra loro, sarebbe impresa velleitaria, perchè ci troviamo di fronte ad un mercato molto allettante per il futuro sviluppo dei Mondi Virtuali e delle relative applicazioni, e non si vede perchè le varie aziende che hanno investito nelle rispettive piattaforme, dovrebbero buttare tutto a mare e contribuire a esaudire le fantasie di Neal Stephenson. Il quale, poveretto, non intendeva altro che scrivere un romanzo di fantascienza, nel filone Cyberpunk, così come ha fatto William Gibson, nei suoi romanzi “La notte che bruciammo Chrome” e “Neuromante“.

In secondo luogo, avere un “Metaverso” onnicomprensivo sarebbe una grave prevaricazione verso la libera concorrenza e la corretta evoluzione del mercato, fino a prefigurare una specie di Grande Fratello universale, come quello creato nel romanzo di Dave Eggers “The Circle“, del 2013, da cui è stato tratto l’omonimo film con Tom Hanks ed Emma Watson. Ma poi, chi gestirebbe questo “Metaverso”? Chi sovraintenderebbe alle regole? Ci vorrebbe una organizzazione sovranazionale, una specie di ONU dei Mondi Virtuali! E i problemi di sicurezza, a chi sarebbero in capo, chi gestirebbe i cloud su cui il “Metaversone” sarebbe installato? Non scherziamo…

Vero è che è nata una organizzazione nel 2022, il “Metaverse Standar Forum” (https://metaverse-standards.org/), ma questa non ha affatto l’obiettivo di creare il Metaversone, bensì quello di cercare di favorire una cooperazione sugli standard, per una migliore e più ampia evoluzione del mercato. E comunque, le maggiori piattaforme non vi hanno nemmeno aderito, a riprova di quanto detto prima sulla libera concorrenza.

Restiamo con i piedi per terra, perchè le piattaforme che implementano i Mondi Virtuali si stanno sviluppando, in modo realistico e concreto, senza seguire balle e cantastorie vari. Molti progetti continuano a partire, specialmente su piattaforme “private” implementate da aziende e organizzazioni diverse. Purtroppo, questo termine di “Metaverso” ce lo dobbiamo tenere, perchè grazie alla spettacolare presentazione di Mark Zuckerberg dell’ottobre 2021 (https://www.youtube.com/watch?v=Uvufun6xer8&t=65s), è ormai entrato nella vulgata comune, subendo anche gli effetti negativi dei successivi disinvestimenti fatti dalla stessa Meta negli ultimi tempi, fino a far prefigurare da molti la “morte” del Metaverso, una cosa mai esistita cioè mai nata. Ma tant’è…

Vernon Vinge

Tornando alla letteratura, forse non tutti sanno che, se è vero che il termine Metaverso è stato inventato con Snow Crash, nel 1992, la nascita della letteratura dei Mondi Virtuali è da attribuirsi a Vernon Vinge, col suo romanzo “Il Vero Nome“, del 1981, solo che allora l’aveva chiamato “L’altro Piano” e non Metaverso, termine più immaginifico. E anche i romanzi di William Gibson sono precedenti a Snow Crash, essendo del 1982 e 1984. Insomma Neal ha fatto, guardandola a posteriori, una migliore operazione di marketing, e Mark ne ha approfittato alla grande!

Un saluto.

E adesso al lavoro …

Dopo la sbornia di notizie e previsioni fantasmagoriche sul cosiddetto “Metaverso” è tempo di utilizzare le esperienze migliori, tecnologiche e sociali, per indirizzare al meglio un utilizzo produttivo dei Mondi Virtuali. Sappiamo quali sono le potenzialità di queste piattaforme, e abbiamo visto negli anni e nei mesi scorsi centinaia di progetti e di esperienze di ogni tipo: lavorative, sociali, di svago, ecc. Ma occorre ora porsi nei panni di chi, incuriosito da tutto questo can can, voglia effettivamente capire come e perchè dovrebbe utilizzare un ambiente virtuale per le proprie attività.

Occorre spiegarlo dal punto di vista pratico, in termini di risultati effettivi ottenibili, e non solo perchè essere nel “Metaverso” è (era) di moda, e quindi, in ogni caso, era opportuno esserci. Era la “Paura di essere tagliati fuori”, la FOMA (fear of missing out), sulla base della quale, e spinti dai soliti furbastri che sfruttavano l’onda dell’hype, molte aziende hanno speso a volte anche milioni, senza ottenere risultati di rilievo, lasciando come macerie sedi aziendali vuote e non utilizzate sparse nei mondi virtuali.

A tutto questo si è unito l’arrembaggio dei crypto speculatori, fiondatisi sulle criptovalute e sugli NFT, che hanno alimentato un mercato altamente speculativo e a rischio, che ha lasciato parecchi investitori sul lastrico (vedi il fallimento dell’Exchange FTX). Naturalmente, la tecnologia della Blockchain è straordinaria, così come anche l’utilizzo degli NFT, per la protezione della proprietà intellettuale degli asset digitali, ma la bolla speculativa ne ha pesantemente distorto il significato e nuociuto gravemente alla reputazione della tecnologia di base. E purtroppo c’è stato un battage pubblicitario, interessato e fuorviante, per associare il “Metaverso”, nel pieno del boom, a queste esperienze speculative, danneggiandone gravemente l’immagine.

Superata questa fase (si spera), torniamo ai motivi primari per cui l’utilizzo delle piattaforme virtuali può dare un grande contributo alla gestione delle attività aziendali, o anche per scopi culturali, o istituzionali, o di svago. Discutiamo di cose concrete, facilmente comprensibili e sperimentabili in brevissimo tempo. Vorrei partire qui da tre esempi, in modo da poter misurare obiettivi e risultati, in modo pragmatico, e parlando di processi.

Caso 1 – DIDATTICA: è forse il caso d’uso più sperimentato e diffuso, versatile e adatto ad ogni tipo di esigenza e di utenza, anche scolastica, dai bambini della primaria alle Università. La possibilità di ritrovarsi tutti insieme in un’aula virtuale ha dei vantaggi enormi, in termini di interazione e di socializzazione, inoltre, il rapporto con l’insegnante è diretto e bilaterale, e non si è legati alla geografia o all’ambiente fisico in cui ci si trova.

La costruzione di un’aula virtuale è molto sermplice, anche se può essere valorizzata a piacere con arredamenti e strumenti di lavoro diversi, come schermi, interfacce web, connessione ai repository su cloud, e via dicendo. Ci sono Mondi Virtuali, come “Spatial” in cui addirittura è possibile utilizzare gratuitamente ambienti precostituiti, senza impegno di building o investimenti. E’ questo un caso di studio facilmente utilizzabile, alla portata di tutti.

Caso 2 – AMBIENTE DI LAVORO: l’utilizzo dello smart working, enormemente diffusosi con la pandemia, ci ha abituato a lavorare da remoto, in ambienti di collaboration. I risultati, sia per i lavoratori, in termini di qualità della vita, sia per le aziende che hanno enormemente risotto i costi per le sedi e gli uffici, sono stati notevoli, ed è una realtà da cui non si torna più indietro. Il vantaggio di un ambiente virtuale, rispetto a quello classico di collaboration online, è quello della presenza e dell’interazione continua, fino a ricreare uffici virtuali in cui, indipendentemente dal luogo fisico in cui si trovano i lavoratori, si vive in una comunità, e si collabora fianco a fianco con i colleghi e i responsabili aziendali.

Dal punto di vista della Cybersecurity un’azienda può anche creare una propria piattaforma virtuale privata, adeguatamente segmentata e protetta, a cui i dipendenti possano accedere con la VPN aziendale, previo autenticazione ed autorizzazione. E’ uno sviluppo che potrà avere dimensioni enormi in futuro, e consentirà di superare ampiamente le difficoltà della distanza, dei trasporti, e dei tempi di lavoro.

CASO 3 – SIMULAZIONI: è possibile creare ogni tipo di ambiente, per gli scopi più diversi. Supponiamo, ad esempio, che l’amministrazione comunale voglia ristrutturare una importante piazza del comune, per renderla più vivibile, senza auto, e con maggiori servizi e possibilità di socializzazione per i residenti. E’ possibile creare un digital tween della piazza, in ambiente virtuale, e coinvolgere gli abitanti e i commercianti del quartiere a dare al progetto presentato dall’amministrazione, il proprio contributo di idee, con suggerimenti e critiche. La simulazione può essere poi gradualmente migliorata, tenendo conto anche delle risorse economiche stanziate per il progetto, arrivando ad una soluzione ottimale e condivisa dalla maggior parte dei residenti.

Con questi soli tre esempi potremmo fare proposte concrete ad interlocutori aziendali o istituzionali, per avviare dei progetti pilota intorno a cui sviluppare ulteriormente la presenza dell’azienda o dell’istituzione nei Mondi Virtuali, mano a mano che i vantaggi, ed i risparmi, saranno sempre più evidenti e misurabili. Passi graduali, concreti, ma con enormi prospettive di sviluppo. Naturalmente gli esempi potrebbero essere molti altri, ma qui occorre partire dalle basi, da cose concrete e rapidamente realizzabili, e che, soprattutto, diano risultati oggettivi e misurabili.

Un saluto.

Che cosa ci facciamo con l’AI ?

Sono quasi due anni che non sentiamo parlare d’altro, tutti i giorni, che di Intelligenza Artificiale (AI). La causa scatenante è stata la pubblicazione in rete del Chet-Bot Chat-GPT di Open AI, (https://openai.com/) una chat “intelligente” che dà risposte a qualsiasi nostra domanda, simulando l’interazione con un essere umano “esperto”, su qualsiasi problematica. Naturalmente, le risposte che fornisce Chat-GPT sono basate sull’enorme mole di materiale raccolto in rete, dalle pubblicazioni scientifiche ai libri di testo, agli articoli di giornale e persino dai social network.

https://www.punto-informatico.it/limite-conoscenza-chatgpt-esteso-fino-2023/#:~:text=OpenAI%20ha%20annunciato%20di%20aver,limite%20di%20ChatGPT%20al%202023.

Sulla base di queste informazioni, aggiornate a fine 2023, è stata addestrata con la supervisione di esseri umani, per eliminare eventuali schemi di ragionamento derivanti da preconcetti o errori dovuti ad errata interpretazione. Il risultato è quello che vediamo, nulla di “intelligente” ma estremamente efficace. E abbiamo anche imparato che a volte la chat ci dà risposte errate, quando non ha abbastanza indicazioni su come formulare la risposta, semplicemente inventa le cose e “riempie i buchi”, a volte a casaccio. Quindi, da un lato occorre sempre verificare gli output ottenuti con fonti attendibili, dall’altro bisogna imparare a formulare delle richieste molto precise, per delimitare al massimo il margine di errore.

E’ nata così la professione del “Prompt Engineer“, l’abilità tecnica di formulare richieste molto precise, per ottenere risposte affidabili. I cosiddetti “Prompt”. Compilare un prompt è diventata una caratteristica indispensabile per chi vuole utilizzare una AI per lavoro, per studio, per attività professionali, e questa nuova scienza ha già iniziato ad essere strutturata, con precisi “Framework” di riferimento, su come formulare le richieste, come comporre i prompt. Le modalità possono variare da semplici frasi in linguaggio naturale, come le domande che tutti noi abbiamo fatto a Chat-GPT in questi mesi, a dei modelli schematici precisi, per organizzare le richieste in un modo, per così dire, “scientifico”.

Ad esempio, utilizzando Midjourney o Copilot, applicazioni AI di elaborazione di immagini, possiamo dire semplicemente:

“Dammi una immagine di un cavaliere crociato di fronte ad un drago in una foresta”.

E l’immagine che otteniamo è la seguente (da Copilot di Microsoft):

Oppure fornire come input una immagine di partenza da elaborare, a Midjourney, come la seguente:

accompagnandola con precise istruzioni su cosa vogliamo che produca, con tanto di istruzioni tecniche, di parole chiave e anche di descrizioni in linguaggio naturale, con indicazioni molto precise su cosa si vuole ottenere:

donna bionda, volto serio illuminato dal sole che filtra dall’alto, sguardo profondo, alta definizione, 8K, sfondo scuro –ar 4:3 –q 5″.

Il risultato può essere il seguente:

Sono esempi semplici, basati su chat e immagini, ma per poter utilizzare le applicazioni di AI in modo professionale è indispensabile utilizzare i Framework che dicevamo prima, perchè il risultato che vogliamo ottenere serve per il nostro lavoro, di sviluppatori software, o di medici, o di giuristi.

Si sono così sviluppati due modelli di Framework, uno relativo a richieste abbastanza semplici, denominato Modello RTF, l’altro invece denominato Modello CREATE, che serve per richieste o obiettivi molto complessi, e richiede quindi una molteplicità di indicazioni precise su tutti gli aspetti del lavoro da fare.

Il Modello RTF è l’acronimo di Role (l’obiettivo dettagliato che vogliamo ottenere e il ruolo di chi lo richiede), Task (descrizione dettagliata del lavoro da fare), e Format (il formato con cui presentarci il risultato del lavoro.

Ad esempio posso formulare la seguente rischiesta a Chat-GPT:

“Sono un programmatore Python e ho bisogno di un programma che calcoli il valore minimo tra due numeri interi da acquisire in input. Il risultato dev’essere il codice Python eseguibile.”

La richiesta è precisa e descrive esattamente il risultato che voglio ottenere. Infatti, Chat-GPT mi fornisce la risposta adeguata:

“inizio”

Certo! Ecco un semplice programma in Python che calcola il valore minimo tra due numeri interi inseriti dall’utente:

——————————————————————————————————-

# Funzione per trovare il minimo tra due numeri
def trova_minimo(num1, num2):
    if num1 < num2:
        return num1
    else:
        return num2

# Acquisizione input dall'utente
numero1 = int(input("Inserisci il primo numero intero: "))
numero2 = int(input("Inserisci il secondo numero intero: "))

# Calcolo del minimo
minimo = trova_minimo(numero1, numero2)

# Stampa del risultato
print(f"Il valore minimo tra {numero1} e {numero2} è: {minimo}")
----------------------------------------------------------------------------

Puoi copiare e incollare questo codice in un file Python (.py) ed eseguirlo. Il programma richiederà all’utente di inserire due numeri interi e poi stamperà il valore minimo tra di essi.

“fine”

Il Modello CREATE invece, è l’acronimo di Character (il ruolo che assumiamo nel creare il risultato), Request (l’esposizione dettagliata della richiesta che facciamo), Examples (esempi precisi del risultato che vogliamo ottenere), Adjustment (i vincoli di cui tener conto nel creare il risultato), Type of output (descrizione precisa del tipo di risultato che vogliamo), ed Evaluation (indicazioine di precisi indicatori con cui misurare la qualità del risultato ottenuto). Richiederebbe molto tempo darvi un esempio preciso, ma questo è il lavoro da fare.

Come si vede, per poter ottenere risultati di qualità occorre lavorare molto sulle indicazioni da fornire, ci penserà poi l’AI ad utilizzare tali indicazioni per creare la risposta più adeguata, avendo anche ottenuto da noi opportuni parametri per valutare il risultato, prima di fornirlo.

Questa del Prompt Engineer è quindi una figura molto importante, per le aziende, gli enti e gli studi professionali. Altre professioni riguardano poi l’abilità di creare le AI con gli algoritmi e le strategie di ricerca più adeguate agli scopi che vogliamo ottenere, o anche i controlli di qualità da inserire nelle fasi di addestramento delle AI, e così via. Sono queste professioni necessarie alle aziende che producono i sistemi di AI. Insomma, sono tanti, e molto diversificati, i nuovi “mestieri” che stanno nascendo. Ed altri ne nasceranno, perchè l’AI sta dando un’accelerata straordinaria a tutta la nostra civiltà, alla tecnologia e all’industria.

Abbiamo già parlato, in altri articoli su questo Magazine, anche dei rischi connessi all’utilizzo delle applicazioni di AI, in particolare nelle infrastrutture critiche e per gli utilizzi militari, e non a caso è appena entrato in vigore l’AI-Act dell’Unione Europea, e anche altri paesi, come gli USA, si sono dotati di analoghi strumenti di controllo. Ma la strada è aperta per un utilizzo sempre più esteso di queste applicazioni e gestirne i rischi è compito dei governi e degli enti regolatori, e le opportunità di crescita che stiamo creando sono davvero enormi.

Un saluto.

Quanto siamo dipendenti dalla rete?

Qualche giorno fa, un banale bug contenuto in un aggiornamento del software di un’azienda di Cybersecurity, la CrowdStrike, fornitrice di Microsoft, ha messo in ginocchio i sistemi Windows di tutto il mondo, bloccando i servizi di applicazioni critiche per un periodo da qualche ora a qualche giorno, e ancora oggi non tutti i sistemi colpiti sono stati ripristinati. NON si è trattato (questa volta) di un attacco Cyber, ma di un errore propagatosi a catena, a partire dall’Australia e poi via via in tutto il mondo.

Evidentemente molti errori sono stati commessi, indipendentemente dall’errore commesso all’origine dall’azienda nel diffondere l’aggiornamento. I sistemi critici non dovrebbero MAI rendere automatici gli aggiornamenti, quanto piuttosto testarli prima in ambiente di test, e solo dopo averne verificato gli impatti passarli nei sistemi di produzione. Questo non è stato fatto a quanto sembra, da quei sistemi che sono stati colpiti. I possibili effetti nefasti sono sempre possibili, come si è visto. Spero che si impari dai danni subiti.

Ma incidenti del genere si verificheranno ancora, inevitabilmente. E sempre più perfezionati attacchi verranno portati alle infrastrutture critiche, in tutto il mondo, a cominciare dagli anelli deboli della catenna della supply-chain, le piccole e medie aziende. E non a caso è stata emanata a gennaio 2023 dall’Unione Europea la nuova direttiva denominata NIS2, che dovrà essere recepita entro il 17 ottobre 2024 dai singoli stati membri, che eleva gli standard di Cybersecurity e mira a proteggere le infrastrutture critiche. (https://www.cybersecurity360.it/soluzioni-aziendali/nis-2-gli-adempimenti-alla-nuova-direttiva-ecco-tutte-le-novita/)

Tuttavia, il problema di fondo è la nostra completa dipendenza dalla rete e dai sistemi software, che gestiscono ormai completamente la nostra vita quotidiana. Dobbiamo avere noi tutti, dai singoli individui alle aziende, consapevolezza di questa dipendenza quasi totale, ed adottare procedure che possano consentirci di continuare ad operare in caso di attacchi o, come in questo caso, di malfunzionamenti estesi dei sistemi. Le aziende devono gestire sempre meglio il tema della “Business Continuity“, la gestione cioè dei sistemi in caso di incidente, con tutta una serie di procedure parallele per assicurare il funzionamento dei servizi critici. E questo include anche una politica molto attenta dei Backup, che hanno salvato molte aziende dagli attacchi Ransomware (la cifratura dei dati ad opera di hacker per chiedere poi un riscatto per la decifratura). Occorre avere dei sistemi paralleli, anche manuali, capaci di consentire la ripresa rapida dell’operatività, limitando al massimo i blocchi ed i danni conseguenti, alle imprese e ai cittadini. Perchè molti sistemi gestiscono ormai non solo i servizi, ma anche la salute e la vita delle persone.

(https://www.industry4business.it/risk-management/business-continuity-cose-vantaggi-e-perche-e-importante-in-azienda/)

Utilizzare il Cloud è stata poi una rivoluzione epocale, si ottimizza la gestione delle risorse, si centrallizza la sicurezza e si riducono i costi, ma ci rende dipendenti da tre o quattro aziende (Amazon, Microsoft, Oracle, ecc.), i cui bilanci superano in valore quelli di molte nazioni al mondo. Non voglio discutere qui i problemi di privacy e di protezione della stessa, è un argomento molto complesso, ma almeno dobbiamo sapere che questa è la situazione.

Cosa possono fare i singoli cittadini? Proteggere i propri dati salvandoli e tenendoli aggiornati offline, col classico disco esterno su cui farne copia, scollegandolo dalla rete ogni volta, dopo aver effettuato il backup. E avere consapevolezza nei comportamenti in rete, con attenzione alla sicurezza dei propri dati.

La tecnologia e l’utilizzo della rete ci ha fatto compiere grandi passi in avanti, cose che facciamo oggi non erano neanche immaginabili quelche decennio fa, ma questo ha comportato l’aumento esponenziale della Complessità dei sistemi, e con l’aumento della complessità sono aumentate le esposizioni e i rischi da gestire. Un grande aiuto ci sta arrivando dall’uso sempre più esteso di Intelligenze Artificiali anche in questi campi, con tutti i limiti ed i controlli imposti dal recente AI-Act europeo, ma dobbiamo essere consapevoli, anche come semplici cittadini, che la nostra dipendenza va mitigata con adeguate misure di sicurezza e alternative offline per i casi di emergenza.

(https://www.europarl.europa.eu/news/it/press-room/20240308IPR19015/il-parlamento-europeo-approva-la-legge-sull-intelligenza-artificiale)

Un saluto.

Parliamo di NFT, questi sconosciuti …

Una pillola di tecnologia digitale su un argomento di cui molti parlano senza avere un’idea chiara di cosa siano: gli NFT (Non Fungible Token). E’ molto semplice spiegarli, complicato capire come tecnicamente funzionino, ma di questo non ci occuperemo in questo articolo. Chi avesse voglia di capire il modello ingegneristico che c’è alla base può scrivermi o trovare infinite risorse sulla rete.

Un NFT è un’attestato di proprietà di un token digitale. Un oggetto digitale (di qualsiasi tipo), registrato su una Blockchain (solitamente Ethereum), in modo da renderlo unico, riconoscibile, e sicuro. Ad oggi la blockchain non è mai stata violata da hackers, ed è quindi ritenuta sicura e affidabile. E’ basata su di una architettura decentralizzata (distribuita su molti nodi, senza un gestore unico) che utilizza un protocollo Peer-To-Peer (P2P), come i vecchi Napster e eMule. Le vulnerabilità di una archietettura su blockchain sono nella gestione del “Wallet“, il portafoglio digitale in cui sono conservate le chiavi di accesso, e negli eventuali errori umani nella scrittura di codice per la creazione di “Smart Contract“, ma sono entrambe debolezze esterne, non della blockchain.

Un NFT può anche definire il numero di copie legittime di un token digitale, vendibili separatamente, ma comunque in un numero molto limitato. Ogni copia è naturalmente autentica, così come avviene per le serigrafie, per le opere fisiche, numerate ognuna come copia m di n (2/10 è la seconda copia di 10 create).

Un NFT creato da Mike Winkelmann, in arte “Beeple“, collezionando 5.000 post-it da lui creati giornalmente, è un’opera digitale che è stata battuta all’asta da Christie’s al valore esorbitante di 69 Million $. Molti sono stati infatti gli eccessi speculativi a cui abbiamo assistito, come la vendita di NFT di “Cryptopunks” o di “Cryptokitties“, immagini digitali divenute cult.

Se volete avere un’idea della capitalizzazione raggiunta da questi NFT, il più delle volte creati in intere collezioni, e delle quotazioni in tempo reale, basta andare sul sito seguente:

https://coinmarketcap.com/it/nft/collections/

Sul valore delle immagini digitali si può discutere a lungo, ma sarebbe come discutere del valore di certe croste fisiche, non digitali, anch’esse vendute all’asta e regolarmente acquistate. Del resto, questo è il mercato, l’incontro tra domanda e offerta, nulla di nuovo sotto il sole. La novità degli NFT è la possibilità di attestare in modo univoco la proprietà di un oggetto digitale, come ad esempio una immagine JPG scattata in un Mondo Virtuale.

Questo era difficilissimo fino ad ora, e qualcosa ne sanno gli artisti musicali, con la diffusione nel passato di MP3 pirata dei loro pezzi. Con la registrazione di un NFT si certifica l’origine e la proprietà di un token digitale, così come anche la sequenza di transazioni di compra-vendita.

Certo, esiste la possibilità che qualcuno vada su Open Sea, uno dei maggiori marketplace di NFT, e ne faccia una copia abusiva, ma sarebbe appunto una contraffazione, perchè il proprietario rimarrebbe quello che ha registrato l’NFT o che lo ha acquistato regolarmente, con una transazione registrata sulla blockchain. Il fenomeno della contraffazione è molto diffuso con gli oggetti fisici, dalle opere d’arte ai prodotti di marchi famosi, e l’utilizzo della blockchain anche per loro aiuterebbe a combattere questo fenomeno criminale.

Le immagini che ho riportato in questa pagina, ad esempio, sono immagini registrate sulla Blockchain Ethereum, della serie “Bored Ape Yatch Club”, questo qui sopra, ad esempio, è valutato oggi in 16 Ether, un valore pari quasi a 58.000 $ in valuta ufficiale:

https://opensea.io/collection/cryptokitties

E’ una esagerazione? Sicuramente, ma il nostro giudizio tuttavia è irrilevante, perchè esiste un mercato, e c’è gente che commercializza questi prodotti, il che vuol dire che gli acquirenti ci sono. Perchè li comprano? Per fini speculativi, soprattutto, sperando che il prezzo salga e che possano poi rivenderli con un guadagno. Del resto esistono acquisti allo scoperto per grano, petrolio, cereali, e nessuno se li fa recapitare a casa, sono solo movimenti di trading. Ma ci sono anche quelli realmente interessati all’opera in se, una piccola minoranza ritengo, viste le quotazioni a cui siamo arrivati, ed è il mondo del collezionismo.

Esistono poi tutta una serie di aziende che hanno “tokenizzato” i loro asset fisici, creando degli NFT che possono pei essere portati un in negozio fisico per il ritiro del bene acquistato. Sono state soprattutto le aziende del fashion a sperimentare questi token, ma anche del food e naturalmente del Gaming, con un successo notevole, visti i grandi marchi che sono rappresentati: Nike, Gucci, Dolce & Gabbana, Campari, Coca Cola, McDonald’s, ecc.

La normativa che riguarda gli NFT è ancora da completare, in particolare non sono ancora definite univocamente la stessa natura, e la forma giuridica degli NFT, che siano cioè dei prodotti finanziari, delle merci, o dei titoli. C’è ancora una discussione in corso tra gli esperti di diritto digitale, e occorrerà quindi attendere nuovi ulteriori sviluppi, che dettino delle linee guida più chiare per l’utilizzo pienamente operativo di questi asset, e per dare maggiori certezze a questo nuovo mercato.

Ho fatto anch’io, naturalmente, delle registrazioni di NFT su OpenSea, ed ho anche acquistato un paio di Cryptokitties, giusto per testare la catena di creazione-vendita-acquisto. E’ tutto visibile sul Marketplace, con la storia delle transazioni, i venditori e gli acquirenti. Se qualcuno, per esempio, volesse comprare un mio NFT, con il prezzo che io ho stabilito per la vendita, lo troverebbe qui:

https://opensea.io/collection/untitled-collection-3071590203

Naturalmente il mio è stato solo un caso di studio, ed il prezzo che ho fissato è quello che ho pagato per l’acquisto, poche decine di euro, ma tutti gli step sono stati correttamente eseguiti, per testare il processo di creazione e vendita.

La Blockchain (qualsiasi blockchain) è pubblica, sicura e immutabile, e il registro delle transazioni eseguite, dalla nascita della blockchain in poi (il “Ledger“), è distribuito in copia su tutte le migliaia di nodi della catena. Sono i nodi che elaborano le transazioni, certificandole e inserendole sulla Blockchain, ricevendo un compenso in cryptovaluta per il loro lavoro computazionale (e per l’energia spesa nel “mining“). Di blockchain ce ne sono tante, e la prima nata è naturalmente quella dei Bitcoin, mentre Ethereum è la blockchain più itilizzata per gli NFT, perchè è su Ethereum che sono stati implementati per prima gli “Smart Contract” con cui è possibile creare gli NFT. Tutte queste operazioni sono trasparenti per chi utilizza un Marketplace, ma è questa la tecnologia che c’è alla base delle blockchain. La Blockchain è oggi una tecnologia allo studio delle maggiori istituzioni internazionali, di banche, di operatori finanziari e di aziende, e che trova già molte applicazioni, in particolare per le Cryptovalute, Bitcoin in primis, ma anche per i diversi mercati di token digitali.

Un’ultima osservazione che vorrei fare è che un NFT sarebbe anche il modo migliore per “certificare” la proprietà di un Avatar, oltre che di un territorio nel Mondo Virtuale, creando quindi una sorta di “identità digitale” sul modello dello SPID, che possa consentire l’utilizzo di diverse piattaforme virtuali mantenendo l’univocità della identità dell’Avatar su tutte le piattaforme. Un piccolo tassello di “interoperabilità”, diciamo. Ma questa è un’altra storia … 🦅

NOTA AGGIUNTIVA:

Creare o comprare un NFT, e certificare così il diritto di proprietà di un’opera digitale, non ci mette al riparo da un utilizzo non autorizzato dell’opera. Certo, chi la dovesse copiare non potrebbe attestarne la proprietà sul mercato degli NFT, ma intanto potrebbe farne tutti gli usi non autorizzati che ritenesse. Si tratterebbe di una contraffazione di prodotto, come avviene per gli oggetti fisici, un fenomeno contro cui si lotta da sempre.

E’ bene ricordare che un’opera digitale rientra nella categoria delle “Opere di ingegno” e per un’opera di ingegno e la sua proprietà intellettuale esistono due tipi di diritto: il “diritto morale” che attribuisce all’autore dell’opera il diritto di rivendicare per sempre la paternità dell’opera, anche nel caso di vendita, e il “diritto patrimoniale“, per cui è possibile cedere ad altri il diritto di sfruttamento. Il diritto morale è tutelato, sul mercato degli NFT, con le royalties che vengono riconosciute all’autore ad ogni passaggio di proprietà.

Per tutelarsi anche legalmente dall’uso non autorizzato dell’asset, si può apporre un Watermark sulla foto e registrarne la proprietà presso gli enti competenti per il Copyright, o presso gli enti specifici per i prodotti d’autore (la SIAE in Italia per i brani musicali, ad esempio). Altra strada è quella di tutelarsi consentendo la diffusione dell’opera sotto una licenza Creative Commons (CC). In ogni caso l’autore va dichiarato sulla foto, con il Watermark contenete il nome dell’autore e la data di creazione, inserendo una filigrana visibile sull’immagine, o inserendola steganograficamente con un software, in modo non visibile.

Quindi, in sintesi, la definizione giuridica di un NFT ancora allo stato embrionale, ad oggi, non ci permette di tutelarne legalmente la proprietà, ma occorre seguire le norme giuridiche consuete per la protezione delle opere d’ingegno, qualora lo si ritenesse necessario naturalmente.

Fonti:

Copyright delle immagini: come tutelare le proprie opere sul web (ufficiobrevettimarchi.it)

Come tutelare la proprietà intellettuale? (laleggepertutti.it)

Giù le mani! Ecco i metodi per proteggere le tue foto online (fotocomefare.com)

Immagini reali o “artificiali” ?

Avrete notato che negli ultimi tempi sulla rete girano immagini di ogni genere, generate dai software di intelligenza artificiale (“AI”). Ce ne sono tantissime, dalle più grezze a quelle davvero bellissime, generate su nostra richiesta da questi software. E’ la nuova frontiera delle immagini digitali, e costituisce uno degli utilizzi oggi più diffusi di questi software di nuova generazione, cosiddetti “generativi“, come Chat-GPT, per intenderci.

Solo un cenno, davvero rapido, su come funzionano questi strumenti. Hanno sostanzialmente due componenti principali: un enorme Data Base, con tutto quanto hanno raccolto sulla rete, che serve come “base di conoscenza”, per ricercare testi o immagini analoghe prodotte in precedenza. Questo pone anche una serie di problemi: sulle autorizzazioni, il Copyright, la veridicità delle informazioni raccolte con questa “pesca a strascico”, eccetera. Non a caso si stanno elaborando delle regole, a livello internazionale, ed anche l’Unione Europea ha prodotto un AI-Act, per gestire questa e molte altre criticità poste dall’utilizzo di questi prodotti, come la certificazione delle fonti e la riconoscibilità di quanto prodotto dalle AI.

[NOTA al novembre 2025: Devo correggere un errore di superficialità nella frase precedente. Questi modelli neurali generativi non hanno un “enorme Data Base“, perchè la loro conoscenza è stata accumulata in fase di addestramento, fatto su enormi dataset, costituiti da ogni genere di informazione. La “conoscenza” è accumulata nei layer della rete neurale, tramite miliardi di parametri che “pesano” i dati di input, livello dopo livello (layer), fino a generare la risposta finale. Nei modelli più avanzati, come GPT-5, i layer sono centinaia, e centinaia di miliardi sono i parametri (stime effettuate, i dati non sono stati resi pubblici da OpenAI). La conoscenza è poi rinforzata dall’accesso alla rete, quando non si riesce a formulare una risposta adeguata, o quando è necessario aggiornare le informazioni con dati recenti, o su richiesta dell’utente. Aggiungo solo che il modello basato su “Basi di Conoscenza” e regole precostituite, era il paradigma in uso per la “Old Fashion AI” dei bei tempi andati, che diedero origine ai Sistemi Esperti, mentre le Reti Neurali hanno completamente rivoluzionato il settore, dando poi vita agli attuali modelli generativi co oggi utilizziamo tutti. Un aggiornamento ulteriore riguarda l’entrata in vigore dell’AI Act, che sta entrando gradualmente nella sua fase attuativa]

(Immagine generata dal Copilot Microsoft)

L’altra componente principale è basata sul Machine Learning, la capacità di “imparare”, con una lunga fase di “addestramento”, e di produrre risultati in modo autonomo, generando quindi cose nuove, in modo autonomo dal contributo umano. Ma la “generazione” avviene a partire dalle richieste che noi facciamo loro, dalla precisione e dalla mancanza di ambiguità di queste nostre richieste. Si pone quindi il problema di imparare a definire bene le richieste, a come produrre cioè i cosiddetti “patterns” più adatti. E da qui stanno nascendo nuove professioni e nuove competenze, che dovremo acquisire man mano, per usare al meglio le AI Generative.

(Immagine generata dal Copilot Microsoft)

Detto questo, come introduzione, si pone un problema enorme, quasi storico, che riguarda l’identificazione dell’origine di questi prodotti: testi, immagini, e ora anche filmati. L’AI-Act impone di dichiarare le fonti, ma da qui a vedere applicata questa regola, ce ne passerà di tempo… Anche perchè l’AI-Act, seppure già approvato dal Parlamento Europeo, ancora non è arrivato alla fase attuativa. E poi, pensiamo alla proliferazione a livello internazionale di questo tipo di prodotti: testi, immagini, filmati. Così come si assiste, da sempre, al fenomeno della contraffazione, anche per i beni fisici, figuriamoci poi per questi digitali. Ma la tecnologia ci viene in soccorso: una soluzione efficace sarebbe quella di creare degli NFT sulla Blockchain, anche se l’utilizzo di questi strumenti ancora non è molto diffuso, e trova tanti ostacoli e molti denigratori in giro per il web, a causa delle truffe in Cryptovaluta e delle speculazioni esagerate a cui abbiamo assistito ultimamente. Ne abbiamo parlato già in passato su questo Magazine, quella della Blockchain è una tecnologia ancora giovane ed immatura. E allora, nel frattempo, cosa facciamo? Come si fa a stabilire se l’immagine di sua Santità Francesco in piumino fosse vera, o prodotta da una AI (era falsa naturalmente, prodotta da una AI) ?

(Immagine generata da una AI, dalla rete)

Per pura curiosità, non perchè sia di facile utilizzo, vi voglio indicare il possibile uso della “Steganografia“. Termine oscuro, per il 99% degli individui, me ne rendo conto, ma proviamo a spiegarlo in due parole: la steganografia è la tecnica di nascondere delle informazioni all’interno di oggetti digitali di vario tipo: musica, immagini, ecc. Parliamo delle immagini, per rendere molto semplice la comprensione. Sappiamo tutti che una immagine digitale è composta da tanti “pixels”, microscopici quadratini, ognuno con il proprio livello di RGB: Red (rosso), Green (verde) e Blue. Per ognuno di questi tre colori fondamentali c’è una diversa intensità, indicata con un numero da 1 a 255. Quindi, se diciamo che quel pixel ha un RGB di 000:025:122, stiamo indicando l’intensità di ognuno dei tre colori fondamentali, che, mescolati insieme, danno il colore specifico di quel singolo “pixel”. Tutti i pixel insieme ci danno l’immagine, e quello che varia da una immagine all’altra è la “definizione”, e cioè quanti pixel compongono una immagine. Più pixels ci sono nell’immagine, più l’immagine è ben definita. Una immagine di 1920×1080 pixels, è meno definita di una con 384×2160 pixel, e più diminuisce il numero di pixel componenti l’immagine, più l’immagine si “sgrana”. Perdonate questa digressione tecnica, e torniamo alla Steganografia.

(Immagine generata dal Copilot Microsoft)

In una immagine tipo possiamo avere, ad esempio, 1920×1080 pixels (larghezza x altezza), questo vuol dire 2.073.600 di pixels, ognuno con la sua gradazione di colore, data dal suo RGB: un’enormità di informazioni, ma per fortuna ci pensa il software di gestione immagini a gestirla, e la scheda grafica ad interpretarla. Ora, se di questi milioni di pixels noi ne sfruttassimo alcuni (o anche tanti..!) per nascondere un messaggio, l’immagine non cambierebbe assolutamente per la nostra percezione, perchè molti pixels sono ininfluenti, non levano e non mettono nulla all’immagine nel suo complesso. Se ne sfruttiamo una parte per inserirci dei dati, “nascosti” per contenere un messaggio, ad esempio, per la percezione dell’occhio umano non cambia assolutamente nulla! E quello che abbiamo detto per i pixels delle immagini vale anche per i messaggi sonori, composti da una moltitudine di frequenze diverse, alcune neanche percepibili dall’orecchio umano.

E’ la tecnica utilizzata per mandare messaggi nascosti, spesso usata dalle spie o da soggetti malevoli, o anche per usi legittimi ma riservati, per passare informazioni. Questa è la “Steganografia“, in pillole. E questa tecnica potrebbe anche essere utilizzata per inserire una “firma“, un marchio che ne attesti l’origine e la proprietà. Una tecnica divertente e curiosa, e di non facile utilizzo (tranquilli, ci sono prodotti software che fanno questo, come OpenPuff, ad esempio). Naturalmente, questa tecnica è oggi ampiamente superata, sia dagli NFT sulla Blockchain che dalla Firma Digitale con chiave asimmetrica, chiave privata per firmare, e decodificabile unicamente con la chiave pubblica di un soggetto, in modo da attestarne l’autenticità. E’ la moderna “Crittografia a chiave Asimmetrica” (che differisce da quella a chiave simmetrica, che utilizza la stessa chiave sia per la codifica che per la decodifica).

Ma a volte, le vecchie tecniche dei nonni risultano più divertenti da usare, e la Steganografia è una di quelle. Per quanto mi riguarda, sono un sostenitore degli NFT su Blockchain, una tecnologia davvero geniale, ma nella vita occorre anche divertirsi..!

Un saluto.

(Nota: l’immagine in evidenza è generata dal Copilot Microsoft)