Negli ultimi mesi siamo più volte tornati sul tema dell’Intelligenza Artificiale nei Mondi Virtuali, perchè questo è il tema prevalente di questo Magazine. Ma le discussioni sull’impiego dei sistemi di AI hanno ormai preso il sopravvento su qualsiasi altra discussione, in tutti i settori e in tutti i contesti. E il motivo è molto serio: si sono visti i progressi enormi con cui questi sistemi si stanno evolvendo, e si vede che il ritmo del loro miglioramento è esponenziale, non lineare. Più questi sistemi vengono impiegati, più si addestrano, e più si addestrano, più forniscono risposte e prestazioni migliori, e più vengono utilizzati, dappertutto. E’ una spinta inarrestabile.

Questi sistemi stanno entrando in tutti i contesti, dall’istruzione al giornalismo, dagli studi legali alle diagnosi mediche, dalle auto a guida autonoma alla gestione intelligente delle città, con enormi benefici, ma anche con enormi rischi da gestire. Il primo tema riguarda la perdita di posti di lavoro, che sta avvenendo ad un ritmo impressionante, in tutti i settori in cui le macchine “pensanti” sono molto più efficienti di noi. E la cattiva notizia è che questi settori non sono più solo quelli con attività manuali o ripetitive, ma sono tutti i settori. Proprio tutti, nessuno escluso. Certamente stanno nascendo nuove professioni: i Prompt Engineers, i Data Scientists, I supervisori degli algoritmi di Machine Learning, e così via. E tutti i centri di ricerca sostengono, non so su quali basi, che il numero di posti di lavoro che si creeranno saranno di più di quelli che perderemo. Non so se si possa essere d’accordo su questo, io sono del parere opposto, ma non ho alcuna ricerca scientifica a sostegno di questa mia ipotesi, perchè prevedere queste evoluzioni non è possibile al momento. Quello che dovrà avvenire sarà sicuramente una rimodulazione complessiva dei tempi di vita e di lavoro, ma questo richiederà tempi lunghi, e forse crisi e rivoluzioni sociali. Questo è quello che sta avvenendo, sotto i nostri occhi.

Insieme a questa evoluzione sociale, ci stiamo ponendo però anche delle domande riguardanti la nostra stessa esistenza, come umanità. Questi sistemi comportano dei gravi rischi, se non controllati e gestiti con regole e limiti efficaci. Questa discussione, ampia e approfondita, ha portato l’Unione Europea alla promulgazione, ad agosto 2024, dell’ AI-Act, un capolavoro di visione dei rischi e di messa in campo di regole importanti, a salvaguardia della vita e della dignità delle persone. Purtroppo, la velocità con cui si procede è molto più elevata delle iniziative legislative e regolamentari, e molti paesi non vogliono affatto subire controlli, o porsi dei limiti nella ricerca e nello sviluppo. Quindi, regolamentazioni come l’AI Act sono fondamentali, ma non bastano.

I rischi riguardano, all’estremo, il pericolo che sistemi non controllati possano prendere il sopravvento sui controlli, ed agire in base ai loro algoritmi, e ai parametri di valutazione con cui sono stati progettati. Ed esiste il rischio che armi dotate di Intelligenza Artificiale possano scegliersi degli obiettivi, ed agire di conseguenza. E se è classico l’esempio dell’auto a guida autonoma, che si vede costretta a scegliere se investire un ragazzino o un vecchio laddove non esiste altra soluzione, è facile immaginare cosa potrebbe fare un sistema rivolto alla salvaguardia ambientale, per fare un esempio, che individuasse come specie parassita, e quindi pericolosa per l’ambiente, quella umana, decidendo quindi di porre rimedio a questo pericolo.
Il tema del Controllo è fondamentale, non solo per lo sviluppo sano di questi sistemi, ma per la salvaguardia stessa della specie umana. Molti scienziati, tra cui anche Steve Hawking e Jeoffrey Hinton, premio Nobel per la fisica lo scorso anno, hanno chiaramente delineato questi rischi come paragonabili a quelli posti dall’uso di armi nucleari. Siamo di fronte allo stesso ordine di grandezza del livello di rischio. Sarebbe quindi necessario creare degli organismi internazionali di controllo, e arrivare a dei trattati internazionali per il controllo della proliferazione di armi controllate dai sistemi di AI.

Come nel caso dell’ambiente e dei cambiamenti climatici, anche nel caso del controllo dell’AI l’umanità non sta affrontando il problema nel modo e con l’urgenza che sarebbe necessaria. Se vogliamo evitare la catastrofe, che al momento, non solo è possibile, ma potrebbe già essere inevitabile, occorre muoversi con grande determinazione. Perchè la velocità con cui si stanno evolvendo questi sistemi, esponenziale come detto, è giunta ormai al limite del possibile controllo umano.
Il mio è il pessimismo della ragione, di chi vede i popoli e gli stati continuare a sterminarsi come se un secolo di tragedie fosse passato invano. Occorrerebbe uno scatto culturale ed emotivo in avanti, perchè il tempo si sta esaurendo …
mi permetto di dissentire con questa affermazione: “Più questi sistemi vengono impiegati, più si addestrano, e più si addestrano, più forniscono risposte e prestazioni migliori, e più vengono utilizzati, dappertutto. E’ una spinta inarrestabile.” , in particolare sul fatto che più dati siano dati in pasto all’AI migliore siano la prestazioni dell’AI, è proprio questo il punto critico….ma sarebbe da approfondire il concetto…mi limito a dire che, dal mio punto di vista, non è ancora inarrestabile [DO NOT FEED THE AI]