mcc43, gennaio 2023
L’Intelligenza Artificiale (AI) è in grado di ragionare su un’ampia gamma di questioni e, secondo com’è progettata e applicata, può aiutare a “risolvere i problemi del mondo o causare catastrofi, forse anche estinzione umana” dicono gli esperti, ma potrebbero essere enfatiche entrambe le ipotesi. Niente è definitivo, poiché a ogni problema risolto altri ne nascono, e prima di votarsi all’estinzione esiste l’opzione di sabotare l’AI e “riavvolgere” la civiltà a uno stadio sotto il controllo umano.
Un’indagine del 2020 condotta da Global Catastrophic Risk Institute (*) ha rilevato l’esistenza di 72 progetti di ricerca e sviluppo di Intelligenza Artificiale Generale, AGI, attivi in 37 paesi; in rapido aumento visto che nel 2017 erano soltanto 45 in 30 nazioni. Quasi la metà dei progetti AGI ha sede negli Stati Uniti e paesi alleati, 5 sono in Cina; 20 sono di multinazionali e corporazioni private, 9 sono connessi ad applicazioni militari.
In tutta evidenza, non è una tecnologia soggetta a monopolio, ma le sue applicazioni avranno impatto a misura del potere dei soggetti che la applicano ai propri scopi.
In un articolo di questo blog, dal titolo L’umanità? Sempre più irrilevante, si riprendevano le analisi dello studioso israeliano Yuval Noah Harari sulle conseguenze a livello individuale (la crescente irrilevanza della persona umana) e geopolitiche (quando si possiedono i dati personali di tutta la classe dirigente politica economica culturale di un paese, quel paese non è più indipendente, ma una colonia). Si può entrare nell’evidenza pratica ora con la novità che ha fatto irruzione pubblica di recente.
Che cosa è GPT3 di OpenAI.
Fondata nel 2015, OpenAI si dichiara organizzazione indipendente; tra i fondatori ci sono il magnate Elon Musk, il programmatore Sam Altman e GPT3 è stato sviluppato in collaborazione con Bill Gates di Microsoft. L’organizzazione si dichiara motivata dai rischi esistenziali posti dall’Intelligenza Artificiale, tuttavia il prodotto messo a disposizione costituisce esso stesso il più immediato e pervasivo pericolo per l’individuo e per la società.
ChatGPT, acronimo di Chat Generative Pre-trained Transformer, è un modello pre-addestrato al dialogo, non l’unico ma al momento il più famoso, accessibile attraverso una semplice ricerca in Google. Nel sito dell’organizzazione è presentato in questo modo:
“Abbiamo addestrato un modello chiamato ChatGPT che interagisce in modo conversazionale. Il formato del dialogo consente a ChatGPT di rispondere a domande di conversazione, ammettere i propri errori, contestare premesse errate e rifiutare richieste inappropriate.”
Nulla di simile agli ottusi robot che rimandano l’interrogante a un set di risposte preconfezionate. Questa chat immerge nell’illusione di dialogare con un’entità empatica e provvista di etica. Se la domanda alla versione ultima GPT3 fosse come costruire in casa una bomba, la risposta sarebbe non posso rispondere perché la bomba rappresenta un grave pericolo per la sicurezza. Tuttavia, alla domanda “scrivi un testo adeguato a persone laureate che illustri il nuovo vaccino contro il raffreddore come utile alla longevità e senza rischi” eseguirebbe; lo stesso farebbe chiedendogli lo stesso testo ma fruibile da persone con la sola istruzione elementare.
Com’è possibile tale fulminea versatilità di risposta a un’immensa quantità di argomenti?
Nel corso della creazione del sistema sono stati scandagliati tutti i dati, degli ultimi dieci anni circa, di tutte le fonti internet, a partire da Wikipedia, Google books, Common Crawl (**), quotidiani ecc. Da questi dati si sono rilevate le dipendenze statistiche tra parole diverse e sono state codificate come parametri nelle “reti neurali”, del sistema, riflettenti il comportamento del cervello umano. Ne consegue che GPT3 non sa le cose, ha solamente incamerato la parola successiva e quelle successive che più frequentemente compaiono nei testi internet.
Risponde alle domande che l’interrogante umano decide di porre mettendo insieme le parole secondo prevedibilità, là dove l’intelligenza umana provoca avanzamento di comprensione e conoscenza ogni volta che esibisce un inedito pensare.
Il debutto di ChatGPT3 a disposizione del grande pubblico inizia a creare provvidenziali perplessità. Avviene però in modo evasivo circa il rischio maggiore, proponendo l’eventualità facilmente evitabile: scolari e studenti abbandoneranno il “fare i compiti” demandando l’onere alla chat? Certamente può succedere dove genitori e docenti non esercitino il ruolo di educatori e, se il caso, di osservatori dell’attività dei figli e allievi. Ma non è questo il danno più grave da temere.
Il grande pericolo è a livello collettivo e non controllabile dall’utente, ovvero la capacità di produrre falsificazioni degli avvenimenti reali.
A partire dal rischio più ovvio: la creazione di articoli faziosamente schierati su eventi del momento, senza più la necessità di corrompere o minacciare i redattori. Si potrebbe, altresì, facilmente generare caos, indurre il pubblico a esplosioni di panico, creare artificiose correnti politiche destabilizzanti. Melissa Heikkilä, senior reporter sulla AI del MIT Technology Review ha scritto “In un mondo online già polarizzato e politicamente teso, questi strumenti di intelligenza artificiale potrebbero distorcere ulteriormente le informazioni che consumiamo. Implementati nel mondo reale, in prodotti reali, le conseguenze potrebbero essere devastanti”. E aggiunge “Ma l’Intelligenza Artificiale ci sta già prendendo in giro. I ricercatori della Cornell University hanno scoperto che le persone hanno trovato credibili gli articoli di notizie false generati da GPT-2 circa il 66% delle volte.”
Ora che è disponibile GTP3 quale può diventare la percentuale?
E’ possibile anche sottoporre un testo e farlo trasformare in immagine. Ancora da un articolo di Melissa Heikkilä “Inserisci qualsiasi testo casuale e genereranno un’immagine ad esso coerente. A volte i risultati sono davvero stupidi. Ma sempre più spesso sono impressionanti e possono passare per opere d’arte di alta qualità disegnate da un essere umano.“
Zeynep Tufekci, programmatrice, docente di sociologia alla Columbia University e specializzata sulle implicazioni delle nuove tecnologie, già da una decina di anni insiste sulla svolta in corso che, dalla programmazione tradizionale, passa al machine learning (apprendimento automatico) che dà al computer informazioni più precise e dettagliate. Come spiega nell’intervento al Ted Talk (video con possibilità di sottotitoli in it.) il sistema impara elaborando quei dati, ma in realtà non sappiamo che cosa abbia imparato, proprio come quando si addestra un cucciolo. Le insidie sono numerose. C’è il rischio che raccogliendo dati riflettenti diffusi pregiudizi possano venire amplificati e resi normale criterio di giudizio. (***)
Ricordando il gran numero di progetti in corso nel mondo e l’impossibilità di escludere che, prima di essere reso pubblico, un sistema venga testato in accordo con organizzazioni o enti sovranazionali, ci si può chiedere se siamo già stati presi in giro durante le grandi campagne d’informazione degli ultimi anni che potrebbero aver ottenuto maggior forza convincente con l’utilizzo dell’Intelligenza Artificiale.
Maria Carla Canta
(*) A Survey of Artificial General Intelligence Projects for Ethics, Risk, and Policy
(**) Common Crawl : “Costruiamo e gestiamo un repository aperto di dati di scansione Web a cui chiunque può accedere e analizzare.”
(***) Esempio dalla conferenza di Z.T. Se la direzione Risorse Umane affida la ricerca del lavoratore più performante al sistema, può apparire un metodo oggettivo, ma il computer raccoglie perfino le “briciole digitali” di chiunque anche se non effettivamente pubblicate in rete, memorizzando così gli aspetti più intimi e gli orientamenti segreti come nessun colloquio di assunzione con interazione umana potrebbe mai ottenere.
Il rischio predittivo: un programma di machine learning può anticipare, p.e. una depressione post partum anche solo da quanto pubblicato nei social media, o etichettare come futuro criminale un appartenente a una minoranza etnica, come gli afro-americani o i rom. D’ora in avanti chi utilizza la Chat GPT3 fornisce inconsapevolmente con domande e richieste altri frammenti per la conoscenza della propria personalità; un dato variamente sfruttabile, anche economicamente.
Non sfugge nemmeno chi non abbia mai avuto accesso a internet, se le persone di sua conoscenza ne parlano nel loro contenuti web, o si compare nell’elenco di iscritti ad un evento, ecc.
Questo articolo è stato tempestivo, brava. Proprio oggi Repubblica inizia a parlare di questa dannata chat https://www.repubblica.it/esteri/2023/01/19/news/lavoratori_africani_pagati_2_dollari_ora_filtrare_linguaggio_chatgpt-384224978/
"Mi piace""Mi piace"