fbpx

IA, tra Deepfake storico e Debug: i casi Gemini e ChatGPT

Oltre ai molteplici e indubbi vantaggi, tante sono le implicazioni etiche e sociali che derivano dall'AI. Cosa succede se i suoi modelli vanno in cortocircuito?

7 minuti di lettura

Che succede quando i modelli di IA vanno in cortocircuito? I casi Gemini e ChatGPT ci ricordano che l’IA agisce all’interno della società.

I casi Gemini e ChatGPT: IA in cortocircuito

Lo scorso martedì 22 febbraio due tra i maggiori modelli di IA generativa sono andati in cortocircuito. Se Google, tra le maggiori BigTech mondiali, si è trovata costretta a sospendere temporaneamente Gemini dietro l’accusa di deep fake storico, OpenAI, la tech company finanziata da Microsoft, e recentemente coinvolta nel terremoto Sam Altman, è dovuta correre ai ripari per porre rimedio al “delirio-debug linguistico” di ChatGPT. In entrambi i casi, a segnalare i rispettivi “cortocircuiti” sono stati gli utenti che, interagendo con i due modelli di IA generativa, hanno riscontrato rispettivamente errori, inesattezze e giochi linguistici allucinatori.

Leggi anche:
Intelligenza Artificiale, la sfida di una lettura senza pregiudizi

Ma procediamo con ordine. Ripercorriamo il filo degli eventi e le relative implicazioni.

Il caso Gemini: il deepfake storico

Secondo Gemini, il modello di IA generativa firmato Google, tra le schiere dei soldati tedeschi durante la seconda guerra mondiale c’erano anche neri ed asiatici. L’errore, che risale al 22 febbraio scorso, ha del clamoroso. Come lo si può spiegare?

Evidentemente, durante la fase di training sugli enormi dataset a disposizione, qualcosa è andato storto. Ma non basta. Primo punto: Gemini non ha memoria storica. Secondo punto: sono necessarie delle regolamentazioni più ferree, perché un errore di questa portata, oltre a risate bonarie, suscita e deve suscitare preoccupazione. Anche se non è pericoloso in sé, lo diventa in relazione alle sue implicazioni, agli usi strategici a fini manipolatori e negazionisti. La nota a margine di Google, pubblicata su X, («Siamo consapevoli che Gemini offra inesattezze in alcune rappresentazioni storiche della generazione di immagini. Siamo al lavoro per risolvere il problema»), non può essere sufficiente a farci dormire sonni tranquilli.

Lasciando da parte ogni discorso complottistico contro l’IA, pensata in sé, caricaturalmente, come una forza extraterrestre destinata a soppiantare l’umanità (per intenderci alla Matrix), si auspicano due cose. Uno: che il caso Gemini contribuisca ad accelerare “dall’alto” i tempi tecnici di regolamentazione contro il deepfake. Due: che “dal basso”, ovvero tra gli utenti, ci si renda conto che il pensiero critico non può diventare demodé, soltanto perché è più “comodo” affidarsi ad un modello di IA. Le informazioni vanno verificate. L’esame critico delle fonti, l’attitudine alla ricerca, il rigore, la veridicità sono parole d’ordine che non possono scomparire dai radar dell’opinione pubblica perché «viviamo in una fantomatica era post-epistemica». Se è vero che diventerà sempre più difficile la task del distinguere il vero dal falso, fiction e realtà, dall’altra parte sembra ancora più vero (si perdoni il gioco di parole) che il saperlo fare, e il poterlo fare, saranno parametri sempre più discriminanti per acquisire una concreta agency pubblica.

Leggi anche:
Fake news: la cultura è l’unico antidoto

Il caso ChatGPT: debug e allucinazioni linguistiche

Risposte senza senso, bricolage linguistici, flussi di coscienza. Lo scorso 22 febbraio, ChatGPT, per cui non servono più presentazioni, si è cimentato in una serie di esercizi letterari alla Joyce, degni dei lettori più appassionati dell’Ulisse. Il chatbot, a cui generalmente ci si rivolge per le task più svariate, a partire dai riassunti fino al cantautorato (scrive anche canzoni) per i nostalgici sanremesi, non avrebbe certamente passato la temuta prova INVALSI d’italiano. Il problema di debug è stato risolto velocemente dall’azienda. OpenAI ha giustificato il malfunzionamento del sistema con l’avvio di una procedura di ottimizzazione, e l’ha risolto con un aggiornamento, ma il fatto resta. Cosa ci insegnano le allucinazioni linguistiche di ChatGPT? Che ad oggi non possiamo smettere di studiare grammatica, lessico e sintassi. Corretto, ma riduttivo. Che dietro alla schermata di default, con banner e tendine, c’è un sistema molto più complesso, frastagliato, fatto di aggiornamenti e ottimizzazioni, dataset, e procedimenti statistici.

Leggi anche:
Giornalismo e IA: sfide etiche, sociali e politiche

Sarebbe intellettualmente disonesto ridurre ChatGPT ad un pappagallo stocastico, ma non lo si può certamente equiparare, fuor di metafora, al genio di Joyce. Ma questo che significa?

ChatGPT produce contenuti sulla base di un’architettura software e hardware molto complessa, che vale milioni. Si tratta di un large language model, che non comprende il linguaggio, ma che sulla base del deep learning ci risponde per completamento, scandagliando semanticamente un’enorme quantità di informazioni in frazioni di secondo. Questo per sottolineare, al di là dei tecnicismi, che ciò vediamo interagendo con il chatbot non è che la punta dell’iceberg. La massa non sta in superficie.

L’IA dentro la società

Ogni volta che si riflette di IA bisogna ricordarsi di guardare sia a monte che a valle. Quali sono gli attori politici ed economici che ne gestiscono produzione, implementazione e distribuzione? Quali sono le sue implicazioni sociali ed etiche?

I chatbot non sono oracoli. Dobbiamo conoscerne l’architettura e non dismettere mai abiti di sorveglianza. L’oracolo di Delfi prescriveva di «conoscere noi stessi»: se l’introspezione è troppa ardua, quantomeno “conosciamo ciò che facciamo, e ciò che usiamo“.

Leggi anche:
I rischi dell’AI: da un futuro apocalittico a un presente incerto

Non abbiamo grandi editori alle spalle. Gli unici nostri padroni sono i lettori. Sostieni la cultura giovane, libera e indipendente: iscriviti al FR Club!

Segui Frammenti Rivista anche su Facebook e Instagram, e iscriviti alla nostra newsletter!

Alexia Buondioli

Laureata in Filosofia Teoretica ed iscritta alla magistrale di Scienze Filosofiche presso Unimi, individuo nella scrittura e nel viaggio le mie frontiere esistenziali. Mi nutro di attività sportiva, relazioni interpersonali e caos creativo.

Lascia un commento

Your email address will not be published.

Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.