fbpx
giornalismo ia intelligenza artificiale

Giornalismo e IA: sfide etiche, sociali e politiche

L'applicazione dell'intelligenza artificiale generativa al giornalismo pone sfide etiche, sociali e politiche complesse. A che punto siamo?

7 minuti di lettura

In questi anni l’intelligenza artificiale ha assunto una straordinaria velocità. L’IA generativa, in particolare, ha assunto un rilievo straordinario di fronte a uno sviluppo senza precedenti. 

Con queste parole, il presidente dell’ANSA (Agenzia Nazionale Stampa Associata) Giulio Anselmi ha avviato la quinta edizione del convegno annuale (novembre 2023) dedicato all’Intelligenza Artificiale (IA), intitolato “La Fabbrica della Realtà – Giornalismo e informazione nell’era dell’IA generativa”.

Ma cos’è cos’è l’IA generativa e quali sono le sue applicazioni al Giornalismo? Si partirà da qui per cercare di comprendere da un lato la complessità delle sfide etiche, sociali e politiche implicate in questa svolta, e dall’altro fare un punto rispetto al quadro normativo europeo e italiano in via definizione.

L’IA generativa: definizione e applicazioni al giornalismo

L’IA generativa è un tipo di intelligenza artificiale in grado di generare testi, audio, video e immagini in risposta a specifiche richieste (prompt), sfruttando complessi modelli statistici, che producono dati a partire da una banca dati di addestramento.

In campo giornalistico, le sue applicazioni sono diversificate e si concentrano soprattutto intorno alla raccolta, creazione e distribuzione di contenuti, all’analisi dei dati e alla raccolta di insights, all’automazione di alcune attività per velocizzare i flussi delle redazioni (trascrizione, traduzione, verifica, raccomandazione di contenuti), e alla gestione dei rapporti con gli utenti (profilazione, personalizzazione dell’esperienza, profilazione, interazione, il cosiddetto audience engagement).

Come attesta il Report 2023, Osservatorio sul Giornalismo Digitale, stilato dal Consiglio Generale dell’Ordine dei Giornalisti, l’IA generativa è ampiamente impiegata nel settore, seppure in misura disomogenea su scala globale.

Leggi anche:
L’utilizzo dell’intelligenza artificiale per scrivere articoli: una pratica sempre più diffusa

Come si legge nelle conclusioni del Report, se in alcuni luoghi, come la Corea del Sud si clonano i conduttori televisivi più amati (Deep Brain AI) e in altri, come gli Stati Uniti, alcuni giornali usano gli algoritmi per decidere quando è il momento di far pagare gli articoli a un lettore (The Wall Street Journal) e per prevedere quali emozioni susciterà un articolo (The New York Times), le redazioni italiane si muovono più a rilento, e la sperimentazione (limitata per esempio a micro-testi semi-automatizzati, CMS intelligenti ed esperienze personalizzate) riguarda per lo più le grandi realtà, e non le piccole e medie imprese.

Giornalismo e IA: nodi e criticità

Ma quali sono i nodi e le criticità principali intorno a cui “si gioca la partita” del giornalismo nell’era dell’IA? Privacy, sicurezza dei dati e rispetto del copyright sono alcune delle questioni sensibili indicate come prioritarie dal presidente Anselmi, durante il convegno Ansa citato in precedenza..

L’IA va usata in modo responsabile e etico, per contenere le minacce sul terreno della privacy, della sicurezza dei dati e del rispetto del copyright.

Esaminando la cronaca più recente, il tema copyright ha canalizzato l’attenzione dell’opinione pubblica proprio al termine dello scorso dicembre, quando in seguito alla causa legale avviata dal New York Times (NYT) contro OpenAI e Microsoft per violazione del diritto d’autore, si è rinnovata la preoccupazione che i sistema di intelligenza artificiale possano consolidarsi come competitors delle testate editoriali con conseguenti costi economici e sociali.

Dal punto di vista professionale, è evidente che una delle questioni fondamentali da porre sia quella della trasformazione radicale del mondo del lavoro e del concetto di lavoro stesso, in questo caso specifico, della professione giornalistica. In prospettiva i giornalisti verranno sostituiti dall’IA per ridurre i costi? è possibile investire su una logica di collaborazione? Come cambierà la professione del giornalista? Chi guiderà questi processi? Queste sono alcuni dei nodi fondamentali, che dovranno essere affrontati sul piano istituzionale e deontologico.

Una sfida sociale e politica: il progetto Solaris e il caso deep-fake

Temi da sempre fondamentali per il giornalismo, come credibilità, trasparenza, fonte dati e diversificazione dei contenuti devono essere oggi posti al centro di ogni dibattito etico-deontologico relativo all’utilizzo dell’IA generativa nel campo dell’informazione. Tra i rischi maggiori derivanti dall’utilizzo non etico dell’IA generativa si evidenziano infatti la diffusione di deep-fake (immagini o video falsi che simulano eventi reali con estrema precisione) e pregiudizi, la crescita della disinformazione e del disimpegno democratico, come sottolineato dai ricercatori del progetto di ricerca europeo SOLARIS, dedicato allo studio delle minacce e delle opportunità rappresentate dall’IA generativa per la democrazia, politica e cittadinanza digitale.

Leggi anche:
I rischi dell’AI: da un futuro apocalittico a un presente incerto

Giornalismo e IA: etica e normative

Il resoconto del Global Risks Perception Survey 2023-2024 del World Economic Forum, per cui misinformazione e disinformazione, implementate sfruttando malevolmente l‘IA, potrebbero produrre i rischi globali maggiori nei prossimi due anni – non che fa che confermare l‘imperativo di una regolamentazione organica intorno all’uso etico dell’IA in ambito giornalistico a garanzia di un’informazione libera e indipendente.

Se poche settimane dall’approvazione definita della nuova legge europea sull’IA – IA ACT, le incertezze e le contraddizioni non sembrano diminuire, dall’altra parte trasparenza e responsabilità nell’utilizzo dell’IA sono criteri inamovibili. Resta inoltre fondamentale comprendere, sia ai piani alti, che tra gli addetti ai lavori e i lettori, che ogni volta che si parla di IA:

L’intelligenza artificiale non è un semplice problema tecnologico – spiega – ma piuttosto un problema sociale ricco di sfumature e per risolverlo abbiamo bisogno di un dibattito e di una discussione pubblica più articolati. Tra i tanti progetti di ricerca, Solaris sta cercando di contribuire a questa discussione sviluppando una comprensione più dettagliata dell’IA generativa che comprenda i vari fattori sociali, culturali e politici in gioco

Andrew McIntyre ricercatore post-dottorato presso l’Università di Amsterdam (UvA) e membro del Progetto SOLARIS

Leggi anche:
L’intelligenza artificiale presuppone l’essere umani | Bar Europa

Non abbiamo grandi editori alle spalle. Gli unici nostri padroni sono i lettori. Sostieni la cultura giovane, libera e indipendente: iscriviti al FR Club!

Segui Frammenti Rivista anche su Facebook e Instagram, e iscriviti alla nostra newsletter!

Alexia Buondioli

Laureata in Filosofia Teoretica ed iscritta alla magistrale di Scienze Filosofiche presso Unimi, individuo nella scrittura e nel viaggio le mie frontiere esistenziali. Mi nutro di attività sportiva, relazioni interpersonali e caos creativo.

Lascia un commento

Your email address will not be published.

Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.