È IA? È IA! Ah, là, là…

   Invia l'articolo in formato PDF   
image_pdfimage_print

di Marco Guastavigna

Mi capita sotto gli occhi una proposta di legge di iniziativa dei Deputati Cavo, Bicchielli, Cesa, Romano, Semenzato, Tirelli che mi ha costretto a riflettere.
Il tema, infatti, è quanto mai attuale: la riconoscibilità dei prodotti frutto di sistemi di intelligenza artificiale.

Le formulazioni adottate nella relazione di accompagnamento ingenerano però disperazione – siamo di fronte ai soggetti detentori (si fa per dire) del potere legislativo – per la loro imprecisione: sembrano attingere tutte al peggior senso comune, quello di chi per più di un anno si è accontentato di leggere e/o ascoltare i titoli sensazionalistici dei mass media.

Immagine realizzata con Microsoft Copilot Pro

 

 

 

 

 

 

 

A voler essere precisi, infatti, stiamo parlando di intelligenza artificiale generativa: è questa, infatti, la matrice operativa dei dispositivi in grado di produrre o modificare i contenuti di cui il testo di legge lamenta la non immediata identificabilità. E questo tipo di AI non simula “i processi dell’intelligenza umana”, ma gli esiti.
Ad essere plausibili devono essere i testi, le immagini e quant’altro, non gli sviluppi interni della macchina statistico-predittiva: interessano infatti come risultato, come testimonianza di una prestazione computazionale efficiente.

L’obiettivo individuato e denunciato come “ultimo” – creare [sic! un po’ di misticismo accresce l’allarme, NDR] computer in grado di pensare e agire come esseri umani – testimonia forse appassionata fruizione di romanzi e film di fantascienza, non certo attenzione all’effettivo andamento della realtà che si dovrebbe pretendere da chi ha responsabilità politiche e rappresenta la Nazione.

Il dispositivo normativo prevede una sanzione amministrativa pecuniaria, “da 30.000 euro a 600.000 euro, ovvero fino all’uno per cento del fatturato annuo, quando il valore di tale percentuale è superiore a 600.000 euro del fatturato realizzato nell’ultimo esercizio chiuso anteriormente alla notifica della contestazione”

  • per i “soggetti responsabili della pubblicazione e della diffusione dei contenuti prodotti mediante sistemi di intelligenza artificiale” che non abbiano fornito “all’inizio e alla fine del contenuto, un’etichetta e un avviso visibili e facilmente comprensibili agli utenti;
  • per i “fornitori dei contenuti editoriali creati tramite l’utilizzo di software di intelligenza artificiale” che non abbiano redatto, “altresì, la documentazione relativa al prodotto prima che lo stesso sia immesso sul mercato”, da consegnarsi, se richiesta, all’autorità nazionale competente, l’AGCOM.

Ad essere davvero intellettualmente onesti, va riconosciuto che immaginare di risolvere un problema etico e deontologico con ammende e con spirito punitivo è assolutamente coerente con il riferimento diretto alla mercificazione dei “contenuti”. Essi sono concepiti infatti come oggetto di compravendita e l’eventuale mancata dichiarazione di autorialità artificiale si traduce in una loro indebita valorizzazione in termini monetari.
La difesa della cultura come patrimonio collettivo, come bene comune, non c’entra nulla.

Del resto, questo aspetto della questione è molto complesso. Nessuna elaborazione culturale – nemmeno la più “creativa” – è priva di rapporti, correlazioni, confronti e così via con altre precedenti e contemporanee. Tanto è vero che vi sono degli strumenti appositi per rendere espliciti e trasparenti questi intrecci: note, citazioni, bibliografie, link. Non è un caso che accanto al classico copyright, che protegge soprattutto i diritti economici degli editori, si siano collocate le Creative Commons Licenses, tutte vincolanti all’indicazione dell’autorialità. Questo obbligo tutela infatti nelle due direzioni, perché la riconoscibilità di chi ha realizzato l’opera culturale garantisce anche i suoi utenti, in termini di attendibilità e di qualità.

Torniamo ora ai dispositivi di intelligenza artificiale generativa: la gran parte si presenta come “assistente”, dichiara la propria fallibilità, invita a fare verifiche sui risultati. Molti degli ambienti text2image, in più, rilasciano le immagini marcando il nome del file in modo da renderne chiara la provenienza.
Vediamo quindi di capire meglio in cosa consiste un eventuale uso truffaldino. Allo stato attuale delle autentiche – ovvero, non di quelle mitizzate ma inesistenti – capacità operative degli assistenti di AI generativa, deve verificarsi da parte umana, mediante omissione, un’auto-attribuzione non solo del prompt (lo stimolo iniziale, senza il quale tendenzialmente non succede nulla) – e della conversazione con il dispositivo (il che è del tutto legittimo da ogni punto di vista, tanto che c’è chi sostiene che il prompt engineering è una competenza della modernità), ma anche dell’esito finale (testo, immagine, video e così via). E questo è un modo di agire intenzionale, frutto di una scelta ben precisa, totalmente ascrivibile, appunto, agli esseri umani.
Ne consegue che ipotizzare che la possibile mancanza di riconoscibilità sia un problema emergente al punto di rendere necessaria una politica repressiva significa estendere a tutte le classi di età la volontà di “copiare” che molti individuano come bussola etica adolescenziale. Siamo sicuri che sia così?

Per approfondire

  1. Aliprandi, L’autore artificiale. Creatività e proprietà intellettuale nell’era dell’AI, Ledizioni, Milano 2023  
  2. Chimienti, Diritto d’autore 4.0. L’intelligenza artificiale crea?, Pacini Editore, Pisa 2020