#exlibris, ovvero a proposito dei “pericoli” dell’intelligenza artificiale
È l’ennesima notizia di colore: il guru di turno – Geoffrey Hinton – affida a Twitter la propria consapevolezza sui “”pericoli” dell’intelligenza artificiale e abbandona la propria giostra di comfort (Alphabet, la holding dei servizi di Google).
L’approccio sensazionalistico, del resto, è ormai quasi uno standard, in particolare dopo la serrata di ChatGPT, dai più presentata e interpretata come “blocco del garante”.
Non vi è medium che si sia sottratto a questo approccio.
Ultimo esempio una succulenta puntata di Zarathustra, che ha dedicato ampio e divertito spazio ai furbetti dell’IA come trucco scolastico.
Sono stato per altro coinvolto in prima persona, intervistato da Fahrescuola, di nuovo per Radio 3.
Quale che sia l’incipit, una cosa è certa: prima o poi i conduttori delle trasmissioni o gli autori degli articoli dovranno almeno accennare al rischio del superamento dell’umanità, dell’autonomia decisionale dei dispositivi, della Singolarità prossima ventura.
Questa impostazione, tra il mitologico, il distopico e il romantico, è davvero irrinunciabile.
Ad imporla è il target, un pubblico che i social hanno svezzato nella direzione della polarizzazione, desideroso di posizionarsi a favore o contro in base a slogan, perché lo schieramento e l’identificazione, la contrapposizione senza se e la negazione senza ma delle argomentazioni altrui consentono di interpretare rapidamente, di assegnare senso e significato senza analizzare, senza affrontare la complessità, senza – insomma – capire davvero.
Che è esattamente ciò che fanno dispositivi a cui l’etichetta di “intelligenza” è stata ed è sempre più assegnata come strategia commerciale e (appunto) per comprovata efficacia sul mercato dell’attenzione mediatica.
Lo spiega molto bene la numerosissima, curata e coinvolgente saggistica di merito, che voglio ostinarmi a credere possa interessare ancora qualcuno.
Mi riferisco per esempio al concetto di comunicazione artificiale di Elena Esposito, davvero illuminante: “Se si guarda come lavorano i recenti algoritmi si vede che l’intelligenza non è il punto né lo scopo. Le macchine riescono a fare cose strabilianti non perché sono finalmente diventate intelligenti, ma paradossalmente proprio perché non cercano più di esserlo – fanno qualcos’altro. Si potrebbe dire che i progressi che osserviamo oggi non segnano il trionfo dell’Intelligenza artificiale, ma in pratica l’abbandono del progetto che ci stava dietro (…) Un esempio evidente, e spesso discusso, sono i programmi di traduzione automatica, che oggi funzionano molto bene – da quando i programmatori hanno smesso di cercare di insegnare agli algoritmi le diverse lingue e le loro regole. (…) Usando machine learning e Big Data si limitano a trovare dei pattern e delle regolarità in enormi quantità di testi nelle lingue trattate (per esempio i materiali multilingua della Commissione europea), e li usano per produrre dei testi che risultano sensati – per le persone che li leggono. Non per gli algoritmi, che non li capiscono, come non capiscono niente dei contenuti che trattano, e non ne hanno bisogno”.
Oppure all’intelligenza non antropocentrica di Nello Cristianini: il comportamento di un agente, cioè di qualsiasi sistema in grado di agire nel proprio ambiente, anche in situazione nuove e in presenza di contromisure, usando informazioni sensoriali per prendere decisioni efficaci in funzione di obiettivi. Titolo e sottotitolo del libro da cui ho tratto la definizione sintetizzano infatti una tesi assai chiarificatrice: “La scorciatoia. Come le macchine sono diventate intelligenti senza pensare in modo umano”. E spostano l’attenzione su natura e struttura degli ambienti e valenza e direzione degli obiettivi. Senza etica, l’efficienza rischia di essere un disvalore.
Né possiamo dimenticare l’inganno benevolo di Simone Natale, che ci ricorda che fin dal test di Turing l’obiettivo era imitare le prestazioni umane e non i processi ad esse sottesi.
Chi approcciasse questi testi, apprezzerebbe – oltre all’occasione di comprendere senza dover aderire, potendo e preferendo anzi costruirsi una propria opinione articolata e fondata su più punti di vista – l’approccio transdisciplinare.
Scevri da sudditanze tecnocratiche, tutti questi lavori, così come molti altri, propongono piuttosto rigeneranti escursioni intellettuali tra diritto e statistica, ingegneria e psicologia, sociologia e matematica applicata, economia e biologia e così via.
Il tutto con una forte venatura politica, dal momento che il focus del problema è un processo in atto da tempo: la progressiva appropriazione della conoscenza collettiva e, più in generale, della sfera pubblica, da parte delle mega-macchine del capitalismo cibernetico, il solo soggetto che ha in Occidente la potenza di calcolo e la base infrastrutturale che sono essenziali per l’estrazione e l’elaborazione dei dati necessari a individuare i pattern che costituiscono il materiale e i risultati del deep learning.