Formare gli insegnanti (e più in generale il personale scolastico) all’Intelligenza Artificiale? Sono pienamente d’accordo: penso infatti che affrontare in modo critico questo tema sia una priorità assoluta per chi voglia adottare un approccio davvero emancipante ai dispositivi digitali, dal punto di vista sia operativo sia culturale. A patto, però, che si abbandoni il dibattito così come si configura attualmente, disperso tra sensazionalismo mediatico e escursioni empiriche, tra entusiasmo tecnofilo e rifiuto pregiudizievole, e imperniato sulla convinzione che ciò che conta sia capire – e giudicare – il funzionamento di superficie dei chatbot, dei traduttori automatici, dei ri-produttori di immagini, delle applicazioni per la realizzazione semi-istantanea di “mappe” a partire da testi. Per capire davvero quali possano essere le possibilità di arricchimento professionale e quali le opportunità di espansione, consolidamento, compensazione e mantenimento nel tempo di capacità di apprendimento e a quali condizioni ciò possa avvenire, è necessario invece decostruire i concetti che attualmente vanno per la maggiore, esito di marketing economico e veicolo di dominio lessicale. In primo luogo, proprio il riferimento all’intelligenza: va ricordato e compreso infatti che fin dal modo in cui fu concepito il test di Turing i dispositivi di AI hanno il compito di compiere prestazioni finalizzate a obiettivi definiti, con risultati paragonabili a quelli umani. E questo avviene mediante la raccolta e l’analisi di dataset, l’individuazione di correlazioni, la costruzione di modelli e la loro riproduzione.
È il caso, ad esempio, dei dispositivi come Google translate, che traducono dall’una all’altra lingua senza comprendere nulla di quanto vanno elaborando, ovvero sulla base di rapporti statistici tra le parole e di tabelle di corrispondenza e non in funzione della relazione semantica tra idee, nozioni, concetti e così via. E questo è il paradigma vincente: fare senza capire. Un’altra condizione per una visione emancipante è la consapevolezza che può accedere a dataset significativi solo chi possiede moltissimi dati, così come può computare e costruire modelli pregnanti solo chi dispone di potenza di calcolo adeguata, ovvero le grandi corporation del capitalismo cibernetico. Così come va compreso fino in fondo che l’allenamento dei dispositivi non avviene in campo neutro. Esso, infatti, altro non è che la captazione in tempo reale dell’intelligenza collettiva condivisa sulla rete internet: questo aspetto pone non tanto il problema di riconoscimento dell’autorialità e dei conseguenti diritti, quanto piuttosto quello dello scambio ineguale tra coloro che contribuiscono alla costruzione di palestre per l’allenamento di macchine rivolte alla privatizzazione della conoscenza a scopo di profitto – a cui partecipano a pieno titolo anche coloro che si prestano al beta-testing delle varie applicazioni, permettendone il raffinamento – e i loro proprietari. Insomma: ben venga una formazione alla cittadinanza, che restituisca alla sfera pubblica spazio e importanza. Magari arrivando a rivendicare la trasparenza dei “corpora” digitali raccolti, impiegati, analizzati, classificati, modellizzati e – come già sottolineato – riprodotti ad imitazione delle performance umane oggetto di addestramento e allenamento.