Una cosa è sempre più evidente: bisogna urgentemente decostruire la visione “strumentale” dell’IA, che ha un approccio adattivo e subordinante.
Da una parte, infatti, valorizza una visione dei dispositivi fondata sull’ottimizzazione tecnocratica del modello socio-economico in atto, assolutizzandone categorie, obiettivi, compatibilità, principi e così via, che si fondano su competizione e profitto.
Dall’altra illude che sia possibile avere il controllo della situazione, usando in modo manipolatorio il concetto di strumento e dimenticando di conseguenza che i dispositivi hanno complementarità attiva all’agire umano: vincoli, regole di ingaggio, prerequisiti, monitoraggio, feedback, determinazione di modi di procedere e ritmi, fino alla sostituzione.
Il contesto italiano, inoltre, si caratterizza – a differenza della produzione culturale di altri Paesi – per assenza di posizionamento critico, soprattutto nel campo dell’istruzione. Anzi: c’è addirittura chi cerca di rinchiudere anche l’attivismo nel “sapere da scaffale” su cui esercitare il potere classificatorio tipico della sussunzione accademica, categorizzandolo come “etica hard”, contrapposta a una più blanda “etica soft”. (Floridi, 2022 – citato da Panciroli, Rivoltella, 2023).
Per fortuna, fuori dai patri confini è più frequente la vigilanza civile e deontologica, quella che caratterizza ad esempio l’ultimo lavoro di Dan McQuillan, “Resisting AI: An Anti-fascist Approach to Artificial Intelligence”.
Assumendo la definizione di fascismo come “ultranazionalismo palingenetico”, egli mette in evidenza che l’IA può a sua volta funzionare come tecnologia di divisione, perché promossa nelle pratiche e nell’immaginario collettivo come soluzione “neutra” – fondata sui “dati” – della crisi sociale con la conservazione di potere e privilegi dei gruppi dominanti, mediante esclusioni, separazioni e discriminazioni computazionali. Con procedure di calcolo che individuano meritevoli e non meritevoli di residui del welfare, interventi sanitari, concessione di crediti, clemenza giudiziaria, per fare solo alcuni esempi.
Da una parte, soluzionismo ultranazionalista, razzializzante, patriarcale, etero-normato in campo sessuale; dall’altra, soluzionismo tecno-sociale. Entrambi per l’eternizzazione dei rapporti di produzione e di proprietà del sistema capitalista, mediante naturalizzazione e intensificazione delle gerarchie esistenti.
L’IA, insomma, non è fascista di per sé, ma, in virtù della propria architettura, si presta a soluzioni fascistizzanti, autoritarie, azzeranti ogni partecipazione dei cittadini, in nome dell’efficienza della Nazione (o dell’Occidente).
Avere un approccio antifascista, quindi, vuol dire in primo luogo comprendere l’esistenza di un processo di rimozione politico-culturale delle possibili alternative al modello socio-economico capitalistico, in nome dell’innovazione tecnocratica.
McQuillan è netto: di fronte a pandemia, guerra, crisi climatica, finanziarizzazione della vita e indebitamento, dobbiamo invece tornare a immaginare il possibile, piuttosto che calcolare il probabile. Le mega-macchine predittive dell’IA, che si basano su correlazioni statistiche individuate nei dati elaborati, sono infatti – per definizione – destinate a concepire il futuro in continuità con il passato, se non come sua ripetizione.
Scopriamo così un’altra ragione per apprezzare il libro: un riferimento diretto, come metodo di analisi, a Freire, il cui posizionamento rispetto all’esistente era esplicito. Si tratta infatti di recuperare la sua indicazione a pretendere di partecipare, porre collettivamente domande sui problemi comuni e determinare che cosa fare.
“La pedagogia critica è un mezzo per generare nuove conoscenze per affrontare problemi condivisi e, altrettanto importante nel nostro caso, per disimparare modi precedenti di conoscere che inibiscono la possibilità di cambiamento. (…) La pedagogia critica non riguarda solo l’apprendimento di ciò che sta accadendo, ma anche di ciò che non sta accadendo e dovrebbe essere, in modo da poter riformulare i nostri apparati socio-tecnici come rigenerativi e non semplicemente come meccanismi per razionare la scarsità”. [traduzione in proprio].
Per contrastare non solo gli esiti, ma la logica etica e politica dell’apprendimento automatico delegato alla macchina, obiettivo che implica, come nella pedagogia degli oppressi, il rifiuto della separazione tra osservatore e osservato, McQuillan propone di disimparare i modi precedenti di conoscere, che inibiscono le possibilità di cambiamento. E di “pensare con cura”. E così il suo ragionamento arriva a María Puig de la Bellacasa, che sostiene che il concetto di “thinking with care” può contribuire a una visione più inclusiva e responsabile della conoscenza. Esso, infatti, individua e valorizza l’interdipendenza e l’interconnessione dei rapporti che permeano il mondo. Invece di vedere il sapere come qualcosa di distante e astratto, il pensare con cura invita a considerare attentamente l’importanza delle relazioni e delle connessioni tra gli esseri viventi.
E quindi richiede l’impegno per una politica e un’etica della cura che includa tutte le forme di vita e le connessioni, sfidando le concezioni tradizionali della conoscenza come qualcosa di distante e astratto, e promuovendo l’importanza dell’attenta considerazione dei contesti e delle relazioni nel processo di conoscenza.
Pensare con cura diventa insomma un modo per contrapporsi alle forme di conoscenza dominanti che sono spesso basate sulla distinzione tra soggetto e oggetto.
McQuillan ne conclude che il pensare con cura e la pedagogia critica indicano con chiarezza l’alternativa al modello riduzionista su cui si fonda, progredisce e accelera l’intelligenza artificiale, affermando e rivendicando un approccio radicalmente trasformativo, che si allinei con valori più ampi, equità e bene comune.
Curiamo insieme la nostra intelligenza condivisa e relazionale.
Riferimenti bibliografici
Floridi L., “Etica dell’intelligenza artificiale. Sviluppi, opportunità, sfide”, Raffaello Cortina Editore, 2022
McQuillan D., “Resisting AI. An Anti-fascist Approach to Artificial Intelligence”, Bristol University Press, 2022
Panciroli C. – Rivoltella P. C, “Pedagogia algoritmica. Per una riflessione educativa sull’Intelligenza Artificiale”, Scholé
Puig de la Bellacasa M., “Matters of Care: Speculative Ethics in More than Human Worlds”, University of Minnesota Press, 2017