Intelligenza artificiale e/a scuola: questioni aperte e qualche conclusione (provvisoria)

di Rodolfo Marchisio

Due aneddoti

  • Mentre organizzavamo For Tic 1 con USR Piemonte e Unito, con M. Guastavigna, un assistente di Luciano Gallino tutto “goduto” ci ha mostrato un suo software che somministrava le prove, le correggeva, attribuiva i voti e inviava in automatico una mail agli allievi. Domanda: “se fa tutto il software, tu coi tuoi allievi quando ci parli?”
  • Ricordate il colonnello russo che contro ogni evidenza che proveniva dalle sue tecnologie (5 missili nucleari in arrivo dagli USA) ha preso tempo ed evitato di far partire la prima guerra nucleare?
    Ci ha salvato. È stato lodato e poi è sparito.

“Prima di usare tecnologie molto potenti, prima addirittura di ipotizzare per cosa usarle, bisogna anzitutto conoscere questi strumenti. Capire come funzionano, quali sono le loro potenzialità e (soprattutto) quali sono i loro limiti. Ma anche evitare di considerarli una scatola nera che processa chissà come input e restituisce magicamente output da applicare a occhi chiusi.” (Soro)

Soro e Rodotà
 “Tutto quello che è tecnicamente possibile è anche eticamente lecito, politicamente e socialmente accettabile, giuridicamente ammissibile?” (Rodotà)

L’algoritmo non è infallibile né neutro. Si tratta di opinioni umane strutturate in forma matematica. L’uomo ha (deve avere) la possibilità di intervenire in qualsiasi momento dei processi decisionali. (Soro)
Senza regole la società (l’ambiente) digitale rischia di divenire la società della schedatura, la rete, da straordinaria risorsa democratica, può diventare strumento di sorveglianza globale da parte dei grandi poteri economici” Rodotà.  Schiavitù volontarie o passive, disinformazione e post verità.
L’IA dà un grande potere a chi la gestisce. Quante delle nostre decisioni come cittadini sono sempre più condizionate: dagli acquisti, ai gusti, alle idee, al nostro stanco diritto di votare influenzato dalle Fake? I GAFAM e soci da servizi di informazione e comunicazione tendono a gestire anche servizi ed attività sociali, sanità, istruzione, servizi ai cittadini.

Si indebolisce la capacità di conoscere i fenomeni e governarli, di intervenire a vantaggio della comunità. (Soro).
Il pericolo del passato era che gli uomini divenissero schiavi, quello del presente è che diventino robot che vivono in bolle tra uguali “selezionati” da algoritmi, coi loro pregiudizi; intolleranti verso le differenze ed il pluralismo: tribù dei social asservite a badanti “Intelligenti”.
Il focus non è cosa fare o far fare alle tecnologie, ma cosa queste possono fare all’uomo (Soro, Turkle)

I fabbricanti di IA si interrogano già su come faranno a controllarla (loro figuriamoci noi) quando sarà più intelligente degli uomini e di loro; la risposta è farla controllare da forme di IA meno evolute. Ha senso?

“Occorre una etica dell’algoritmo e protezione dei dati. Internet da strumento è oggi dimensione, ambiente, ecosistema in cui viviamo; alla IA si delegano decisioni su lavoro, salute, ricerca, giustizia.
Aumenta sempre più ciò che la rete sa di noi e che noi non sappiamo ancora.
Dimostrato che gli algoritmi non sono matematica pura (infallibili e neutri), ma opinioni umane potenziate e implementate, il rischio è che i nostri pregiudizi ed errori siano amplificati dalla IA” (razzismo, discriminazione…). (Soro).
 Il passato (di cui si nutre l’IA) non va cristallizzato nel futuro, l’ultima parola deve aspettare all’uomo. Anche perché il 95% di chi usa la rete si concentra solo sullo 0,03% dei contenuti, quelli suggeriti dalle piattaforme.
La disintermediazione non deve diventare una delega in bianco ai potenti. (Soro).

IA e/a scuola
Le competenze digitali, non si possono ridurre a degli insegnamenti funzionali a singoli compiti, ma necessitano di una costante contestualizzazione culturale, politica e sociale
“L’intelligenza artificiale generativa può rappresentare un’enorme opportunità per lo sviluppo umano, ma può anche causare danni e pregiudizi – Audrey Azoulay dell’Unesco – Non può essere integrata nell’istruzione senza l’impegno pubblico e le necessarie garanzie e normative da parte dei governi”. La via che tenta l’UE.

Gli attuali esempi di intelligenza artificiale sono intrisi di un tipo di politica che applica soluzioni tecniche e di mercato a tutti i problemi sociali. Più prosaicamente, è possibile che l’intelligenza artificiale riproduca gli aspetti peggiori dell’istruzione scolastica: il saggio standardizzato è già fortemente vincolato dalle esigenze dei regimi di valutazione, e i modelli linguistici tendono a riprodurlo nel formato e nel contenuto.” Soro.

Burrell e Fourcade hanno distinto tra “l’élite del coding”, una nuova classe professionale di competenze tecniche e una forza lavoro recentemente emarginata o non retribuita, il “cybertariat”, da cui estrarre manodopera. Gli ingegneri e i dirigenti della Khan Academy sono una nuova élite di sviluppo dell’intelligenza artificiale nel campo dell’istruzione, che sfrutta il lavoro degli insegnanti e degli studenti del cybertariato in classe. (Khanmigo).
Richiede lavoro aggiuntivo non retribuito da parte degli insegnanti e ne estrae valore.
Infine l’intelligenza artificiale potrebbe, a lungo termine, esercitare un’ulteriore pressione degenerativa sulle pratiche e sulle relazioni in classe già ampiamente in crisi.

Alcune conclusioni

Sebbene gli agenti di IA siano in grado di ragionare su problemi molto complessi, non pensano nel modo in cui lo fa l’uomo. L’intelligenza artificiale può avere impatti sia positivi che negativi sulla società. (AI4K12.org)
Allora posto che:

  • Usare il digitale senza una cultura non solo è pericoloso ma è diseducativo
  • Non abbiamo bisogno di più “strumenti o più effetti speciali” (da Buona scuola a Scuola 4.0) ma di migliori cittadini e maggiore cultura della rete.
  • La scuola, i docenti, gli adulti devono essere in grado di dare un senso critico a ciò che i ragazzi fanno con la rete, a fare esperienze significative insieme: a costruire una cultura digitale.
  • Non è utile dividersi (favorevoli/contrari), ma conoscere di più (ricerca) per capire meglio. (Losito)
     (Però se per una volta lasciassimo in pace la scuola che deve ancora digerire il PNRR?)

 Preso atto che il capitalismo si ripete, si potenzia con la rete, rifiuta le regole e la democrazia[1] mi preoccupa la passività, il sonno, degli utenti/consum-attori più ancora che i “pericoli” delle supertecnologie in mani private.
Mi preoccupa vedere e rivivere sempre le stesse cose ad ogni apparire di novità
(o moda) tecnologica.
Papert pensava ad un metodo attivo. Anche per risolvere problemi di cittadinanza e formare cultura. Facciamo esperienze – coi più grandigiochiamo coi nuovi giocattoli per capire come funzionano, ma insegniamo soprattutto cosa c’è dietro ed in che mondo web viviamo con IA.
Ed impariamo a fare buone domande per avere risposte utili.

In sintesi dobbiamo decidere se l’IA debba essere un alleato, un assistente o un nuovo modo di dominarci.
Usare o parlare di IA per usare e non farsi usare. A che età e come?
Ecco i consigli della Commissione europea.

[1] Srinivasan ha pubblicato un intero libro, scaricabile gratuitamente, sul tema dei “network states”. L’idea di base è quella di creare reti di persone connesse via internet che nel tempo sviluppino un legame economico, politico e valoriale tale da identificarsi come gruppo nazionale. Il concetto di “network state” si basa su una democrazia “decentralizzata”, nella quale le persone avranno la possibilità di votare direttamente sulle questioni che le riguardano. I servizi essenziali come la salute, l’educazione e la cura saranno distribuiti attraverso la rete. Un “network state” avrà la capacità di riunire diverse comunità offline in una grande nazione del web. Alla fine, scrive Srinivasan nel suo e-book “possiamo ricucire digitalmente queste enclavi disgiunte in un nuovo tipo di entità politica che possa ottenere un riconoscimento diplomatico”. Si creeranno stati come si creano startup.
I “network states” sono essenzialmente società parallele, gestite tramite la rete, libere dalle pastoie regolatorie degli stati, delle banche centrali, delle burocrazie. Insomma, si potrebbe aggiungere, anche dalle noiose società democratiche
. (Wired WAR)