Perché è inutile iniettare la IA nella scuola

   Invia l'articolo in formato PDF   
image_pdfimage_print

di Rodolfo Marchisio

Come succede da decenni, per tutti i fenomeni di moda e spinti dal marketing nel campo delle tecnologie (spesso non più o non ancora vendibili sul mercato), si vuole introdurre la IA nella scuola a livello di aggiornamento e promessa innovazione nel campo linguistico, della valutazione, della individualizzazione dell’insegnamento; il ministro di turno avvia iniezioni o sperimentazioni della tecnologia non più/ancora vendibile sul mercato. Per fortuna questa volta timidamente, non come la invasione delle LIM, delle piattaforme, cui ci siamo assuefatti in modo passivo ed anche per responsabilità del Ministero (ad es dalla DaD in poi). Intanto fioriscono e gareggiano corsi che ti spiegano a cosa potrebbero servirti, quali problemi potrebbero risolvere. Nella stabile confusione tra innovazione tecnologica e nuove idee e nuovi investimenti per risolvere i problemi. Nessuno vuol restare indietro, nessuno sa come risolvere i problemi. Ma la tecnologia non è come l’acqua santa: non basta immergervi la scuola per risolvere tutte le sue criticità.

La (o le IA), soprattutto i prodotti e servizi di intelligenza artificiale basta su machine learning, sono a mio avviso:

  • Tecnologia immatura
    1. Tecnologia multiforme ed immatura, che non ha ancora dato esiti convincenti, in particolare nella scuola.
    2. Ancora in fase di sperimentazione – Penge – (beta test: si parla di 10 anni per avere prodotti e servizi diversi e più affidabili, ma probabilmente meno controllabili) in generale e soprattutto nel campo didattico.
    3. In fase di ripensamento visti i risultati contradditori e soprattutto gli alti investimenti che richiede (cosa ne dice Valditara con la sua “cultura del lavoro ed della imprenditoria” che è al centro della Ed. civica?).
    4. L’AI è un fallimento industriale. Non esistono ad oggi applicazioni industriali/aziendali significative dell’AI generativa. Se ne sono accorti i mercati dove la “bolla” speculativa su IA è scoppiata, ha perso soldi ed è in fase di ripensamento.
       La moda ed il marketing prematuro sulla IAG hanno generato aspettative superiori alle reali attività e produzioni del settore e sull’onda anche i mercati avevano investito troppo, Marchisio; “le enormi spese nel campo della IA non sono state fino ad adesso giustificate, viste le applicazioni limitate di questa tecnologia” (analisti JPMorgan). I mercati se ne sono accorti: Nvidia (terza società al mondo per valore) continua a perdere soldi. OPen AI potrebbe perdere 5 miliardi quest’anno: mantenere i suoi prodotti costa troppo (chatGPT costa 700 mila dollari al giorno e non rende altrettanto). La bolla speculativa sta per scoppiare secondo gli esperti.
    5. Quando anche noi ci accorgeremo che si tratta di una bolla gonfiata da moda e marketing superiore ai prodotti ed usi reali?
  • Non è intelligenza nel senso classico, della razionalità.
    1. Basata su un funzionamento statistico e quindi probabilistico non può sostituire un medico o un docente, caso mai affiancarlo fornendo dati non sicuri. Ne vale la pena, per ora anche in casi delicati e difficili, di allievi con difficoltà? Cosa può aggiungere alla valutazione su cui non mancano strumenti e idee, ma capacità di decidere in modo evoluto, voglia di impegnarsi e coerenza; vedi valutazione nella primaria in cui assistiamo ad un incoerente gioco dell’oca (valutazione quantitativa nella primaria da un lato ed obiettivi di lavoro per competenze nelle linee guida Ed Civica 2024) da parte dello stesso ministro.
    2. Ma che c’è dentro l’AI? Niente. Pardon, volevo dire niente di “intelligente”, c’è solo statistica. Sofisticatissima statistica, meravigliose architetture informatiche, trasformatori magici che operano in labirinti di reti neurali. Ma nessun pensiero. Formiconi.
    3. L’AI generativa è generativa ma banale, non creativa! Partendo da un testo ricevuto (input) indovinano (scelgono a caso fra un insieme di parole più probabili) la prossima parola. E così via. Si avvicinano per tentativi, ma non creano niente di definitivo e certo.
    4. Non sappiamo (e non possiamo spiegare agli allievi come funziona) perché sappiamo poco di quello che succede “dentro”. Qui stiamo parlando di servizi che non sono controllabili da chi li usa, e in qualche misura nemmeno da chi li produce. Penge.
    5. Non possiamo controllarla e anche chi la propone ha un controllo per ora limitato destinato a scemare, più il funzionamento diventa complesso (qualcuno ipotizza troppo intelligente). I produttori sono preoccupati di come fare a controllarla (fra 10 anni?) quando sarà, dicono, “più intelligente di noi”. Soluzione proposta: mettere sistemi di IA più vecchi a controllare quelli più evoluti. Vi sembra ragionevole?
    6. Tutto questo incide sui nostri diritti di cittadini di controllare e conoscere, di formarci opinioni in modo libero. Cfr Ed Civica legge 92/19 e linee guida 2024, filone Cittadinanza digitale.
  • Non è sicura
    1. L’AI non può essere utilizzata in applicazioni critiche, dove l’errore non è concesso. Ad esempio nella diagnostica medica ma anche nelle decisioni ed azioni formative in “situazioni difficili.” Tanto meno in campo finanziario o bellico.
    2. L’AI dice bugie …ogni tanto le scappano ma lo fa cercando di non farsi scoprire: circa il 3-5% delle risposte sono “allucinazioni”. L’unica strada sarebbe quindi (dopo avere insegnato a valutare e validare le informazioni che quel prototipo di IA che è Google sforna in pochi secondi; ma quanti insegnanti lo hanno fatto?) allenare il senso critico e la consapevolezza degli studenti su questi “difettucci”. Ma siamo prigionieri della pigrizia e superficialità di voler usare e non chiederci come funziona, che conseguenze ha su noi come persone e sui nostri diritti di cittadini. Anche perché nutrita da lavoratori sottopagati che immettono tutto ciò che c’è in rete che nella maggioranza dei casi non è selezionato né educativo. Come fare la macedonia con la frutta marcia.
  • Non è sostenibile
    1. Riferimento alla Ed Civica filone 2. La IA è antieconomica (si spende di più di quanto si guadagna, cfr.” cultura del lavoro e della imprenditoria” LG 24 filone 2)
    2. Sempre filone 2 l’AI è insostenibile. Nelle previsioni di tutti i maggior attori del settore si parla di centrali nucleari dedicate alla produzione dell’energia richiesta dai prossimi modelli di linguaggio. Consuma troppo e inquina.
  • Non sarà gratuita per sempre
    1. I prodotti attuali sono diffusi gratuitamente perché noi tutti ne facciamo un gigantesco beta-test in attesa di costruire l’ennesimo monopolio. Penge.
  • Per quanto riguarda la scuola:
    1. rimanderei a questa riflessione più articolata
    2. ricorderei che compito della scuola è quello di formare senso critico, capacità di autonomia e comprensione, non quello di insegnare ad usare e basta.
    3. Ricorderei che le sperimentazioni fatte sinora in USA (vedi articolo) ed in Italia si basano su lavoro precario, non pagato e volontario dei docenti. Siamo noi che stiamo fornendo i contenuti e le esperienze alla IA scolastica, che non avremo i soldi, come scuole, di comprare quando il prodotto sarà più presentabile.

Tosolini su Tecnica della scuola giustamente si interroga in merito alla “sperimentazione” in partenza in Italia su due fronti:
a) Come è stato scelto il prodotto da sperimentare in Italia (perché quello: caratteristiche tecniche e pedagogiche);
b) quale metodo garantisce la validità di questo che, per campione e caratteristiche, è più una “esperienza controllata” che una sperimentazione?

Poi interroga Gemini di Google (sempre loro) su cosa sarà Gemini per teenager e cosa potrà servire nella scuola. Le risposte non sono incoraggianti: niente che un insegnante tipo non possa fare (alla fine il teorema di Pitagora). Allora cosa serve? Come aiutante-tutor? Con quali allievi verrà sperimentato? Rimangono due dubbi:
1- che serva a sostituire insegnanti, specie insegnanti di sostegno o impegnati su allievi che necessitano di un aiuto, risparmiando risorse umane per spendere in risorse tecniche.
2- Che sia una comoda scappatoia per quei docenti che cercano di scaricare i casi più difficili. Preoccupante.

Ma insomma, si può sapere perché l’unica domanda dovrebbe essere “come utilizzare in fretta l’intelligenza artificiale nella scuola primaria (in maniera critica bla bla”) e non, prima di tutto, “perché diavolo dovremmo utilizzarla?” e poi, semmai, “quale?” Penge.