Perché è inutile iniettare la IA nella scuola

di Rodolfo Marchisio

Come succede da decenni, per tutti i fenomeni di moda e spinti dal marketing nel campo delle tecnologie (spesso non più o non ancora vendibili sul mercato), si vuole introdurre la IA nella scuola a livello di aggiornamento e promessa innovazione nel campo linguistico, della valutazione, della individualizzazione dell’insegnamento; il ministro di turno avvia iniezioni o sperimentazioni della tecnologia non più/ancora vendibile sul mercato. Per fortuna questa volta timidamente, non come la invasione delle LIM, delle piattaforme, cui ci siamo assuefatti in modo passivo ed anche per responsabilità del Ministero (ad es dalla DaD in poi). Intanto fioriscono e gareggiano corsi che ti spiegano a cosa potrebbero servirti, quali problemi potrebbero risolvere. Nella stabile confusione tra innovazione tecnologica e nuove idee e nuovi investimenti per risolvere i problemi. Nessuno vuol restare indietro, nessuno sa come risolvere i problemi. Ma la tecnologia non è come l’acqua santa: non basta immergervi la scuola per risolvere tutte le sue criticità.

La (o le IA), soprattutto i prodotti e servizi di intelligenza artificiale basta su machine learning, sono a mio avviso:

  • Tecnologia immatura
    1. Tecnologia multiforme ed immatura, che non ha ancora dato esiti convincenti, in particolare nella scuola.
    2. Ancora in fase di sperimentazione – Penge – (beta test: si parla di 10 anni per avere prodotti e servizi diversi e più affidabili, ma probabilmente meno controllabili) in generale e soprattutto nel campo didattico.
    3. In fase di ripensamento visti i risultati contradditori e soprattutto gli alti investimenti che richiede (cosa ne dice Valditara con la sua “cultura del lavoro ed della imprenditoria” che è al centro della Ed. civica?).
    4. L’AI è un fallimento industriale. Non esistono ad oggi applicazioni industriali/aziendali significative dell’AI generativa. Se ne sono accorti i mercati dove la “bolla” speculativa su IA è scoppiata, ha perso soldi ed è in fase di ripensamento.
       La moda ed il marketing prematuro sulla IAG hanno generato aspettative superiori alle reali attività e produzioni del settore e sull’onda anche i mercati avevano investito troppo, Marchisio; “le enormi spese nel campo della IA non sono state fino ad adesso giustificate, viste le applicazioni limitate di questa tecnologia” (analisti JPMorgan). I mercati se ne sono accorti: Nvidia (terza società al mondo per valore) continua a perdere soldi. OPen AI potrebbe perdere 5 miliardi quest’anno: mantenere i suoi prodotti costa troppo (chatGPT costa 700 mila dollari al giorno e non rende altrettanto). La bolla speculativa sta per scoppiare secondo gli esperti.
    5. Quando anche noi ci accorgeremo che si tratta di una bolla gonfiata da moda e marketing superiore ai prodotti ed usi reali?
  • Non è intelligenza nel senso classico, della razionalità.
    1. Basata su un funzionamento statistico e quindi probabilistico non può sostituire un medico o un docente, caso mai affiancarlo fornendo dati non sicuri. Ne vale la pena, per ora anche in casi delicati e difficili, di allievi con difficoltà? Cosa può aggiungere alla valutazione su cui non mancano strumenti e idee, ma capacità di decidere in modo evoluto, voglia di impegnarsi e coerenza; vedi valutazione nella primaria in cui assistiamo ad un incoerente gioco dell’oca (valutazione quantitativa nella primaria da un lato ed obiettivi di lavoro per competenze nelle linee guida Ed Civica 2024) da parte dello stesso ministro.
    2. Ma che c’è dentro l’AI? Niente. Pardon, volevo dire niente di “intelligente”, c’è solo statistica. Sofisticatissima statistica, meravigliose architetture informatiche, trasformatori magici che operano in labirinti di reti neurali. Ma nessun pensiero. Formiconi.
    3. L’AI generativa è generativa ma banale, non creativa! Partendo da un testo ricevuto (input) indovinano (scelgono a caso fra un insieme di parole più probabili) la prossima parola. E così via. Si avvicinano per tentativi, ma non creano niente di definitivo e certo.
    4. Non sappiamo (e non possiamo spiegare agli allievi come funziona) perché sappiamo poco di quello che succede “dentro”. Qui stiamo parlando di servizi che non sono controllabili da chi li usa, e in qualche misura nemmeno da chi li produce. Penge.
    5. Non possiamo controllarla e anche chi la propone ha un controllo per ora limitato destinato a scemare, più il funzionamento diventa complesso (qualcuno ipotizza troppo intelligente). I produttori sono preoccupati di come fare a controllarla (fra 10 anni?) quando sarà, dicono, “più intelligente di noi”. Soluzione proposta: mettere sistemi di IA più vecchi a controllare quelli più evoluti. Vi sembra ragionevole?
    6. Tutto questo incide sui nostri diritti di cittadini di controllare e conoscere, di formarci opinioni in modo libero. Cfr Ed Civica legge 92/19 e linee guida 2024, filone Cittadinanza digitale.
  • Non è sicura
    1. L’AI non può essere utilizzata in applicazioni critiche, dove l’errore non è concesso. Ad esempio nella diagnostica medica ma anche nelle decisioni ed azioni formative in “situazioni difficili.” Tanto meno in campo finanziario o bellico.
    2. L’AI dice bugie …ogni tanto le scappano ma lo fa cercando di non farsi scoprire: circa il 3-5% delle risposte sono “allucinazioni”. L’unica strada sarebbe quindi (dopo avere insegnato a valutare e validare le informazioni che quel prototipo di IA che è Google sforna in pochi secondi; ma quanti insegnanti lo hanno fatto?) allenare il senso critico e la consapevolezza degli studenti su questi “difettucci”. Ma siamo prigionieri della pigrizia e superficialità di voler usare e non chiederci come funziona, che conseguenze ha su noi come persone e sui nostri diritti di cittadini. Anche perché nutrita da lavoratori sottopagati che immettono tutto ciò che c’è in rete che nella maggioranza dei casi non è selezionato né educativo. Come fare la macedonia con la frutta marcia.
  • Non è sostenibile
    1. Riferimento alla Ed Civica filone 2. La IA è antieconomica (si spende di più di quanto si guadagna, cfr.” cultura del lavoro e della imprenditoria” LG 24 filone 2)
    2. Sempre filone 2 l’AI è insostenibile. Nelle previsioni di tutti i maggior attori del settore si parla di centrali nucleari dedicate alla produzione dell’energia richiesta dai prossimi modelli di linguaggio. Consuma troppo e inquina.
  • Non sarà gratuita per sempre
    1. I prodotti attuali sono diffusi gratuitamente perché noi tutti ne facciamo un gigantesco beta-test in attesa di costruire l’ennesimo monopolio. Penge.
  • Per quanto riguarda la scuola:
    1. rimanderei a questa riflessione più articolata
    2. ricorderei che compito della scuola è quello di formare senso critico, capacità di autonomia e comprensione, non quello di insegnare ad usare e basta.
    3. Ricorderei che le sperimentazioni fatte sinora in USA (vedi articolo) ed in Italia si basano su lavoro precario, non pagato e volontario dei docenti. Siamo noi che stiamo fornendo i contenuti e le esperienze alla IA scolastica, che non avremo i soldi, come scuole, di comprare quando il prodotto sarà più presentabile.

Tosolini su Tecnica della scuola giustamente si interroga in merito alla “sperimentazione” in partenza in Italia su due fronti:
a) Come è stato scelto il prodotto da sperimentare in Italia (perché quello: caratteristiche tecniche e pedagogiche);
b) quale metodo garantisce la validità di questo che, per campione e caratteristiche, è più una “esperienza controllata” che una sperimentazione?

Poi interroga Gemini di Google (sempre loro) su cosa sarà Gemini per teenager e cosa potrà servire nella scuola. Le risposte non sono incoraggianti: niente che un insegnante tipo non possa fare (alla fine il teorema di Pitagora). Allora cosa serve? Come aiutante-tutor? Con quali allievi verrà sperimentato? Rimangono due dubbi:
1- che serva a sostituire insegnanti, specie insegnanti di sostegno o impegnati su allievi che necessitano di un aiuto, risparmiando risorse umane per spendere in risorse tecniche.
2- Che sia una comoda scappatoia per quei docenti che cercano di scaricare i casi più difficili. Preoccupante.

Ma insomma, si può sapere perché l’unica domanda dovrebbe essere “come utilizzare in fretta l’intelligenza artificiale nella scuola primaria (in maniera critica bla bla”) e non, prima di tutto, “perché diavolo dovremmo utilizzarla?” e poi, semmai, “quale?” Penge.




Linee Guida Educazione civica, un modello chiuso

di Rodolfo Marchisio

Le linee guida sull’Ed. Civica per tutti gli ordini di scuola, emanate dal Ministro Valditara il 7 settembre, presentano molte novità rispetto alle precedenti. Pur nel dichiarato rispetto delle Indicazioni nazionali dei vari ordini e con un richiamo all’autonomia delle scuole, più che altro operativa, sono a schema chiuso.

Finita la sperimentazione (durata 4 anni) e in assenza di un atteso monitoraggio e di una mancata riflessione pubblica, ogni ordine di scuola avrà traguardi di competenze e obiettivi di apprendimento da perseguire componendo, in una sorta di puzzle, i contributi delle varie materie.

Fra i vari modelli sperimentati dalle scuole, il MIM ha scelto un modello chiuso, a puzzle, ad assemblaggio di contenuti delle varie discipline; forse per aggirare il fatto che, a fronte di notevoli ed esemplari buone pratiche verticali e trasversali, di significative collaborazioni con Enti e associazioni, alcune scuole non hanno avviato granché, diversi docenti hanno disertato la collaborazione collegiale con varie scuse, scaricando sui referenti e sui docenti di “buona volontà” quello che era secondo la legge 92/19 un “obbligo educativo collegiale”. Con un calo di motivazione anche legato al silenzio del MIM.

Controriforma della EC in salsa governativa, personalistica e neoliberista

Gli aspetti che colpiscono a prima vista sono il cambiamento di ottica (o meglio d’ideologia) rispetto alle precedenti linee guida, ad esempio:

  • La logica “mainstream”, prevalente oggi: l’individuo (e i suoi interessi, beni e proprietà) sono più importanti della società; il concetto di persona (peraltro poco presente nella Costituzione, alla quale si fanno riferimenti talora solo strumentali), sostituisce quello di cittadino in un’ottica di personalismo che poco ha a che fare con la Carta.
  • La scuola, in collaborazione con la famiglia e le istituzioni, deve tendere a costruire l’Identità italiana, europea, occidentale. L’italocentrismo e l’eurocentrismo (in un’Europa peraltro divisa) sostituiscono, in un mondo globalizzato e complesso, la multiculturalità ed il dialogo fra culture e il resto del mondo, tranne un accenno alle carte dell’ONU e alle dichiarazioni internazionali.
    Un passo indietro di molti decenni.
  • Il concetto di Patria viene enfatizzato quando nella Costituzione questo lemma viene usato nell’ art 52 (la difesa della patria è sacro dovere del cittadino) e nell’articolo 59 comma 2 relativa alla nomina di senatori a vita; appare una forzatura ideologica, quando sia le linee che l ‘intervento del ministro teorizzano il “superamento delle ideologie” (tra cui V. cita il comunismo che vi sfido a trovare e segnalarmi. Cfr. lastampa.it 14 8) e la centralità della persona e dell’individuo; in realtà si ricade in altra ideologia quella neoliberista, personalista, dell’individuo. Che è quella corrente (vedi Zagrebelsky sul concetto dell’egocentrismo dominante).
  • Allora prevalgono i diritti e le responsabilità individuali sulla responsabilità sociale.

La cultura dell’impresa (le 3 I di Berlusconi: impresa, inglese, informatica), l’iniziativa economica, la proprietà privata.

  • Tanto che il filone 2 non è più legato all’ambiente (che è il problema), ma a sviluppo economico e sostenibilità (che comprende cultura della iniziativa privata, dell’assicurazione, del risparmio: pur nel “rispetto di uomo e animali”). Quale sia il nesso causale tra sviluppo industriale e digitale incontrollati e degrado dell’uomo e dell’ambiente lo sappiamo tutti e lo viviamo sulla nostra pelle in questa pazza estate (che sarà solo la prima); ma qui la priorità viene rovesciata.

Seguono in ordine sparso osservazioni ideologiche e di valori come soluzione di problemi attuali e concreti. La semplicità non esiste se non come lavoro sulla complessità, ma più persone la capiscono e condividono.

Così nelle 33 ore dell’EC dovremmo affrontare e risolvere:

  • Lotta alla mafia e criminalità contro la persona (la criminalità come fatto individuale).
  • Crescita economica nel rispetto del bene pubblico, privato, di ambiente (declassato) e qualità della vita del cittadino.
  • Educazione alla salute (ma senza investire risorse da parte della politica?), corretta alimentazione, attività sportive contro le dipendenze.
  • Educazione stradale contro l’aumento d’incidenti.
  • Rispetto della donna come soluzione al problema della violenza di genere. NON pari opportunità, NON tutti uguali indipendentemente dalle “condizioni personali e sociali” e quindi anche dal genere o sessualità (art. 3 della Carta).
  • Educazione finanziaria, assicurativa, al risparmio (il 30 ottobre, molti decenni fa c’era la “giornata del risparmio” alle elementari, mentre oggi i bimbi vengono invitati al baratto).
  • Cultura del lavoro (ma non degli incidenti sul lavoro e dello sfruttamento dei lavoratori anche in epoca digitale e di IA?)
  • Uso etico del digitale che potenzi le competenze individuali, non le sostituisca e combatta le dipendenze, anche da web e gaming.
  • Divieto dello smartphone a scuola tranne che alle superiori.Si dice cosa dovrebbe fare il singolo, ma non si invita a riflettere in modo critico su cosa dovrebbero fare la società e le Istituzioni.

Persona al posto del cittadino

 Ma chi è cittadino? Chi ha frequentato le scuole, chi è maggiorenne? Su questo non c’è accordo nella maggioranza di governo – ius soli? Ius scholae, sanguinis, culturae? – E quindi si parla d’altro.) Personalismo vs cittadinanza, patria e famiglia (manca Dio), privato vs pubblico. 

  • Confermata l’invarianza di costi e risorse (sia chiaro: non c’è una lira!)

Note alle Indicazioni Valditara

a) Sarebbe utile una conoscenza della Costituente del dibattito e delle mediazioni tra posizioni diverse raggiunte da quelli che erano statisti (De Gasperi, Togliatti; Moro, e Marchesi sulla scuola…) e pensavano alle future generazioni.

b) Non si può capire l’EC se non si conoscono la storia della Costituzione antifascista e la storia dei diritti (N. Bobbio- Dall’illuminismo alla Resistenza al dopo guerra).

Il Ministro risponde (lastampa.it) che in ogni ordine di scuola si studierà il dopoguerra.
Lo ritenete possibile?
E l’Illuminismo, la dottrina cristiana (encicliche di Pio XI comprese), il pensiero comunista e socialista che insieme con quello laico e liberale hanno animato il dibattito costituente?

Di tutto un po’! Risolvere problemi concreti con spot ideologici.

Infine scompare la collegialità e resta la contitolarità’.
Nelle 33 ore occorre progettare in modo sistematico conoscenze e abilità dei 3 nuclei !
Ogni docente sarà chiamato a mettere la sua tessera del puzzle che peraltro fa già parte, secondo le linee guida, del suo curricolo disciplinare. Non si può lamentare. Non lavora di più.
Nel 1° e 2° ciclo per lo sviluppo di competenze, peraltro definite in modo da essere non osservabili e valutabili, e il raggiungimento di obiettivi apprendimento. Alle superiori se c’è, ci pensa il docente di diritto. Approfondiremo.

Si veda anche il parere del CSPI e il nostro punto di vista su di esso.




Linee Guida di Educazione civica: un primo commento al parere del CSPI

disegno di Matilde Gallo, anni 10

di Rodolfo Marchisio

Il CSPI ha esaminato nella seduta plenaria n. 131 del 28/08/2024 le linee guida per la Ed. Civica presentate dal MIM.

Il presente articolo intende facilitare la conoscenza del parere del CSPI essendo una lettura che evidenzia i punti più importanti (e condivisibili, secondo me) e li commenta brevemente. Si fornisce, indirettamente, una idea del testo inviato dal MIM e delle problematiche che sollevava, su cui interverremo a parte.
In corsivo le citazioni. I grassetti sono dell’autore della scheda.

Il CSPI ricorda in premessa

a) i nuclei della legge 92/19

  1. Costituzione, diritto (nazionale e internazionale), legalità e solidarietà;
  2. sviluppo sostenibile, educazione ambientale, conoscenza e tutela del patrimonio e del territorio;
  3. cittadinanza digitale.

 b) Che con nota DGPER n. 19479 del 16/07/2020 il Ministero ha promosso un capillare e imponente piano di formazione

c) Che entro l’a.s. 2022/23, sulla base delle attività delle istituzioni scolastiche e degli esiti di un apposito monitoraggio, le Linee guida per l’insegnamento dell’Educazione civica avrebbero dovuto essere integrate con la definizione a livello nazionale dei traguardi di sviluppo delle competenze, degli obiettivi specifici di apprendimento e dei risultati attesi. Effettivamente con nota prot. n. 16706 del 27/06/2022 il Ministero ha effettuato una rilevazione delle modalità adottate dalle istituzioni scolastiche

d) Che non sono noti gli esiti di tale rilevazione né eventuali documenti conclusivi dell’attività svolta dal Gruppo di esperti e dal Comitato tecnico-scientifico. Nell’a.s. 2023/24 le istituzioni scolastiche hanno proseguito con la realizzazione delle attività connesse all’introduzione dell’insegnamento di Educazione civica secondo le modalità ormai consolidate.

e) Il CSPI, a tal proposito, evidenzia il grande e importante lavoro pedagogico e culturale che le scuole, nel quadriennio 2020-2024, hanno messo in campo per strutturare percorsi curricolari aderenti ai tre nuclei concettuali, dando forma interdisciplinare ad un insegnamento, quello di Educazione Civica, fondamentale

E conclude in premessa:

f) il testo delle Linee guida ex D.M. n. 35/2020, ormai assunto dalle scuole e oggetto di approfondita attività di formazione, non richiedeva particolari revisioni, eccetto le necessarie sistemazioni in riferimento a specifiche novità normative intervenute (ad esempio, la legge 17 maggio 2022, n. 60 e la legge 5 marzo 2024, n. 21, che apporta modifiche alla legge n. 92/2019) e la prevista definizione a livello nazionale di traguardi di competenze e obiettivi di apprendimento.

NOTE sui punti fondamentali

La modifica del filone 2: Sviluppo sostenibile, educazione ambientale, conoscenza e tutela del patrimonio e del territorio divenuto Sviluppo economico e sostenibilità non è necessaria ed è superficiale (NdA inverte le priorità, il focus ed il nesso tra sviluppo industriale e sue conseguenze ambientali).

Le Linee guida 2024 escono talora dall’ambito della legge 92/19
…senza necessariamente spingersi su tematiche non contemplate dalla L. n. 92/2019, quali lo sviluppo economico, la valorizzazione del lavoro e dell’iniziativa economica privata, la diffusione della cultura di impresa, la valorizzazione e la tutela del patrimonio privato.

Chiede di non modificare/deformare il nucleo 1 divenuto Costituzione ma di mantenere la definizione della legge 92/19 Costituzione, diritto, legalità e solidarietà, con il riferimento esplicito in particolare ai concetti di legalità e soprattutto di solidarietà, inscindibilmente collegati e da collegare alla carta costituzionale.

Di evitare la prescrittività per le scuole
…nel rispetto dell’autonomia didattica riconosciuta alle scuole, evitare espressioni che diano l’idea di una certa prescrittività delle attività da porre in essere e dei temi da trattare.

Nel filone Costituzione manca il riferimento alla relazione sociale individuo e collettività’.
P.S. resta solo l’individuo o meglio la persona. …mancanza di un riferimento alla relazione sociale tra individuo e collettività…

Nello stesso filone non si parla di discriminazione e violenza di genere, di ogni genere.
…ogni forma di discriminazione e violenza di genere, al centro di continue riflessioni in ambito scolastico e anche oggetto di circolari ministeriali.

Si sottolinea la necessità di progetti per approfondire il secondo filone per la parte ed. economica e finanziaria con enti ed associazioni del settore.

Cittadinanza digitale si chiede di:
a) inserire il ruolo delle famiglie nella educazione al digitale,
b) eliminare il divieto di smartphone in classe che qui non c’entra in quanto non attinente al tema della cittadinanza digitale e non pertinente alle finalità delle Linee guida.

Osserva una certa confusione fra competenze e obiettivi di apprendimento che ostacola anche la loro verifica e valutazione e chiede di evitare sovrapposizioni tra la valutazione della EC e quella del comportamento
…evitando eventuali sovrapposizioni tra valutazione della disciplina di Educazione civica e del comportamento…

Riformulare meglio gli obiettivi nella seconda parte

Riformulare obiettivi di apprendimento della primaria in quanto spesso sono finalità o indicazioni metodologiche e non obiettivi di apprendimento
riformulare diversi obiettivi di apprendimento della scuola primaria in quanto si configurano come finalità o viceversa con contenuti troppo specifici o con indicazioni metodologiche.

Osserva che la Tutela della salute e del benessere psicofisico non è traguardo di competenze

Chiede di modificare (Crescita economica e sostenibilità) in quanto non coerente con la legge 92/19
…al dettato della L. n. 92/2019, che non prevede alcun riferimento al tema della crescita economica, del lavoro e dello sviluppo economico, quanto piuttosto allo sviluppo sostenibile collegato all’Agenda 2030.

Il Diritto al lavoro fa parte del nucleo 1 quello dei diritti e della Costituzione.
Il tema del diritto del lavoro attiene propriamente al primo nucleo concettuale e non alla educazione allo sviluppo economico e finanziario.

Apprendere il valore della impresa individuale ed incoraggiare l’iniziativa economica privata non è un obiettivo della EC

Apprendere il valore dell’impresa e dell’iniziativa economica privata.

Conoscere il significato della appartenenza ad una comunità’…non è una competenza.

Tra le competenze da raggiungere riprendere l’attenzione alla discriminazione ed alla violenza di genere anche in questa parte.

Dal punto di vista della formulazione

È definito un testo pesante, ripetitivo e confuso, spesso da semplificare, perché mescola cose diverse, in un linguaggio anacronistico e che confonde talora traguardi di competenza ed obiettivi di apprendimento.

In conclusione

Il CSPI, in conclusione, evidenzia che l’Educazione civica non può essere considerata solo come una disciplina (NdA in coerenza con la legge 92/19), in quanto, attraverso apprendimenti formali, non formali e informali, permette lo sviluppo della cittadinanza, della responsabilità e dell’etica pubblica fondate sui valori condivisi della Costituzione.

Sottolinea infine la necessità di far conoscere e valorizzare le buone pratiche (un repository nazionale, tra l’altro?) completando:

  • la nomina della Consulta dei diritti e dei doveri del bambino e dell’adolescente digitale (art. 5), in più occasioni sollecitata anche dall’Autorità Garante dell’Infanzia e dell’Adolescenza; 
  • la costituzione dell’Albo delle buone pratiche di Educazione civica (art. 9);
  • l’ indizione annuale di un concorso nazionale per la valorizzazione delle migliori esperienze in materia di Educazione civica (art. 10).

Il CSPI non ha approvato le linee guida.

 

 




Elon Musk, i popoli della Amazzonia e il colonialismo tecnologico

di Rodolfo Marchisio

Musk è chiaramente un personaggio egocentrico, contradditorio, anche nelle sue scelte di campo, tranne che su 2 cose: sul fatto di guadagnare soldi e che si parli di lui.

La iniziativa (di cui all’articolo di M. Guastavigna) è una forma di neo colonialismo tecnologico, razzista che si basa sulla convinzione della superiorità, grazie alle tecnologie (anche da noi discusse in modo critico, soprattutto per l’oligopolio della loro gestione da parte dei Big e per la mancanza di attenzione ai problemi che creano a cittadini, lavoratori ed ecosistema) della cultura occidentale). Diversa la iniziativa di B. Gates anni fa di portare PC a manovella a popolazioni che non avevano la energia elettrica.

C’è una presunzione di superiorità del ruolo delle tecnologie e della nostra cultura che va contro i diritti alla autodeterminazione dei popoli, dei cittadini e dei popoli e delle nazioni indigene[1]
Come quando abbiamo portato l’alcool (e i virus e la “vera” religione) negli altri continenti.
Non parliamo del buon selvaggio felice, ma del fatto che nessuno, né privato, né stato, ha il diritto di sconvolgere la evoluzione di un popolo, arrogandosi il diritto ed il potere di migliorare (deus ex machina) le sue condizioni in base alla presunta superiorità della nostra cultura occidentale esportando non solo tecnologie ma problemi (patologie e dipendenze) da noi irrisolti.
Noi siamo prigionieri delle tecnologie (dei padroni delle tecnologie), che se ci servono, però ci sfruttano come cittadini e consumatori; creano assuefazione ed effetti dannosi dal punto di vista fisico, psicologico, sociale, ci cambiano profondamente. [2]

Ci abbiamo messo secoli per arrivare a questa situazione, abbiamo avuto la possibilità di adattarci in modo critico (anche se non lo abbiamo fatto) e non ne siamo usciti, chiusi tra utilità, necessità, ma anche dominio, sfruttamento e problemi irrisolti.
Un popolo non può essere usato come cavia. Si tratta di un esperimento che usa popoli come cavie, senza tesi da dimostrare, senza preoccuparsi delle conseguenze, per far parlare di sé.
Per questo andrebbero aggiornate alla situazione attuale le varie dichiarazioni dei diritti dell’uomo e dei popoli, compresi i popoli “indigeni”, già ampiamente sfruttati: nel senso della autodeterminazione, del dialogo tra culture, dell’aiuto e della non ingerenza.[3]

Aggiornate ma poi attuate.

 

[1] Dichiarazione Nazioni unite sui Diritti dei popoli indigeni, maggio 2008 https://www.un.org/esa/socdev/unpfii/documents/DRIPS_it.pdf
https://it.wikipedia.org/wiki/Dichiarazione_dei_diritti_dei_popoli_indigeni
[[2] https://www.youtube.com/watch?v=Giibp5GApVg
[3]https://www.ohchr.org/sites/default/files/UDHR/Documents/UDHR_Translations/itn.pdf
https://it.wikipedia.org/wiki/Carta_di_Algeri:_Dichiarazione_Universale_dei_Diritti_dei_Popoli
https://unipd-centrodirittiumani.it/it/attivita/Autodeterminazione-diritti-umani-e-diritti-dei-popoli-diritti-delle-minoranze-territori-transnazionali/187




Perché le IA vengono proposte alle scuole?

Premessa

In teoria dalla dispersione scolastica alle prove Invalsi sono sempre di più e sempre più efficaci, gli strumenti di AI al servizio di docenti e studenti. Ma c’è bisogno di più cultura sul tema ed impegno pubblico.” Sostiene Chiara Panciroli.

R: Sulla mancanza di cultura siamo d’accordo.

La IA non può essere integrata nell’istruzione senza un grande impegno pubblico e le necessarie garanzie e normative da parte dei governi. Azoulay. Unesco. R: Vero.

Per fare cosa?
Il modo più chiacchierato è l’uso di Chat GPT e simili (da parte degli allievi) per “barare” nelle esercitazioni o nei compiti in classe. Poi?

Le varie forme di IA possono aiutare la didattica come si vorrebbe? A quale prezzo?

L’intelligenza artificiale generativa può automatizzare l’elaborazione delle informazioni e la presentazione dei risultati finali attraverso tutte le principali rappresentazioni simboliche del pensiero umano. Consente di consegnare i risultati finali fornendo prodotti di conoscenza semi-lavorati. Liberando gli esseri umani da attività appartenenti a livelli di pensiero di ordine inferiore. Panciroli

R
: quali sono le attività “inferiori” a scuola? Compilare registri e atti? Nelle attuali condizioni di bassa motivazione e ristrettezza dei tempi, non sarebbe utile anche concentrarsi e confrontarsi per valutare un alunno in base non solo a dati, ma a osservazioni, relazioni, episodi, informazioni? Liberare tempo per parlarsi in queste condizioni strutturali e di risorse? Ma per fare questo occorre passare dalle IA?

questa nuova generazione di strumenti d’intelligenza artificiale potrebbe avere profonde implicazioni nella nostra comprensione d’intelligenza umana e apprendimento.

  R: O meglio potrebbe intanto essere un’occasione per riflettere su come funzionano intelligenza umana e apprendimento, e se esiste l’IA e come funzionano le sue varie applicazioni prima di comprarle o di farcele imporre.
Conoscere per capire

Uno dei temi più importanti è quello della cosiddetta explainability, ossia la comprensione e la spiegazione di cos’è e come funziona un’intelligenza artificiale”. Prima addirittura di ipotizzare per cosa usarli, bisogna anzitutto conoscere questi strumenti. Capire come funzionano, quali sono le loro potenzialità e (soprattutto) quali sono i loro limiti.

…è indispensabile comprendere come funzionano i prompt da dare al sistema: con input pessimi si hanno output pessimi, e gli strumenti perdono di utilità”. Panciroli.

Si ipotizzano utilità di sistema (scuola) e utilità didattiche.
Tra le prime abbandono scolastico (“predittivo”?) e la valutazione.
Come? Le presenze a lezione, i tempi di consegna dei compiti e altri parametri, prevedono quando è più probabile che uno studente possa abbandonare gli studi: l’idea è che in questo modo si possa intervenire per tempo, per esempio con un riorientamento rapido o offrendo un piano didattico personalizzato ed evitare l’abbandono.

  R: Questa modalità ha fondamenti pedagogici parziali (di parte) e poco fondati. Ma intanto

a- la logica predittiva può sbagliare e violare diritti (è già stata vietata a livello di polizia dall’IA Act UE)
b- Con che risorse e modalità si approntano soluzioni (i docenti lamentano di non avere spazi di confronto, progettazione e valutazione, fagocitati e silenziati dalla compilazione di un foglio elettronico con arrotondamenti deformanti)?
c- È vero che la individualizzazione del tutoraggio è difficile e costosa, ma il rischio è di non adattare lo strumento al bambino, ma il bambino al modello di chat bot disponibile centrato sulla “logica” – o meglio su una impostazione “statistico-induttiva[1] (Guastavigna) basata sui dati antecedenti, validi o no e quindi sulla raccolta ed il trattamento statistico di dati;  nella incapacità di gestire tutti gli altri aspetti emotivi e relazionali dell’apprendimento.
È una scelta pedagogica
che sta a monte di quello che le applicazioni denominate di IA possono fare, bypassando quelle che chiamano concezioni psicologiche dell’apprendimento individuale e puntando sulla ottimizzazione delle performance cognitive e di abilità. Che sono una parte del problema, ma non il contesto di soluzione.
– d) Allora meglio più risorse per la individualizzazione e l’inclusione, il confronto sul metodo
o meglio più chat bot (uno per allievo)?


Un secondo campo è quello legato al sistema di valutazione delle scuole, l’Invalsi: l’intelligenza artificiale può fare da supporto a questo sistema, per esempio leggendo e comparando in modo integrato tutti i dati raccolti e individuando criticità, punti di forza, lacune. ibidem

R: Sappiamo che la lettura, validità e utilizzo (ora anche individuale non più solo di sistema) dei dati INVALSI è un campo minato. E dopo avere ottimizzato i dati cosa facciamo (quali modelli) e con che risorse? Per quali obiettivi, prima di sistema ora anche individuali, anche se anonimi; con personale formato, rimotivato, pagato? Che è il vero problema.

Utilità didattiche. Valutazione

Questi strumenti consentono di superare la cosiddetta valutazione sommativa (quella tradizionale, ricavata da test, interrogazioni e simili) e passare a una valutazione formativa. Che dia ai docenti feedback ricorsivi con cui comprendere meglio le lacune degli studenti e mettere in campo tempestivamente delle attività di supporto
 
R: La IA ha trovato il modo di superare la valutazione sommativa? In realtà offre solo dati apparentemente più organizzati ai docenti. Il problema sono le risorse (ore docenti e soldi) per intervenire, le scelte politiche e poi metodologiche e l’atteggiamento dei docenti.

Come? Con quali parametri?
“Esaminando la struttura delle frasi scritte dagli studenti, gli errori ricorrenti, il tempo di consegna dei compiti e fornire così al docente un punteggio continuo, semplificando tra l’altro la correzione”

R: L’uovo di Colombo; la valutazione su cui discutiamo da decenni è tutta qui?

Le mappe

Ci sono infine i mediatori visivi che semplificano con mappe (?) le lezioni per i più in difficoltà.
Esistono ancora delle resistenze da parte del sistema educativo rispetto all’adozione di questi strumenti, in parte dovute al fatto che “per definizione la scuola è un luogo conservatore e contrapposto all’innovazione”, e in parte dovute alle paure relative alla privacy. Un tema certamente delicato e importante, ma che secondo l’esperta non va ingigantito: “Quello della privacy” conclude “è (almeno in parte) un falso problema” (?) sostiene Chiara Panciroli .

R: L’impressione è che si cerchi di vendere le applicazioni di IA (in questo caso “povera” e fondata su un modello di apprendimento parziale e discutibile) per risolvere problemi storici della scuola, “razionalizzando” con un metodo induttivo la raccolta dei dati e proponendo tutoraggi automatici individualizzati perché è quello che le IA sanno fare a mala pena ora.
a- È un lavoro integrativo, ma non la soluzione
b- ma a pagamento e tutto da testare ancora, anche perché ogni ragazzo, contesto, paese è diverso dagli altri e non basta ridurre disagio ed abbandono decontestualizzato ad una unica categoria algoritmica.
c- Bypassando la complessità, la diversità, l’intreccio apprendimento/socializzazione/ relazione emotività e clima di classe e scuola.

Non sapendo affrontare la complessità, si standardizzano gli allievi.

Infatti.

“In generale i chat bot, che qualcuno ha definito “motori di plagio” attingono a vaste riserve di informazioni che molto probabilmente sono inquinate dalla disinformazione passata o da materiale parziale e discriminatorio, e forse potrebbero diventare ancora più numerose, così come i contenuti automatizzati inondano il web.”  Singer nel rapporto del NYT.
I sostenitori pensano che i chat bot in classe potrebbero “democratizzare” l’idea del tutoraggio personalizzando automaticamente le risposte agli studenti, consentendo loro di lavorare sulle lezioni al proprio ritmo. I critici avvertono che i robot, addestrati su vasti database di testi, possono fabbricare una disinformazione apparentemente plausibile, rendendoli una scommessa rischiosa per le scuole Ben Williamson [2]

Approfondiamo.

Negli USA si sta cominciando a sperimentare in una scuola quello che in Italia stanno già propagandando ampiamente (al buio). Perché gli attuali esempi di intelligenza artificiale sono intrisi di un tipo di politica che applica soluzioni tecniche e di mercato a tutti i problemi sociali.

  • Nella esperienza dei test Khan migo (dietro cui c’è Bill Gates)gli educatori sembrano prendere parte a un “esperimento sociale”in cui i sistemi codificati di istruzione – pedagogia, curriculum e valutazione – vengono tutti riconfigurati dall’intelligenza artificiale, richiedendo sforzi laboriosi da parte degli educatori per adattare le loro pratiche professionali”. Carlo Perrotta

   R: Siamo disponibili a questi sforzi, a testare ed arricchire gratuitamente la IA a vantaggio degli oligopoli che ce la propongono? Ne abbiamo il tempo e ne vale la pena?

Anche perché l’IA’ può esercitare anche effetti degenerativi sull’apprendimento stesso.
“Più prosaicamente, è probabile che l’intelligenza artificiale riproduca gli aspetti peggiori dell’istruzione scolastica: il saggio standardizzato è già fortemente vincolato dalle esigenze dei regimi di valutazione, e i modelli linguistici tendono a riprodurlo nel formato e nel contenuto.”

La seconda questione è ciò che Perrotta ha descritto in termini di “divisione dell’apprendimento” – citando Shoshana Zuboff – che denota una distinzione tra organizzazioni di intelligenza artificiale con “infrastruttura materiale e capacità intellettuali esperte” per apprendere dai dati e mettere a punto modelli e processi, e gli sforzi non retribuiti degli utenti quotidiani le cui interazioni con i sistemi rifluiscono nel loro sviluppo continuo. Burrell e Fourcade hanno distinto tra “l’élite del coding”, una nuova classe professionale di competenze tecniche, e una forza lavoro recentemente emarginata o non retribuita, il “cybertariat”, da cui estrarre manodopera.” Nel caso Khan migo, gli ingegneri e i dirigenti della Khan Academy sono una nuova élite di sviluppo dell’intelligenza artificiale nel campo dell’istruzione, che sfrutta il lavoro degli insegnanti e degli studenti in classe per “ottimizzare” il loro prodotto.

R: In altre parole I big della IA stanno sfruttando il lavoro di manovalanza dei docenti per mettere a punto un prodotto che dall’anno prossimo sarà a pagamento per le scuole (60 $ a studente)
R: A parte lo sfruttamento del lavoro gratuito dei docenti, con che soldi le scuole, caso mai interessate, potranno pagare questi prodotti? Chi controlla e valida l’esperimento?

Il problema, per i big di IA, è che il tutoraggio individuale è “troppo costoso da sostenere su larga scala per la maggior parte delle società”. “Ma ostacoli finanziari suggeriscono che è improbabile che i chatbot in classe potenziati dall’intelligenza artificiale democratizzino il tutoraggio in tempi brevi.”

 R: Allora si fanno lavorare i docenti per ottimizzare il prodotto e poi rivenderglielo fidelizzando le scuole (come successo con Zoom ed altri prodotti proprietari cui ci siamo assuefatti in tempi di Covid ed in mancanza di iniziative ministeriali) e senza nemmeno puntare ad un tutoraggio individuale democratico.

  • Il dirigente della scuola che sta sperimentando in USA e che ci mette classi e manodopera docente ha affermato: “Il costo a lungo termine dell’intelligenza artificiale è per noi motivo di preoccupazione”.
  • Se le IA richiedono lavoro aggiuntivo non retribuito da parte degli insegnanti e ne estraggono valore, l’intelligenza artificiale e altre tecnologie predittive possono anche, come sostiene Sun-ha Hong, sottrarre potere discrezionale ai professionisti, rimodellando o addirittura diminuendo il loro processo decisionale e la portata del giudizio professionale. Nel caso sperimentale di Khan migo, anche il potere discrezionale dell’insegnante è almeno parzialmente sfruttato, ridotto o quanto meno complicato dalla presenza di un tutorbot.[3]
  • R: Infine, l’intelligenza artificiale nell’istruzione potrebbe influenzare la capacità delle scuole di sostenere altre spese strutturali e di risorse per problemi prioritari.
  • “Potenziali effetti degenerativi.Oltre agli effetti degenerativi che può esercitare sulle condizioni professionali degli insegnanti, sui contenuti didattici e sulla sostenibilità finanziaria delle scuole, l’IA ha anche effetti ambientali degenerativi (Inquinamento NdA) e impatti sulle condizioni di lavoro dei lavoratorinascosti”  che aiutano a formare modelli generativi.”

“La rassegnazione all’intelligenza artificiale come caratteristica inevitabile del futuro dell’istruzione è pericolosa, poiché rischia di bloccare gli istituti di istruzione, il personale e gli studenti in sistemi tecnici che potrebbero esacerbare anziché migliorare i problemi sociali esistenti, come il superlavoro degli insegnanti e il degrado delle opportunità di apprendimento e il sottofinanziamento della scuola”. Dan McQuillan.

[1] https://www.treccani.it/vocabolario/induttivo/
[2] Le citazioni se non attribuite si riferiscono al saggio di Ben Williamson tradotto per Roars.
vedi anche blog autore
https://codeactsineducation.wordpress.com/ .

 

 

[3] https://journals.sagepub.com/doi/10.1177/20539517231171053




IA e scuola. Intelligenza, apprendimento, relazione, linguaggio, valutazione

di Rodolfo Marchisio

Mentre continua il marketing e l’offerta di corsi, libri, incontri sull’uso della IA nella scuola, per fortuna più alle superiori, ma sta arrivando, perché è la moda dell’anno, lasciano perplesse le modalità di questa iniezione di tecnologia, teoricamente avanzata, ma sempre in corso di approfondimento e discussione tra gli esperti; anche presunti. Dite un nome di uno che si occupi o si sia occupato della scuola e verificate se non ha già detto la sua.
Negli USA la sperimentazione nelle scuole pone diversi interrogativi simili a quelli del nostro PNRR.

Uso contro cultura.

Il problema di partenza è la modalità con cui viene proposta alla scuola. Come ogni tecnologia, insegnando (a docenti ed allievi) ad usare. Cosa fa e come si usa. Non cosa ci sta dietro, quali conseguenze può avere su di noi e sui nostri allievi, come stiamo cambiando nella relazione con le tecnologie.  Domande che ci dovremmo porre per capire.
Questo per un difetto congenito nel rapporto tecnologia/scuola e per una mancanza di chiarezza da parte delle Istituzioni. Sembra che nella vita dei nostri allievi sarà più importante saper usare che capire un po’ di più le tecnologie che già usano e che useranno sempre più. E che li stanno cambiando.

Competenza digitale. Una delle competenze chiave per l’apprendimento permanente

La competenza digitale implica l’uso sicuro, critico e responsabile delle tecnologie digitali e il loro impiego nell’apprendimento, nel lavoro e nella partecipazione alla società̀. Comprende l’alfabetizzazione all’informazione e ai dati, la comunicazione e la collaborazione, l’alfabetizzazione ai media, la creazione di contenuti digitali (compresa la programmazione), la sicurezza (compreso il benessere digitale e le competenze relative alla sicurezza informatica), le questioni relative alla proprietà̀ intellettuale, la risoluzione di problemi e il pensiero critico.” [1]
 
“L’intelligenza artificiale generativa può rappresentare un’enorme opportunità per lo sviluppo umano, ma può anche causare danni e pregiudizi – afferma Audrey Azoulay dell’Unesco – Non può essere integrata nell’istruzione senza l’impegno pubblico e le necessarie garanzie e normative da parte dei governi”. “I programmi di intelligenza artificiale generativa sono esplosi con ChatGpt che ha dimostrato la capacità di generare saggi, poesie e conversazioni con input e suggerimenti anche brevi. Molti però si sono posti fin da subito dubbi molto radicali”.
In una nuova guida per i governi l’organismo educativo delle Nazioni Unite avverte che “le autorità pubbliche non sono pronte ad affrontare le questioni etiche legate all’introduzione di programmi di IA nelle aule”. ANSA
Diciamo che sia l’IA che la sua utilità ed i suoi rapporti, specie con l’apprendimento e la formazione, sono complessi.

E i docenti?

Aggiunge l’esperta: “Anche se il 90% delle scuole ha attivato percorsi di formazione ai docenti per l’utilizzo degli strumenti digitali, nella gran parte delle scuole almeno la metà dei docenti non si sente a proprio agio nell’utilizzo delle nuove tecnologie. È un segnale di come oggi la formazione del personale scolastico sia poco efficace.”

 I A e I. Umana

Abbiamo già ricordato che esistono più di 50 definizioni di intelligenza umana e sviluppi diversi di Intelligenze Artificiali.
“Sebbene gli agenti di IA siano in grado di ragionare su problemi molto complessi, non pensano nel modo in cui lo fa l’uomo[2]. L’intelligenza artificiale può avere impatti sia positivi che negativi sulla società. Le tecnologie di IA stanno cambiando il modo in cui noi lavoriamo, viaggiamo, comunichiamo e ci prendiamo cura gli uni degli altri. Tuttavia, dobbiamo essere consapevoli dei danni che possono potenzialmente verificarsi. Per esempio, i pregiudizi nei dati utilizzati per addestrare un sistema di IA potrebbero portare alcune persone ad essere trattate in modo peggiore rispetto ad altre. Perciò, è importante discutere degli impatti che l’IA sta generando nella nostra società e sviluppare criteri per il design etico e per la diffusione dei sistemi basati sull’IA.” AI4K12.org[3]

Per fare cosa

Un difetto della scuola italiana, voluto dai ministri che l’hanno “governata”, è quello di attribuire proprietà taumaturgiche alle tecnologie, per non analizzare ed affrontare i problemi che la scuola evidenzia (dalla disoccupazione – Buona scuola – alla IA). Dalla dispersione scolastica alle prove Invalsi: sono sempre di più, gli strumenti di AI al servizio di docenti e studenti. Ma c’è bisogno di più cultura sul tema, dice Chiara Panciroli. Prima di usarli, prima addirittura di ipotizzare per cosa usarli, bisogna anzitutto conoscere questi strumenti. Capire come funzionano, quali sono le loro potenzialità e (soprattutto) quali sono i loro limiti. Ma anche evitare di considerarli una scatola nera che processa chissà come un input e restituisce un certo output.

Quali tipi di relazioni

  • La relazione che si instaura con forme di IA è non solo di tipo razionale è anche emotiva.
  • L’intelligenza non è di un tipo solo (Gardner) e non è solo di tipo logico deduttivo (Penge).
  • È fortemente intrecciata con l’ambiente, la sfera emotiva, le relazioni (Penge, Goleman)
  • L’insieme di relazioni e di ambienti in cui viviamo è più complessa di come viene presentata. Non è solo un algoritmo, è un cambiamento nella nostra vita che dovremmo capire meglio.
  • Occorre riflettere sul rapporto Intelligenza – apprendimento, perché sinora gli strumenti di IA cercano di imitare l’intelligenza umana soprattutto dal punto di vista logico-deduttivo e non sono (ancora?) in grado di riprodurre la complessità delle dinamiche di apprendimento o rischiano di renderlo algoritmico, impoverendolo. Possono leggere Gardner e Goleman ma non sono in grado di funzionare con gli allievi in modo conseguente.
    Come alcuni di noi.
  • Allora più spesso vengono proposte per colmare lacune cognitive, anche attraverso materiali didattici, oppure per valutare, ma dubito che capirebbero la complessità del dibattito sulla valutazione formativa e sulle conseguenze della scelta tra i due tipi di valutazione. Con buona pace del Ministro Valditara.
  • Quasi tutti gli esperti pongono attenzione a problemi come la privacy, la sicurezza e soprattutto il controllo. Chi è in grado a scuola di controllare e correggere eventuali errori di un programma di IA quando gli oligopoli che la producono si stanno preoccupando loro di come faranno a controllarla quando sarà più intelligente di noi?
    Problemi di scelte ed “etici”? Problemi di formazione, cultura e cittadinanza.

Quali relazioni. Un esempio. Perché siamo gentili con ChatGPT?[4]

Quali sono le conseguenze della costante interazione con le intelligenze artificiali sul nostro modo di comunicare? Si inizia a fare luce sulla cortesia verso le chatbot e non solo.

“Ciao ChatGPT, per favore potresti fare una cosa per me?”. “Ogni volta che mi interfaccio con il Large language model di OpenAI per sbrigare qualche faccenda di lavoro… mi viene istintivamente, senza pensarci, da essere gentile con lui (nella mia mente, ChatGPT è di genere maschile)”. Wired, Signorelli.
Secondo un sondaggio informale su X circa il 70% delle persone trova almeno “abbastanza difficile” essere maleducati con ChatGPT, mentre solo il 16% lo trova “abbastanza facile” (il restante 14% non lo utilizza). Ibidem.

 Spiegazione ironico-emotiva
“Visto che un giorno diventeranno coscienti e si trasformeranno nei nostri padroni, spero che le intelligenze artificiali si ricorderanno di chi è stato gentile con loro.

Spiegazione tecnica
Ci sono parecchi studi che confermano come trattare bene ChatGPT e i suoi simili – dirgli di “fare pure con calma” o addirittura di “pensare bene” prima di dare una risposta – permetta di ottenere risultati migliori (la spiegazione di questo strano fenomeno, che potete trovare qui, è purtroppo esclusivamente tecnica).

Il giornalista tecnologico David Futrelle sul suo blog, riportando anche il parere della ricercatrice Jenna Burrell, sottolinea che “è molto più salutare pensare a essi come a degli strumenti che come a persone”. Notiamo anche che spesso tendiamo ad “umanizzare” tecnologie quando sono diverse da noi (chi dà un nome all’auto o al robottino che spazza e parla loro), ma forse lo saremo meno quando saranno umanoidi. Timore della competizione? Wired.
“Come già sta avvenendo in parecchi altri campi, l’impressione è insomma che non siamo noi che stiamo insegnando alle intelligenze artificiali a parlare o scrivere come esseri umani. Sono loro che stanno addestrando noi a comunicare come delle macchine.” Signorelli, Wired.

Conclusione

Non siamo andati fuori tema. Vogliamo dire che la relazione che instauriamo con le tecnologie che ci servono ci modificano anche, sono molto varie e riguardano la sfera razionale e cognitiva, ma anche quella dei rapporti, delle emozioni, del linguaggio e delle scelte come cittadini.
Questo dovrebbe indagare la ricerca ed a questo dovrebbe formare la scuola. Prima di tutto.

[1] (Council Recommendation on Key Competences for Life-long Learning – Raccomandazione del Consiglio sulle competenze chiave per l’apprendimento permanente, 22 maggio 2018)
[2] Cosa sulla quale gli esperti non hanno le idee chiare e posizioni coerenti
[3] https://ai4k12.org/
[4] https://www.wired.it/article/chatgpt-chatbot-buone-maniere/

 




IA “Etica” oppure Etica della IA? Quali valori, quali regole, quali limiti

di Rodolfo Marchisio

Ha senso parlare di IA in generale?

  • In realtà si tratta di diverse applicazioni in campi molto diversi e con finalità diverse. Cosa le accomuna? “L’intelligenza artificiale è un nome che descrive un modo di fare software. In particolare, è un modo di fare software nuovo, che consente di affrontare nuovi problemi e creare nuove applicazioni sostiene Quintarelli [1] Le possibili applicazioni, i campi e gli obiettivi possono essere allora molto diversi. Alcuni già esistenti altri in via di sviluppo.
  • Ci sono molti modi di intenderla e praticarla: in questo periodo si parla molto di IA Generativa (più legata allo sviluppo di chat “intelligenti” in grado di imparare ed agli sviluppi ed usi linguistici o mediatici), di IA “etica”, di IA “spiegabile”, ma anche di “IA noiosa” …
  • Ma anche sono diversi i modi di pensarla e di raccontarla. Si va dal catastrofismo al trionfalismo (talora ingenuo o magari interessato), alle strane  utopie dei miliardari, alla necessità di dare regole e porre limiti. Ma l’IA esiste già nella indifferenza generale (nei motori di ricerca ed in molte applicazioni); e poi c’è quella noiosa già esistente nei settori della agricoltura ad esempio di cui nessuno parla.[2]
  • Tutti parlano invece di IA, ma in modo generico e spesso divergente, concentrandosi su aspetti o problemi diversi. Certamente oggi la “parola dell’anno” è esplosa come fenomeno di moda e come operazione di marketing insieme e, se uno vale uno, tutti si sentono autorizzati a dire o teorizzare la loro opinione ed il loro (spesso interessato o poco informato) punto di vista.
  • È importante invece distinguere alcune figure con ruoli, interessi, responsabilità diverse.

I “padroni” che sono pochi ricchi e potenti; gli esperti, che non vuol dire chi ha una laurea o una cattedra, ma chi ci lavora, chi ci riflette e anche chi si informa; poi i politici e i decisori e soprattutto (anche se non è più di moda) i cittadini che vivono e vivranno, in vario modo, le conseguenze di quello che altri decidono e realizzano.

Ha senso parlare di IA “etica”?

  • Allora ha senso parlare di IA “Etica” intesa come responsabile, che si dà o rispetta delle regole o è meglio parlare di Etica della IA?
    Chi deve essere “etico” cioè rispettare vincoli e regole? La tecnologia, il programma, chi lo progetta e finanzia per guadagnarci o per potere, per controllare altri violando diritti?
    Aldilà del catastrofismo e delle paure o dell’euforia che accompagnano ogni “rivoluzione tecnologica” si è posto in vari modi il problema di tutelare diritti, stabilire regole (“paletti”), di stabilire a protezione dei diritti dei cittadini delle regole, dei limiti, in modo diverso.Quali sono questi problemi? Anche Quintarelli ne elenca alcuni: “L’uso dell’intelligenza artificiale a fini anti-competitivi, la creazione di posizioni di monopolio, lo sfruttamento del lavoro delle persone, la discriminazione. Quando si dice che l’umanità rischia l’estinzione a causa dell’AI, sono baggianate (dice lui)mentre può preoccupare l’utilizzo dell’AI negli armamenti: certamente se facciamo armi autonome, anche in conseguenza del fatto che sappiamo che l’AI sbaglia, possiamo attenderci esiti nefasti. Ma di nuovo, il problema non è l’AI ma l’uso che ne facciamo noi… Quindi queste grandi visioni su ipotetici grandi temi e grandi problemi mascherano problemi attuali concreti che sono importanti, appunto, come lo sfruttamento del lavoro delle persone, la creazione di rendite di monopolio, lo sfruttamento del lavoro altrui”. Tra l’altro.
  • Un altro problema che si è posto nel dibattito da parte delle stesse imprese che la propongono è l’IA che crea Fake in periodo di elezioni, In teoria molte aziende e social si impegnano (?) a non diffondere fake su candidati e partiti. Forse la prima elezione “dopata” di Trump ha indotto a riflettere. Vedremo chi mantiene la parola.

Esiste una etica globale?

Un problema fondamentale che esiste da sempre e che è già emerso col web ed il suo sviluppo, globale e oligopolistico insieme, è che l’etica, come mediazione sui valori/interessi/diritti in un dato paese (o zona del mondo) è un fatto relativo dal punto di vista geografico e storico. Come i valori e diritti stessi (N. Bobbio) che si devono conquistare, ma che si possono perdere in tutto o in parte, l’etica è relativa nel tempo e diversa nelle varie parti, culture e nei vari paesi o regimi del mondo.[3]
Basta confrontare le posizioni in merito che emergono in paesi con culture diverse:
UE (AI Act); USA a livello normativo o come autodeterminazione a livello globale degli stessi promotori della IA; oppure in Cina ad esempio, dove i valori, le regole, il rispetto dei diritti che sono appunto relativi dal punto di vista storico, geografico, politico sono diversi.[4]

L’UE prima ancora dell’atto sulla IA aveva indicato come requisiti da rispettare:
1- Supervisione umana
2- Robustezza e sicurezza
3- Privacy
4- Trasparenza
5- Assenza di discriminazioni
6- Benessere sociale ed ambientale
7- Responsabilità contro impatti negativi

Un altro atto era stato la Carta etica europea per l’uso dell’IA nei sistemi giudiziari (2018): principi di rispetto dei diritti fondamentali, di non-discriminazione, di qualità e sicurezza, di trasparenza, imparzialità, equità e di controllo da parte dell’utilizzatore.

Anche in Italia l’Agenzia per l’Italia digitale ha prodotto un libro bianco legato soprattutto a criteri d’uso nella pubblica amministrazione, dove si parla di problema etico, sfida tecnologica, competenze necessarie, problema dei dati e problemi legali e del coinvolgimento degli utenti, perché il principio di fondo è che l’Intelligenza Artificiale debba servire soprattutto per affiancare le persone e aiutarle a svolgere le loro attività, ma non per sostituirle. [5]

In USA in assenza di una regolamentazione pubblica, sono emerse enunciazione di principi da parte di privati, come Google [6] ed altri, basati però sulla volontà dei responsabili e senza un controllo pubblico. Che è un dato significativo di un modo di pensare in cui la libertà individuale (dalla espressione alla iniziativa economica) sono i punti di riferimento più forti.

La Cina (2019) ha pubblicato [7], dopo una ricerca tutta interna, un elenco di principi: essere vantaggiosa, al servizio della umanità, responsabile, controllare i rischi, progettazione etica, riflettere sulla diversità e sulla inclusività, incoraggiare la condivisione aperta.
Puntare a ottimizzare l’occupazione, l’armonia e la cooperazione, l’adattamento e la moderazione, il perfezionamento, l’implementazione, la pianificazione a lungo termine.

Ma aldilà delle belle parole sappiamo come funzionano già le attuali implementazioni della IA in Cina e come vengano usate spesso a danno dei diritti e delle libertà dei cittadini, dando priorità al potere politico attuale ed alla espansione economica.

Perché questa panoramica, magari un po’noiosa?

Paesi con storie, esperienze e quindi culture diverse possono usare le stesse parole come paravento o per indicare atteggiamenti diversi.
Ricordo uno scrittore arabo che mi aveva fatto riflettere sul fatto che per noi europei “giustizia” era intesa come giustizia sociale, rispetto dei diritti, in relazione alla nostra storia e quindi alla nostra cultura. Nella loro cultura era storicamente legata a “rispetto della legge”. Per cui il dialogo sui diritti umani era difficile.

Cosa c’entra allora la scuola, anello debole della catena sociale?

In questa complessità continuo a domandarmi in che modo la IA “debba” essere introdotta nella scuola, essendo intreccio complesso a causa della globalizzazione che non è dialogo tra culture se non sulle mode e con finalità diverse.  A meno di spiegare tutte queste cose e limitarsi a cosa si può fare con

[1] https://www.wired.it/article/intelligenza-artificiale-noiosa-quintarelli/
[2] ibidem
[3] https://www.einaudi.it/catalogo-libri/scienze-sociali/politica/leta-dei-diritti-norberto-bobbio-9788806223434/
[4] Sull’AI Act vedi anche https://www.gessetticolorati.it/dibattito/2024/02/06/giornata-della-sicurezza-in-rete-difendersi-dalla-privatizzazione-del-web-e-dalla-ia-non-controllata/
[5] Per una sintesi https://libro-bianco-ia.readthedocs.io/it/latest/doc/sintesi.html
[6] AI at Google: our principles, su Google, 7 giugno 2018.
[7] Intelligenza artificiale, pubblicati gli standard etici da non oltrepassare, su Cina in Italia, 26 maggio 2019