Giornata della sicurezza in rete. Difendersi dalla privatizzazione del web e dalla IA non controllata

di Rodolfo Marchisio

 Tra le varie “giornate” ricorrenti e celebranti c’è quella fondamentale della sicurezza in rete, 6 febbraio. Però quest’anno va integrata, perché non è solo più la giornata della sicurezza necessaria in merito a dipendenza (in un paese in cui 1/3 dei bambini tra i 5 e gli 8 anni ha un profilo social ed uno smartphone con seri danni e nella indifferenza dei “grandi” e 2 adolescenti su 3 usano IA e chat Gpt senza saper come funzionano) e privacy, controllo dati, odio e violenza nel web, violazione di diritti. Temi fondamentali con radici simili.
Ci sono importanti novità; da come difendersi dalla Scuola 4.0 a come difendersi dalla moda e dalla operazione di marketing della IA generale non controllata. Cominciamo da questa, troppo di moda per essere vera. L’IA è un mondo di attività, proposte diverse che andrebbero conosciute ed analizzate separatamente. Con alcune attenzioni comuni. Questa rubrica sta dando conto di questo e fornendo dati, riflessioni, stimoli.

IA ACT. Cos’è.

Sta per essere messo a punto l’atto di regolamentazione sulla IA approvato dalla UE. Gli USA come al solito vanno per i fatti loro, pur avendo le maggiori imprese che si occupano con alterne vicende di IA, secondo le logiche del libero mercato e della libertà di espressione. Interesse individuale contro la responsabilità sociale richiesta ad es. dalla nostra Costituzione.
L’UE, dopo avere cercato con scarsi risultati di far pagare le tasse a costoro, ha provato e sta mettendo a punto, si spera per giugno, una serie di regole nello sviluppo della IA.

1- La strada delle regole

  • Usi proibiti perché pericolosi e lesivi.
  • Tecnologie subliminali per manipolare i comportamenti di una persona; quelli che abusano di persone vulnerabili e fragili; la categorizzazione biometrica che fa riferimento a dati personali sensibili, come il credo religioso, l’orientamento politico o sessuale; la pesca a strascico (scraping) da internet di volti, come fece anni fa la contestata startup Clearview AI; il riconoscimento delle emozioni sul posto di lavoro o a scuola; i sistemi di punteggio o social scoring. Il testo vieta anche la polizia predittiva, ossia usare informazioni come tratti della personalità, nazionalità, situazione familiare o economica, per stabilire la probabilità che una persona compia un reato.
    Tenendo conto che l’IA si nutre di tutto quanto c’è in rete, a partire dai nostri pregiudizi.
    Le donne, i meridionali, i migranti sono tutti…
  • Riconoscimento facciale.
    Come noto sta funzionando male soprattutto per i non bianchi, maschi, caucasici. Crea problemi di identificazione (dai viaggi, alla identificazione di presunti colpevoli).
    Riguarda l’impiego di sistemi di riconoscimento facciale e biometrico in tempo reale. Applicazione proibita, perché può portare “a risultati marcati da pregiudizi e provocare effetti discriminatori“. Salvo in tre “situazioni”, nelle quali il riconoscimento facciale “è necessario per raggiungere un pubblico interesse, la cui importanza supera i rischi”. E i tre casi sono: la ricerca di vittime di reati e di persone scomparse; minacce certe alla vita o alla sicurezza fisica delle persone o di attacco terroristico; localizzazione e identificazione dei presunti autori di una lista di 16 reati. Terrorismo, traffico di armi e Wired

È comunque richiesta l’autorizzazione del magistrato. Come farà l’Italia in cui si stanno “abolendo” anche le intercettazioni? E che sta affidando la regia del controllo sull’IA Act non a Enti di controllo “super partes”, ma ad un fedelissimo del Presidente del Consiglio?

  • Ad alto rischio (c’è anche la scuola ed i suoi sistemi di valutazione).
    Sono considerati ad alto rischio sistemi di identificazione e categorizzazione biometrica
    o per il riconoscimento delle emozioni; applicativi di sicurezza di infrastrutture critiche; software educativi o di formazione, per valutare i risultati di studio, per assegnare corsi o per controllare gli studenti durante gli esami. E poi vi sono gli algoritmi usati sul lavoro, per valutare curriculum o distribuire compiti e impieghi; quelli adoperati dalla pubblica amministrazione o da enti privati per distribuire sussidi, per classificare richieste di emergenza, per smascherare frodi finanziarie o per stabilire il grado di rischio quando si sottoscrive un’assicurazione. Infine algoritmi usati dalle forze dell’ordine, dal potere giudiziario e dalle autorità di frontiera per valutare rischi, scoprire flussi di immigrazione illegale o stabilire pericoli sanitari.
  • Di uso generale
    Il testo regola anche i sistemi di AI per uso generale, in grado di svolgere compiti diversi (come creare un testo o un’immagine) e allenati attraverso un’enorme mole di dati non categorizzati, come GPT-4, alla base del potente chatbot ChatGPT, già sanzionato dal nostro garante della privacy, o LaMDA, dietro Google Bard. Gli sviluppatori devono assicurarsi che i contenuti siano marcati in un sistema leggibile da una macchina e siano riconoscibili come generati da un’AI. Un utente deve sapere se sta interagendo con una chatbot. E i contenuti deepfake devono essere etichettati come tali. Precauzioni che, tuttavia, non è detto siano sufficienti a impedire la diffusione di fake news, che la IA può, e di molto, potenziare e raffinare, violando i diritti alla informazione, alla espressione, al voto libero e informato. Ma anche il diritto alla formazione dell’opinione pubblica, non a caso sempre più orientata a credere a cose non provate. (Nichols).

Unica eccezione: l’impiego di questi sistemi per perseguire reati. Il regolamento fissa una soglia per identificare i sistemi ad alto impatto, che hanno maggiori effetti sulla popolazione e perciò devono rispettare obblighi più stringenti.

  1. La strada della conoscenza e della consapevolezza

Come cerchiamo di dimostrare e documentare in questa rubrica, un’altra strada, quella che più interessa la cittadinanza e le scuole è quella di conoscere di più per capire meglio. In questo senso la introduzione piuttosto superficiale della IA nella formazione dei docenti e delle scuole (sinora superiori) con corsi, seminari e dimostrazioni, resta deviante rispetto al fatto che “nuovo” non è sempre sinonimo di meglio, di definito, di motivato, di provato e utile.
Che “tecnologico” non è automaticamente sinonimo di certo, sicuro, efficace, risolutivo. Di progresso.
Le tecnologie non vanno solo conosciute prima ma vanno compresi i sistemi economici, sociali, politici che ne sono alle spalle (Soro) e che le propongono: perché, a quali condizioni, per quali interessi (in genere guadagnare soldi o scambi col potere politico che non le controlla); le conseguenze sui diritti e sulla educazione che stanno dietro a queste iniezioni forzate di tecnologie, fra “modernismo” e dominio degli oligopoli economici che ce le impongono.

Da dove arrivano, chi le controlla e chi non potrà mai controllarle, quali diritti sono in ballo e prima di tutto quale è la reale influenza sulla formazione dei nostri ragazzi e sulla formazione di una cultura e cittadinanza digitale?
Purtroppo i dati delle ricerche confermano che gli adolescenti sono già dentro la IA, ma in modo superficiale. Se 2 adolescenti su 3 hanno già fatto uso di applicazioni basate sull’intelligenza artificiale “generativa” come ChatGpt, in genere per usare le Ai come assistenti personali per generare testi, non mancano le criticità; se le nuove generazioni di “nativi” sembrano essersi evolute tecnicamente, i rischi esistono. Oltre 8 giovani su 10, infatti, accettano di buon grado che siti web e piattaforme possano influenzare il loro modo di conoscere il mondo con il 44,7% tendenzialmente d’accordo e il 37,8% fortemente d’accordo. Per non parlare dei fake, messi in circolazione grazie all’aiuto dell’AI, che solo avendo imparato si possono smascherare. Un’opera di discernimento che, purtroppo, la stragrande maggioranza dei giovani utenti è impreparata a fare: appena il 27% degli intervistati dice di conoscere il funzionamento del “deep learning” generativo e di saperlo illustrare perlomeno a grandi linee. Skuola.net

 Ma la scuola è solo l’anticamera della industria? La scuola, in particolare dalla Buona Scuola ad oggi, ha delegato la sua ricerca di strade e modelli nuovi e più adatti, fondati pedagogicamente, alla tecnologia ed a quella parte che è in mano ai privati. Di IA e programmazione open, controllabile anche dal basso si parla sempre meno.
La scuola che si intravede è tecnologica, privatizzata, controllata dall’esterno e dall’alto.
Come la sanità.

Se la scuola è la formazione di cittadini, di persone consapevoli, futuri lavoratori (anche nella IA spesso sfruttati e sottopagati, mentre i posti di lavoro come programmatore che la “Buona scuola” aveva ipotizzato si sono rivelati per quello che erano: una bufala) la inerzia di fronte alle mode ed al dominio di 10 ricchi monopolisti tecno/economici (molti dei quali come Zuck e Musk oggi già in crisi) è molto preoccupante. La mentalità, gli atteggiamenti, la consapevolezza che deriva dalla conoscenza e dalla riflessione sono quelli che interessano la scuola come ente formativo in cui le tecnologie entrano non perché di per sé valide (gli studi dimostrano il contrario) ma perché inserite in un progetto di conoscenza, riflessione, consapevolezza del mondo da cui arrivano ed in cui tutti viviamo. Compresi bambini con social e smartphone e adolescenti utenti passivi.

Una osservazione. Nelle proposte della “IA” le iniziative open, libere, gestite dal basso non sono mai citate. Mentre la scuola si abbassa a diventare l’anticamera della industria che la programma. Una industria che sfrutta, controlla, cui ci stiamo assuefacendo. Come nel PNRR Scuola 4.0. Ma di questo, se volete, parliamo altrove.

 




Inclusione, decadenza degli “intellettuali” e crisi della scuola dei diritti

disegno di Matilde Gallo, anni 10

di Rodolfo Marchisio

Io questo pezzo non lo volevo scrivere, perché penso che rispondere a EGdL (quello della “predella per ristabilire autorità del docente”, confondendo autorità con autorevolezza), che non è un esperto di scuola, sia quello che lui cercava, una provocazione per far parlare di sé. Ma invitato e tirato per i capelli da un paio di considerazioni, cerco di essere breve.

Intellettuale o influencer?

  • Propongo di abolire il termine “intellettuale”, parola ombrello (Guastavigna) che all’epoca di social, talk e improbabili influencer, non vuol dire più niente. Sicuramente non ha più un ruolo di punto di riferimento nella babele di web, talk e fake. Se “la rete dà la parola a tutti” (U. Eco ed è un bene teorico nel campo dei diritti), dà però anche la parola “a legioni di imbecilli” (U. Eco) e se in rete “1 vale 1” si pone il problema del rapporto tra la libertà di espressione e la competenza in merito all’argomento; “la mia ignoranza vale come la tua competenza” (Asimov). EGdL è esperto di scuola, didattica, pedagogia, inclusione? Dai 2 articoli direi di no.
  • Credo dovremmo parlare di studiosi, di ricercatori, competenti in un campo, anche se la conoscenza oggi è svalutata, anche grazie all’abuso della rete, rispetto alla opinione che chiunque può avere lecitamente. (Nichols).
    Lo studioso si caratterizza per il metodo e per la citazione di fonti, ricerche, documentazione e per l’argomentare vs affermare (come fanno i social e la politica) che validino il suo discorso e permettano agli altri di verificare se dice il vero.
    Lo fa anche wikipedia, il dizionario (non enciclopedia) su cui studiano i nostri ragazzi: questa pagina non è attendibile perché non riporta le fonti e non ha sito/bibliografia.
    Se no è uno qualunque che esprime la sua.

  • L’alternativa di moda è l’influencer da web o talk che spara opinioni e punta a emozionare, scandalizzare, provocare, strategie di moda in rete, TV e politica. EGdL è un influencer nel campo della scuola?

I diritti si possono perdere

  • Il secondo motivo per cui mi permetto di esprimere e documentare la mia opinione è che sono in ballo, in questo ribollire di pareri, livori, frustrazioni, diritti fondamentali per cui, come ci insegna N. Bobbio, ci si è battuti a lungo contro contrari e pigri, ma che si possono perdere in tutto o in parte. Sono nella scuola dal 1969 ed ho vissuto resistenze, diffidenze, difficoltà di parte dei docenti che vivevano come un peso l’inserimento di disabili e poi degli stranieri.
    Credo sia stata una faticosa conquista di diritti che non deve regredire e che non abbia fondamento scientifico la sua critica (Morello).
    La “normalità” non esiste, come non esistono molti concetti usati per separare: siamo tutti diversi ed il confine tra salute e malattia, abilità e deficit è legato ad una convenzione sulla quantità e sulle conseguenze.
    Gli alunni “deboli” non hanno solo diritto a migliorare, ma anche ad essere inseriti nella scuola e nella società. La scuola, per legge non deve solo istruire, ma anche formare la persona ed il cittadino. Qualunque cittadino.
    Il vivere tra diversi (ed ogni diverso è diverso da tutti gli altri diversi) è per tutti crescita, progresso, mediazione verso la cittadinanza democratica; mentre il vivere tra eguali è quanto ci impongono i padroni della rete (Rampini) nei social, comfort zone in cui ci autoconfermiamo tra eguali (Pariser, Bauman) e ci identifichiamo odiando un gruppo diverso da noi (donna, omosessuale, straniero, disabile).

Si può migliorare?

Quando facevamo i primi convegni internazionali sull’inserimento dei disabili a scuola, emergeva (progetto europeo Helios 2) che i popoli mediterranei (Italia, Spagna…) erano più avanti nella inclusione, nella socializzazione; avrebbero potuto far di più nel recupero o compensazione di abilità. I paesi del nord (es. Germania) prendevano i disabili, li chiudevano in ville e li addestravano in modo intensivo, migliorando le loro capacità meglio di noi. Ma non li inserivano nella vita, nella società, nella scuola. Occorre fare entrambe le cose, migliorando e non rinnegando. Ma ci vogliono risorse umane ed economiche.

La scuola è specchio della società e del clima politico e culturale in cui vive

Quelle conquiste sono state frutto di impegno e lotte contro la palude inerziale presente nella scuola allora ed oggi. Non è cambiato molto. La scuola ha sempre avuto una parte più innovativa, più attenta ai diritti ed a temi diversi nelle varie epoche e di contro una minoranza che ci vedeva un problema ed una “palude” talora pigra che si adattava al clima dominante o talora insabbiava.
All’epoca il clima era  teso alla conquista di diritti, oggi alla regressione.
Siamo nella epoca dell’”egocentrismo dei diritti individuali” contro i doveri di solidarietà ed i diritti degli altri (Zagrebelsky). Che sia interesse individuale, diritto di portare armi, diritto di prevaricare, occupazione abusiva del potere, difesa di sé, dei propri soldi e interessi (è sempre più “normale” non pagare tasse e violare le regole comuni a danno degli altri) contro il dovere fondamentale di solidarietà prescritto dalla Costituzione (dall’art 3 in poi).
Viviamo nella “Penisola che non c’è” (Pagnoncelli) che si basa sul percepito e non sui dati reali. Sulla pancia e non sulla ragione.
Inoltre il clima e la società in cui viviamo è quella in cui il 45 % dei cittadini non va a votare, e se una coalizione prende il 40% del 55 % dei votanti, col sistema elettorale attuale, prende il potere esecutivo (che sta “mangiando” gli altri poteri); prende tutto col consenso del 22% della popolazione. La realtà ed il clima in cui vive la scuola è questo. Due studi ci classificavano in serie B con USA e Giappone come “Democrazie con problemi” già anni fa.

L’indagine. Per chi è un problema l’inclusione?

Lasciamo perdere il valore della rilevazione della Tecnica della scuola a livello metodologico, di tipo social. Anche presa per indicativa di una tendenza il 40% dei docenti sarebbe in varie forme favorevole a modificare e qualcuno, oltre a sfogarsi, fa anche proposte sensate. L’altro 60%?
Ma la maggioranza degli allievi invece è contrario, non ci vede un problema. Allora i docenti che vogliono cambiare lo fanno per sé o nell’interesse degli allievi?
Forse i ragazzi sono un po’ più aperti ed i docenti manifestano disagio e problemi nel loro ruolo?
Ottimismo. Che possa essere anche merito della Ed. alla cittadinanza dopo 4 anni (peraltro non attuata in tutte le scuole e che vede diversi docenti, spesso nella secondaria, defilarsi e fare ostruzionismo?)
L’apprendimento è un fatto anche emotivo e sociale (Vigotsky, Goleman) ed avviene riconoscendo la diversità delle intelligenze (Gardner). Non esiste progresso nella omologazione.
Le reazioni di alcuni docenti troll ricupera il livore contro il “68”, il “politicamente corretto”. È odio in rete non argomentazione. Quelli del 68 sono oggi tutti tra i 75 e gli 80 (R. Palermo). Stanno organizzando la contestazione dell’Unitre.

Dice Valditara

“Le conquiste ed i diritti non si toccano” dice il ministro dell’ovvio. Ma va fatto qualcosa. Da chi? Dal Ministro e dalla politica. Che invece continuano a scaricare sulla scuola dopo la EC, la follia del PNRR, i problemi del “merito” (il governo è per la competizione e la competenza– degli altri non sua- non per l’inclusione), l’affettività, l’orientamento, il made in Italy spesso rifiutato dai collegi e tutti i problemi che la politica non sa gestire e risolvere. Se non mettendo una clausola finale. “Con invarianza delle risorse”. Allora è lecito pensare che una parte dei docenti sia stufa di risolvere problemi senza risorse (soldi e ore in più: incentivi estrinseci), ma solo con la motivazione e gli incentivi intrinseci di fare bene e fino in fondo il proprio lavoro?
Parliamo di risorse che sorreggano la motivazione e non di esclusione?

 

 

 

 




Intelligenza artificiale e/a scuola: questioni aperte e qualche conclusione (provvisoria)

di Rodolfo Marchisio

Due aneddoti

  • Mentre organizzavamo For Tic 1 con USR Piemonte e Unito, con M. Guastavigna, un assistente di Luciano Gallino tutto “goduto” ci ha mostrato un suo software che somministrava le prove, le correggeva, attribuiva i voti e inviava in automatico una mail agli allievi. Domanda: “se fa tutto il software, tu coi tuoi allievi quando ci parli?”
  • Ricordate il colonnello russo che contro ogni evidenza che proveniva dalle sue tecnologie (5 missili nucleari in arrivo dagli USA) ha preso tempo ed evitato di far partire la prima guerra nucleare?
    Ci ha salvato. È stato lodato e poi è sparito.

“Prima di usare tecnologie molto potenti, prima addirittura di ipotizzare per cosa usarle, bisogna anzitutto conoscere questi strumenti. Capire come funzionano, quali sono le loro potenzialità e (soprattutto) quali sono i loro limiti. Ma anche evitare di considerarli una scatola nera che processa chissà come input e restituisce magicamente output da applicare a occhi chiusi.” (Soro)

Soro e Rodotà
 “Tutto quello che è tecnicamente possibile è anche eticamente lecito, politicamente e socialmente accettabile, giuridicamente ammissibile?” (Rodotà)

L’algoritmo non è infallibile né neutro. Si tratta di opinioni umane strutturate in forma matematica. L’uomo ha (deve avere) la possibilità di intervenire in qualsiasi momento dei processi decisionali. (Soro)
Senza regole la società (l’ambiente) digitale rischia di divenire la società della schedatura, la rete, da straordinaria risorsa democratica, può diventare strumento di sorveglianza globale da parte dei grandi poteri economici” Rodotà.  Schiavitù volontarie o passive, disinformazione e post verità.
L’IA dà un grande potere a chi la gestisce. Quante delle nostre decisioni come cittadini sono sempre più condizionate: dagli acquisti, ai gusti, alle idee, al nostro stanco diritto di votare influenzato dalle Fake? I GAFAM e soci da servizi di informazione e comunicazione tendono a gestire anche servizi ed attività sociali, sanità, istruzione, servizi ai cittadini.

Si indebolisce la capacità di conoscere i fenomeni e governarli, di intervenire a vantaggio della comunità. (Soro).
Il pericolo del passato era che gli uomini divenissero schiavi, quello del presente è che diventino robot che vivono in bolle tra uguali “selezionati” da algoritmi, coi loro pregiudizi; intolleranti verso le differenze ed il pluralismo: tribù dei social asservite a badanti “Intelligenti”.
Il focus non è cosa fare o far fare alle tecnologie, ma cosa queste possono fare all’uomo (Soro, Turkle)

I fabbricanti di IA si interrogano già su come faranno a controllarla (loro figuriamoci noi) quando sarà più intelligente degli uomini e di loro; la risposta è farla controllare da forme di IA meno evolute. Ha senso?

“Occorre una etica dell’algoritmo e protezione dei dati. Internet da strumento è oggi dimensione, ambiente, ecosistema in cui viviamo; alla IA si delegano decisioni su lavoro, salute, ricerca, giustizia.
Aumenta sempre più ciò che la rete sa di noi e che noi non sappiamo ancora.
Dimostrato che gli algoritmi non sono matematica pura (infallibili e neutri), ma opinioni umane potenziate e implementate, il rischio è che i nostri pregiudizi ed errori siano amplificati dalla IA” (razzismo, discriminazione…). (Soro).
 Il passato (di cui si nutre l’IA) non va cristallizzato nel futuro, l’ultima parola deve aspettare all’uomo. Anche perché il 95% di chi usa la rete si concentra solo sullo 0,03% dei contenuti, quelli suggeriti dalle piattaforme.
La disintermediazione non deve diventare una delega in bianco ai potenti. (Soro).

IA e/a scuola
Le competenze digitali, non si possono ridurre a degli insegnamenti funzionali a singoli compiti, ma necessitano di una costante contestualizzazione culturale, politica e sociale
“L’intelligenza artificiale generativa può rappresentare un’enorme opportunità per lo sviluppo umano, ma può anche causare danni e pregiudizi – Audrey Azoulay dell’Unesco – Non può essere integrata nell’istruzione senza l’impegno pubblico e le necessarie garanzie e normative da parte dei governi”. La via che tenta l’UE.

Gli attuali esempi di intelligenza artificiale sono intrisi di un tipo di politica che applica soluzioni tecniche e di mercato a tutti i problemi sociali. Più prosaicamente, è possibile che l’intelligenza artificiale riproduca gli aspetti peggiori dell’istruzione scolastica: il saggio standardizzato è già fortemente vincolato dalle esigenze dei regimi di valutazione, e i modelli linguistici tendono a riprodurlo nel formato e nel contenuto.” Soro.

Burrell e Fourcade hanno distinto tra “l’élite del coding”, una nuova classe professionale di competenze tecniche e una forza lavoro recentemente emarginata o non retribuita, il “cybertariat”, da cui estrarre manodopera. Gli ingegneri e i dirigenti della Khan Academy sono una nuova élite di sviluppo dell’intelligenza artificiale nel campo dell’istruzione, che sfrutta il lavoro degli insegnanti e degli studenti del cybertariato in classe. (Khanmigo).
Richiede lavoro aggiuntivo non retribuito da parte degli insegnanti e ne estrae valore.
Infine l’intelligenza artificiale potrebbe, a lungo termine, esercitare un’ulteriore pressione degenerativa sulle pratiche e sulle relazioni in classe già ampiamente in crisi.

Alcune conclusioni

Sebbene gli agenti di IA siano in grado di ragionare su problemi molto complessi, non pensano nel modo in cui lo fa l’uomo. L’intelligenza artificiale può avere impatti sia positivi che negativi sulla società. (AI4K12.org)
Allora posto che:

  • Usare il digitale senza una cultura non solo è pericoloso ma è diseducativo
  • Non abbiamo bisogno di più “strumenti o più effetti speciali” (da Buona scuola a Scuola 4.0) ma di migliori cittadini e maggiore cultura della rete.
  • La scuola, i docenti, gli adulti devono essere in grado di dare un senso critico a ciò che i ragazzi fanno con la rete, a fare esperienze significative insieme: a costruire una cultura digitale.
  • Non è utile dividersi (favorevoli/contrari), ma conoscere di più (ricerca) per capire meglio. (Losito)
     (Però se per una volta lasciassimo in pace la scuola che deve ancora digerire il PNRR?)

 Preso atto che il capitalismo si ripete, si potenzia con la rete, rifiuta le regole e la democrazia[1] mi preoccupa la passività, il sonno, degli utenti/consum-attori più ancora che i “pericoli” delle supertecnologie in mani private.
Mi preoccupa vedere e rivivere sempre le stesse cose ad ogni apparire di novità
(o moda) tecnologica.
Papert pensava ad un metodo attivo. Anche per risolvere problemi di cittadinanza e formare cultura. Facciamo esperienze – coi più grandigiochiamo coi nuovi giocattoli per capire come funzionano, ma insegniamo soprattutto cosa c’è dietro ed in che mondo web viviamo con IA.
Ed impariamo a fare buone domande per avere risposte utili.

In sintesi dobbiamo decidere se l’IA debba essere un alleato, un assistente o un nuovo modo di dominarci.
Usare o parlare di IA per usare e non farsi usare. A che età e come?
Ecco i consigli della Commissione europea.

[1] Srinivasan ha pubblicato un intero libro, scaricabile gratuitamente, sul tema dei “network states”. L’idea di base è quella di creare reti di persone connesse via internet che nel tempo sviluppino un legame economico, politico e valoriale tale da identificarsi come gruppo nazionale. Il concetto di “network state” si basa su una democrazia “decentralizzata”, nella quale le persone avranno la possibilità di votare direttamente sulle questioni che le riguardano. I servizi essenziali come la salute, l’educazione e la cura saranno distribuiti attraverso la rete. Un “network state” avrà la capacità di riunire diverse comunità offline in una grande nazione del web. Alla fine, scrive Srinivasan nel suo e-book “possiamo ricucire digitalmente queste enclavi disgiunte in un nuovo tipo di entità politica che possa ottenere un riconoscimento diplomatico”. Si creeranno stati come si creano startup.
I “network states” sono essenzialmente società parallele, gestite tramite la rete, libere dalle pastoie regolatorie degli stati, delle banche centrali, delle burocrazie. Insomma, si potrebbe aggiungere, anche dalle noiose società democratiche
. (Wired WAR)

 




Intelligenza artificiale: perché pone interrogativi etici e sui nostri diritti di cittadini?

di Rodolfo Marchisio
e Stefano Penge

Dopo aver introdotto il tema, averlo approfondito  vediamo di spiegare un po’ di più gli aspetti critici dal punto di vista della cittadinanza.
Un intervento educativo (formazione di competenze e cultura digitale) è possibile solo se si supera la visione della digitalizzazione come un processo di democratizzazione spontanea dell’accesso delle informazioni oggi non più possibile. Agenda digitale. E come un processo “magico” e spontaneo di riforma della scuola in senso democratico grazie alle tecnologie

Quale IA
L’Europa ha stabilito i limiti da porre allo sviluppo della IA per tutelare i cittadini:
AI Act.
Riguardano i modelli fondativi alla base di grandi sistemi di AI e il ricorso alla sorveglianza biometrica e alla (ipotizzata) polizia predittiva. L’AI Act, inquadra i diversi sistemi di intelligenza artificiale pone paletti, proibisce alcune applicazioni e introduce procedure di salvaguardia per mettere al riparo i cittadini dell’Unione da abusi e violazioni dei diritti fondamentali. L’attenzione è:
1- sui modelli fondativi, quelle forme di intelligenza artificiale generali in grado di svolgere compiti diversi (come creare un testo o un’immagine) e allenati attraverso un’enorme mole di dati non categorizzati.
Si è lavorato ad una applicazione preventiva delle regole su sicurezza informatica, trasparenza dei processi di addestramento e condivisione della documentazione tecnica prima di arrivare sul mercato. Wired.
2- La UE è arrivata ad un compromesso sull’uso dell’AI per compiti di polizia e di sorveglianza.
Sul riconoscimento biometrico in tempo reale, ma si era discusso anche di polizia predittiva poi vietata. Ossia usare gli algoritmi per prevedere le probabilità con cui può essere commesso un reato, da chi e dove? Quali diritti verrebbero violati con questa delega? AI Act Europa (Wired)

Oltre a questo ci sono nodi e modi di vedere la IA (che è mondo complesso) che emergono anche dal fatto che il termine sia sempre più spesso accompagnato da un aggettivo (generativa, etica, spiegabile …).
Si riflette su questi temi e interrogativi:

  • L’intelligenza artificiale può prendere decisioni basate sui dati e sul passato. Talora errate a causa di una mancanza di consapevolezza del contesto. Esiste una possibilità di sapere come? Dovrebbe essere la IA explainable. (spiegabile). Ma funziona? Per tutta la IA?
  • Una decisione può influenzare la vita delle persone, essere utilizzata per scopi maligni, essere influenzata dai pregiudizi e dai valori dei suoi creatori. Gli algoritmi utilizzati nell’IA possono essere influenzati da pregiudizi, anche involontari. O “premiati” in modo da imparare in una certa direzione prefissata da chi li progetta. Ciò può portare a decisioni discriminatorie, sbagliate, diverse da quelle che avrebbero preso degli umani (processi di selezione del personale, prestito bancario…). Anche se le stesse decisioni umane sono diverse se prese da persone competenti, da potenti, da una maggioranza più o meno informata. Come constatiamo da anni. Ma il meccanismo si potenzia ed opacizza con IA.
  • L’ IA comporta la raccolta e l’elaborazione di grandi quantità di dati personali. Questo solleva preoccupazioni sulla privacy delle persone e sulla sicurezza dei dati.
  • L’IA sta automatizzando e sostituendo sempre più lavori umani. Ciò solleva preoccupazioni sulla perdita di posti di lavoro e sulla necessità di una riqualificazione delle persone.
    Vedi studi del possibile impatto sulla occupazione.
  • Nonostante i progressi nell’IA, esistono ancora criticità sui sistemi di controllo decisionale affidabili e trasparenti. Questi problemi richiedono una rigorosa regolamentazione, un’etica e una responsabilità riguardo all’uso dell’IA, nonché un’attenzione costante alla sua implementazione e sviluppo.

Stefano Penge, filosofo e informatico, avverte:
“L’interesse recente – da un anno a questa parte – per l’intelligenza artificiale, con tutti i discorsi a favore e contro, si è concentrato su un sottoinsieme particolare di abilità che attraggono e spaventano apparentemente più delle altre: quelle linguistiche, che permettono ad un software di analizzare un testo, di tradurlo, di prepararne un riassunto, ma anche di continuarlo o riscriverlo secondo un altro stile; il tutto, attraverso un’interazione continua con le persone (il famoso ‘prompt’).
Il riconoscimento facciale e la guida autonoma (le altre abilità di cui si occupa l’AI ACT) hanno in comune con questo sottoinsieme linguistico  l’abbandono della logica tradizionale, quella basata su regole e deduzione, a favore di una logica induttiva
Niente di nuovo, insomma: tutto sommato anche la nostra specie funziona così la maggior parte del tempo e solo in casi speciali usiamo la logica classica e il ragionamento formale. Vedi anche https://www.stefanopenge.it/wp/intellig-enti/.
Quelli citati sopra sono tutti esempi di machine learning, che indica una maniera di costruire modelli artificiali che simulano una parte del mondo (per esempio, un testo)  a partire dalla raccolta di dati relativi a miliardi di situazioni, per induzione appunto.
Questo sistema è inerentemente soggetto ad errore, perché i dati di partenza non sono tutti i dati ma solo una selezione;  perché la maniera in cui sono stati selezionati quei dati (e la maniera in cui vengono “premiati” i modelli migliori) potrebbe essere non oggettiva ma guidata da preferenze culturali o sociali. Ma soprattutto perché il futuro non è per forza uguale al passato, mentre il machine learning per sua natura si basa proprio su questa fede.
Ma anche se decidessimo di fidarsi delle competenze dei software basati sul machine learning, il problema nasce quando queste competenze vengono usate non a fianco, ma  al posto di quelle umane come se fossero equivalenti in qualità, perché costano di meno e rendono di più a chi le governa.”

Anche Sasha Luccioni, ricercatrice nell’AI etica e sostenibile -HuggingFace – sottolinea:

  1. Consumi energetici troppo elevati, i bias cognitivi che vengono riproposti dagli algoritmi, e la tutela del copyright sono le tre sfide che l’intelligenza artificiale dovrà affrontare.
    La diversità deve essere presente all’interno dei modelli dell’intelligenza artificiale: “La tecnologia non è neutra, i bias dell’intelligenza artificiale altro non sono che quello che noi vediamo nella società. Qualsiasi stereotipo si applichi viene peggiorato dal sistema, che tende ad amplificare la distorsione. Solo il 12% di chi lavora nell’AI è donna …è fondamentale che questa tecnologia “non sia nelle mani di pochi soggetti, deve essere open, per intervenire su questi aspetti in modo condiviso”. Wired
  2. Per tutelare la proprietà intellettuale e il copyright (Luccioni) bisogna “implementare meccanismi per capire quali siano le fonti che sono state utilizzate, analizzare i dataset usati da un’intelligenza artificiale. Un lavoro immane che va fatto fare dalle macchine, ma come e da chi controllate? E i cittadini/utenti in tutto questo?
  3. L’impatto ambientale non è trascurabile:
    Ad esempio, sono state emesse 500 tonnellate di CO2 per la creazione di Gpt-3”.
    Wired

    A proposito della possibilità di controllare l’IA
    Penge paragonava la IA ad una piccola bomba atomica: ha un potere enorme, ma può essere costruita (e smontata) solo da quelli che hanno sufficiente potere per raccogliere, selezionare e gestire i materiali (radioattivi!) necessari. Il semplice cittadino non avrà mai questa possibilità; al massimo può giocare con le interfacce che permettono di interagire con i software di IA.
    “Per dire meglio ci sono tre aspetti:
    uno è quello della chiusura del software, in questo caso della proprietà dei modelli linguistici utilizzati, che hanno grande valore perché sono stati prodotti con molte ore di calcolo e molto lavoro di revisione umana;
    – il secondo è quello delle dimensioni di questi modelli, che per essere creati e trattati richiedono risorse informatiche enormi, che consumano elettricità, scaldano, etc.;
    – il terzo è quello dell’opacità: un Large Language Model è costruito con miliardi di parametri. Significa che non è analizzabile da umani, non si può capire perché risponde in un modo o in un altro. Questi tre aspetti insieme impediscono di mettere le mani in questi strumenti come si potrebbe fare con un software libero, ad esempio con LibreOffice (ma non con MS Word)
    .”

    Tornando alla scuola un esempio di preoccupante ottimismo in questo podcast che ipotizza una scuola alla cinese. Paese che notoriamente è da tempo l’incarnazione del “grande fratello” che viola costantemente i diritti dei cittadini, sudditi ipercontrollati e prigionieri.  Concluderemo sulla scuola.

 

 




Intelligenza artificiale a scuola? Domande e riflessioni

di Rodolfo Marchisio

Dopo aver introdotto l’argomento cerchiamo di approfondire.
Sembra che in merito alla IA ci siano 4 atteggiamenti che animano il dibattito: Tecno-apocalittici, utopisti, attenti all’etica o alla sicurezza (Wired).
Chiarito che mi interessa conoscere di più per capire meglio, penso utile essere attenti alle conseguenze delle tecnologie su di noi come persone e come cittadini. E sui nostri diritti, spesso violati non dalle tecnologie in sé (Bauman), ma dai padroni della rete che le e ci controllano.

Tecnologia in divenire, molto diversificata nelle applicazioni.

La IA si sta evolvendo, cresce in maniera costante ed esponenziale (negli ultimi 4 anni il numero di parametri per modelli linguistici di grandi dimensioni è cresciuto di 1.900 volte) ma “passerà almeno un decennio per assistere ad una vera svolta”.
A me profano pare una tecnologia molto variegata, non ancora del tutto chiara anche perché diversi sono i tentativi, gli usi, le tipologie che si stanno sperimentando. Talora in competizione tra loro. Dicevamo una operazione di mercato non ancora definitiva. Vedi dubbi di Musk, di B. Gates e di altri GAFAM.

Dubbi su IA e cittadinanza 

  • Non controlliamo i suoi effetti. Ma anche il suo uso, perché è in mano ai padroni della rete che hanno denaro e tecnologie potenti.
  • Noi non possiamo “costruire” IA né spesso controllarla. Penge rifacendosi alla contrapposizione software free, open /proprietario paragona “la IA ad una piccola bomba atomica che non abbiamo gli strumenti per costruire in modo libero perché non avremo mai quella potenza di fuoco. Con cui però stiamo giocando.”
  • Che ha ancora parecchi difetti: riconoscimento facciale tarato sui bianchi caucasici, discriminazioni di genere; controllo, gestione, dati; “nutrimento” ed addestramento.
  • Che ha un grosso bisogno di essere nutrita da noi, dai nostri dati e prodotti e dipende da chi la propone e dal perché la propone: la colpa non è del web (Bauman), ma dei padroni della rete. Quindi le polemiche sui dati e prodotti e di chi potranno essere usati per nutrire e far crescere applicazioni di IA. Tutti i nostri dati e scritti online, anche quelli con diritto d’autore? Chi autorizza chi? Chi ci tutela?

L’impressione è che sia al momento una “parola ombrello” (Guastavigna), che contiene cose diverse ed ha diversi significati; che prima di somministrare agli allievi, vanno chiariti e distinti: cosa, a chi, perché e come?
 La mia attenzione è concentrata sulla strada indicata da S. Turkle di domandarsi non cosa fare col web ma cosa il web (compresa l’IA) fa a noi, al nostro cervello, alla nostra sfera reazionale, emotiva. Ed ai nostri diritti.

Rischi denunciati

“La crescente capacità di automatizzare le decisioni su larga scala è un’arma a doppio taglio; com’è noto: il rischio discriminazione non è mai lontano. Gli algoritmi elaborati sui dati storici rafforzano e amplificano i pregiudizi e le disuguaglianze già esistenti, con annessi rischi e minacce per i principi democratici.”
“Ridurre al minimo gli impatti negativi sulla società e valorizzare quelli positivi richiede quindi più che sole soluzioni tecnologiche; è necessario un impegno costante e un’attenzione continua della società. Pertanto, la preoccupazione più immediata per l’IA è cosa accadrà se verrà incorporata irrimediabilmente nella vita quotidiana prima che le sue criticità siano completamente risolte.
I Garanti europei per la protezione dei dati, affermavano che “applicazioni come il riconoscimento facciale dal vivo interferiscono con i diritti e le libertà fondamentali in misura tale da poter mettere in discussione l’essenza di tali diritti e libertà. […] Un divieto generale dell’uso del riconoscimento facciale nelle aree accessibili al pubblico è il punto di partenza necessario se vogliamo preservare le nostre libertà e creare un quadro giuridico incentrato sull’uomo per l’IA”. (Agenda digitale)

Uno studio dell’Università di Stanford indica che i successi del settore rendono ora indispensabile pensare seriamente ai lati negativi e ai rischi che un’ampia applicazione dell’IA può rivelare.

Rampini, Bauman, Pariser, Zuboff ed altri ci hanno insegnato che l’alternativa già oggi nel web è tra essere dominati passivamente o cercare di conoscere e contrastare i metodi dei sistemi economici, politici, sociali che stanno dietro agli ambienti, che ci vengono imposti.
Quindi l’alternativa è cercare di dominare un po’ di più o essere dominati
Se noi cittadini siamo “prigionieri del capitalismo oligopolistico oggi digitale” dobbiamo avere la umiltà di ammettere che siamo tutti dei primitivi…e recuperare il senso critico nei (dei) tempi critici in cui viviamo. (De Kerchove).

Scuola

Se anche la scuola è (già) prigioniera del capitalismo oligopolistico oggi digitale. Bonsanto, Micro Mega, ci fermiamo a riflettere?

a) Perché (e come) proporla a scuola?
b) Ne ha bisogno la scuola (in genere priva di cultura digitale diffusa)?
c)  L’ha chiesta per risolvere qualche suo problema o ne ha già troppi?
d) A che livello di scuola è proponibile?

Tutte le mode e tutti i problemi si riversano in una scuola/contenitore di tutte le mode e di tutti i problemi, nonostante il disorientamento o l’esaurimento dei docenti. Non bastano un referente e qualche iniziativa per problema (Digitale, Ed Civica, Orientamento, Educazione alla relazione ed affettività, STEM …). La ed. civica al quarto anno di sperimentazione non è stata attivata in alcune scuole o in alcune classi e non da tutti i docenti. La scuola 4.0 quanti docenti coinvolgerà realmente? Mi pare che più aumenta la pressione sulla scuola per risolvere problemi complessi che riguardano la società, la politica, la famiglia, meno docenti si lascino coinvolgere. “Mi hanno lasciata sola” dice una referente di Ed. Civica.
D’altra parte anche Dig Comp 2.2. (marzo 22) “affronta l’interazione dei cittadini con sistemi basati su IA non sulla conoscenza tout court della stessa.
Le competenze digitali, non si possono ridurre a degli insegnamenti funzionali a singoli compiti, ma necessitano di una costante contestualizzazione culturale, politica e sociale.”

Approfondiremo ancora.

 

 




Intelligenza artificiale a scuola: argomento di moda o tema da approfondire?

di Rodolfo  Marchisio

Il tema di gran moda quest’anno è quella della IA. Come se non esistesse già prima. Naturalmente quando c’è un tema alla moda (o un problema purtroppo…) lo si vuole subito associare o meglio iniettare nella scuola. Fioriscono i primi convegni, i molti libri, soprattutto le case editrici non si fanno sfuggire l’occasione di essere tra le prime ad offrire corsi e webinar su questo argomento.

Conoscere per capire

Vorrei chiarire che il mio modo di ragionare da sempre è che di fronte a cose nuove e complesse “non è il caso di dividersi (pro vs contro) ma di conoscere di più per capire meglio”. Le osservazioni che farò spero servano a questo e derivano dalla mia esperienza di docente che si portava negli anni 80 i “computer” (allora ZX 81 o Vic 20 solo poi Spectrum o C 64) da casa e li attaccava alla TV. Che per 25 ha fatto l’”animatore digitale”, organizzato laboratori e ambienti di apprendimento “digitali”. Domandandosi quali competenze di docenti e allievi venivano messe in gioco. Come fare e perché. E che conseguenze avrebbero avuto su di noi come persone e cittadini. Poi come formatore dal 1982 (dal PSTD a Scuola 4.0) ha seguito tutte le costose iniezioni di tecnologie che la scuola ha subito – non richiesto – come mercato di riserva delle tecnologie da ufficio, non progettate secondo le sue esigenze. Una per Ministro, nella colpevole illusione che le tecnologie potessero risolvere i problemi della scuola e sostituire una riforma della stessa. Innovazione al posto di progetto. Tecnologie al posto di idee. Iniezioni mai monitorate, spese mai verificate dal ministero, come ha raccontato Gui e come posso testimoniare. Cercando, come formatore, di mediare tra le paure delle tecnologie prima e poi tra il saper usare e sapere come e perché funziona così verso la necessità di formare competenze di cittadinanza e cultura digitale. Il web nel frattempo è molto cambiato (“Non riconosco più la mia creatura”, dice T.B. Lee). Gli studi OCSE 2014, 15 e studi seguenti hanno rilevato che “Le tecnologie di per sé non modificano la qualità dell’insegnamento/apprendimento”. I “buoni docenti si. L’ideale sarebbe dare “buone” tecnologie” in mano a “buoni” docenti, che non solo le usino, ma che si domandino “come funziona e perché funziona in questo modo e che conseguenze ha su di noi”. Come richiesto anche dal Sillabo del MI nel 2018, in cui si scriveva: la situazione attuale del web è complessa, i ragazzi devono sapere cosa succede sulla loro pelle in rete, perché cambiare è ancora possibile. È anche l’anno in cui sono state ridefinite le competenze chiave a livello europeo introducendo le competenze digitali, collegate alle competenze di cittadinanza in Italia che con le prime si identificano: perché tutte  le competenze chiave sono competenze di cittadinanza e viceversa (come ci spiega Bruno Losito). Questo mi interessa visto che dobbiamo formare le persone ed i cittadini e orientarli nel mondo.

Per essere più chiaro ce l’ho coi padroni della rete (Rampini), col capitalismo degli oligopoli digitali che ci sfruttano e riducono i nostri diritti (Schiavi del clic, Casilli) e con quegli insegnanti che, per moda o per stanchezza, si concentrano sull’insegnare ad usare e non sull’insegnare a riflettere. Può essere utile leggere un articolo di Marco Guastavigna che condivido in pieno. Un esempio: la sciagurata scelta delle piattaforme per la DaD, in prevalenza Google (Zoom, Class room e simili) da cui però siamo ancora, dopo quattro pronunciamenti duri dell’allora Garante della privacy Soro, dipendenti.

Il compito della scuola non è quello di insegnare a usare solo, ma di insegnare a conoscere e smontare il giocattolo web per una cultura e cittadinanza digitale.  Se chiudo mia figlia in garage a giocare coi comandi non è che impara a guidare. (Attivissimo, A. O. Ferraris)

La legge 92/19 definisce in modo simile gli obiettivi della Ed. Civica: alla fine il ragazzo deve raggiungere obiettivi legati alla cittadinanza, in genere, non all’uso (cfr. art 5.2.) «Usare il digitale andrebbe insegnato nella scuola sin da piccoli e non parlo di come funziona uno smartphone ma dei sistemi sociali, politici, economici che sono alle spalle» (Soro, ex Garante privacy). L’EC ci ha insegnato che viviamo in contemporanea in 3 ambienti: Sociale, Naturale, Digitale intrecciati tra di loro. Il nostro mondo.

IA è una novità?

Se ne parla perché c’è. Vero, ma c’era in varie forme già prima. Allora come parlarne e perché? Molti ricordano i primi test di Turing, qualcuno ricorderà il chatterbot Eliza (1966) che dialogava come uno psicoanalista, rispondendo ad una domanda con una domanda che catturava una nostra frase chiave. Ricordo i sistemi esperti in medicina, quando insegnavo pedagogia, psicologia e un po’ di informatica agli Infermieri professionali dei corsi parauniversitari della Regione Piemonte. I sistemi esperti riproducevano, seguendo un diagramma di flusso, il comportamento di un medico umano: 1- Sintomi, 2- anamnesi, 3- ipotesi probabilistica della malattia da diagnosticare, 4- Nuovi accertamenti e dati da immagazzinare, 5. Ipotesi di diagnosi e 6- proposta di cura. Oggi la potenza di incorporare dati ed elaborarli è molto maggiore, ma continuo a pensare che sarebbero un ottimo assistente per gli amici medici, cui però dovrebbe spettare l’ultima parola, perché sono quelli che possono pensare: tutto porterebbe a…ma in base alla mia esperienza e conoscenza del paziente ho la sensazione cheIA è già tra noi: a partire dagli algoritmi di google e dei social di cui però non siamo né consapevoli né padroni se mai vittime o consum-attori.

Una operazione di marketing?

Ma perché tutti parlano di Ai? Perché è un’eccezionale operazione di marketing, una delle meglio organizzate degli ultimi anni. Su questa, le imprese della Silicon Valley si stanno giocando il tutto per tutto, per invertire il trend negativo fatto di tagli al personale e cambi drastici dei loro programmi di sviluppo. Intelligenza inesistente, Borroni Barale. Wired parla di “corsa all’oro”.

Quale intelligenza? Quante definizioni di intelligenza e quante di IA?  In un saggio del 2007 Legg e Hutter elencarono 53 definizioni di intelligenza umana e 18 di Intelligenza Artificiale (Floridi).

Cosa vuol dire intelligenza? Io mi tengo strette le idee di Gardner, sulla pluralità delle intelligenze e quella di Goleman sul rapporto tra intelligenza ed emozione. In base alla mia esperienza, intelligenza, apprendimento e contesto relazionale ed emotivo, clima di classe sono fortemente collegate. Si apprende (e si cambia) soprattutto in un gruppo, con esperienze emotive comuni e significative.

Mi sembra che la situazione sia piuttosto complessa e la semplicità non esiste se non come prodotto della riflessione sulla complessità. Vogliamo approfondire insieme?




PNRR Scuola 4.0. Organizzazione dell’ambiente di apprendimento digitale e ruoli del docente

di Rodolfo Marchisio

Dopo

Organizzazione degli spazi e dei tempi e loro necessaria flessibilità in didattica che usi il digitale.
Didattica digitale: il web e le TIC come ambiente di apprendimento
Dimensione pedagogica- organizzativa: gli spazi
Dimensione metodologica: esperienze e attività finalizzate allo sviluppo di competenze intellettuali e sociali attraverso la diffusione di metodologie didattiche.
Digitale nell’apprendimento: ricerca, esplorazione e scoperta
Ricerca e conoscenza
Apprendimento cooperativo e condivisione
Didattica laboratoriale.
Imparare ad imparare

Si tratta ora di affrontare i temi relativi a

  • Diversi ruoli del docente. Il docente non solo ha un ruolo nuovo, ma deve imparare a giocare diversi ruoli fondamentali
  • Importanza degli aspetti emotivi e relazionali anche, e soprattutto, in ambienti digitali.
  • E spiegare cosa intendiamo quando parliamo in modo insistente di cultura digitale, – contrapponendola all’addestramento all’uso di uno strumento o ambiente – come compito della scuola e quindi anche dei progetti relativi al PNRR.

Valutazione formativa
La valutazione formativa è la bussola che orienta il percorso educativo-didattico. [1]

La valutazione mediante software ha attraversato un momento strumentale con il CAI e il CAD, cioè la valutazione, spesso solo quantitativa, ancora in uso anche nelle Università, alle superiori e nei concorsi. Con questionari spesso a risposta multipla somministrati online e poi valutati con ottica sommativa o dando un peso alle varie risposte col programma stesso (talora poi comunicati in automatico via mail o pubblicati).
Ancora ora una parte della valutazione viene affidata a software ed algoritmi (es: Registro elettronico + tabelloni elettronici degli scrutini ed esami, prove standardizzate…).
Un apprendimento come quello descritto sopra non può invece essere accompagnato e concluso che con fasi di osservazione durante il lavoro, con strumenti e metodologie di valutazione formativa. E con forme di autovalutazione, proprio perché è un percorso personale di esperienza, anche relazionale ed emotiva, condiviso e non una singola performance.
E poi il docente non deve solo rilevare un errore o problema, ma caso mai rifletterci sopra con gli allievi, anche con forme di autovalutazione. E questo la macchina non lo fa. [2]
Il lavoro in ambiente digitale trova la collocazione della valutazione intesa come valutazione formativa in un processo metodologico per competenze che preveda le fasi: Progettazione -> Osservazione -> Riprogrammazione ->Valutazione e autovalutazione-> Documentazione.
Le forme di osservazione e valutazione sono già previste nella progettazione, che, come momenti di verifica, tendono a modificare.[3]

Ancora due annotazioni:
1- la osservazione per la valutazione (del progetto, non solo di singole performance individuali) è fatta di raccolta di informazioni e dati: l’uso di ambienti digitali facilita la raccolta, organizzazione ed elaborazione di dati e fornisce informazioni sul lavoro dei singoli o dei gruppi (chi fa cosa, chi consulta cosa, chi scambia messaggi, risorse…), evidenziando i contributi e documentando i progressi individuali e del percorso.
2- Inoltre l’ambiente digitale facilita, fornendo ambienti e strumenti (prima prassi i siti delle scuole), la documentazione, il rendere pubblico e condivisibile non solo il prodotto, ma il percorso fatto. Documentazione utile a far conoscere il progetto e la ricerca al fine di costruire archivi condivisibili e consultabili, come memoria della didattica ed evitando di fare tutti la stessa ricerca. Auspicabili archivi generali (a livello nazionale e regionale) accessibili.

Valorizzazione e diverso ruolo del ruolo del docente

 L’ambiente di apprendimento non può prescindere da coloro che lo abitano; in esso i docenti rivestono un ruolo essenziale. ibidem
In ambiente digitale il docente ha ruolo di proposta, di discussione, di progettazione, di mediazione, di coordinamento, di stimolo alla riflessione che deve avvenire durante e dopo il lavoro (meta riflessione). Senza consapevolezza di quanto si è fatto, imparato, dei problemi emersi o scoperti, delle dinamiche relazionali attivate non c’è formazione di competenze digitali utili. Quindi non basta far lavorare i ragazzi, se poi non li si fa riflettere sul percorso, sulle esperienze, sulle dinamiche, sui prodotti. Rivoltella. Inoltre il docente ha una funzione di esempio, di proposta, di co-costruzione del progetto, di coordinamento, di osservazione organizzata delle dinamiche, dei problemi, delle nuove strade che si aprono (ma anche di attenzione e stimolo rispetto ai temi della sicurezza online).

4- DIMENSIONE RELAZIONALE: CLIMA RELAZIONALE D’APPRENDIMENTO E COSTRUZIONE PARTECIPATA DI REGOLE CONDIVISE DI CONVIVENZA

Valorizzazione delle esperienze degli allievi.
Le esperienze di vita degli allievi rappresentano il terreno fertile su cui far crescere nuovi apprendimenti. ibidem
L’ esperienza di esplorazione e collaborazione in forme nuove spesso poco conosciute, con problemi tecnici da affrontare non può avvenire se il docente si ferma ad un atteggiamento di paura: paura di non dominare le tecnologie, di non dominare il processo o le cose sconosciute che si possono incontrare in rete, di dominare o scoprire insieme i due “fronti” quello tecnico-operativo e, in contemporanea, quello formativo ed operativo con la classe.
O se è demotivato o manca di fiducia nelle competenze, tecniche e non solo, in divenire, degli allievi; è utile essere consapevoli del fatto che queste competenze implicite non sono sufficienti a dominare il web e non esserne dominati. I nativi digitali non esistono – Attivissimo ed altri.

Spesso però la collaborazione fra competenze tecniche implicite degli allievi e competenze formative di progetto, di stimolo, meta riflessione e consapevolezza dei docenti per quanto riguarda la cittadinanza digitale, cioè il lavoro collaborativo con due diversi ruoli è esperienza formativa vincente e significativa dal punto di vista relazionale ed emotivo per gli allievi. Perché il docente si è messo in gioco con loro, pur conservando il suo ruolo di controllo, formativo, di organizzatore e tutor, ma accettando il contributo di altre esperienze e integrandosi con esse. Promuovendo gradualmente e consapevolmente autonomia.

Inclusione delle diversità

Per attivare procedure inclusive all’interno della classe ed evitare che le diversità si trasformino in disuguaglianze: è opportuno adottare specifiche strategie. ibidem

Ci sono tre modi per essere “diversi” nell’uso delle TIC e del web:
a- quella della disabilità o di BES cui le TIC offrono da decenni aiuti molto concreti sia in ottica aumentativa che in ottica sostitutiva e o di adattamento dei compiti. In questo il digitale è una risorsa storica e non un problema. Sempre che i docenti siano formati e capaci di usare in modo utile gli strumenti offerti. I disabili spesso se li portano da casa o li hanno usati nelle scuole precedenti. Li conoscono già.
b- Quella del divario digitale fra chi ha, anche a casa, le TIC e la rete e chi no e non può permetterselo (circa il 25  % degli Italiani non ha la connessione o non se la può permettere. Mentre tutti (94%) hanno uno smartphone. I dispersi della DaD (ca 30%) sono stati i disabili e i ragazzi in difficoltà socio-economica, anche perché si vergognavano di farci entrare a casa loro. Questo evidenzia differenze sociali ed economiche all’interno della classe.
Per questo occorre molta attenzione sia nel richiedere agli allievi di portare da casa strumenti digitali che la scuola non può offrire, sia nell’assegnare compiti/lavori a casa che alcuni allievi ed alcune famiglie non possono affrontare. È un problema educativo sulla strada della integrazione, solo in parte e solo a certi livelli di scuola (superiori) aggirabile con l’uso di smartphone, maggiormente, ma non universalmente diffusi. In DaD si è lavorato su questo, il PNRR oltre la spesa tecnologica compulsiva ha un filone apposta. Vedremo.
c- Dell’utilità delle TIC per l’inclusione: le TIC agevolano la possibilità di diversificare i contributi dei singoli allievi all’interno della classe o del piccolo gruppo di lavoro, permettendo quindi la valorizzazione dei vari diversi contributi ed abilità degli allievi, con i loro diversi stili di apprendimento e l’apprendimento tra pari.

Clima emotivo di classe
L’apprendimento avviene attraverso una relazione di empatia; ecco perché il clima della classe determina la qualità dei percorsi educativi-didattici. ibidem
Gli aspetti emotivi e relazionali sono, in “ultima analisi”, determinanti nell’apprendimento che “passa” attraverso il rapporto docente-allievo e tra gli allievi della classe. All’interno di quello che B. Losito ha spesso chiamato il “clima di classe”.[4]
L’apprendimento (e l’insegnamento) sono esperienze emotive, non solo concettuali e il clima emotivo condiziona fortemente (in positivo o in negativo) la riuscita in ogni gruppo di lavoro.
Gli ambienti e le tecnologie sono ambienti emotivi oltre che relazionali e la introduzione di ambienti e strumenti nuovi, da sempre provoca dinamiche di entusiasmo in pochi e di paura e disorientamento in molti  docenti, più ancora che tra gli allievi.
L’empatia da raggiungere dei docenti verso la classe e l’imbarazzo nei confronti di ambienti e strumenti nuovi sono da sempre, un ostacolo alla introduzione delle tecnologie. È quindi un obiettivo da raggiungere, attraverso la scelta condivisa, la formazione (non addestramento) e la esperienza tutorata. Ogni nuovo ambiente di apprendimento porta delle paure di essere incapaci di affrontarlo e potrebbe invece invogliare all’empatia il gruppo che lo affronta insieme.

Il docente

Il ruolo del docente nel determinare il clima di classe è fondamentale, perché i ragazzi imparano da ciò che noi siamo e dalle esperienze significative che facciamo insieme, soprattutto se hanno una componente emotiva. Ovviamente il tipo di relazione si giudica sul lungo periodo (coerenza) e non in base ad episodi temporanei.
È utile al clima di classe ad esempio che un docente:

1. dimostri un atteggiamento di disponibilità all’ascolto
2. dimostri empatia e capacità di tollerare i problemi, per poi cercare di risolverli
3. valorizzi la positività dei propri allievi piuttosto che sottolinearne le carenze
4. sia disponibile al dialogo e all’accettazione di pareri diversi dal suo se li ritiene utili
5. dimostri coerenza e sia trasparente nelle decisioni che riguardano allievi e classe e nella valutazione ibidem

Il tipo di lavoro attivo, collaborativo e cooperativo di una ricerca o di un’esperienza digitale col docente che lavora insieme agli allievi, con competenze e ruoli diversi, ma tendenti allo stesso fine comune non può che rafforzare la conoscenza reciproca, il senso di comunità di apprendimento e quindi il clima del gruppo. Anche cercando insieme le soluzioni e accettando tutti i suggerimenti utili. Diverso è se il docente, in aula o in laboratorio, “porta i ragazzi a lavorare” e poi non si mette in gioco con loro fino in fondo. Il lavoro col digitale esce dai sentieri conosciuti, tende all’esplorazione, al nuovo e quindi alla scoperta di percorsi e problemi nuovi e comuni. Una vera ricerca sa dove comincia, ma non sa come finisce.

Domande
Non è il digitale anche secondo gli studi OCSE 2014, 2015 e più recenti[5], che aggiunge valore di per sé e migliora l’apprendimento, ma il buon docente, il suo atteggiamento nel lavoro e nella relazione e le sue scelte metodologiche.
Ideale sarebbe dare “buone” tecnologie in mano a buoni docenti, ma se queste riflessioni sono condivisibili:
1- PNRR scuola 4.0 e relativa formazione sono su questa strada?  Oppure avremo la solita formazione tecnica orientata al “saper usare” un giocattolo nuovo e stupefacente (pareti e tavoli “immersivi” …)?
2- I docenti, in generale, una volta che la scuola avrà fatto la obbligatoria spesa digitale, sono poi disponibili aiutati e motivati a questa costosissima nuova situazione? O la subiranno, insabbiandola?
3- Avremo fatto un passo avanti ragionevole nella evoluzione dell’uso del digitale a scuola (da parte di tanti) o avremo buttato via un sacco di soldi?

——————————————————————-

[1] Lo schema generale di questo contributo si rifà al lavoro, oggi da me aggiornato ed integrato, del gruppo di Cittadinanza e Costituzione dell’Istoreto, allora coordinato da R. Marchis; in particolare lo schema è stato elaborato da F. Ceriani e R. Marchisio e discusso con L. Truffo, M. Carello, F. Bilancini e le altre colleghe del gruppo. Prendiamo a prestito lo schema generale per riflettere oggi sulle implicazioni educative del Piano PNRR.

[2] Dobbiamo molte nuove idee e nuovi stimoli sulla valutazione formativa attuata in ambiente digitale al libro di S. Penge
https://www.edizionianicia.it/prodotto/valutare-negli-ambienti-digitali/

[3] Il concetto di circolarità del curricolo didattico è presente da tempo, ad esempio nei lavori di Nichols e Nichols, ma ha trovato una definizione più completa nella proposta metodologica del lavoro per competenze, peraltro spesso osteggiato, mal compreso o deformato nella scuola. Collegata è la esperienza di valutazione formativa nella primaria (talora non bene compresa e attuata) OM 172/20.

[4] Oltre a B.Losito, Goleman, Intelligenza emotiva

[5] Vedi anche Gui, Il digitale a scuola, https://www.mulino.it/isbn/9788815283207