Elon Musk, i popoli della Amazzonia e il colonialismo tecnologico

di Rodolfo Marchisio

Musk è chiaramente un personaggio egocentrico, contradditorio, anche nelle sue scelte di campo, tranne che su 2 cose: sul fatto di guadagnare soldi e che si parli di lui.

La iniziativa (di cui all’articolo di M. Guastavigna) è una forma di neo colonialismo tecnologico, razzista che si basa sulla convinzione della superiorità, grazie alle tecnologie (anche da noi discusse in modo critico, soprattutto per l’oligopolio della loro gestione da parte dei Big e per la mancanza di attenzione ai problemi che creano a cittadini, lavoratori ed ecosistema) della cultura occidentale). Diversa la iniziativa di B. Gates anni fa di portare PC a manovella a popolazioni che non avevano la energia elettrica.

C’è una presunzione di superiorità del ruolo delle tecnologie e della nostra cultura che va contro i diritti alla autodeterminazione dei popoli, dei cittadini e dei popoli e delle nazioni indigene[1]
Come quando abbiamo portato l’alcool (e i virus e la “vera” religione) negli altri continenti.
Non parliamo del buon selvaggio felice, ma del fatto che nessuno, né privato, né stato, ha il diritto di sconvolgere la evoluzione di un popolo, arrogandosi il diritto ed il potere di migliorare (deus ex machina) le sue condizioni in base alla presunta superiorità della nostra cultura occidentale esportando non solo tecnologie ma problemi (patologie e dipendenze) da noi irrisolti.
Noi siamo prigionieri delle tecnologie (dei padroni delle tecnologie), che se ci servono, però ci sfruttano come cittadini e consumatori; creano assuefazione ed effetti dannosi dal punto di vista fisico, psicologico, sociale, ci cambiano profondamente. [2]

Ci abbiamo messo secoli per arrivare a questa situazione, abbiamo avuto la possibilità di adattarci in modo critico (anche se non lo abbiamo fatto) e non ne siamo usciti, chiusi tra utilità, necessità, ma anche dominio, sfruttamento e problemi irrisolti.
Un popolo non può essere usato come cavia. Si tratta di un esperimento che usa popoli come cavie, senza tesi da dimostrare, senza preoccuparsi delle conseguenze, per far parlare di sé.
Per questo andrebbero aggiornate alla situazione attuale le varie dichiarazioni dei diritti dell’uomo e dei popoli, compresi i popoli “indigeni”, già ampiamente sfruttati: nel senso della autodeterminazione, del dialogo tra culture, dell’aiuto e della non ingerenza.[3]

Aggiornate ma poi attuate.

 

[1] Dichiarazione Nazioni unite sui Diritti dei popoli indigeni, maggio 2008 https://www.un.org/esa/socdev/unpfii/documents/DRIPS_it.pdf
https://it.wikipedia.org/wiki/Dichiarazione_dei_diritti_dei_popoli_indigeni
[[2] https://www.youtube.com/watch?v=Giibp5GApVg
[3]https://www.ohchr.org/sites/default/files/UDHR/Documents/UDHR_Translations/itn.pdf
https://it.wikipedia.org/wiki/Carta_di_Algeri:_Dichiarazione_Universale_dei_Diritti_dei_Popoli
https://unipd-centrodirittiumani.it/it/attivita/Autodeterminazione-diritti-umani-e-diritti-dei-popoli-diritti-delle-minoranze-territori-transnazionali/187




Perché le IA vengono proposte alle scuole?

Premessa

In teoria dalla dispersione scolastica alle prove Invalsi sono sempre di più e sempre più efficaci, gli strumenti di AI al servizio di docenti e studenti. Ma c’è bisogno di più cultura sul tema ed impegno pubblico.” Sostiene Chiara Panciroli.

R: Sulla mancanza di cultura siamo d’accordo.

La IA non può essere integrata nell’istruzione senza un grande impegno pubblico e le necessarie garanzie e normative da parte dei governi. Azoulay. Unesco. R: Vero.

Per fare cosa?
Il modo più chiacchierato è l’uso di Chat GPT e simili (da parte degli allievi) per “barare” nelle esercitazioni o nei compiti in classe. Poi?

Le varie forme di IA possono aiutare la didattica come si vorrebbe? A quale prezzo?

L’intelligenza artificiale generativa può automatizzare l’elaborazione delle informazioni e la presentazione dei risultati finali attraverso tutte le principali rappresentazioni simboliche del pensiero umano. Consente di consegnare i risultati finali fornendo prodotti di conoscenza semi-lavorati. Liberando gli esseri umani da attività appartenenti a livelli di pensiero di ordine inferiore. Panciroli

R
: quali sono le attività “inferiori” a scuola? Compilare registri e atti? Nelle attuali condizioni di bassa motivazione e ristrettezza dei tempi, non sarebbe utile anche concentrarsi e confrontarsi per valutare un alunno in base non solo a dati, ma a osservazioni, relazioni, episodi, informazioni? Liberare tempo per parlarsi in queste condizioni strutturali e di risorse? Ma per fare questo occorre passare dalle IA?

questa nuova generazione di strumenti d’intelligenza artificiale potrebbe avere profonde implicazioni nella nostra comprensione d’intelligenza umana e apprendimento.

  R: O meglio potrebbe intanto essere un’occasione per riflettere su come funzionano intelligenza umana e apprendimento, e se esiste l’IA e come funzionano le sue varie applicazioni prima di comprarle o di farcele imporre.
Conoscere per capire

Uno dei temi più importanti è quello della cosiddetta explainability, ossia la comprensione e la spiegazione di cos’è e come funziona un’intelligenza artificiale”. Prima addirittura di ipotizzare per cosa usarli, bisogna anzitutto conoscere questi strumenti. Capire come funzionano, quali sono le loro potenzialità e (soprattutto) quali sono i loro limiti.

…è indispensabile comprendere come funzionano i prompt da dare al sistema: con input pessimi si hanno output pessimi, e gli strumenti perdono di utilità”. Panciroli.

Si ipotizzano utilità di sistema (scuola) e utilità didattiche.
Tra le prime abbandono scolastico (“predittivo”?) e la valutazione.
Come? Le presenze a lezione, i tempi di consegna dei compiti e altri parametri, prevedono quando è più probabile che uno studente possa abbandonare gli studi: l’idea è che in questo modo si possa intervenire per tempo, per esempio con un riorientamento rapido o offrendo un piano didattico personalizzato ed evitare l’abbandono.

  R: Questa modalità ha fondamenti pedagogici parziali (di parte) e poco fondati. Ma intanto

a- la logica predittiva può sbagliare e violare diritti (è già stata vietata a livello di polizia dall’IA Act UE)
b- Con che risorse e modalità si approntano soluzioni (i docenti lamentano di non avere spazi di confronto, progettazione e valutazione, fagocitati e silenziati dalla compilazione di un foglio elettronico con arrotondamenti deformanti)?
c- È vero che la individualizzazione del tutoraggio è difficile e costosa, ma il rischio è di non adattare lo strumento al bambino, ma il bambino al modello di chat bot disponibile centrato sulla “logica” – o meglio su una impostazione “statistico-induttiva[1] (Guastavigna) basata sui dati antecedenti, validi o no e quindi sulla raccolta ed il trattamento statistico di dati;  nella incapacità di gestire tutti gli altri aspetti emotivi e relazionali dell’apprendimento.
È una scelta pedagogica
che sta a monte di quello che le applicazioni denominate di IA possono fare, bypassando quelle che chiamano concezioni psicologiche dell’apprendimento individuale e puntando sulla ottimizzazione delle performance cognitive e di abilità. Che sono una parte del problema, ma non il contesto di soluzione.
– d) Allora meglio più risorse per la individualizzazione e l’inclusione, il confronto sul metodo
o meglio più chat bot (uno per allievo)?


Un secondo campo è quello legato al sistema di valutazione delle scuole, l’Invalsi: l’intelligenza artificiale può fare da supporto a questo sistema, per esempio leggendo e comparando in modo integrato tutti i dati raccolti e individuando criticità, punti di forza, lacune. ibidem

R: Sappiamo che la lettura, validità e utilizzo (ora anche individuale non più solo di sistema) dei dati INVALSI è un campo minato. E dopo avere ottimizzato i dati cosa facciamo (quali modelli) e con che risorse? Per quali obiettivi, prima di sistema ora anche individuali, anche se anonimi; con personale formato, rimotivato, pagato? Che è il vero problema.

Utilità didattiche. Valutazione

Questi strumenti consentono di superare la cosiddetta valutazione sommativa (quella tradizionale, ricavata da test, interrogazioni e simili) e passare a una valutazione formativa. Che dia ai docenti feedback ricorsivi con cui comprendere meglio le lacune degli studenti e mettere in campo tempestivamente delle attività di supporto
 
R: La IA ha trovato il modo di superare la valutazione sommativa? In realtà offre solo dati apparentemente più organizzati ai docenti. Il problema sono le risorse (ore docenti e soldi) per intervenire, le scelte politiche e poi metodologiche e l’atteggiamento dei docenti.

Come? Con quali parametri?
“Esaminando la struttura delle frasi scritte dagli studenti, gli errori ricorrenti, il tempo di consegna dei compiti e fornire così al docente un punteggio continuo, semplificando tra l’altro la correzione”

R: L’uovo di Colombo; la valutazione su cui discutiamo da decenni è tutta qui?

Le mappe

Ci sono infine i mediatori visivi che semplificano con mappe (?) le lezioni per i più in difficoltà.
Esistono ancora delle resistenze da parte del sistema educativo rispetto all’adozione di questi strumenti, in parte dovute al fatto che “per definizione la scuola è un luogo conservatore e contrapposto all’innovazione”, e in parte dovute alle paure relative alla privacy. Un tema certamente delicato e importante, ma che secondo l’esperta non va ingigantito: “Quello della privacy” conclude “è (almeno in parte) un falso problema” (?) sostiene Chiara Panciroli .

R: L’impressione è che si cerchi di vendere le applicazioni di IA (in questo caso “povera” e fondata su un modello di apprendimento parziale e discutibile) per risolvere problemi storici della scuola, “razionalizzando” con un metodo induttivo la raccolta dei dati e proponendo tutoraggi automatici individualizzati perché è quello che le IA sanno fare a mala pena ora.
a- È un lavoro integrativo, ma non la soluzione
b- ma a pagamento e tutto da testare ancora, anche perché ogni ragazzo, contesto, paese è diverso dagli altri e non basta ridurre disagio ed abbandono decontestualizzato ad una unica categoria algoritmica.
c- Bypassando la complessità, la diversità, l’intreccio apprendimento/socializzazione/ relazione emotività e clima di classe e scuola.

Non sapendo affrontare la complessità, si standardizzano gli allievi.

Infatti.

“In generale i chat bot, che qualcuno ha definito “motori di plagio” attingono a vaste riserve di informazioni che molto probabilmente sono inquinate dalla disinformazione passata o da materiale parziale e discriminatorio, e forse potrebbero diventare ancora più numerose, così come i contenuti automatizzati inondano il web.”  Singer nel rapporto del NYT.
I sostenitori pensano che i chat bot in classe potrebbero “democratizzare” l’idea del tutoraggio personalizzando automaticamente le risposte agli studenti, consentendo loro di lavorare sulle lezioni al proprio ritmo. I critici avvertono che i robot, addestrati su vasti database di testi, possono fabbricare una disinformazione apparentemente plausibile, rendendoli una scommessa rischiosa per le scuole Ben Williamson [2]

Approfondiamo.

Negli USA si sta cominciando a sperimentare in una scuola quello che in Italia stanno già propagandando ampiamente (al buio). Perché gli attuali esempi di intelligenza artificiale sono intrisi di un tipo di politica che applica soluzioni tecniche e di mercato a tutti i problemi sociali.

  • Nella esperienza dei test Khan migo (dietro cui c’è Bill Gates)gli educatori sembrano prendere parte a un “esperimento sociale”in cui i sistemi codificati di istruzione – pedagogia, curriculum e valutazione – vengono tutti riconfigurati dall’intelligenza artificiale, richiedendo sforzi laboriosi da parte degli educatori per adattare le loro pratiche professionali”. Carlo Perrotta

   R: Siamo disponibili a questi sforzi, a testare ed arricchire gratuitamente la IA a vantaggio degli oligopoli che ce la propongono? Ne abbiamo il tempo e ne vale la pena?

Anche perché l’IA’ può esercitare anche effetti degenerativi sull’apprendimento stesso.
“Più prosaicamente, è probabile che l’intelligenza artificiale riproduca gli aspetti peggiori dell’istruzione scolastica: il saggio standardizzato è già fortemente vincolato dalle esigenze dei regimi di valutazione, e i modelli linguistici tendono a riprodurlo nel formato e nel contenuto.”

La seconda questione è ciò che Perrotta ha descritto in termini di “divisione dell’apprendimento” – citando Shoshana Zuboff – che denota una distinzione tra organizzazioni di intelligenza artificiale con “infrastruttura materiale e capacità intellettuali esperte” per apprendere dai dati e mettere a punto modelli e processi, e gli sforzi non retribuiti degli utenti quotidiani le cui interazioni con i sistemi rifluiscono nel loro sviluppo continuo. Burrell e Fourcade hanno distinto tra “l’élite del coding”, una nuova classe professionale di competenze tecniche, e una forza lavoro recentemente emarginata o non retribuita, il “cybertariat”, da cui estrarre manodopera.” Nel caso Khan migo, gli ingegneri e i dirigenti della Khan Academy sono una nuova élite di sviluppo dell’intelligenza artificiale nel campo dell’istruzione, che sfrutta il lavoro degli insegnanti e degli studenti in classe per “ottimizzare” il loro prodotto.

R: In altre parole I big della IA stanno sfruttando il lavoro di manovalanza dei docenti per mettere a punto un prodotto che dall’anno prossimo sarà a pagamento per le scuole (60 $ a studente)
R: A parte lo sfruttamento del lavoro gratuito dei docenti, con che soldi le scuole, caso mai interessate, potranno pagare questi prodotti? Chi controlla e valida l’esperimento?

Il problema, per i big di IA, è che il tutoraggio individuale è “troppo costoso da sostenere su larga scala per la maggior parte delle società”. “Ma ostacoli finanziari suggeriscono che è improbabile che i chatbot in classe potenziati dall’intelligenza artificiale democratizzino il tutoraggio in tempi brevi.”

 R: Allora si fanno lavorare i docenti per ottimizzare il prodotto e poi rivenderglielo fidelizzando le scuole (come successo con Zoom ed altri prodotti proprietari cui ci siamo assuefatti in tempi di Covid ed in mancanza di iniziative ministeriali) e senza nemmeno puntare ad un tutoraggio individuale democratico.

  • Il dirigente della scuola che sta sperimentando in USA e che ci mette classi e manodopera docente ha affermato: “Il costo a lungo termine dell’intelligenza artificiale è per noi motivo di preoccupazione”.
  • Se le IA richiedono lavoro aggiuntivo non retribuito da parte degli insegnanti e ne estraggono valore, l’intelligenza artificiale e altre tecnologie predittive possono anche, come sostiene Sun-ha Hong, sottrarre potere discrezionale ai professionisti, rimodellando o addirittura diminuendo il loro processo decisionale e la portata del giudizio professionale. Nel caso sperimentale di Khan migo, anche il potere discrezionale dell’insegnante è almeno parzialmente sfruttato, ridotto o quanto meno complicato dalla presenza di un tutorbot.[3]
  • R: Infine, l’intelligenza artificiale nell’istruzione potrebbe influenzare la capacità delle scuole di sostenere altre spese strutturali e di risorse per problemi prioritari.
  • “Potenziali effetti degenerativi.Oltre agli effetti degenerativi che può esercitare sulle condizioni professionali degli insegnanti, sui contenuti didattici e sulla sostenibilità finanziaria delle scuole, l’IA ha anche effetti ambientali degenerativi (Inquinamento NdA) e impatti sulle condizioni di lavoro dei lavoratorinascosti”  che aiutano a formare modelli generativi.”

“La rassegnazione all’intelligenza artificiale come caratteristica inevitabile del futuro dell’istruzione è pericolosa, poiché rischia di bloccare gli istituti di istruzione, il personale e gli studenti in sistemi tecnici che potrebbero esacerbare anziché migliorare i problemi sociali esistenti, come il superlavoro degli insegnanti e il degrado delle opportunità di apprendimento e il sottofinanziamento della scuola”. Dan McQuillan.

[1] https://www.treccani.it/vocabolario/induttivo/
[2] Le citazioni se non attribuite si riferiscono al saggio di Ben Williamson tradotto per Roars.
vedi anche blog autore
https://codeactsineducation.wordpress.com/ .

 

 

[3] https://journals.sagepub.com/doi/10.1177/20539517231171053




IA e scuola. Intelligenza, apprendimento, relazione, linguaggio, valutazione

di Rodolfo Marchisio

Mentre continua il marketing e l’offerta di corsi, libri, incontri sull’uso della IA nella scuola, per fortuna più alle superiori, ma sta arrivando, perché è la moda dell’anno, lasciano perplesse le modalità di questa iniezione di tecnologia, teoricamente avanzata, ma sempre in corso di approfondimento e discussione tra gli esperti; anche presunti. Dite un nome di uno che si occupi o si sia occupato della scuola e verificate se non ha già detto la sua.
Negli USA la sperimentazione nelle scuole pone diversi interrogativi simili a quelli del nostro PNRR.

Uso contro cultura.

Il problema di partenza è la modalità con cui viene proposta alla scuola. Come ogni tecnologia, insegnando (a docenti ed allievi) ad usare. Cosa fa e come si usa. Non cosa ci sta dietro, quali conseguenze può avere su di noi e sui nostri allievi, come stiamo cambiando nella relazione con le tecnologie.  Domande che ci dovremmo porre per capire.
Questo per un difetto congenito nel rapporto tecnologia/scuola e per una mancanza di chiarezza da parte delle Istituzioni. Sembra che nella vita dei nostri allievi sarà più importante saper usare che capire un po’ di più le tecnologie che già usano e che useranno sempre più. E che li stanno cambiando.

Competenza digitale. Una delle competenze chiave per l’apprendimento permanente

La competenza digitale implica l’uso sicuro, critico e responsabile delle tecnologie digitali e il loro impiego nell’apprendimento, nel lavoro e nella partecipazione alla società̀. Comprende l’alfabetizzazione all’informazione e ai dati, la comunicazione e la collaborazione, l’alfabetizzazione ai media, la creazione di contenuti digitali (compresa la programmazione), la sicurezza (compreso il benessere digitale e le competenze relative alla sicurezza informatica), le questioni relative alla proprietà̀ intellettuale, la risoluzione di problemi e il pensiero critico.” [1]
 
“L’intelligenza artificiale generativa può rappresentare un’enorme opportunità per lo sviluppo umano, ma può anche causare danni e pregiudizi – afferma Audrey Azoulay dell’Unesco – Non può essere integrata nell’istruzione senza l’impegno pubblico e le necessarie garanzie e normative da parte dei governi”. “I programmi di intelligenza artificiale generativa sono esplosi con ChatGpt che ha dimostrato la capacità di generare saggi, poesie e conversazioni con input e suggerimenti anche brevi. Molti però si sono posti fin da subito dubbi molto radicali”.
In una nuova guida per i governi l’organismo educativo delle Nazioni Unite avverte che “le autorità pubbliche non sono pronte ad affrontare le questioni etiche legate all’introduzione di programmi di IA nelle aule”. ANSA
Diciamo che sia l’IA che la sua utilità ed i suoi rapporti, specie con l’apprendimento e la formazione, sono complessi.

E i docenti?

Aggiunge l’esperta: “Anche se il 90% delle scuole ha attivato percorsi di formazione ai docenti per l’utilizzo degli strumenti digitali, nella gran parte delle scuole almeno la metà dei docenti non si sente a proprio agio nell’utilizzo delle nuove tecnologie. È un segnale di come oggi la formazione del personale scolastico sia poco efficace.”

 I A e I. Umana

Abbiamo già ricordato che esistono più di 50 definizioni di intelligenza umana e sviluppi diversi di Intelligenze Artificiali.
“Sebbene gli agenti di IA siano in grado di ragionare su problemi molto complessi, non pensano nel modo in cui lo fa l’uomo[2]. L’intelligenza artificiale può avere impatti sia positivi che negativi sulla società. Le tecnologie di IA stanno cambiando il modo in cui noi lavoriamo, viaggiamo, comunichiamo e ci prendiamo cura gli uni degli altri. Tuttavia, dobbiamo essere consapevoli dei danni che possono potenzialmente verificarsi. Per esempio, i pregiudizi nei dati utilizzati per addestrare un sistema di IA potrebbero portare alcune persone ad essere trattate in modo peggiore rispetto ad altre. Perciò, è importante discutere degli impatti che l’IA sta generando nella nostra società e sviluppare criteri per il design etico e per la diffusione dei sistemi basati sull’IA.” AI4K12.org[3]

Per fare cosa

Un difetto della scuola italiana, voluto dai ministri che l’hanno “governata”, è quello di attribuire proprietà taumaturgiche alle tecnologie, per non analizzare ed affrontare i problemi che la scuola evidenzia (dalla disoccupazione – Buona scuola – alla IA). Dalla dispersione scolastica alle prove Invalsi: sono sempre di più, gli strumenti di AI al servizio di docenti e studenti. Ma c’è bisogno di più cultura sul tema, dice Chiara Panciroli. Prima di usarli, prima addirittura di ipotizzare per cosa usarli, bisogna anzitutto conoscere questi strumenti. Capire come funzionano, quali sono le loro potenzialità e (soprattutto) quali sono i loro limiti. Ma anche evitare di considerarli una scatola nera che processa chissà come un input e restituisce un certo output.

Quali tipi di relazioni

  • La relazione che si instaura con forme di IA è non solo di tipo razionale è anche emotiva.
  • L’intelligenza non è di un tipo solo (Gardner) e non è solo di tipo logico deduttivo (Penge).
  • È fortemente intrecciata con l’ambiente, la sfera emotiva, le relazioni (Penge, Goleman)
  • L’insieme di relazioni e di ambienti in cui viviamo è più complessa di come viene presentata. Non è solo un algoritmo, è un cambiamento nella nostra vita che dovremmo capire meglio.
  • Occorre riflettere sul rapporto Intelligenza – apprendimento, perché sinora gli strumenti di IA cercano di imitare l’intelligenza umana soprattutto dal punto di vista logico-deduttivo e non sono (ancora?) in grado di riprodurre la complessità delle dinamiche di apprendimento o rischiano di renderlo algoritmico, impoverendolo. Possono leggere Gardner e Goleman ma non sono in grado di funzionare con gli allievi in modo conseguente.
    Come alcuni di noi.
  • Allora più spesso vengono proposte per colmare lacune cognitive, anche attraverso materiali didattici, oppure per valutare, ma dubito che capirebbero la complessità del dibattito sulla valutazione formativa e sulle conseguenze della scelta tra i due tipi di valutazione. Con buona pace del Ministro Valditara.
  • Quasi tutti gli esperti pongono attenzione a problemi come la privacy, la sicurezza e soprattutto il controllo. Chi è in grado a scuola di controllare e correggere eventuali errori di un programma di IA quando gli oligopoli che la producono si stanno preoccupando loro di come faranno a controllarla quando sarà più intelligente di noi?
    Problemi di scelte ed “etici”? Problemi di formazione, cultura e cittadinanza.

Quali relazioni. Un esempio. Perché siamo gentili con ChatGPT?[4]

Quali sono le conseguenze della costante interazione con le intelligenze artificiali sul nostro modo di comunicare? Si inizia a fare luce sulla cortesia verso le chatbot e non solo.

“Ciao ChatGPT, per favore potresti fare una cosa per me?”. “Ogni volta che mi interfaccio con il Large language model di OpenAI per sbrigare qualche faccenda di lavoro… mi viene istintivamente, senza pensarci, da essere gentile con lui (nella mia mente, ChatGPT è di genere maschile)”. Wired, Signorelli.
Secondo un sondaggio informale su X circa il 70% delle persone trova almeno “abbastanza difficile” essere maleducati con ChatGPT, mentre solo il 16% lo trova “abbastanza facile” (il restante 14% non lo utilizza). Ibidem.

 Spiegazione ironico-emotiva
“Visto che un giorno diventeranno coscienti e si trasformeranno nei nostri padroni, spero che le intelligenze artificiali si ricorderanno di chi è stato gentile con loro.

Spiegazione tecnica
Ci sono parecchi studi che confermano come trattare bene ChatGPT e i suoi simili – dirgli di “fare pure con calma” o addirittura di “pensare bene” prima di dare una risposta – permetta di ottenere risultati migliori (la spiegazione di questo strano fenomeno, che potete trovare qui, è purtroppo esclusivamente tecnica).

Il giornalista tecnologico David Futrelle sul suo blog, riportando anche il parere della ricercatrice Jenna Burrell, sottolinea che “è molto più salutare pensare a essi come a degli strumenti che come a persone”. Notiamo anche che spesso tendiamo ad “umanizzare” tecnologie quando sono diverse da noi (chi dà un nome all’auto o al robottino che spazza e parla loro), ma forse lo saremo meno quando saranno umanoidi. Timore della competizione? Wired.
“Come già sta avvenendo in parecchi altri campi, l’impressione è insomma che non siamo noi che stiamo insegnando alle intelligenze artificiali a parlare o scrivere come esseri umani. Sono loro che stanno addestrando noi a comunicare come delle macchine.” Signorelli, Wired.

Conclusione

Non siamo andati fuori tema. Vogliamo dire che la relazione che instauriamo con le tecnologie che ci servono ci modificano anche, sono molto varie e riguardano la sfera razionale e cognitiva, ma anche quella dei rapporti, delle emozioni, del linguaggio e delle scelte come cittadini.
Questo dovrebbe indagare la ricerca ed a questo dovrebbe formare la scuola. Prima di tutto.

[1] (Council Recommendation on Key Competences for Life-long Learning – Raccomandazione del Consiglio sulle competenze chiave per l’apprendimento permanente, 22 maggio 2018)
[2] Cosa sulla quale gli esperti non hanno le idee chiare e posizioni coerenti
[3] https://ai4k12.org/
[4] https://www.wired.it/article/chatgpt-chatbot-buone-maniere/

 




IA “Etica” oppure Etica della IA? Quali valori, quali regole, quali limiti

di Rodolfo Marchisio

Ha senso parlare di IA in generale?

  • In realtà si tratta di diverse applicazioni in campi molto diversi e con finalità diverse. Cosa le accomuna? “L’intelligenza artificiale è un nome che descrive un modo di fare software. In particolare, è un modo di fare software nuovo, che consente di affrontare nuovi problemi e creare nuove applicazioni sostiene Quintarelli [1] Le possibili applicazioni, i campi e gli obiettivi possono essere allora molto diversi. Alcuni già esistenti altri in via di sviluppo.
  • Ci sono molti modi di intenderla e praticarla: in questo periodo si parla molto di IA Generativa (più legata allo sviluppo di chat “intelligenti” in grado di imparare ed agli sviluppi ed usi linguistici o mediatici), di IA “etica”, di IA “spiegabile”, ma anche di “IA noiosa” …
  • Ma anche sono diversi i modi di pensarla e di raccontarla. Si va dal catastrofismo al trionfalismo (talora ingenuo o magari interessato), alle strane  utopie dei miliardari, alla necessità di dare regole e porre limiti. Ma l’IA esiste già nella indifferenza generale (nei motori di ricerca ed in molte applicazioni); e poi c’è quella noiosa già esistente nei settori della agricoltura ad esempio di cui nessuno parla.[2]
  • Tutti parlano invece di IA, ma in modo generico e spesso divergente, concentrandosi su aspetti o problemi diversi. Certamente oggi la “parola dell’anno” è esplosa come fenomeno di moda e come operazione di marketing insieme e, se uno vale uno, tutti si sentono autorizzati a dire o teorizzare la loro opinione ed il loro (spesso interessato o poco informato) punto di vista.
  • È importante invece distinguere alcune figure con ruoli, interessi, responsabilità diverse.

I “padroni” che sono pochi ricchi e potenti; gli esperti, che non vuol dire chi ha una laurea o una cattedra, ma chi ci lavora, chi ci riflette e anche chi si informa; poi i politici e i decisori e soprattutto (anche se non è più di moda) i cittadini che vivono e vivranno, in vario modo, le conseguenze di quello che altri decidono e realizzano.

Ha senso parlare di IA “etica”?

  • Allora ha senso parlare di IA “Etica” intesa come responsabile, che si dà o rispetta delle regole o è meglio parlare di Etica della IA?
    Chi deve essere “etico” cioè rispettare vincoli e regole? La tecnologia, il programma, chi lo progetta e finanzia per guadagnarci o per potere, per controllare altri violando diritti?
    Aldilà del catastrofismo e delle paure o dell’euforia che accompagnano ogni “rivoluzione tecnologica” si è posto in vari modi il problema di tutelare diritti, stabilire regole (“paletti”), di stabilire a protezione dei diritti dei cittadini delle regole, dei limiti, in modo diverso.Quali sono questi problemi? Anche Quintarelli ne elenca alcuni: “L’uso dell’intelligenza artificiale a fini anti-competitivi, la creazione di posizioni di monopolio, lo sfruttamento del lavoro delle persone, la discriminazione. Quando si dice che l’umanità rischia l’estinzione a causa dell’AI, sono baggianate (dice lui)mentre può preoccupare l’utilizzo dell’AI negli armamenti: certamente se facciamo armi autonome, anche in conseguenza del fatto che sappiamo che l’AI sbaglia, possiamo attenderci esiti nefasti. Ma di nuovo, il problema non è l’AI ma l’uso che ne facciamo noi… Quindi queste grandi visioni su ipotetici grandi temi e grandi problemi mascherano problemi attuali concreti che sono importanti, appunto, come lo sfruttamento del lavoro delle persone, la creazione di rendite di monopolio, lo sfruttamento del lavoro altrui”. Tra l’altro.
  • Un altro problema che si è posto nel dibattito da parte delle stesse imprese che la propongono è l’IA che crea Fake in periodo di elezioni, In teoria molte aziende e social si impegnano (?) a non diffondere fake su candidati e partiti. Forse la prima elezione “dopata” di Trump ha indotto a riflettere. Vedremo chi mantiene la parola.

Esiste una etica globale?

Un problema fondamentale che esiste da sempre e che è già emerso col web ed il suo sviluppo, globale e oligopolistico insieme, è che l’etica, come mediazione sui valori/interessi/diritti in un dato paese (o zona del mondo) è un fatto relativo dal punto di vista geografico e storico. Come i valori e diritti stessi (N. Bobbio) che si devono conquistare, ma che si possono perdere in tutto o in parte, l’etica è relativa nel tempo e diversa nelle varie parti, culture e nei vari paesi o regimi del mondo.[3]
Basta confrontare le posizioni in merito che emergono in paesi con culture diverse:
UE (AI Act); USA a livello normativo o come autodeterminazione a livello globale degli stessi promotori della IA; oppure in Cina ad esempio, dove i valori, le regole, il rispetto dei diritti che sono appunto relativi dal punto di vista storico, geografico, politico sono diversi.[4]

L’UE prima ancora dell’atto sulla IA aveva indicato come requisiti da rispettare:
1- Supervisione umana
2- Robustezza e sicurezza
3- Privacy
4- Trasparenza
5- Assenza di discriminazioni
6- Benessere sociale ed ambientale
7- Responsabilità contro impatti negativi

Un altro atto era stato la Carta etica europea per l’uso dell’IA nei sistemi giudiziari (2018): principi di rispetto dei diritti fondamentali, di non-discriminazione, di qualità e sicurezza, di trasparenza, imparzialità, equità e di controllo da parte dell’utilizzatore.

Anche in Italia l’Agenzia per l’Italia digitale ha prodotto un libro bianco legato soprattutto a criteri d’uso nella pubblica amministrazione, dove si parla di problema etico, sfida tecnologica, competenze necessarie, problema dei dati e problemi legali e del coinvolgimento degli utenti, perché il principio di fondo è che l’Intelligenza Artificiale debba servire soprattutto per affiancare le persone e aiutarle a svolgere le loro attività, ma non per sostituirle. [5]

In USA in assenza di una regolamentazione pubblica, sono emerse enunciazione di principi da parte di privati, come Google [6] ed altri, basati però sulla volontà dei responsabili e senza un controllo pubblico. Che è un dato significativo di un modo di pensare in cui la libertà individuale (dalla espressione alla iniziativa economica) sono i punti di riferimento più forti.

La Cina (2019) ha pubblicato [7], dopo una ricerca tutta interna, un elenco di principi: essere vantaggiosa, al servizio della umanità, responsabile, controllare i rischi, progettazione etica, riflettere sulla diversità e sulla inclusività, incoraggiare la condivisione aperta.
Puntare a ottimizzare l’occupazione, l’armonia e la cooperazione, l’adattamento e la moderazione, il perfezionamento, l’implementazione, la pianificazione a lungo termine.

Ma aldilà delle belle parole sappiamo come funzionano già le attuali implementazioni della IA in Cina e come vengano usate spesso a danno dei diritti e delle libertà dei cittadini, dando priorità al potere politico attuale ed alla espansione economica.

Perché questa panoramica, magari un po’noiosa?

Paesi con storie, esperienze e quindi culture diverse possono usare le stesse parole come paravento o per indicare atteggiamenti diversi.
Ricordo uno scrittore arabo che mi aveva fatto riflettere sul fatto che per noi europei “giustizia” era intesa come giustizia sociale, rispetto dei diritti, in relazione alla nostra storia e quindi alla nostra cultura. Nella loro cultura era storicamente legata a “rispetto della legge”. Per cui il dialogo sui diritti umani era difficile.

Cosa c’entra allora la scuola, anello debole della catena sociale?

In questa complessità continuo a domandarmi in che modo la IA “debba” essere introdotta nella scuola, essendo intreccio complesso a causa della globalizzazione che non è dialogo tra culture se non sulle mode e con finalità diverse.  A meno di spiegare tutte queste cose e limitarsi a cosa si può fare con

[1] https://www.wired.it/article/intelligenza-artificiale-noiosa-quintarelli/
[2] ibidem
[3] https://www.einaudi.it/catalogo-libri/scienze-sociali/politica/leta-dei-diritti-norberto-bobbio-9788806223434/
[4] Sull’AI Act vedi anche https://www.gessetticolorati.it/dibattito/2024/02/06/giornata-della-sicurezza-in-rete-difendersi-dalla-privatizzazione-del-web-e-dalla-ia-non-controllata/
[5] Per una sintesi https://libro-bianco-ia.readthedocs.io/it/latest/doc/sintesi.html
[6] AI at Google: our principles, su Google, 7 giugno 2018.
[7] Intelligenza artificiale, pubblicati gli standard etici da non oltrepassare, su Cina in Italia, 26 maggio 2019

 




Giornata della sicurezza in rete. Difendersi dalla privatizzazione del web e dalla IA non controllata

di Rodolfo Marchisio

 Tra le varie “giornate” ricorrenti e celebranti c’è quella fondamentale della sicurezza in rete, 6 febbraio. Però quest’anno va integrata, perché non è solo più la giornata della sicurezza necessaria in merito a dipendenza (in un paese in cui 1/3 dei bambini tra i 5 e gli 8 anni ha un profilo social ed uno smartphone con seri danni e nella indifferenza dei “grandi” e 2 adolescenti su 3 usano IA e chat Gpt senza saper come funzionano) e privacy, controllo dati, odio e violenza nel web, violazione di diritti. Temi fondamentali con radici simili.
Ci sono importanti novità; da come difendersi dalla Scuola 4.0 a come difendersi dalla moda e dalla operazione di marketing della IA generale non controllata. Cominciamo da questa, troppo di moda per essere vera. L’IA è un mondo di attività, proposte diverse che andrebbero conosciute ed analizzate separatamente. Con alcune attenzioni comuni. Questa rubrica sta dando conto di questo e fornendo dati, riflessioni, stimoli.

IA ACT. Cos’è.

Sta per essere messo a punto l’atto di regolamentazione sulla IA approvato dalla UE. Gli USA come al solito vanno per i fatti loro, pur avendo le maggiori imprese che si occupano con alterne vicende di IA, secondo le logiche del libero mercato e della libertà di espressione. Interesse individuale contro la responsabilità sociale richiesta ad es. dalla nostra Costituzione.
L’UE, dopo avere cercato con scarsi risultati di far pagare le tasse a costoro, ha provato e sta mettendo a punto, si spera per giugno, una serie di regole nello sviluppo della IA.

1- La strada delle regole

  • Usi proibiti perché pericolosi e lesivi.
  • Tecnologie subliminali per manipolare i comportamenti di una persona; quelli che abusano di persone vulnerabili e fragili; la categorizzazione biometrica che fa riferimento a dati personali sensibili, come il credo religioso, l’orientamento politico o sessuale; la pesca a strascico (scraping) da internet di volti, come fece anni fa la contestata startup Clearview AI; il riconoscimento delle emozioni sul posto di lavoro o a scuola; i sistemi di punteggio o social scoring. Il testo vieta anche la polizia predittiva, ossia usare informazioni come tratti della personalità, nazionalità, situazione familiare o economica, per stabilire la probabilità che una persona compia un reato.
    Tenendo conto che l’IA si nutre di tutto quanto c’è in rete, a partire dai nostri pregiudizi.
    Le donne, i meridionali, i migranti sono tutti…
  • Riconoscimento facciale.
    Come noto sta funzionando male soprattutto per i non bianchi, maschi, caucasici. Crea problemi di identificazione (dai viaggi, alla identificazione di presunti colpevoli).
    Riguarda l’impiego di sistemi di riconoscimento facciale e biometrico in tempo reale. Applicazione proibita, perché può portare “a risultati marcati da pregiudizi e provocare effetti discriminatori“. Salvo in tre “situazioni”, nelle quali il riconoscimento facciale “è necessario per raggiungere un pubblico interesse, la cui importanza supera i rischi”. E i tre casi sono: la ricerca di vittime di reati e di persone scomparse; minacce certe alla vita o alla sicurezza fisica delle persone o di attacco terroristico; localizzazione e identificazione dei presunti autori di una lista di 16 reati. Terrorismo, traffico di armi e Wired

È comunque richiesta l’autorizzazione del magistrato. Come farà l’Italia in cui si stanno “abolendo” anche le intercettazioni? E che sta affidando la regia del controllo sull’IA Act non a Enti di controllo “super partes”, ma ad un fedelissimo del Presidente del Consiglio?

  • Ad alto rischio (c’è anche la scuola ed i suoi sistemi di valutazione).
    Sono considerati ad alto rischio sistemi di identificazione e categorizzazione biometrica
    o per il riconoscimento delle emozioni; applicativi di sicurezza di infrastrutture critiche; software educativi o di formazione, per valutare i risultati di studio, per assegnare corsi o per controllare gli studenti durante gli esami. E poi vi sono gli algoritmi usati sul lavoro, per valutare curriculum o distribuire compiti e impieghi; quelli adoperati dalla pubblica amministrazione o da enti privati per distribuire sussidi, per classificare richieste di emergenza, per smascherare frodi finanziarie o per stabilire il grado di rischio quando si sottoscrive un’assicurazione. Infine algoritmi usati dalle forze dell’ordine, dal potere giudiziario e dalle autorità di frontiera per valutare rischi, scoprire flussi di immigrazione illegale o stabilire pericoli sanitari.
  • Di uso generale
    Il testo regola anche i sistemi di AI per uso generale, in grado di svolgere compiti diversi (come creare un testo o un’immagine) e allenati attraverso un’enorme mole di dati non categorizzati, come GPT-4, alla base del potente chatbot ChatGPT, già sanzionato dal nostro garante della privacy, o LaMDA, dietro Google Bard. Gli sviluppatori devono assicurarsi che i contenuti siano marcati in un sistema leggibile da una macchina e siano riconoscibili come generati da un’AI. Un utente deve sapere se sta interagendo con una chatbot. E i contenuti deepfake devono essere etichettati come tali. Precauzioni che, tuttavia, non è detto siano sufficienti a impedire la diffusione di fake news, che la IA può, e di molto, potenziare e raffinare, violando i diritti alla informazione, alla espressione, al voto libero e informato. Ma anche il diritto alla formazione dell’opinione pubblica, non a caso sempre più orientata a credere a cose non provate. (Nichols).

Unica eccezione: l’impiego di questi sistemi per perseguire reati. Il regolamento fissa una soglia per identificare i sistemi ad alto impatto, che hanno maggiori effetti sulla popolazione e perciò devono rispettare obblighi più stringenti.

  1. La strada della conoscenza e della consapevolezza

Come cerchiamo di dimostrare e documentare in questa rubrica, un’altra strada, quella che più interessa la cittadinanza e le scuole è quella di conoscere di più per capire meglio. In questo senso la introduzione piuttosto superficiale della IA nella formazione dei docenti e delle scuole (sinora superiori) con corsi, seminari e dimostrazioni, resta deviante rispetto al fatto che “nuovo” non è sempre sinonimo di meglio, di definito, di motivato, di provato e utile.
Che “tecnologico” non è automaticamente sinonimo di certo, sicuro, efficace, risolutivo. Di progresso.
Le tecnologie non vanno solo conosciute prima ma vanno compresi i sistemi economici, sociali, politici che ne sono alle spalle (Soro) e che le propongono: perché, a quali condizioni, per quali interessi (in genere guadagnare soldi o scambi col potere politico che non le controlla); le conseguenze sui diritti e sulla educazione che stanno dietro a queste iniezioni forzate di tecnologie, fra “modernismo” e dominio degli oligopoli economici che ce le impongono.

Da dove arrivano, chi le controlla e chi non potrà mai controllarle, quali diritti sono in ballo e prima di tutto quale è la reale influenza sulla formazione dei nostri ragazzi e sulla formazione di una cultura e cittadinanza digitale?
Purtroppo i dati delle ricerche confermano che gli adolescenti sono già dentro la IA, ma in modo superficiale. Se 2 adolescenti su 3 hanno già fatto uso di applicazioni basate sull’intelligenza artificiale “generativa” come ChatGpt, in genere per usare le Ai come assistenti personali per generare testi, non mancano le criticità; se le nuove generazioni di “nativi” sembrano essersi evolute tecnicamente, i rischi esistono. Oltre 8 giovani su 10, infatti, accettano di buon grado che siti web e piattaforme possano influenzare il loro modo di conoscere il mondo con il 44,7% tendenzialmente d’accordo e il 37,8% fortemente d’accordo. Per non parlare dei fake, messi in circolazione grazie all’aiuto dell’AI, che solo avendo imparato si possono smascherare. Un’opera di discernimento che, purtroppo, la stragrande maggioranza dei giovani utenti è impreparata a fare: appena il 27% degli intervistati dice di conoscere il funzionamento del “deep learning” generativo e di saperlo illustrare perlomeno a grandi linee. Skuola.net

 Ma la scuola è solo l’anticamera della industria? La scuola, in particolare dalla Buona Scuola ad oggi, ha delegato la sua ricerca di strade e modelli nuovi e più adatti, fondati pedagogicamente, alla tecnologia ed a quella parte che è in mano ai privati. Di IA e programmazione open, controllabile anche dal basso si parla sempre meno.
La scuola che si intravede è tecnologica, privatizzata, controllata dall’esterno e dall’alto.
Come la sanità.

Se la scuola è la formazione di cittadini, di persone consapevoli, futuri lavoratori (anche nella IA spesso sfruttati e sottopagati, mentre i posti di lavoro come programmatore che la “Buona scuola” aveva ipotizzato si sono rivelati per quello che erano: una bufala) la inerzia di fronte alle mode ed al dominio di 10 ricchi monopolisti tecno/economici (molti dei quali come Zuck e Musk oggi già in crisi) è molto preoccupante. La mentalità, gli atteggiamenti, la consapevolezza che deriva dalla conoscenza e dalla riflessione sono quelli che interessano la scuola come ente formativo in cui le tecnologie entrano non perché di per sé valide (gli studi dimostrano il contrario) ma perché inserite in un progetto di conoscenza, riflessione, consapevolezza del mondo da cui arrivano ed in cui tutti viviamo. Compresi bambini con social e smartphone e adolescenti utenti passivi.

Una osservazione. Nelle proposte della “IA” le iniziative open, libere, gestite dal basso non sono mai citate. Mentre la scuola si abbassa a diventare l’anticamera della industria che la programma. Una industria che sfrutta, controlla, cui ci stiamo assuefacendo. Come nel PNRR Scuola 4.0. Ma di questo, se volete, parliamo altrove.

 




Inclusione, decadenza degli “intellettuali” e crisi della scuola dei diritti

disegno di Matilde Gallo, anni 10

di Rodolfo Marchisio

Io questo pezzo non lo volevo scrivere, perché penso che rispondere a EGdL (quello della “predella per ristabilire autorità del docente”, confondendo autorità con autorevolezza), che non è un esperto di scuola, sia quello che lui cercava, una provocazione per far parlare di sé. Ma invitato e tirato per i capelli da un paio di considerazioni, cerco di essere breve.

Intellettuale o influencer?

  • Propongo di abolire il termine “intellettuale”, parola ombrello (Guastavigna) che all’epoca di social, talk e improbabili influencer, non vuol dire più niente. Sicuramente non ha più un ruolo di punto di riferimento nella babele di web, talk e fake. Se “la rete dà la parola a tutti” (U. Eco ed è un bene teorico nel campo dei diritti), dà però anche la parola “a legioni di imbecilli” (U. Eco) e se in rete “1 vale 1” si pone il problema del rapporto tra la libertà di espressione e la competenza in merito all’argomento; “la mia ignoranza vale come la tua competenza” (Asimov). EGdL è esperto di scuola, didattica, pedagogia, inclusione? Dai 2 articoli direi di no.
  • Credo dovremmo parlare di studiosi, di ricercatori, competenti in un campo, anche se la conoscenza oggi è svalutata, anche grazie all’abuso della rete, rispetto alla opinione che chiunque può avere lecitamente. (Nichols).
    Lo studioso si caratterizza per il metodo e per la citazione di fonti, ricerche, documentazione e per l’argomentare vs affermare (come fanno i social e la politica) che validino il suo discorso e permettano agli altri di verificare se dice il vero.
    Lo fa anche wikipedia, il dizionario (non enciclopedia) su cui studiano i nostri ragazzi: questa pagina non è attendibile perché non riporta le fonti e non ha sito/bibliografia.
    Se no è uno qualunque che esprime la sua.

  • L’alternativa di moda è l’influencer da web o talk che spara opinioni e punta a emozionare, scandalizzare, provocare, strategie di moda in rete, TV e politica. EGdL è un influencer nel campo della scuola?

I diritti si possono perdere

  • Il secondo motivo per cui mi permetto di esprimere e documentare la mia opinione è che sono in ballo, in questo ribollire di pareri, livori, frustrazioni, diritti fondamentali per cui, come ci insegna N. Bobbio, ci si è battuti a lungo contro contrari e pigri, ma che si possono perdere in tutto o in parte. Sono nella scuola dal 1969 ed ho vissuto resistenze, diffidenze, difficoltà di parte dei docenti che vivevano come un peso l’inserimento di disabili e poi degli stranieri.
    Credo sia stata una faticosa conquista di diritti che non deve regredire e che non abbia fondamento scientifico la sua critica (Morello).
    La “normalità” non esiste, come non esistono molti concetti usati per separare: siamo tutti diversi ed il confine tra salute e malattia, abilità e deficit è legato ad una convenzione sulla quantità e sulle conseguenze.
    Gli alunni “deboli” non hanno solo diritto a migliorare, ma anche ad essere inseriti nella scuola e nella società. La scuola, per legge non deve solo istruire, ma anche formare la persona ed il cittadino. Qualunque cittadino.
    Il vivere tra diversi (ed ogni diverso è diverso da tutti gli altri diversi) è per tutti crescita, progresso, mediazione verso la cittadinanza democratica; mentre il vivere tra eguali è quanto ci impongono i padroni della rete (Rampini) nei social, comfort zone in cui ci autoconfermiamo tra eguali (Pariser, Bauman) e ci identifichiamo odiando un gruppo diverso da noi (donna, omosessuale, straniero, disabile).

Si può migliorare?

Quando facevamo i primi convegni internazionali sull’inserimento dei disabili a scuola, emergeva (progetto europeo Helios 2) che i popoli mediterranei (Italia, Spagna…) erano più avanti nella inclusione, nella socializzazione; avrebbero potuto far di più nel recupero o compensazione di abilità. I paesi del nord (es. Germania) prendevano i disabili, li chiudevano in ville e li addestravano in modo intensivo, migliorando le loro capacità meglio di noi. Ma non li inserivano nella vita, nella società, nella scuola. Occorre fare entrambe le cose, migliorando e non rinnegando. Ma ci vogliono risorse umane ed economiche.

La scuola è specchio della società e del clima politico e culturale in cui vive

Quelle conquiste sono state frutto di impegno e lotte contro la palude inerziale presente nella scuola allora ed oggi. Non è cambiato molto. La scuola ha sempre avuto una parte più innovativa, più attenta ai diritti ed a temi diversi nelle varie epoche e di contro una minoranza che ci vedeva un problema ed una “palude” talora pigra che si adattava al clima dominante o talora insabbiava.
All’epoca il clima era  teso alla conquista di diritti, oggi alla regressione.
Siamo nella epoca dell’”egocentrismo dei diritti individuali” contro i doveri di solidarietà ed i diritti degli altri (Zagrebelsky). Che sia interesse individuale, diritto di portare armi, diritto di prevaricare, occupazione abusiva del potere, difesa di sé, dei propri soldi e interessi (è sempre più “normale” non pagare tasse e violare le regole comuni a danno degli altri) contro il dovere fondamentale di solidarietà prescritto dalla Costituzione (dall’art 3 in poi).
Viviamo nella “Penisola che non c’è” (Pagnoncelli) che si basa sul percepito e non sui dati reali. Sulla pancia e non sulla ragione.
Inoltre il clima e la società in cui viviamo è quella in cui il 45 % dei cittadini non va a votare, e se una coalizione prende il 40% del 55 % dei votanti, col sistema elettorale attuale, prende il potere esecutivo (che sta “mangiando” gli altri poteri); prende tutto col consenso del 22% della popolazione. La realtà ed il clima in cui vive la scuola è questo. Due studi ci classificavano in serie B con USA e Giappone come “Democrazie con problemi” già anni fa.

L’indagine. Per chi è un problema l’inclusione?

Lasciamo perdere il valore della rilevazione della Tecnica della scuola a livello metodologico, di tipo social. Anche presa per indicativa di una tendenza il 40% dei docenti sarebbe in varie forme favorevole a modificare e qualcuno, oltre a sfogarsi, fa anche proposte sensate. L’altro 60%?
Ma la maggioranza degli allievi invece è contrario, non ci vede un problema. Allora i docenti che vogliono cambiare lo fanno per sé o nell’interesse degli allievi?
Forse i ragazzi sono un po’ più aperti ed i docenti manifestano disagio e problemi nel loro ruolo?
Ottimismo. Che possa essere anche merito della Ed. alla cittadinanza dopo 4 anni (peraltro non attuata in tutte le scuole e che vede diversi docenti, spesso nella secondaria, defilarsi e fare ostruzionismo?)
L’apprendimento è un fatto anche emotivo e sociale (Vigotsky, Goleman) ed avviene riconoscendo la diversità delle intelligenze (Gardner). Non esiste progresso nella omologazione.
Le reazioni di alcuni docenti troll ricupera il livore contro il “68”, il “politicamente corretto”. È odio in rete non argomentazione. Quelli del 68 sono oggi tutti tra i 75 e gli 80 (R. Palermo). Stanno organizzando la contestazione dell’Unitre.

Dice Valditara

“Le conquiste ed i diritti non si toccano” dice il ministro dell’ovvio. Ma va fatto qualcosa. Da chi? Dal Ministro e dalla politica. Che invece continuano a scaricare sulla scuola dopo la EC, la follia del PNRR, i problemi del “merito” (il governo è per la competizione e la competenza– degli altri non sua- non per l’inclusione), l’affettività, l’orientamento, il made in Italy spesso rifiutato dai collegi e tutti i problemi che la politica non sa gestire e risolvere. Se non mettendo una clausola finale. “Con invarianza delle risorse”. Allora è lecito pensare che una parte dei docenti sia stufa di risolvere problemi senza risorse (soldi e ore in più: incentivi estrinseci), ma solo con la motivazione e gli incentivi intrinseci di fare bene e fino in fondo il proprio lavoro?
Parliamo di risorse che sorreggano la motivazione e non di esclusione?

 

 

 

 




Intelligenza artificiale e/a scuola: questioni aperte e qualche conclusione (provvisoria)

di Rodolfo Marchisio

Due aneddoti

  • Mentre organizzavamo For Tic 1 con USR Piemonte e Unito, con M. Guastavigna, un assistente di Luciano Gallino tutto “goduto” ci ha mostrato un suo software che somministrava le prove, le correggeva, attribuiva i voti e inviava in automatico una mail agli allievi. Domanda: “se fa tutto il software, tu coi tuoi allievi quando ci parli?”
  • Ricordate il colonnello russo che contro ogni evidenza che proveniva dalle sue tecnologie (5 missili nucleari in arrivo dagli USA) ha preso tempo ed evitato di far partire la prima guerra nucleare?
    Ci ha salvato. È stato lodato e poi è sparito.

“Prima di usare tecnologie molto potenti, prima addirittura di ipotizzare per cosa usarle, bisogna anzitutto conoscere questi strumenti. Capire come funzionano, quali sono le loro potenzialità e (soprattutto) quali sono i loro limiti. Ma anche evitare di considerarli una scatola nera che processa chissà come input e restituisce magicamente output da applicare a occhi chiusi.” (Soro)

Soro e Rodotà
 “Tutto quello che è tecnicamente possibile è anche eticamente lecito, politicamente e socialmente accettabile, giuridicamente ammissibile?” (Rodotà)

L’algoritmo non è infallibile né neutro. Si tratta di opinioni umane strutturate in forma matematica. L’uomo ha (deve avere) la possibilità di intervenire in qualsiasi momento dei processi decisionali. (Soro)
Senza regole la società (l’ambiente) digitale rischia di divenire la società della schedatura, la rete, da straordinaria risorsa democratica, può diventare strumento di sorveglianza globale da parte dei grandi poteri economici” Rodotà.  Schiavitù volontarie o passive, disinformazione e post verità.
L’IA dà un grande potere a chi la gestisce. Quante delle nostre decisioni come cittadini sono sempre più condizionate: dagli acquisti, ai gusti, alle idee, al nostro stanco diritto di votare influenzato dalle Fake? I GAFAM e soci da servizi di informazione e comunicazione tendono a gestire anche servizi ed attività sociali, sanità, istruzione, servizi ai cittadini.

Si indebolisce la capacità di conoscere i fenomeni e governarli, di intervenire a vantaggio della comunità. (Soro).
Il pericolo del passato era che gli uomini divenissero schiavi, quello del presente è che diventino robot che vivono in bolle tra uguali “selezionati” da algoritmi, coi loro pregiudizi; intolleranti verso le differenze ed il pluralismo: tribù dei social asservite a badanti “Intelligenti”.
Il focus non è cosa fare o far fare alle tecnologie, ma cosa queste possono fare all’uomo (Soro, Turkle)

I fabbricanti di IA si interrogano già su come faranno a controllarla (loro figuriamoci noi) quando sarà più intelligente degli uomini e di loro; la risposta è farla controllare da forme di IA meno evolute. Ha senso?

“Occorre una etica dell’algoritmo e protezione dei dati. Internet da strumento è oggi dimensione, ambiente, ecosistema in cui viviamo; alla IA si delegano decisioni su lavoro, salute, ricerca, giustizia.
Aumenta sempre più ciò che la rete sa di noi e che noi non sappiamo ancora.
Dimostrato che gli algoritmi non sono matematica pura (infallibili e neutri), ma opinioni umane potenziate e implementate, il rischio è che i nostri pregiudizi ed errori siano amplificati dalla IA” (razzismo, discriminazione…). (Soro).
 Il passato (di cui si nutre l’IA) non va cristallizzato nel futuro, l’ultima parola deve aspettare all’uomo. Anche perché il 95% di chi usa la rete si concentra solo sullo 0,03% dei contenuti, quelli suggeriti dalle piattaforme.
La disintermediazione non deve diventare una delega in bianco ai potenti. (Soro).

IA e/a scuola
Le competenze digitali, non si possono ridurre a degli insegnamenti funzionali a singoli compiti, ma necessitano di una costante contestualizzazione culturale, politica e sociale
“L’intelligenza artificiale generativa può rappresentare un’enorme opportunità per lo sviluppo umano, ma può anche causare danni e pregiudizi – Audrey Azoulay dell’Unesco – Non può essere integrata nell’istruzione senza l’impegno pubblico e le necessarie garanzie e normative da parte dei governi”. La via che tenta l’UE.

Gli attuali esempi di intelligenza artificiale sono intrisi di un tipo di politica che applica soluzioni tecniche e di mercato a tutti i problemi sociali. Più prosaicamente, è possibile che l’intelligenza artificiale riproduca gli aspetti peggiori dell’istruzione scolastica: il saggio standardizzato è già fortemente vincolato dalle esigenze dei regimi di valutazione, e i modelli linguistici tendono a riprodurlo nel formato e nel contenuto.” Soro.

Burrell e Fourcade hanno distinto tra “l’élite del coding”, una nuova classe professionale di competenze tecniche e una forza lavoro recentemente emarginata o non retribuita, il “cybertariat”, da cui estrarre manodopera. Gli ingegneri e i dirigenti della Khan Academy sono una nuova élite di sviluppo dell’intelligenza artificiale nel campo dell’istruzione, che sfrutta il lavoro degli insegnanti e degli studenti del cybertariato in classe. (Khanmigo).
Richiede lavoro aggiuntivo non retribuito da parte degli insegnanti e ne estrae valore.
Infine l’intelligenza artificiale potrebbe, a lungo termine, esercitare un’ulteriore pressione degenerativa sulle pratiche e sulle relazioni in classe già ampiamente in crisi.

Alcune conclusioni

Sebbene gli agenti di IA siano in grado di ragionare su problemi molto complessi, non pensano nel modo in cui lo fa l’uomo. L’intelligenza artificiale può avere impatti sia positivi che negativi sulla società. (AI4K12.org)
Allora posto che:

  • Usare il digitale senza una cultura non solo è pericoloso ma è diseducativo
  • Non abbiamo bisogno di più “strumenti o più effetti speciali” (da Buona scuola a Scuola 4.0) ma di migliori cittadini e maggiore cultura della rete.
  • La scuola, i docenti, gli adulti devono essere in grado di dare un senso critico a ciò che i ragazzi fanno con la rete, a fare esperienze significative insieme: a costruire una cultura digitale.
  • Non è utile dividersi (favorevoli/contrari), ma conoscere di più (ricerca) per capire meglio. (Losito)
     (Però se per una volta lasciassimo in pace la scuola che deve ancora digerire il PNRR?)

 Preso atto che il capitalismo si ripete, si potenzia con la rete, rifiuta le regole e la democrazia[1] mi preoccupa la passività, il sonno, degli utenti/consum-attori più ancora che i “pericoli” delle supertecnologie in mani private.
Mi preoccupa vedere e rivivere sempre le stesse cose ad ogni apparire di novità
(o moda) tecnologica.
Papert pensava ad un metodo attivo. Anche per risolvere problemi di cittadinanza e formare cultura. Facciamo esperienze – coi più grandigiochiamo coi nuovi giocattoli per capire come funzionano, ma insegniamo soprattutto cosa c’è dietro ed in che mondo web viviamo con IA.
Ed impariamo a fare buone domande per avere risposte utili.

In sintesi dobbiamo decidere se l’IA debba essere un alleato, un assistente o un nuovo modo di dominarci.
Usare o parlare di IA per usare e non farsi usare. A che età e come?
Ecco i consigli della Commissione europea.

[1] Srinivasan ha pubblicato un intero libro, scaricabile gratuitamente, sul tema dei “network states”. L’idea di base è quella di creare reti di persone connesse via internet che nel tempo sviluppino un legame economico, politico e valoriale tale da identificarsi come gruppo nazionale. Il concetto di “network state” si basa su una democrazia “decentralizzata”, nella quale le persone avranno la possibilità di votare direttamente sulle questioni che le riguardano. I servizi essenziali come la salute, l’educazione e la cura saranno distribuiti attraverso la rete. Un “network state” avrà la capacità di riunire diverse comunità offline in una grande nazione del web. Alla fine, scrive Srinivasan nel suo e-book “possiamo ricucire digitalmente queste enclavi disgiunte in un nuovo tipo di entità politica che possa ottenere un riconoscimento diplomatico”. Si creeranno stati come si creano startup.
I “network states” sono essenzialmente società parallele, gestite tramite la rete, libere dalle pastoie regolatorie degli stati, delle banche centrali, delle burocrazie. Insomma, si potrebbe aggiungere, anche dalle noiose società democratiche
. (Wired WAR)