Il dono della sintesi…

di Marco Guastavigna

Sono passati quasi 30 anni da quando mi beavo di aver individuato una corrispondenza tra funzioni di word processing e trasformazioni per la sintesi di un testo secondo il modello del linguista Van Dijk.

Bene, oggi ho scoperto per caso che – non so bene da quanto tempo – i computer Apple dispongono di un servizio di riassunto automatico, che ho prontamente utilizzato per sintetizzare un articolo di concetti contrastivi a cui tengo in modo particolare, perché celebra i 20 anni di attivismo di Framasoft.
Questo è il risultato: una riduzione brutale, appunti meccanici, con un approccio tutto interno al testo originale

“Soprattutto, convince la modalità. I contenuti sono raggiungibili da chiunque, senza profilazione e senza richiesta di pagamento alcuno. La politica è politica, in qualche modo attivismo (una volta si diceva militanza).

• molta dell’accademia vive di epistemarketing subordinato alle esigenze e agli interessi delle grandi corporation “digitali”, presentati come gli unici approcci possibili alla dimensione tecnologica;

• altre zone dell’accademia consolidano le proprie recinzioni a proposito di negoziazioni tra istituzioni e famiglia, aventi come obiettivo il fair use da parte degli adolescenti, ma non certo la denuncia etica e civile dell’intenzione strategica che connota i dispositivi digitali, in particolare gli smartphone, ovvero la cattura dell’attenzione di nuovo come estrazione di dati e di valore;

• i valvassori e i vassalli dei diversi feudi universitari e para-universitari diffondono il verbo pedago-algoritmico-conversazionale in mille rivoli mainstream (corsi di formazione costruiti in modo frettoloso sugli slogan coniati dal livello gerarchico superiore);

• non vi è istanza culturale e/o editoriale che non abbia prodotto un corso, un webinar, un libro, una rubrica, un fascicolo, un numero speciale della propria pubblicazione-pilota, una conferenza in presenza, un seminario a distanza in modalità mista,una raccolta di interviste, una diretta Facebook e così via, per cavalcare l’attualità e spremerne valore e visibilità, magari giocandosi anche la carta della reiterazione via Youtube et similia;

• e il caos, puntuale, genera mostri: nella fattispecie centinaia di pubblicazioni tra il divulgativo e il manipolatorio, tra il reflusso culturale e il ricamo intellettualoide: l’importante è partecipare alla sbornia di distruzione creativa.

A pochi – sempre meno – interessa capire e dichiarare non ciò che fa presenza, aderenza, allineamento, mercato per chi lo ammanisce agli altri modulato in diversi container della medesima logistica del dominio, ma ciò che possedere tutti insieme in modo mutualistico e diffuso come patrimonio di cittadinanza consapevole e critica.
Tra questi pochi, si colloca appunto Framasoft, a cui i 20 anni di attività nel campo dei dispositivi conviviali, aperti, cooperativi e anticapitalisti conferiscono credibilità e autorevolezza.”

Ho poi pensato di chiedere la medesima prestazione (“Riassumi”) a un po’ di accrocchi che riposano sull’intelligenza artificiale: TextMaster BX, la funzione riepilogo e l’assistente AI integrati in WordPress, il riassuntore di MagicSchool e quello di Shakespeare per Chrome.

Li presento qui di seguito, volutamente senza precisare le corrispondenze tra assistenti ed elaborazioni, perché questo articolo non è un consiglio per gli acquisti, ma un invito ad abbandonare l’inerzia e a riflettere. In tutti i casi, infatti, balza all’occhio – a fronte di grandi differenze quantitative – che le varie prestazioni erogate dalle diverse macchine linguistico-predittive hanno tutte come perno logico un approccio esterno e quindi una qualche rappresentazione complessiva del flusso e della struttura espositiva del testo.

Riassunto A: Il testo presenta FramamIA come un’iniziativa che mira a demistificare l’intelligenza artificiale (IA) attraverso un approccio conviviale e accessibile a tutti, senza profilazione o costi. Si sottolinea l’importanza di una responsabilità socio-culturale nell’autorialità, criticando la confusione tra diritti d’autore e la condivisione della conoscenza come bene comune. Viene evidenziato come l’accademia spesso si allinei agli interessi delle grandi corporation digitali, perdendo di vista una denuncia etica e civile riguardo all’estrazione di valore dai dispositivi digitali. Si critica la proliferazione di corsi e pubblicazioni che cavalcano l’onda dell’IA, generando confusione e una molteplicità di “esperti” improvvisati. In questo contesto, FramamIA si distingue per il suo impegno verso un patrimonio di cittadinanza consapevole e critica, sostenuto dai 20 anni di attività di Framasoft nel promuovere dispositivi aperti e cooperativi.

Riassunto B: FramamIA si propone di demistificare l’intelligenza artificiale attraverso un approccio aperto e conviviale, promuovendo l’accesso gratuito ai contenuti. L’iniziativa critica la commercializzazione della conoscenza e sottolinea l’importanza di una cittadinanza consapevole e critica, contrastando le logiche di profitto delle grandi aziende e le limitazioni accademiche.

Riassunto C: Capire l’IA per demistificarla: Un’Analisi di FramamIA

FramamIA si propone come un approccio conviviale e aperto all’intelligenza artificiale (IA), enfatizzando che l’IA è sia tecnica sia politica. L’iniziativa si distingue per la sua accessibilità, offrendo contenuti senza profilazione o costi, promuovendo un attivismo che contrasta con le attuali tendenze di privatizzazione e monopolizzazione della conoscenza. In un contesto dove la responsabilità socio-culturale dell’autorialità è spesso confusa con i diritti d’autore e il copyright, FramamIA sottolinea l’importanza della condivisione della conoscenza come bene comune e intergenerazionale. Tuttavia, l’accademia è spesso influenzata dalle esigenze delle grandi corporation digitali, che presentano i loro approcci come unici. Inoltre, alcune aree accademiche si concentrano su negoziazioni limitative riguardanti il fair use, senza affrontare le implicazioni etiche e civili dei dispositivi digitali, come gli smartphone, che mirano a catturare l’attenzione per l’estrazione di dati. Il panorama accademico è affollato da figure che si spacciano per esperti, generando confusione tra corsi, webinar e pubblicazioni che cavalcano l’attualità senza una reale profondità di contenuto.
Questo caos crea una miriade di pubblicazioni che oscillano tra il divulgativo e il manipolatorio, contribuendo a una cultura di distruzione creativa. In questo scenario, pochi si dedicano a comprendere e valorizzare la conoscenza come patrimonio condiviso. Tra questi, Framasoft si distingue per i suoi 20 anni di attività nel promuovere dispositivi conviviali, aperti e cooperativi, guadagnando credibilità e autorevolezza come esempio di un approccio critico e consapevole in un’epoca di crescente digitalizzazione.

Riassunto D: Le macchine predittive mancano di coscienza, e questo porta alla creazione di “mostri”: centinaia di pubblicazioni che oscillano tra divulgazione e manipolazione, tra cultura di massa e sensazionalismo. L’importante sembra essere partecipare alla “sbornia” della distruzione creativa, mentre pochi si interessano a comprendere e dichiarare ciò che può essere posseduto collettivamente come patrimonio di cittadinanza consapevole e critica. Tra questi pochi c’è Framasoft, che con 20 anni di esperienza in dispositivi conviviali, aperti, cooperativi e anticapitalisti, gode di credibilità e autorevolezza.

Riassunto E: Capire l’IA per demistificarla è il messaggio centrale di FramamIA, un approccio conviviale all’intelligenza artificiale. L’iniziativa si distingue per la sua accessibilità, senza profilo o costi, e si pone come un attivismo contro la confusione tra responsabilità socio-culturale e diritti di proprietà.

È ora compito di chi legge erogare una prestazione di altissimo profilo cognitivo, linguistico e professionale: leggere l’articolo originale, realizzarne un proprio riassunto da confrontare con quelli da me forniti. E magari immaginare situazioni in cui ciascuna sintesi può essere la più adatta. Sarebbe poi quasi sovrumano elaborare criteri di confronto tra le diverse prestazioni macchiniche, in modo da andare oltre la semplice impressione, conseguenza “forte” delle differenti dimensioni dei riassunti.




Il luogo qualunque: il canzoniere “popolare”

di Marco Guastavigna

Noi di #cinefuffa siamo puntigliosi e facciamo delle anteprime uno dei nostri fiori all’occhiello.
E così questa volta presentiamo Suno.ai, ambiente per realizzare canzoni con l’intelligenza artificiale.
Ovvero riproducendo la conoscenza diffusa e i bias ad essa connessi, come testimoniano le tre composizioni raccolte nel filmato, che riflettono i pregiudizi più diffusi sull’istruzione.
E si distribuiscono in funzione dell’aria che tira attualmente al superiore ministero e in molte delle sue articolazioni, oltre che nello spirito troppo a lungo represso di parecchi insegnanti.




Il luogo qualunque: intelligenza artificiale e cinema

Il luogo qualunque: finalmente sono possibili misure dispensative anche per l’attività intellettuale e culturale

Natale si avvicina e Cinefuffa si sdoppia, proponendo, oltre al tradizionale filmato, un libro digitale.

Entrambi sono stati realizzati delegando tutte le operazioni a dispositivi di intelligenza artificiale, dalla sceneggiatura alla realizzazione, dalla scaletta alla stesura all’impaginazione.
Non è del resto un caso la reciproca esaltazione tra ebook e video digitale.




Suprematismo 4.0

di Marco Guastavigna

Mentre gli intellettuali organici al mercato della nostra accademia si scambiano inviti e citazioni per rafforzare il proprio poterucolo nel campo dell’epistemarketing, sul mercato della conoscenza e della logistica dell’istruzione le cose vanno ben oltre amenità quali la didattica conversazionale e l’arte dell’apprendere avvinti a ChatGPT “generalista”.
I servizi basati sulle macchine decisionali si moltiplicano e permeano l’intero ecosistema, per altro già del tutto energivoro.
E così gli accrocchi proliferano ogni giorno. L’ultimo parto di Alphabet è Illuminate, a cui si accede per ora solo via VPN con uscita negli Stati Uniti.

Come un po’ troppo entusiasticamente descritto dal video incorporato, Illuminate consente di realizzare podcast a partire da materiali considerati attendibili, ovvero attualmente solo quelli depositati su arxiv.org, openreview.net, openaccess.thecvf.com, jmlr.org.

Detto in altri termini: una holding dello Stato più potente al mondo ne ribadisce la supremazia culturale mediante fornitura riservata ai suoi confini (seppure virtuali) di un dispositivo di elaborazione che ha fini inclusivi ma insiste di fatto su un bacino linguistico esclusivo, vincolato e vincolante.

Una volta sperimentato, collaudato e perfezionato, il dispositivo medesimo andrà per altro a rafforzare l’apparato egemonico a vocazione globale dell’impero tecno-liberista, con una sicura nuova tornata di compiacimento dei suoi vassalli operativi, cognitivi e culturali, che si affretteranno a distribuire il nuovo Verbo dell’innovazione.




Intelligenza artificiale e sviluppo economico sostenibile (qualche idea per l’educazione civica)

di Rodolfo Marchisio

Le linee guida 2024 del MIM per la Ed. civica hanno, nella loro impostazione ideologica, tra le altre cose rovesciato l’attenzione dall’ambiente, i suoi problemi ormai forse irreversibili, la sostenibilità dello sviluppo economico allo sviluppo economico in primis.
Cfr. linee guida DM 35 2020. Il secondo filone di lavoro e riflessione è passato da

  1. Sviluppo sostenibile, educazione ambientale, conoscenza e tutela del patrimonio e del territorio

a 2. Sviluppo economico e sostenibilità. Lo sviluppo economico è il focus in tutto il documento: “parlo del lavoro perché il lavoro è bello” proclama il ministro – ovviamente per chi ce l’ha, chi non è precario, sottopagato o non ci muore- e conclude “con buona pace delle sinistre e delle ideologie marxiste-leniniste”. (?) E la sostenibilità diventa una appendice, una precauzione sempre meno rispettata.

Il discorso è coerente col documento che insiste sulle responsabilità individuali e sottace quelle sociali, di cittadinanza e politiche. Diciamo un documento allineato con le posizioni del governo, dove la responsabilità non è mai di chi governa ma di tutti gli altri (individui, magistratura, media etc…). Molto “di governo” e niente di “lotta”, di critica, di cittadinanza attiva.
Siamo rimasti ai diritti individuali, quelli della borghesia e del 700 (illuminismo, Riv. Francese ed americana). I diritti di prima generazione secondo Bobbio. Sono sempre più carenti i diritti sociali, quelli conquistati nell’800 dal movimento operaio, contadino contro la borghesia. I diritti di seconda generazione: lavoro, salute, istruzione. [1]

Un imprescindibile motore dello sviluppo economico attuale è il web, dominato dagli oligopoli e da una decina di persone più ricche e potenti di uno stato. Quelli che oggi investono, puntano e ci impongono la IA che vogliono loro. Che però è in fase sperimentale, non rende quanto deve, si basa sullo sfruttamento di lavoratori (e docenti) sottopagati.[2]

 Sostenibilità e iperconsumo[3]

Zagrebelsky insiste da tempo sul fatto che noi viviamo in una epoca di egocentrismo, di individualismo (lo stesso che si ritrova nelle linee guida): che consumiamo “come se non ci fosse un domani e come se non avessimo figli”. Questa realtà fa parte della aggressiva azione di marketing degli oligopoli e della moda che non solo subiamo, ma di cui siamo ormai sudditi.
Gli strumenti di intelligenza artificiale generativa sono ormai parte della nostra vita quotidiana online, ma il prezzo in termini di stress sulle reti elettriche e impatto idrico è sempre più salato. Wired

È noto da tempo che il web è il quarto consumatore al mondo, dopo USA, Cina e India di energia elettrica e quindi produttore di CO2. Gira da tempo nel web questo semplice calcolo su Google. Ogni minuto una tonnellata di CO2. Dipende da quanto lo usiamo, ma ormai ne siamo dipendenti.
Ma Google non è ancora la IA, qualunque cosa voglia dire questa sigla e quindi i padroni della rete stanno chiedendo la costruzione di nuove centrali nucleari per sostenere il consumo degli enormi apparecchi che dovranno lanciare lo sviluppo delle varie forme di IA.[4]

Questa corsa ad aggiungere l’intelligenza artificiale al maggior numero possibile di interazioni online può essere fatta risalire al lancio di ChatGPT da parte di OpenAI alla fine del 2022. Per la Silicon Valley l’intelligenza artificiale generativa è presto diventata un’ossessione e, quasi due anni dopo, gli strumenti di AI alimentati da modelli linguistici di grandi dimensioni permeano l’esperienza di qualsiasi utente online. Wired

 Consumo di acqua [5]

Per produrre energia in quasi tutte le sue forme sostenibili si consuma acqua. Una enorme quantità di acqua dolce (milioni di litri), bene sempre più prezioso, anche per la sopravvivenza della umanità.
E mentre l’acqua che usiamo noi privilegiati che ce l’abbiamo è un prelievo che ritorna subito in circolo, l’acqua bruciata per produrre energia può metterci un anno per rinnovarsi.[6]

Una fase nuova

Gli algoritmi che sostengono qualsiasi modello di intelligenza artificiale generativa sono fondamentalmente molto, molto diversi da quelli tradizionali che si usano per la ricerca su Google o per le email – afferma Sajjad Moazeni, ricercatore dell’Università di Washington –. I servizi di base erano molto leggeri dal punto di vista della quantità di dati che dovevano fare avanti e indietro tra i processori“. Per fare un raffronto, Moazeni stima che dal punto di vista computazionale le applicazioni di AI generativa siano da 100 a 1000 volte più esigenti.

L’impronta di CO2 e il consumo di energia andranno di pari passo con la potenza di calcolo, perché fondamentalmente questi data center vengono alimentati in modo proporzionale alla quantità di calcoli effettuati“, afferma Junchen Jiang, ricercatore dell’Università di Chicago. In sostanza, più un modello di intelligenza artificiale è grande, più avrà bisogno di potenza di calcolo. E i nuovi modelli di frontiera stanno diventando giganteschi.[7]
E si sommano come consumo sempre più agli altri settori economici già onnivori.

Per chi ci crede per la fine del decennio Microsoft punta a raggiungere l’obiettivo di diventare carbon negative (eliminare più emissioni di quante ne produca) water positive (ripristinare risorse idriche) e minimizzare i rifiuti (zero waste). Meta e Open AI significativamente non rispondono neanche agli studi.

Primi rischi black out
Al di là delle preoccupazioni ambientali, i data center rischiano anche di sovraccaricare le reti elettriche locali: “Nello stato di Washington, a Quincy, c’è un data center di Microsoft – racconta Moazeni –. So che ci sono molti timori che stiano risucchiando tutta l’energia della zona”.

Se da una parte l’intelligenza artificiale è già onnipresente e continuerà a insinuarsi in un numero sempre maggiore di attività online, insomma, resta ancora da capire quando il settore raggiungerà il picco in termini di consumo energetico.[8]

Conclusione

  • Il problema non è rifiutare la IA ma il dominio oligopolistico di pochi capitalisti che non rispettano gli Stati, l’UE e gli organismi politici che dovrebbero regolare lo sviluppo economico rendendolo compatibile coi nostri diritti di cittadini e sostenibile da un punto di vista sociale ed ecologico da un lato.
  • Dall’altro l’egocentrismo della maggioranza dei cittadini che, prigionieri delle mode, pensano in modo individuale e non di responsabilità sociale, internazionale, generazionale.
    Il problema è lo sviluppo economico incontrollato del grande capitale.
  • La domanda chiave è sempre: è questo, privato e oligopolistico, l’unico modello di IA pensabile e realizzabile?
  • Perché un diverso uso della IA potrebbe aiutarci anche a risparmiare energia a livello individuale e sociale. [9]
  • Senza una presa d’atto del problema ambientale, senza l’acquisizione della consapevolezza della necessità di affrontare in modo sistematico e scientifico il complesso intreccio di ICT e ambiente, ma soprattutto senza un preciso impegno ambientale da parte di tutti i soggetti coinvolti – dai produttori di hardware ai gestori di servizi in cloud fino agli utenti finali – è difficile che si verifichino sensibili miglioramenti. Sissa

Con buona pace del ministro Valditara e della sua ideologia di governo.

Noi sappiamo che stiamo andando nella direzione sbagliata: il problema è che stiamo cercando di affrontare la cosa con gli stessi strumenti che hanno creato il problema. Penso all’industrializzazione, al capitalismo in particolare.” J Rifkin

Per approfondire
https://www.wired.it/article/intelligenza-artificiale-consumo-energetico-fuori-controllo/
https://www.agendadigitale.eu/cultura-digitale/intelligenza-artificiale-e-cambiamenti-climatici-rischi-e-opportunita/
Bilancio e risparmio energetico con l’IA
https://alterthink.it/intelligenza-artificiale-e-transizione-ambientale-il-ruolo-della-tecnologia-nella-salvaguardia-del-pianeta/
https://www.ecoo.it/articolo/ia-come-si-puo-ridurre-limpatto-della-tecnologia-sullambiente-un-modo-ce/144086/
https://www.ecoo.it/articolo/intelligenza-artificiale-costo-ambientale-consumo-acqua/106419/

NOTE

[1] N. Bobbio, L’età dei diritti, Einaudi.

[2] Nvidia (terza società al mondo per valore) continua a perdere soldi. OPen AI potrebbe perdere 5 miliardi quest’anno: mantenere i suoi prodotti costa troppo (chatGPT costa 700 mila dollari al giorno e non rende altrettanto). La bolla speculativa sta per scoppiare secondo gli esperti. È già scoppiata sui mercati a proposito di sviluppo economico.

[3] In assenza di una significativa innovazione nei materiali, nella produzione e nella progettazione di chip, i carichi di lavoro di intelligenza artificiale dei data center potrebbero rappresentare un decimo dell’utilizzo mondiale di elettricità entro il 2025. Sissa

[4] Nel rapporto “Is Ai the next big climate-change threat? We havent’ a clue”, gli autori sostengono che l’IA è la prossima grande minaccia al cambiamento climatico. Sissa

[5] I data center di Google, hanno rilevato gli scienziati, solo nel 2021 hanno consumato 12,7 miliardi di litri di acqua dolce, di cui il 90% potabile.

[6] https://www.ecoo.it/articolo/quanta-acqua-consuma-intelligenza-artificiale-spreco-eccessivo/137584/

[7] I modelli di allenamento più diffusi comportano un qualcosa come 284 mila kg di CO2, praticamente l’equivalente di un’auto a benzina e di media cilindrata che percorre senza sosta 31 volte il giro del mondo.

[8] I server di Intelligenza Artificiale, consumano tantissimo, una media tra 85 e 134 terawattora, vale a dire circa un terzo dei consumi dell’Italia intera in un anno. Fontana.

[9] “È più conveniente per i ricercatori accademici, che spesso lavorano per istituzioni educative senza scopo di lucro e la cui ricerca è finanziata da entità governative, mettere in comune risorse per costruire centri informatici condivisi a livello di agenzie di finanziamento, come la US National Science Foundation. Un cloud di calcolo accademico finanziato dal governo fornirebbe un accesso equo a tutti i ricercatori”. Cit. da Sissa

 




L’appetito vien chattando

di Marco Guastavigna

Lo ripeterò fino a nauseare chi legge: perché sia finalizzato e finalizzabile allo sviluppo umano, in modo equo, un dispositivo che modifica profondamente la logistica della conoscenza planetaria dovrebbe essere – by design – servizio pubblico a controllo democratico e totale sostenibilità, aperto e garantito come diritto umano. La questione è quindi assolutamente politica.
Gli approcci “a tunnel”, a partire dalla didattica, o i pipponi massimo-sistemisti non servono a nulla, se non a innescare compiaciuta autoreferenzialità. Più utile è giocare: fare imparando per capire, imparare facendo per decostruire.
Ecco    quindi il mio ultimo gioco, ad andamento serendipico.

Immagine realizzata con Midjourney


MarcoG
: Immagina un test per accertare il quoziente di intelligenza artificiale utilizzato in una scuola secondaria

ChatGPT: Per progettare un test che misuri il “quoziente di intelligenza artificiale” in una scuola secondaria, si potrebbe creare una valutazione che verifica non tanto l’intelligenza naturale degli studenti, quanto la loro capacità di comprendere e interagire con i concetti di intelligenza artificiale. Ecco una proposta per come potrebbe essere strutturato:

Struttura del Test

  1. Conoscenza dei Concetti di Base dell’IA

Esempi di domande:
– Definisci “machine learning” e spiega come si differenzia dall’IA tradizionale.
– Qual è il ruolo dei dati in un modello di IA?

Obiettivo: Misurare quanto gli studenti comprendono le basi dell’IA e dei termini tecnici.

  1. Capacità di Analizzare Problemi Risolti dall’IA

Esempi di domande:
– Quali tipi di problemi può risolvere l’IA? Scegli tre applicazioni e descrivi il funzionamento
– Analizza un semplice caso pratico (es. raccomandazione musicale) e spiega quali dati e algoritmi potrebbero essere necessari.

Obiettivo: Valutare la capacità degli studenti di applicare concetti di IA a problemi reali.

  1. Valutazione Critica dell’IA e Impatto Etico

Esempi di domande:
– Discuti un potenziale rischio dell’uso dell’IA nei sistemi di sorveglianza
– Se fossi un programmatore di una chatbot, quali misure adotteresti per evitare pregiudizi nel linguaggio usato?

Obiettivo: Stimolare la riflessione sugli impatti sociali ed etici dell’IA.

  1. Pensiero Logico e Abilità di Risoluzione dei Problemi

Esempi di domande:
– Completa una sequenza logica in uno schema di dati.
– Risolvi problemi che simulano algoritmi semplici (es. ordinamento o filtro di dati).

Obiettivo: Valutare il pensiero computazionale e la capacità di risolvere problemi che sono fondamentali per lavorare con l’IA.

  1. Simulazione Pratica: Programmazione di un Algoritmo Base

Esempi di esercizi:
– Scrivi un semplice algoritmo per riconoscere un pattern in una lista di numeri.
– Usa un ambiente di programmazione (come Scratch o Python) per creare una mini-app di riconoscimento.

Obiettivo: Verificare la capacità di implementare concetti di base dell’IA in codice o in ambienti visuali di programmazione.

Valutazione e Punteggio

Il punteggio potrebbe essere suddiviso in categorie che riflettono le diverse aree di competenza, con un punteggio massimo complessivo che rappresenta il “quoziente di intelligenza artificiale” degli studenti.

MarcoG: Puoi fare delle ipotesi sui punteggi, in analogia con le metriche dei test sul quoziente intellettivo?

ChatGPT: Assolutamente, si può definire un sistema di punteggio ispirato alle metriche tradizionali dei test sul quoziente intellettivo (QI), applicato al “quoziente di intelligenza artificiale” (QIA). In questo caso, il QIA sarebbe inteso come una misura della comprensione, della competenza e del pensiero critico di uno studente riguardo all’intelligenza artificiale e al pensiero computazionale.

Ecco una proposta per classificare i punteggi:

Range e Categorie di Punteggio

  1. QIA sopra la media (120 e oltre)

Significato: Gli studenti in questo range hanno una comprensione profonda dei concetti di IA, riescono ad applicare logiche di machine learning in modo innovativo, e mostrano forte consapevolezza dei rischi e dei benefici etici dell’IA.

Abilità dimostrate:

– Padronanza avanzata dei concetti tecnici.
– Ottima capacità di risoluzione dei problemi complessi.
– Approccio critico e maturo agli impatti sociali dell’IA.

  1. QIA medio-alto (110-119)

Significato: Gli studenti in questo gruppo hanno una buona comprensione dell’IA, sanno identificare problemi adatti a essere risolti con l’IA e mostrano un pensiero etico consapevole, anche se mancano di alcuni dettagli o tecnicismi avanzati.

Abilità dimostrate:
– Buona conoscenza delle applicazioni dell’IA.
– Capacità di risolvere problemi moderatamente complessi.
– Sensibilità etica e comprensione delle implicazioni sociali.

  1. QIA medio (90-109) 

    Significato: Gli studenti dimostrano una comprensione generale dell’IA, con abilità di applicazione di base. Potrebbero necessitare di supporto per affrontare problemi più complessi o approfondire la riflessione critica sui temi etici.

Abilità dimostrate:
– Conoscenza dei concetti principali, come machine learning e analisi dei dati.
– Capacità di risolvere problemi di livello semplice.
– Conoscenza di base dei problemi etici associati all’IA.

  1. QIA sotto la media (80-89)

Significato: Gli studenti in questo range potrebbero avere una conoscenza superficiale dei concetti di IA e delle sue applicazioni, con una comprensione limitata delle implicazioni etiche.

Abilità dimostrate:
– Conoscenza limitata delle applicazioni pratiche.
– Abilità logiche di base, ma difficoltà nella risoluzione di problemi complessi.
– Sensibilità limitata ai problemi etici e sociali.

  1. QIA basso (79 e sotto)

Significato: Questi studenti potrebbero avere bisogno di un’introduzione più approfondita e dettagliata ai concetti di IA e alla logica computazionale.

Abilità dimostrate:
– Comprensione molto limitata dei concetti di base.
– Difficoltà a risolvere problemi anche semplici.
– Mancanza di consapevolezza degli aspetti etici e sociali dell’IA.

Come si potrebbe interpretare il punteggio

Questo sistema permetterebbe di identificare aree di forza e debolezza per ciascuno studente. Ad esempio, un punteggio alto potrebbe evidenziare un potenziale talento nell’informatica e nella tecnologia, mentre punteggi più bassi potrebbero indirizzare verso un maggiore supporto formativo in queste aree.
Questa scala sarebbe solo indicativa, ma utile per orientare sia l’insegnamento che il potenziale sviluppo di programmi formativi più avanzati o di supporto.

MarcoG: E per gli insegnanti?

Per gli insegnanti, un “quoziente di competenza in intelligenza artificiale” (QCA) potrebbe servire a valutare il loro livello di comprensione dell’IA, la capacità di integrare questi concetti nel proprio insegnamento e la sensibilità etica verso gli impatti della tecnologia sull’educazione e sulla società. Potrebbe essere suddiviso in categorie, simili a quelle degli studenti, ma tarato sulle abilità didattiche, la padronanza del contenuto e la consapevolezza del ruolo dell’IA nel contesto educativo.

Range e Categorie di Punteggio per il QCA

Immagine realizzata con Midjourney

  1. QCA Avanzato (120 e oltre)

Significato: Gli insegnanti con punteggi in questo range mostrano una padronanza completa dell’IA, sia nei concetti che nelle applicazioni. Possono facilmente integrare l’IA nella didattica e stimolare una discussione critica con gli studenti.

Abilità dimostrate:

– Padronanza dei concetti di IA (machine learning, algoritmi, etica dell’IA) e capacità di spiegazione efficace.
– Abilità nell’uso di strumenti IA a supporto dell’insegnamento (come chatbot educativi, strumenti di analisi del rendimento).
– Forte consapevolezza dei temi etici e dell’impatto dell’IA nel sistema educativo e sociale.

  1. QCA Competente (110-119)

Significato: Questi insegnanti hanno una conoscenza approfondita e sono in grado di applicare i concetti di IA con competenza, pur non essendo necessariamente esperti avanzati. Possono integrare strumenti di IA nelle lezioni con facilità e promuovere il pensiero critico nei loro studenti.

Abilità dimostrate:
– Solida conoscenza dei concetti di base e avanzati dell’IA.
– Abilità nell’integrazione di strumenti IA nel curriculum e nel rendere gli studenti consapevoli dei rischi e benefici etici dell’IA.
– Capacità di rispondere in modo informato a domande e curiosità sull’IA.

  1. QCA Medio (90-109)

Significato: Gli insegnanti in questo range possiedono una comprensione generale dell’IA e sono in grado di trattare concetti di base nelle lezioni. Potrebbero avere difficoltà a insegnare argomenti avanzati senza ulteriore supporto o formazione.

Abilità dimostrate:
– Conoscenza di base e capacità di spiegare i concetti fondamentali.
– Uso occasionale di strumenti IA per scopi didattici (come software di analisi dei dati per il rendimento).
– Sensibilità di base verso i temi etici, ma con una conoscenza limitata dei problemi più complessi.

  1. QCA Sufficiente (80-89)

– Significato: Gli insegnanti con questo punteggio possiedono conoscenze limitate e potrebbero avere difficoltà a integrare l’IA nella didattica o a rispondere a domande più complesse da parte degli studenti.

Abilità dimostrate:
– Conoscenza superficiale dei concetti di IA.
– Utilizzo minimo o nullo di strumenti di IA in classe.
– Sensibilità limitata ai temi etici dell’IA.

  1. QCA Necessita Formazione (79 e sotto)

Significato: Questi insegnanti avrebbero bisogno di formazione aggiuntiva per comprendere e insegnare concetti di base dell’IA. Potrebbero non essere consapevoli degli strumenti IA disponibili per l’insegnamento e delle questioni etiche ad essa legate.

Abilità dimostrate:
– Comprensione molto limitata dei concetti di IA.
– Assenza di integrazione di strumenti IA nella didattica.
– Mancanza di consapevolezza sui temi etici e sugli impatti della tecnologia nella società.

Interpretazione dei punteggi

QCA alto potrebbe essere considerato un segno di un docente pronto a insegnare l’IA con un approccio critico e consapevole, magari con la possibilità di guidare altri insegnanti o di condurre laboratori tematici.

QCA medio suggerirebbe un’inclinazione all’apprendimento e alla curiosità, ma con la necessità di supporto per temi avanzati e per migliorare l’uso di strumenti pratici.

QCA basso indicherebbe la necessità di formazione specifica su concetti di base, sia teorici che pratici, per colmare eventuali lacune.

Un test simile consentirebbe agli insegnanti di valutare le proprie competenze in un ambito in continua evoluzione e di sviluppare ulteriormente le proprie capacità didattiche, a beneficio loro e degli studenti.

MarcoG: Potresti incrociare la tua ipotesi con digicomp edu?

Ottima idea! DigiCompEdu è un quadro di riferimento sviluppato dalla Commissione Europea per valutare e promuovere le competenze digitali degli insegnanti. Questo framework è molto utile per collegare il “quoziente di competenza in intelligenza artificiale” (QCA) al contesto dell’alfabetizzazione digitale e delle competenze didattiche richieste per la scuola moderna. DigiCompEdu è suddiviso in aree di competenza, molte delle quali si intrecciano con l’IA, come vedremo di seguito.

QCA e DigiCompEdu: Come potrebbero integrarsi

DigiCompEdu identifica sei aree di competenza (A1-A6) che possono essere correlate a differenti livelli del QCA, ognuno dei quali approfondisce aspetti essenziali per l’insegnamento dell’IA e dell’alfabetizzazione digitale. Ecco come potrebbero allinearsi:

  1. Coinvolgimento professionale (A1)

QCA: Insegnanti con un livello QCA elevato comprendono a fondo il potenziale degli strumenti di IA per migliorare la produttività e l’efficacia della didattica. Sono capaci di usare strumenti di analisi, chatbot educativi, piattaforme di apprendimento adattativo e partecipano attivamente a community di pratica sull’IA in ambito educativo.

Livelli DigiCompEdu: Gli insegnanti con punteggi QCA avanzati si collocano ai livelli “Esploratore” o “Innovatore” di DigiCompEdu, dove dimostrano di poter implementare nuove soluzioni tecnologiche con consapevolezza critica e etica.

  1. Risorse digitali (A2)

QCA: Gli insegnanti con QCA medio-alto o avanzato sono abili nell’identificare, selezionare e creare risorse di IA utili per la didattica, come simulazioni o app educative con algoritmi di machine learning, e conoscono piattaforme di formazione basate sull’IA.

Livelli DigiCompEdu: A livelli “Professionista” o “Esploratore”, questi insegnanti dimostrano di padroneggiare sia l’uso che l’adattamento di strumenti di IA per la loro classe, scegliendo risorse che promuovono l’apprendimento personalizzato.

  1. Insegnamento e apprendimento (A3)

QCA: Gli insegnanti con QCA avanzato sono capaci di integrare l’IA nei metodi di insegnamento e favorire la collaborazione e l’autonomia degli studenti usando l’IA per attività come il monitoraggio del progresso degli studenti e l’adattamento dei contenuti.

Livelli DigiCompEdu: Gli insegnanti a livelli “Esploratore” e “Leader” in DigiCompEdu impiegano IA e tecnologie digitali per un apprendimento adattivo e personalizzato, rendendo le esperienze didattiche più inclusive e orientate ai bisogni individuali.

  1. Valutazione (A4)

QCA: Insegnanti con QCA alto sono in grado di utilizzare strumenti di IA per analizzare le performance degli studenti e adattare il percorso di apprendimento alle loro esigenze. Possono anche sfruttare piattaforme di analisi per offrire feedback immediati o per individuare difficoltà e punti di forza negli studenti.

Livelli DigiCompEdu: I docenti a livello “Esploratore” o superiore in DigiCompEdu sono capaci di applicare strumenti di valutazione basati sull’IA che supportano feedback automatici o personalizzati, in linea con una valutazione continua e adattiva.

  1. Potenziare gli studenti (A5)

QCA: Un insegnante con un QCA avanzato sa come utilizzare l’IA per potenziare la partecipazione e la personalizzazione del percorso di studio, ad esempio utilizzando assistenti virtuali che rispondono a domande degli studenti o piattaforme interattive che propongono percorsi personalizzati.

Livelli DigiCompEdu: A livelli “Professionista” o “Innovatore”, questi insegnanti usano l’IA per consentire una maggiore autonomia agli studenti, adattando le risorse alle loro abilità e promuovendo un apprendimento autogestito.

  1. Facilitare le competenze digitali degli studenti (A6)

QCA: Un QCA alto implica la capacità di promuovere la consapevolezza etica dell’IA e delle sue applicazioni tra gli studenti, oltre a insegnare le competenze pratiche di base in ambito IA, come la programmazione e il riconoscimento degli algoritmi usati nei software educativi.

Livelli DigiCompEdu: A livelli “Esploratore” o superiore, gli insegnanti sviluppano la consapevolezza critica degli studenti sull’IA, discutendo con loro l’impatto sociale e le implicazioni etiche delle tecnologie, in linea con le competenze di cittadinanza digitale promosse da DigiCompEdu.

Sintesi

In sintesi, possiamo allineare il QCA ai livelli DigiCompEdu così:

QCA Avanzato → DigiCompEdu “Leader” o “Innovatore”: padronanza didattica e critica dell’IA.

QCA Competente → DigiCompEdu “Professionista” o “Esploratore”: integrazione efficace e adattiva dell’IA.

QCA Medio → DigiCompEdu “Professionista”: conoscenza base con applicazione limitata.

QCA Sufficiente → DigiCompEdu “Principiante”: uso e comprensione basilare degli strumenti IA.

QCA Necessita Formazione → DigiCompEdu “Novizio”: necessità di formazione per integrare l’IA nella didattica.

Questa mappatura permette di valorizzare il livello di padronanza degli insegnanti nell’uso dell’IA, individuando percorsi di sviluppo specifici in linea con DigiCompEdu.

Chiosa: potrei presentare questo  ultimo approccio come un buon punto di partenza  – la chatbot si è in qualche modo complimentata – e il testo come una prima bozza da perfezionare, magari con l’assistenza di altri dispositivi. Oppure come una pericolosa forma di esplicitazione e sistematizzazione molto rapida e – almeno apparentemente – efficiente di elementi noti, che in questo modo vengono oggettivati, diventano scontati. Considerato che ho una pessima opinione (politica) sulla classificazione di Digicomp Edu, tendo a propendere per la seconda modalità di lettura critica, alla ricerca soprattutto di ciò – a partire dal concetto di IA – viene dato per acquisito e pertanto ridotto al livello del senso comune.




Al servizio quasi completo aggiungiamo un tovagliolo

di Marco Guastavigna

Qualche lettore ricorderà l’articolo in cui mettevamo alcuni applicativi della sempre più cosiddetta “intelligenza” “artificiale[1] al servizio del superiore ministero.
Bene, abbiamo scoperto un altro accrocco, che consente di potenziare il valore comunicativo e la comprensibilità di un testo mediante selezione di possibili rappresentazioni grafiche e visive del suo contenuto. Lo abbiamo messo a “ragionare” sulla proibizione dell’uso degli smartphone, ovvero a “ravanare” su di una parte del testo dell’articolo citato in apertura.

Ecco il risultato:

Disposizioni in merito all’uso degli smartphone e del registro elettronico nel primo ciclo di istruzione — A.S. 2024 -2025

 Utilizzo degli smartphone

 Correlazione tra uso degli smatphone e rendimento scolastico

– Importanti studi internazionali dimostrano che l’uso del cellulare in classe ha un effetto negativo sugli apprendimenti degli alunni, come riportato nel Rapporto UNESCO “Global education monitoring report, 2023.”.

– Il Rapporto OCSE PISA 2022 evidenzia che la presenza di smartphone distrae gli studenti, specialmente in matematica, comportando una diminuzione dell’attenzione e del rendimento scolastico.

 Effetti negativi dell’uso eccessivo dei telefoni cellulari

– L’uso continuo dei cellulari dalla prima infanzia compromette lo sviluppo cognitivo, causando perdita di concentrazione, memoria e abilità critiche.
– Si riscontra un aumento di minori affetti dalla sindrome dell’Hikikomori in Italia, evidenziando l’isolamento sociale dei giovani.

 Divieto di utilizzo in classe

– È disposto il divieto di usare gli smartphone in classe dagli alunni della scuola d’infanzia fino alla secondaria di primo grado, eccetto in caso di Piani individualizzati per studenti con disabilità o altre necessità documentate.
– Altri dispositivi digitali come pc e tablet possono essere utilizzati sotto supervisione dei docenti, mantenendo un equilibrio nell’uso delle nuove tecnologie.

 

 

 

 

 

 

 

Aggiornamento dei regolamenti scolastici

– Le istituzioni scolastiche devono aggiornare i propri regolamenti, prevedendo specifiche sanzioni disciplinari per chi viola il divieto di utilizzo degli smartphone in classe.

Utilizzo del registro elettronico; assegnazione dei compiti attraverso il registro elettronico

– Si è affermata la pratica di assegnare i compiti esclusivamente attraverso il registro elettronico, portando gli studenti a consultare regolarmente tali registri attraverso vari dispositivi tecnologici.
– Questo processo spesso coinvolge i genitori, titolari delle password per l’accesso al registro.

Sviluppo della responsabilità degli alunni

– Si raccomanda di accompagnare l’uso del registro elettronico con l’annotazione giornaliera dei compiti su diari o agende personali, per sviluppare la responsabilità nella gestione degli impegni scolastici.
– Tale approccio consente agli alunni di acquisire autonomia, riducendo la necessità di utilizzare il registro elettronico per tenere traccia dei compiti.

 

 

 

 

 

 

[1] Sono tra virgolette separate sia il sostantivo sia l’aggettivo. Consideriamo entrambi, infatti, due connotazioni distinte del marketing economico, geopolitico e militare in cui si sono sviluppati studi e investimenti che hanno portato alle attuali macchine statistico-induttive oligopolistiche, fondate sull’estrazione e sull’accumulazione di lavoro e conoscenza umani, con vocazione al profitto.