Niente di nuovo sul fronte artificiale

 

di Marco Guastavigna

Non vi è nulla di cui preoccuparsi. Il sommo filosofo dell’onlife tassonomizza perfino il proprio aspirapolvere robot. E, di fronte alla fertilità delle macro-categorie, cosa sarà mai la mancata citazione delle micro-lavoratrici e dei micro-lavoratori del Sud globale che fotografano feci di cane per addestrare i dispositivi domestici “intelligenti” ad evitarle, qualora nelle dimore del Nord globale si verificasse questa emergenza?

Più in generale, l’accademia sta praticando la solita strategia, ovvero l’innovazione conservatrice. E quindi, come sempre, si proclama fervida paladina dell’ennesima rivoluzione ontologica ed epistemologica, a cui non si può certo restare indifferenti se si vuole avere lo sguardo proteso nel futuro. Ovviamente, quello a supremazia occidentale. L’importante è convogliare il tutto in “sapere da scaffale”, utile per strutturare insegnamenti ed esami che garantiscano la conservazione degli organigrammi e dei rapporti di potere consolidati nei decenni trascorsi e auspicati per quelli a venire.

La casta più elevata di questo tecno-feudalesimo intellettuale è tutta intenta, inoltre, a pubblicare monografie autografe, in cui esplicitare e celebrare concettualizzazioni originali e, soprattutto, proprietarie. Queste opere consentiranno di sedere da protagonisti ai tavoli della conoscenza mercificata, di ricevere inviti a convegni, seminari, trasmissioni televisive e così via. Il patto sottoscritto tra gli autori è del resto molto solido: è gradita la reciprocità della citazione bibliografica, in modo di rafforzare le posizioni di tutti. Fare rete.

Qualcuno, particolarmente audace, si spinge fino ad assumere la leadership della curricularizzazione dell’intelligenza artificiale, intesa come oggetto di apprendimento, prima per gli insegnanti, poi per gli studenti. Anche l’istituzione centrale dell’istruzione secondaria, del resto, ha battuto un colpo nella direzione dell’addestramento. A un livello gerarchico-culturale più basso, infine, valvassori e valvassini di università pubbliche e private, associazioni, sindacati, riviste e aziende in genere promuovono una miriade di percorsi di formazione adattiva, fondati sull’empirismo e sui ricettari pratici.

La gran parte di queste ultime iniziative ha per altro un buon successo. Esse, infatti, intercettano – anche qui nulla di autenticamente nuovo, niente paura! – il bisogno di trivializzazione dei destinatari, ovvero la riduzione al minimo indispensabile di ciò che si deve fare per (avere l’illusione di) capire. Questo approccio è una delle piaghe dell’istruzione nel nostro Paese. In sé e perché consente a troppi soggetti e a troppi individui di improvvisarsi agenzie formative e formatori.

Del resto, si finisce con l’avere a che fare con l’epistemologia e l’ontologia dell’improvvisazione anche nel ragionare di motori di ricerca e di dispositivi artificiali conversazionali. Mi spiego.
Come forse qualcuno sa, mi occupo da tempo di rappresentazioni grafiche della conoscenza, argomento su cui ho accumulato un certo numero di studi e di pubblicazioni e – almeno per me – una certa credibilità scientifica. Considerandomi pertanto sufficientemente esperto della questione, è un mio costante vezzo cognitivo e professionale testare i dispositivi digitali con cui vengo via via a contatto interrogandoli in proposito.

L’ho fatto nel passato con i vari search engine (da sua maestà Google e DuckDuckGo, passando per Qwant) e recentemente con chatbot e affini (da sua signoria ChatGPT, a Perplexity.ai, passando per Google Bard e You.com).

Come è noto, i motori di ricerca propongono un accesso a risorse selezionate e indicizzate; starà all’utente decidere quali utilizzare. I chatbot, invece, formulano una risposta articolata e, spesso anche se non sempre, indicano le fonti a cui hanno attinto, oltre a proporre domande e indicazioni con cui proseguire la conversazione. Questa la differenza sostanziale tra le due modalità. Ma vi è anche – almeno nel campo delle “mappe” – una costante: i riferimenti, le fonti e le risorse sono molto spesso i medesimi. Il che, nel caso specifico, significa che le risposte (quale che ne sia la forma) erano e sono infarcite di corbellerie, banalizzazioni, errori teorici e operativi.

Le rappresentazioni grafiche della conoscenza – per la vulgata le “mappe concettuali” – sono infatti un tema sottovalutato e quanto mai banalizzato, da insegnanti, studenti ed editoria. Ad aggravare ulteriormente la questione, le numerose applicazioni destinate alla loro confezione hanno diffuso la convinzione che saper utilizzare i software sia condizione necessaria e sufficiente per impiegare in modo significativo le “mappe” nella didattica.

Uno sfondone ricorrente tra gli “esperti” è da sempre affidare ai prodotti il cui nome commerciale fa riferimento alle mind maps (da Freemind, a MindManager, fino a Xmind Copilot, che nuota nell’acquario dell’IA) la realizzazione di concept maps.
Bene: confusione e ignoranza hanno fatto da sfondo non solo alla produzione di risorse inizialmente indicizzate e proposte dai motori di ricerca, ma anche ai comportamenti degli utenti di fronte alle risposte alle loro query (apertura effettiva delle varie fonti, tempi di permanenza su di esse, quantità di link verso un’unità informativa). E, di conseguenza, hanno inquinato anche il monitoraggio da parte degli algoritmi di manutenzione e raffinamento, con il risultato di valorizzare le risorse di minor qualità culturale, perché molto frequentate da utenti alla ricerca di soluzioni rapide; tra questi, molti siti di venditori di applicazioni, le cui informazioni hanno quindi la dimensione del marketing. Al peggio non c’è mai fine.
E così la contaminazione si è ribaltata anche sui chatbot, perché essi sono stati addestrati su materiali ampiamenti degradati dal processo descritto. Gli utenti, per altro, sono rimasti in larga misura gli stessi, con il medesimo atteggiamento riduttivo; e così anche feedback e validazioni/bocciature delle risposte sono corrotti: l’insipienza degli autori e quella degli utenti si saldano in un circolo vizioso che al momento sembra impossibile arrestare.




Intelligenza artificiale a scuola? Domande e riflessioni

di Rodolfo Marchisio

Dopo aver introdotto l’argomento cerchiamo di approfondire.
Sembra che in merito alla IA ci siano 4 atteggiamenti che animano il dibattito: Tecno-apocalittici, utopisti, attenti all’etica o alla sicurezza (Wired).
Chiarito che mi interessa conoscere di più per capire meglio, penso utile essere attenti alle conseguenze delle tecnologie su di noi come persone e come cittadini. E sui nostri diritti, spesso violati non dalle tecnologie in sé (Bauman), ma dai padroni della rete che le e ci controllano.

Tecnologia in divenire, molto diversificata nelle applicazioni.

La IA si sta evolvendo, cresce in maniera costante ed esponenziale (negli ultimi 4 anni il numero di parametri per modelli linguistici di grandi dimensioni è cresciuto di 1.900 volte) ma “passerà almeno un decennio per assistere ad una vera svolta”.
A me profano pare una tecnologia molto variegata, non ancora del tutto chiara anche perché diversi sono i tentativi, gli usi, le tipologie che si stanno sperimentando. Talora in competizione tra loro. Dicevamo una operazione di mercato non ancora definitiva. Vedi dubbi di Musk, di B. Gates e di altri GAFAM.

Dubbi su IA e cittadinanza 

  • Non controlliamo i suoi effetti. Ma anche il suo uso, perché è in mano ai padroni della rete che hanno denaro e tecnologie potenti.
  • Noi non possiamo “costruire” IA né spesso controllarla. Penge rifacendosi alla contrapposizione software free, open /proprietario paragona “la IA ad una piccola bomba atomica che non abbiamo gli strumenti per costruire in modo libero perché non avremo mai quella potenza di fuoco. Con cui però stiamo giocando.”
  • Che ha ancora parecchi difetti: riconoscimento facciale tarato sui bianchi caucasici, discriminazioni di genere; controllo, gestione, dati; “nutrimento” ed addestramento.
  • Che ha un grosso bisogno di essere nutrita da noi, dai nostri dati e prodotti e dipende da chi la propone e dal perché la propone: la colpa non è del web (Bauman), ma dei padroni della rete. Quindi le polemiche sui dati e prodotti e di chi potranno essere usati per nutrire e far crescere applicazioni di IA. Tutti i nostri dati e scritti online, anche quelli con diritto d’autore? Chi autorizza chi? Chi ci tutela?

L’impressione è che sia al momento una “parola ombrello” (Guastavigna), che contiene cose diverse ed ha diversi significati; che prima di somministrare agli allievi, vanno chiariti e distinti: cosa, a chi, perché e come?
 La mia attenzione è concentrata sulla strada indicata da S. Turkle di domandarsi non cosa fare col web ma cosa il web (compresa l’IA) fa a noi, al nostro cervello, alla nostra sfera reazionale, emotiva. Ed ai nostri diritti.

Rischi denunciati

“La crescente capacità di automatizzare le decisioni su larga scala è un’arma a doppio taglio; com’è noto: il rischio discriminazione non è mai lontano. Gli algoritmi elaborati sui dati storici rafforzano e amplificano i pregiudizi e le disuguaglianze già esistenti, con annessi rischi e minacce per i principi democratici.”
“Ridurre al minimo gli impatti negativi sulla società e valorizzare quelli positivi richiede quindi più che sole soluzioni tecnologiche; è necessario un impegno costante e un’attenzione continua della società. Pertanto, la preoccupazione più immediata per l’IA è cosa accadrà se verrà incorporata irrimediabilmente nella vita quotidiana prima che le sue criticità siano completamente risolte.
I Garanti europei per la protezione dei dati, affermavano che “applicazioni come il riconoscimento facciale dal vivo interferiscono con i diritti e le libertà fondamentali in misura tale da poter mettere in discussione l’essenza di tali diritti e libertà. […] Un divieto generale dell’uso del riconoscimento facciale nelle aree accessibili al pubblico è il punto di partenza necessario se vogliamo preservare le nostre libertà e creare un quadro giuridico incentrato sull’uomo per l’IA”. (Agenda digitale)

Uno studio dell’Università di Stanford indica che i successi del settore rendono ora indispensabile pensare seriamente ai lati negativi e ai rischi che un’ampia applicazione dell’IA può rivelare.

Rampini, Bauman, Pariser, Zuboff ed altri ci hanno insegnato che l’alternativa già oggi nel web è tra essere dominati passivamente o cercare di conoscere e contrastare i metodi dei sistemi economici, politici, sociali che stanno dietro agli ambienti, che ci vengono imposti.
Quindi l’alternativa è cercare di dominare un po’ di più o essere dominati
Se noi cittadini siamo “prigionieri del capitalismo oligopolistico oggi digitale” dobbiamo avere la umiltà di ammettere che siamo tutti dei primitivi…e recuperare il senso critico nei (dei) tempi critici in cui viviamo. (De Kerchove).

Scuola

Se anche la scuola è (già) prigioniera del capitalismo oligopolistico oggi digitale. Bonsanto, Micro Mega, ci fermiamo a riflettere?

a) Perché (e come) proporla a scuola?
b) Ne ha bisogno la scuola (in genere priva di cultura digitale diffusa)?
c)  L’ha chiesta per risolvere qualche suo problema o ne ha già troppi?
d) A che livello di scuola è proponibile?

Tutte le mode e tutti i problemi si riversano in una scuola/contenitore di tutte le mode e di tutti i problemi, nonostante il disorientamento o l’esaurimento dei docenti. Non bastano un referente e qualche iniziativa per problema (Digitale, Ed Civica, Orientamento, Educazione alla relazione ed affettività, STEM …). La ed. civica al quarto anno di sperimentazione non è stata attivata in alcune scuole o in alcune classi e non da tutti i docenti. La scuola 4.0 quanti docenti coinvolgerà realmente? Mi pare che più aumenta la pressione sulla scuola per risolvere problemi complessi che riguardano la società, la politica, la famiglia, meno docenti si lascino coinvolgere. “Mi hanno lasciata sola” dice una referente di Ed. Civica.
D’altra parte anche Dig Comp 2.2. (marzo 22) “affronta l’interazione dei cittadini con sistemi basati su IA non sulla conoscenza tout court della stessa.
Le competenze digitali, non si possono ridurre a degli insegnamenti funzionali a singoli compiti, ma necessitano di una costante contestualizzazione culturale, politica e sociale.”

Approfondiremo ancora.

 

 




Intelligenza artificiale a scuola: argomento di moda o tema da approfondire?

di Rodolfo  Marchisio

Il tema di gran moda quest’anno è quella della IA. Come se non esistesse già prima. Naturalmente quando c’è un tema alla moda (o un problema purtroppo…) lo si vuole subito associare o meglio iniettare nella scuola. Fioriscono i primi convegni, i molti libri, soprattutto le case editrici non si fanno sfuggire l’occasione di essere tra le prime ad offrire corsi e webinar su questo argomento.

Conoscere per capire

Vorrei chiarire che il mio modo di ragionare da sempre è che di fronte a cose nuove e complesse “non è il caso di dividersi (pro vs contro) ma di conoscere di più per capire meglio”. Le osservazioni che farò spero servano a questo e derivano dalla mia esperienza di docente che si portava negli anni 80 i “computer” (allora ZX 81 o Vic 20 solo poi Spectrum o C 64) da casa e li attaccava alla TV. Che per 25 ha fatto l’”animatore digitale”, organizzato laboratori e ambienti di apprendimento “digitali”. Domandandosi quali competenze di docenti e allievi venivano messe in gioco. Come fare e perché. E che conseguenze avrebbero avuto su di noi come persone e cittadini. Poi come formatore dal 1982 (dal PSTD a Scuola 4.0) ha seguito tutte le costose iniezioni di tecnologie che la scuola ha subito – non richiesto – come mercato di riserva delle tecnologie da ufficio, non progettate secondo le sue esigenze. Una per Ministro, nella colpevole illusione che le tecnologie potessero risolvere i problemi della scuola e sostituire una riforma della stessa. Innovazione al posto di progetto. Tecnologie al posto di idee. Iniezioni mai monitorate, spese mai verificate dal ministero, come ha raccontato Gui e come posso testimoniare. Cercando, come formatore, di mediare tra le paure delle tecnologie prima e poi tra il saper usare e sapere come e perché funziona così verso la necessità di formare competenze di cittadinanza e cultura digitale. Il web nel frattempo è molto cambiato (“Non riconosco più la mia creatura”, dice T.B. Lee). Gli studi OCSE 2014, 15 e studi seguenti hanno rilevato che “Le tecnologie di per sé non modificano la qualità dell’insegnamento/apprendimento”. I “buoni docenti si. L’ideale sarebbe dare “buone” tecnologie” in mano a “buoni” docenti, che non solo le usino, ma che si domandino “come funziona e perché funziona in questo modo e che conseguenze ha su di noi”. Come richiesto anche dal Sillabo del MI nel 2018, in cui si scriveva: la situazione attuale del web è complessa, i ragazzi devono sapere cosa succede sulla loro pelle in rete, perché cambiare è ancora possibile. È anche l’anno in cui sono state ridefinite le competenze chiave a livello europeo introducendo le competenze digitali, collegate alle competenze di cittadinanza in Italia che con le prime si identificano: perché tutte  le competenze chiave sono competenze di cittadinanza e viceversa (come ci spiega Bruno Losito). Questo mi interessa visto che dobbiamo formare le persone ed i cittadini e orientarli nel mondo.

Per essere più chiaro ce l’ho coi padroni della rete (Rampini), col capitalismo degli oligopoli digitali che ci sfruttano e riducono i nostri diritti (Schiavi del clic, Casilli) e con quegli insegnanti che, per moda o per stanchezza, si concentrano sull’insegnare ad usare e non sull’insegnare a riflettere. Può essere utile leggere un articolo di Marco Guastavigna che condivido in pieno. Un esempio: la sciagurata scelta delle piattaforme per la DaD, in prevalenza Google (Zoom, Class room e simili) da cui però siamo ancora, dopo quattro pronunciamenti duri dell’allora Garante della privacy Soro, dipendenti.

Il compito della scuola non è quello di insegnare a usare solo, ma di insegnare a conoscere e smontare il giocattolo web per una cultura e cittadinanza digitale.  Se chiudo mia figlia in garage a giocare coi comandi non è che impara a guidare. (Attivissimo, A. O. Ferraris)

La legge 92/19 definisce in modo simile gli obiettivi della Ed. Civica: alla fine il ragazzo deve raggiungere obiettivi legati alla cittadinanza, in genere, non all’uso (cfr. art 5.2.) «Usare il digitale andrebbe insegnato nella scuola sin da piccoli e non parlo di come funziona uno smartphone ma dei sistemi sociali, politici, economici che sono alle spalle» (Soro, ex Garante privacy). L’EC ci ha insegnato che viviamo in contemporanea in 3 ambienti: Sociale, Naturale, Digitale intrecciati tra di loro. Il nostro mondo.

IA è una novità?

Se ne parla perché c’è. Vero, ma c’era in varie forme già prima. Allora come parlarne e perché? Molti ricordano i primi test di Turing, qualcuno ricorderà il chatterbot Eliza (1966) che dialogava come uno psicoanalista, rispondendo ad una domanda con una domanda che catturava una nostra frase chiave. Ricordo i sistemi esperti in medicina, quando insegnavo pedagogia, psicologia e un po’ di informatica agli Infermieri professionali dei corsi parauniversitari della Regione Piemonte. I sistemi esperti riproducevano, seguendo un diagramma di flusso, il comportamento di un medico umano: 1- Sintomi, 2- anamnesi, 3- ipotesi probabilistica della malattia da diagnosticare, 4- Nuovi accertamenti e dati da immagazzinare, 5. Ipotesi di diagnosi e 6- proposta di cura. Oggi la potenza di incorporare dati ed elaborarli è molto maggiore, ma continuo a pensare che sarebbero un ottimo assistente per gli amici medici, cui però dovrebbe spettare l’ultima parola, perché sono quelli che possono pensare: tutto porterebbe a…ma in base alla mia esperienza e conoscenza del paziente ho la sensazione cheIA è già tra noi: a partire dagli algoritmi di google e dei social di cui però non siamo né consapevoli né padroni se mai vittime o consum-attori.

Una operazione di marketing?

Ma perché tutti parlano di Ai? Perché è un’eccezionale operazione di marketing, una delle meglio organizzate degli ultimi anni. Su questa, le imprese della Silicon Valley si stanno giocando il tutto per tutto, per invertire il trend negativo fatto di tagli al personale e cambi drastici dei loro programmi di sviluppo. Intelligenza inesistente, Borroni Barale. Wired parla di “corsa all’oro”.

Quale intelligenza? Quante definizioni di intelligenza e quante di IA?  In un saggio del 2007 Legg e Hutter elencarono 53 definizioni di intelligenza umana e 18 di Intelligenza Artificiale (Floridi).

Cosa vuol dire intelligenza? Io mi tengo strette le idee di Gardner, sulla pluralità delle intelligenze e quella di Goleman sul rapporto tra intelligenza ed emozione. In base alla mia esperienza, intelligenza, apprendimento e contesto relazionale ed emotivo, clima di classe sono fortemente collegate. Si apprende (e si cambia) soprattutto in un gruppo, con esperienze emotive comuni e significative.

Mi sembra che la situazione sia piuttosto complessa e la semplicità non esiste se non come prodotto della riflessione sulla complessità. Vogliamo approfondire insieme?




Quello “digitale” è pluriverso

di Marco Guastavigna

Nel silenzio dei più, è arrivata la notizia che Google Bard ha abbassato la soglia dei 18 anni per l’accesso – temporaneamente solo in inglese – ai propri servizi.
L’età minima varia da Paese a Paese, in base alle norme locali, ma la proposta globale è chiara: ci si rivolge ai “teens”, gli adolescenti.

E così siamo di fronte a un’altra tappa dell’universalizzazione dei dispositivi tipici del capitalismo cibernetico, che – già dominante da tempo – ha esteso la propria egemonia operativa, professionale e culturale nel periodo del lockdown, della chiusura delle scuole e del distanziamento delle attività didattiche.
Per sfociare nel PNRR, celebrazione della cessione della logistica dell’istruzione alle multinazionali digitali.

Rarissime sono per contro le occasioni per conoscere e apprezzare l’esistenza di altri dispositivi, tipici invece di mutualismo, cooperazione e condivisione conviviale della conoscenza, intesa come risorsa collettiva per lo sviluppo umano e non come voucher individuale per l’auto-imprenditorialità nella competizione globale.

Alla nuova iniziativa egemonica di Google si dovrebbe rispondere non tacendo rassegnati, ma rafforzando il posizionamento critico nei confronti delle concettualizzazioni correnti, ben riassunta dalla diffusissima espressione “il digitale”.
Questo aggettivo assunto a sostantivo, infatti, costituisce una formulazione “ombrello”, che – paradossalmente – accomuna coloro che ne sono fautori e coloro che ne sono oppositori in una (presunta) condivisione ontologica ed epistemologica, consentendo in realtà a ciascun attore di attribuire senso e significato propri e ostacolando perciò qualsiasi ragionamento davvero analitico. Oltre alla ricerca e all’individuazione di eventuali alternative sul piano sia intellettuale sia pratico.

La contrapposizione corretta, infatti, non è “digitale sì” versus “digitale no”, ma quella tra dispositivi digitali finalizzati alla logistica estrattiva della conoscenza, che, come detto, sono attualmente i più diffusi e conosciuti, e dispositivi digitali a vocazione aperta e decentralizzata. I primi richiedono e attivano competenze che vanno nella direzione dell’accettazione e dell’adattamento al loro modello; i secondi capacità e riflessioni che sviluppano emancipazione. Vediamo perché.

Capitalismo cibernetico

I dispositivi a logistica estrattiva (di cui sono paradigmatiche le diverse branche di Alphabet, la holding a cui appartengono Google Bard e Google Search) hanno un’impostazione operativa fondata sulla valorizzazione delle piattaforme del capitalismo cibernetico in nome dell’efficienza e della velocità di comunicazione; inducono a un consumo cospicuo, ostentato, feticista, compulsivo, di apparecchiature prodotte da marchi a massima notorietà e di software a pagamento; il tutto è per di più soggetto a obsolescenza programmata, per garantirsi ripetuti cicli di acquisto oneroso. Forniscono inoltre servizi apparentemente gratuiti perché money free, ma che in realtà mettono in moto un gigantesco scambio ineguale: il tracciamento delle modalità d’uso e la profilazione di ciascun singolo utente accumulano ed elaborano continuativamente materia prima per profitti mediante azioni di marketing.

Ma l’alternativa c’è

I dispositivi conviviali e decentralizzati (di cui sono paradigmatiche le distribuzioni di Linux e piattaforme come Framasoft), invece, valorizzano la vocazione etica delle attrezzature e delle infrastrutture aperte, l’accesso alle quali non comporta profilazione degli utenti.
Propongono free software, per l’impiego del quale non è richiesto il pagamento di royalties e il cui codice sorgente è spesso open, cioè investigabile e modificabile, in nome della condivisione collettiva e di un equo accrescimento della conoscenza. Offrono esempi di “fair device”, in particolare nel campo degli smartphone, preoccupandosi di prolungarne il ciclo di vita mediante modularità e riparabilità dei componenti e di impiegare sistemi operativi e applicazioni con una richiesta di risorse hardware meno onerosa e più stabile nel tempo rispetto a quella dei software proprietari, in particolare Windows e la suite Office. Curano la riservatezza e permettono, anzi, di operare anche nel pieno anonimato. Il monitoraggio e l’aggregazione dei comportamenti d’uso, infatti, vengono attivati solo se considerati utili per un miglioramento delle funzionalità (come nel caso del motore di ricerca DucKDuckGo), con immediata ed equa ridistribuzione del patrimonio di conoscenza ricavato. Allo stesso modo, l’identificazione degli utenti viene chiesta solo a garanzia della partecipazione, per esempio per proteggere di depositi di dati o di file condivisi o di altre elaborazioni del genere.

Diversi approcci cognitivi

Le due opposte impostazioni operative comportano approcci cognitivi molto distanti tra loro. Apprendere per adattarsi all’uso dei dispositivi digitali a logica estrattiva significa infatti porsi come obiettivo l’acquisizione di capacità individuali, oggetto e criterio di selezione, di competizione e pertanto di graduazione gerarchica nell’istruzione, nella cultura e nel lavoro, secondo una matrice abilista. Imparare competenze professionali implica anche l’allenamento alla frammentazione delle prestazioni e al loro asservimento ai macchinari, tipico del comando e del controllo di algoritmi finalizzati alla produttività.
Analogamente si valorizzano l’inserimento in team il cui obiettivo è il successo sui concorrenti e il loro coordinamento: ne sono testimonianza il successo di metodi di matrice aziendalistica come il debate e le escape room, estesi e intensificati mediante comunicazione e interazione digitali.
Apprendere per emanciparsi collettivamente con i dispositivi digitali conviviali vuol dire, invece, cogliere opportunità collettive di inclusione e partecipazione e di estensione e prolungamento nel tempo delle capacità umane, in termini operativi e culturali e secondo il principio generale del mutualismo e della cooperazione.
La logistica estrattiva della conoscenza, del resto, considera quest’ultima capitale, tanto è vero che pone a fondamento delle opere di ingegno la brevettazione e il copyright, mentre principio fondamentale della logica conviviale e mutualistica sono la conoscenza come bene comune, il già citato free software, codice e contenuti aperti.

E’ il mercato, bellezza…

Nulla di cui stupirsi: i dispositivi digitali del capitalismo cibernetico sono del tutto congruenti con una visione antropocentrica, che concepisce il mercato come supremo regolatore dei rapporti tra gli esseri umani e la natura una risorsa separata dalla società, a cui ricorrere senza limite alcuno. Metafore come quella del cloud (nuvola) supportano del resto una visione “leggera”, auto-assolutoria, che ammanta di pseudo-immaterialità i dispositivi medesimi. Le persone, per altro, sono presentate nella doppia veste di competitor e di consumer naturali, in base ad uno pseudo-realismo, che non concepisce altra metrica sociale che la produttività e la crescita, intesa come consumo di merci.
Ne consegue che internet è sempre più un insieme di agglomerati informativi e comunicativi privatizzati, separati e recintati, che agiscono come infrastrutture razionalmente asservite al sistema di relazioni capitalistico e rappresentano la dimensione tecno-economica del solo progresso possibile.
La visione sottesa rafforza e celebra l’evidenza e la conseguente inevitabilità della supremazia cognitiva e culturale occidentale sulle altre culture del pianeta. È in atto una sorta di sovranismo tecno-utilitarista, che in cui una civiltà superiore punta principalmente all’innovazione, in primis tecnologica e concepita come distruzione creatrice, ovvero capace di rilanciare il basilare meccanismo della concorrenza e della competizione.

Coloro che optano per la cooperazione e il mutualismo anche per via digitale scelgono questa strada perché sono invece consapevoli che l’interdipendenza planetaria e l’inter-specismo sono condizioni essenziali per la salvaguardia dell’ambiente e della vita.
Coloro che realizzano e usano software libero, piattaforme aperte e fair device sottolineano infatti quanto è importante tenere conto dell’impatto ambientale del proliferare dei dispositivi a immaterialità mistificata. L’approccio conviviale, inoltre, non solo si contrappone a questa forza distruttiva, ma pratica l’integrità delle persone coinvolte, prefigurandone un’estensione di massa, che vada oltre le minoranze attuali. Internet va infatti restituita alla sua funzione di infrastruttura senza confini, pubblica, sede di intelligenza collettiva aperta e arcipelago di punti di enunciazione, senza gerarchie di potere epistemologico, economico e logistico. Il rinnovamento – tecnologico ma non soltanto – non deve essere un obiettivo, ma uno strumento di sviluppo equo e democratico, capace di ottimizzare sinergicamente mutamento e continuità.

L’approccio didattico conseguente alla subalternità infrastrutturale, operativa, culturale e professionale all’impianto materiale e ideologico del capitalismo cibernetico assume come finalità soprattutto la preparazione degli studenti al mercato del lavoro, a volte anche precoce. È intessuta di sperimentalismo, senza verifiche di efficacia, e spesso gli obiettivi coincidono in modo davvero banale con le modalità d’uso delle apparecchiature materiali (si pensi ad esempio alle stampanti 3D) o degli applicativi usati.
Vive di episodi ammantati di sensazionalismo, per esempio il volo di un drone nel cortile della scuola; è competitiva ad oltranza, con siti-vetrina, fiere, expo, sfide, pitch, contest inter-scolastici e perfino intra-scolastici.
Del resto, è nel DNA delle furerie digitali scolastiche concorrere per ottenere finanziamenti fondati sulla scarsità e sulla concorrenza. Solo il PNRR sembra andare controcorrente, per introdurre – come già fatto presente – altri tipi di vincoli. In tutte queste articolazioni, si usa un lessico che si riduce per lo più a un gergo subalterno, ricco di slogan, trivializzato, manipolatorio e opacizzante.

L’alternativa: una didattica autenticamente sperimentale

Una didattica con obiettivi emancipanti è ancora assolutamente minoritaria, ma può avere alcune caratteristiche ben precise, che emergono per opposizione.
In primo luogo, deve essere davvero sperimentale, ovvero proporre e verificare ipotesi definite e prevedere impieghi in contesti i cui bisogni formativi siano stati rilevati con attenzione. Si deve porre di volta in volta il problema della scelta consapevole dei dispositivi più adatti alla situazione in cui opera, considerando anche le alternative. Deve conseguentemente operare la decostruzione della visione e delle pratiche mainstream, perché deve utilizzare, costruire e diffondere invece un linguaggio autodeterminato, ovvero analitico, capace di significato autenticamente professionale e demistificante l’approccio tecnocratico e il tecno-entusiasmo acritico.

La recente irruzione dell’intelligenza artificiale nel campo della conoscenza e dell’istruzione, del resto, prospetta un altro campo di confronto e scontro tra l’approccio maggioritario, subordinato alle nuove magnifiche sorti e progressive dell’oligopolio digitale, e un minoritario posizionamento critico, emancipato ed emancipante. Di fronte alle mega-macchine predittive fondate su modelli a correlazione statistica, il primo atteggiamento magnifica l’efficacia della traduzione di processi complessi in materiale computabile, in nome dell’efficacia.
L’intelligenza di un dispositivo viene infatti misurata su base prestazionale, ovvero in rapporto ai risultati ottenuti: ontologia ed epistemologia scivolano nel marketing concettuale dell’entusiastico ricorso all’oracolo digitale di turno. Da questa visione derivano comportamenti di massa acritici, in particolare – una volta superata (con grande fatica!) l’idea che ChatGPT rappresentasse l’intero settore – l’esplorazione compiaciutamente empirica delle varie funzionalità delle applicazioni etichettabili come “AI”.
Insomma: la privatizzazione della conoscenza collettiva, l’esaltazione del soluzionismo tecnologico competitivo e dirompente e l’algocrazia (il controllo e la regolazione dei comportamenti umani mediante mega-macchine di calcolo a comando capitalistico) hanno riportato una nuova esaltante vittoria culturale e antropologica.

Il secondo approccio ha invece come focus la decostruzione dell’IA: interpreta la riduzione statistica e la ricerca della computabilità come vincoli, che spingono a naturalizzare e perpetuare il modello socio-economico corrente, a immaginare il probabile anziché il possibile, il modificabile.
In questo campo sono quanto mai necessarie concettualizzazioni autonome e analitiche, che disertino ogni standardizzazione della mentalità, e la denuncia dell’agire oligopolistico delle corporation di settore, la cui capacità di elaborazione di BigData e di costruzione di BigCorpora dinamici dipendono da una potenza di calcolo e infrastrutturale ineguagliabile da altri soggetti. Così come vanno poste domande in campo algoretico: non solo “cosa?” e “come?”, ma anche “perché (finale e causale)?” e “se”, inteso come vaglio delle potenziali conseguenze di ciascuna scelta o di ogni soluzione, senza dare nulla per scontato.

L’approccio subordinato caratterizza del resto anche l’attuale formazione massiva degli insegnanti e del personale scolastico in genere. L’innovazione è un obiettivo e un metodo, non più uno strumento da usare con ragionevolezza ed equità. La soluzione di continuità dirompente una finalità strategica. Ad affermare il primato tecnocratico campeggia il riferimento al Syllabus STEM come riferimento principale per le capacità da acquisire e da sviluppare nella didattica. A gerarchizzare definitivamente i ruoli concorre poi la recente – e grottescamente sessista – differenziazione in 6 livelli (Novizio, Esploratore, Sperimentatore, Esperto, Leader, Pioniere), per altro perfettamente congruente con quanto avvenuto in precedenza, dall’esaltazione dell’empirismo delle (presunte) buone pratiche all’emulazione delle cosiddette “avanguardie educative”.

L’approccio emancipante alla e della formazione è in questo periodo assolutamente minoritario e frammentato. Anche in questo caso sono però individuabili per contrasto gli aspetti più importanti per il recupero e la riaffermazione del diritto all’autodeterminazione professionale, intellettuale e culturale, collettiva prima ancora che individuale. La formazione deve infatti essere assegnazione autonoma e dialogica di senso e significato dell’utilizzo di dispositivi digitali analizzati e – se necessario – decostruiti, in rapporto a contesti definiti con certezza e lucidità in termini di bisogni e di potenziali valori aggiunti.
L’analisi dei dispositivi deve prestare attenzione alla potenziale dequalificazione dell’agire cognitivo, rifiutando, per esempio, ogni possibilità di sostituzione da parte di dispositivi di intelligenza artificiale, non per un’astratta difesa della categoria dei docenti, ma perché si tratterebbe di un impoverimento delle relazioni umane e della creatività in favore della maggiore probabilità, dell’omogeneizzazione che appiattisce. Impostare percorsi di formazione di questo genere significa perseguire – e prima ancora accettare – l’Ibridazione del sapere richiesta dalla trattazione non di skill e/o di applicativi in chiave funzionale, ma di temi generatori di riflessione e consapevolezza. Un contributo in questa direzione può arrivare dall’impostazione Stepwise, una proposta di educazione scientifica direttamente finalizzata all’azione civica per il recupero dei danni sociali ed ambientali, che si contrappone a pratiche neoliberiste quali la sterilizzazione dell’educazione STEM dagli aspetti economici ed etici e dal rapporto tra sfera pubblica e finanziamenti ed interessi privati.
Vi sono almeno due temi che possono essere oggetto di formazione secondo questa modalità, entrambi già citati: smartphone e intelligenza artificiale, in un quadro che ne affronti non solo la dimensione tecnico-funzionale, ma tutti gli intrecci culturali, sociali, economici, psicologici, giuridici, etici, geopolitici e di impatto sull’ambiente.




Sei un mito?

di Marco Guastavigna

Supponiamo che venga assegnato un compito come quello riprodotto in figura:

 

 

 

 

Supponiamo anche che il medesimo sia uno di molti e che si determini quindi un caso di sovraccarico cognitivo…

Supponiamo infine che le vittime della situazione (non in età per usare direttamente il dispositivo) si ricordino di disporre di parenti con una certa dimestichezza con gli accrocchi della cosiddetta intelligenza artificiale…

… Ecco un possibile sviluppo della vicenda.

  1. “ChatGPT ci può aiutare?”, didascalia della foto dell’esercizio inviata via WhatsApp.
  2. Avvio di una conversazione con ChatGPT: “Ora ti fornisco un racconto che tu dovrai completare tenendo presenti le caratteristiche del racconto mitologico”.
  3. Risposta di ChatGPT: “Certamente! Sarà un piacere aiutarti a completare il racconto mitologico. Per favore, forniscimi il tuo racconto o un inizio, e io lo completerò con elementi e stile tipici di un racconto mitologico.
  4. Dettatura della consegna di lavoro a Microsoft Word e copia e incolla della medesima come prompt: “Zeus era follemente attirato da una donna, Metisi, e voleva farne la sua sposa. Metis era una creatura speciale: figlia di un potente titano di una titanessa generata dalla madre terra, ella era saggia e astuta. Quando Metis si accorse che Zeus la voleva solo per sé, decise di non cedergli di fuggire, sfruttando la propria capacità di trasformarsi. Inseguita da Zeus si tramutò dapprima in un agnello, poi nel vento e infine in un cespuglio di rovi punto ma Zeus non si lasciò ingannare e
  5. Risposta di ChatGPT “perseguì Metis con determinazione. L’ardore di Zeus era insaziabile, e la prospettiva di avere Metis come sua sposa lo spinse a non arrendersi di fronte alle sue trasformazioni. Mentre lei si trasformava da un essere all’altro, Zeus si trasformava anch’egli, seguendola in ogni metamorfosi. Il cielo si riempì di un’aura divina, mentre Zeus e Metis si contendevano attraverso le forme di animali, elementi naturali e oggetti inanimati. La lotta durò giorni e notti, e il mondo intero fu testimone della loro sfida titanica. Alla fine, Zeus si trasformò in un’aquila, e Metis, esausta e sconfitta, si rifugiò nella sua forma originale. Realizzando di non poter sfuggire al potere di Zeus, Metis decise di accettare il suo destino. Si trasformò in un piccolo insetto e si posò sulla mano di Zeus, il quale la prese delicatamente tra le dita. Zeus, colpito dalla determinazione e dall’ingegno di Metis, le chiese di diventare sua consorte, promettendo di rispettarla e onorarla. Metis, con la saggezza di una creatura antica, accettò la proposta di Zeus, sapendo che aveva guadagnato il suo rispetto.
    Da quel giorno, Metis divenne la consorte di Zeus, e insieme regnarono sugli dèi dell’Olimpo. La loro unione portò alla nascita di una figlia, Atena, la dea della saggezza e della guerra strategica, che ereditò l’intelligenza e la determinazione di entrambi i suoi genitori. La storia di Zeus e Metis divenne una leggenda mitologica, celebrata come un esempio di come il rispetto e l’uguaglianza possano prosperare tra gli dèi e gli uomini.
  6. Prompt: Scrivi un testo più semplice, come un ragazzo di 11 anni.
  7. Risposta di ChatGPT: ma Zeus non si è arreso. Lui si è trasformato anche lui, seguendola. La lotta tra Zeus e Metis è andata avanti per giorni e notti, con entrambi che cambiavano forma. Alla fine, Zeus si è trasformato in un’aquila e Metis, esausta, ha deciso di arrendersi. Si è trasformata in un piccolo insetto e si è posata sulla mano di Zeus. Zeus ha visto quanto fosse coraggiosa e intelligente Metis e le ha chiesto di sposarlo. Metis ha accettato, e sono diventati una coppia molto importante tra gli dèi. Hanno persino avuto una figlia chiamata Atena, che è diventata la dea della saggezza e della guerra strategica. La storia di Zeus e Metis ci insegna che il rispetto e l’uguaglianza sono importanti, sia tra gli dèi che tra le persone. E così, Zeus e Metis sono diventati una leggenda mitologica che ci ricorda l’importanza di trattare gli altri con rispetto.
  8. Prima riscrittura del testo copiato e incollato da parte di Canva Scrittura Magica: Zeus non si arrese alla lotta con Metis, ma invece la seguì trasformandosi insieme a lei. La loro battaglia durò giorni e notti, entrambi mutando forma. Alla fine, Zeus si tramutò in un’aquila e la stremata Metis decise di arrendersi. Si trasformò in un piccolo insetto e si posò sulla mano di Zeus. Attraverso la sua dimostrazione di coraggio e intelligenza, Metis conquistò il rispetto di Zeus, che le chiese di sposarlo. Insieme divennero una coppia molto importante tra gli dèi, e la loro figlia, Atena, divenne la dea della saggezza e della guerra strategica. La leggenda di Zeus e Metis ci insegna l’importanza del rispetto e dell’uguaglianza, sia tra gli dèi che tra le persone. Rappresenta un simbolo di convivenza pacifica e di considerazione degli altri, e ci ricorda l’importanza di trattare con rispetto coloro che ci circondano.
  9. Seconda riscrittura da parte di Canva Scrittura Magica: Zeus non si arrese nella sua lotta con Metis e la inseguì, trasformandosi insieme a lei. I due combatterono per giorni, cambiando forma continuamente. Alla fine, Zeus si mutò in un’aquila e la stremata Metis si arrese, diventando un piccolo insetto e posandosi sulla mano di Zeus.
Attraverso la sua abilità e coraggio, Metis guadagnò il rispetto di Zeus, che la chiese in sposa. Insieme diventarono una coppia importante tra gli dèi, e la loro figlia, Atena, diventò la dea della saggezza e della guerra strategica.
La leggenda di Zeus e Metis ci insegna l’importanza del rispetto e dell’uguaglianza, sia tra gli dèi che tra le persone. Rappresenta un simbolo di convivenza pacifica e di considerazione degli altri, e ci ricorda l’importanza di trattare gli altri con rispetto.
  10. Invio dei testi via WhatsApp
  11. Adattamento finale da parte di una delle destinatarie dell’intermediazione con i dispositivi digitali: si trasformò anche lui, seguendola. La lotta tra Zeus e Metis andò avanti per giorni e notti, con entrambi che cambiavano forma. Alla fine, Zeus si trasformò in un’aquila e Metis, esausta, decise di arrendersi. Si trasformò in un piccolo insetto e si posò sulla mano di Zeus. Zeus vide quanto fosse coraggiosa e intelligente e le chiese di sposarlo. Metis accettò e divennero una coppia molto importante tra gli dei. Ebbero una figlia chiamata Atena, che divenne la dea della saggezza e della guerra strategica.

11bis. Adattamento finale da parte dell’altra destinataria dell’intermediazione con i dispositivi digitali: continuò a insistere giorno e notte finché Metis non poté far altro che arrendersi e si trasformò in un fiore che Zeus colse e tenne con sé come un oggetto prezioso. Zeus era innamorato della bellezza e del coraggio di Metis se voleva sposarla. Insistette così tanto che Metis alla fine accettò e, dopo un po’ di tempo, ebbero una figlia, la dea Atena della sapienza, della guerra e dell’intelligenza.

Lettrici e lettori giudichino ora del tutto liberamente se, di fronte a una proposta di “scrittura-grugnito”, si sia verificata a un’orribile e imperdonabile truffa o se invece ci troviamo in una delle fattispecie raccolte nello schema che segue, ovvero la delega a un assistente artificiale di un compito che si deve essere capaci di valutare per efficacia rispetto ai propri obiettivi e – addirittura! – per congruenza con le proprie effettive capacità.




Intelligenza ri-generativa

di Marco Guastavigna

Una cosa è sempre più evidente: bisogna urgentemente decostruire la visione “strumentale” dell’IA, che ha un approccio adattivo e subordinante.
Da una parte, infatti, valorizza una visione dei dispositivi fondata sull’ottimizzazione tecnocratica del modello socio-economico in atto, assolutizzandone categorie, obiettivi, compatibilità, principi e così via, che si fondano su competizione e profitto.
Dall’altra illude che sia possibile avere il controllo della situazione, usando in modo manipolatorio il concetto di strumento e dimenticando di conseguenza che i dispositivi hanno complementarità attiva all’agire umano: vincoli, regole di ingaggio, prerequisiti, monitoraggio, feedback, determinazione di modi di procedere e ritmi, fino alla sostituzione.

Il contesto italiano, inoltre, si caratterizza – a differenza della produzione culturale di altri Paesi – per assenza di posizionamento critico, soprattutto nel campo dell’istruzione. Anzi: c’è addirittura chi cerca di rinchiudere anche l’attivismo nel “sapere da scaffale” su cui esercitare il potere classificatorio tipico della sussunzione accademica, categorizzandolo come “etica hard”, contrapposta a una più blanda “etica soft”. (Floridi, 2022 – citato da Panciroli, Rivoltella, 2023).

Per fortuna, fuori dai patri confini è più frequente la vigilanza civile e deontologica, quella che caratterizza ad esempio l’ultimo lavoro di Dan McQuillan, “Resisting AI: An Anti-fascist Approach to Artificial Intelligence”.

Assumendo la definizione di fascismo come “ultranazionalismo palingenetico”, egli mette in evidenza che l’IA può a sua volta funzionare come tecnologia di divisione, perché promossa nelle pratiche e nell’immaginario collettivo come soluzione “neutra” – fondata sui “dati” – della crisi sociale con la conservazione di potere e privilegi dei gruppi dominanti, mediante esclusioni, separazioni e discriminazioni computazionali. Con procedure di calcolo che individuano meritevoli e non meritevoli di residui del welfare, interventi sanitari, concessione di crediti, clemenza giudiziaria, per fare solo alcuni esempi.
Da una parte, soluzionismo ultranazionalista, razzializzante, patriarcale, etero-normato in campo sessuale; dall’altra, soluzionismo tecno-sociale. Entrambi per l’eternizzazione dei rapporti di produzione e di proprietà del sistema capitalista, mediante naturalizzazione e intensificazione delle gerarchie esistenti.
L’IA, insomma, non è fascista di per sé, ma, in virtù della propria architettura, si presta a soluzioni fascistizzanti, autoritarie, azzeranti ogni partecipazione dei cittadini, in nome dell’efficienza della Nazione (o dell’Occidente).

Avere un approccio antifascista, quindi, vuol dire in primo luogo comprendere l’esistenza di un processo di rimozione politico-culturale delle possibili alternative al modello socio-economico capitalistico, in nome dell’innovazione tecnocratica.
McQuillan è netto: di fronte a pandemia, guerra, crisi climatica, finanziarizzazione della vita e indebitamento, dobbiamo invece tornare a immaginare il possibile, piuttosto che calcolare il probabile. Le mega-macchine predittive dell’IA, che si basano su correlazioni statistiche individuate nei dati elaborati, sono infatti – per definizione – destinate a concepire il futuro in continuità con il passato, se non come sua ripetizione.

Scopriamo così un’altra ragione per apprezzare il libro: un riferimento diretto, come metodo di analisi, a Freire, il cui posizionamento rispetto all’esistente era esplicito. Si tratta infatti di recuperare la sua indicazione a pretendere di partecipare, porre collettivamente domande sui problemi comuni e determinare che cosa fare.
La pedagogia critica è un mezzo per generare nuove conoscenze per affrontare problemi condivisi e, altrettanto importante nel nostro caso, per disimparare modi precedenti di conoscere che inibiscono la possibilità di cambiamento. (…) La pedagogia critica non riguarda solo l’apprendimento di ciò che sta accadendo, ma anche di ciò che non sta accadendo e dovrebbe essere, in modo da poter riformulare i nostri apparati socio-tecnici come rigenerativi e non semplicemente come meccanismi per razionare la scarsità”. [traduzione in proprio].

Per contrastare non solo gli esiti, ma la logica etica e politica dell’apprendimento automatico delegato alla macchina, obiettivo che implica, come nella pedagogia degli oppressi, il rifiuto della separazione tra osservatore e osservato, McQuillan propone di disimparare i modi precedenti di conoscere, che inibiscono le possibilità di cambiamento.  E di “pensare con cura”. E così il suo ragionamento arriva a María Puig de la Bellacasa, che sostiene che il concetto di “thinking with care” può contribuire a una visione più inclusiva e responsabile della conoscenza. Esso, infatti, individua e valorizza l’interdipendenza e l’interconnessione dei rapporti che permeano il mondo. Invece di vedere il sapere come qualcosa di distante e astratto, il pensare con cura invita a considerare attentamente l’importanza delle relazioni e delle connessioni tra gli esseri viventi.
E quindi richiede l’impegno per una politica e un’etica della cura che includa tutte le forme di vita e le connessioni, sfidando le concezioni tradizionali della conoscenza come qualcosa di distante e astratto, e promuovendo l’importanza dell’attenta considerazione dei contesti e delle relazioni nel processo di conoscenza.

Pensare con cura diventa insomma un modo per contrapporsi alle forme di conoscenza dominanti che sono spesso basate sulla distinzione tra soggetto e oggetto.
McQuillan ne conclude che il pensare con cura e la pedagogia critica indicano con chiarezza l’alternativa al modello riduzionista su cui si fonda, progredisce e accelera l’intelligenza artificiale, affermando e rivendicando un approccio radicalmente trasformativo, che si allinei con valori più ampi, equità e bene comune.

Curiamo insieme la nostra intelligenza condivisa e relazionale.

 

Riferimenti bibliografici

 Floridi L., “Etica dell’intelligenza artificiale. Sviluppi, opportunità, sfide”, Raffaello Cortina Editore, 2022
McQuillan D., “Resisting AI. An Anti-fascist Approach to Artificial Intelligence”, Bristol University Press, 2022
Panciroli C. – Rivoltella P. C, “Pedagogia algoritmica. Per una riflessione educativa sull’Intelligenza Artificiale”, Scholé
Puig de la Bellacasa M., “Matters of Care: Speculative Ethics in More than Human Worlds”, University of Minnesota Press, 2017




Questioni intelligenti e per nulla artificiali

di Marco Guastavigna

OpenAi – l’azienda di ChatGPT – ha appena dedicato all’insegnamento uno spazio specifico del proprio blog. Tra i vari temi trattati, la questione del plagio. Del resto, questo è stato il vertice della diffidenza di molti docenti: “Con i chatbot gli studenti e le studentesse copieranno in modo ancora più facile che con un motore di ricerca”.

La fiducia nelle famiglie, del resto, è la stessa di molti filosofi-opinionisti e/o commentatori di sentenze dei TAR che vanno per la maggiore nella ciclica rissa mediatica sulla scuola.
Il fatto che Google Bard sia interdetto prima dei 18 anni e che ChatGPT preveda la soglia dei 13 e successivamente il permesso dei genitori o del tutore per utilizzare la piattaforma, infatti, in genere non è noto e comunque è considerato una barriera insufficiente.
Il problema dell’attribuzione, per altro, è questione generale, non di carattere tecnico, ma etico e deontologico, che va ben oltre la malvagità adolescenziale.

Vi sono infatti dispositivi (uno tra molti, Adobe Firefly, generatore di immagini) che applicano su quanto hanno realizzato in base alle indicazioni dell’utente credenziali molto chiare, che dichiarano la provenienza e la non utilizzabilità a fini commerciali del prodotto.
Alcuni, invece, non appongono alcuna marcatura.
Per contro, altri (per esempio, Gamma), arrivano a proporre una versione “premium” (a pagamento) che dà la possibilità di rimuovere il badge apposto sul lavoro e di presentarlo quindi come proprio.
Altra questione – questa totalmente sottaciuta – è quella della titolarità e dei costi di eventuali licenze d’uso: molti dispositivi usano infatti la policy della doppia versione. Una è free e prevede in genere soltanto l’acquisizione di credenziali di accesso. L’altra è appunto “premium” e consente a seconda dei contratti un accesso costante o privilegiato alla piattaforma, maggiore velocità di esecuzione, più funzionalità, una maggiore quantità di elaborazioni, esclusività dei prodotti e così via. Non mi sembra corretto che le spese – che per altro da tempo riguardano anche dispositivi di campi diversi dall’assistenza artificiale e/o fuori dalle avvenute colonizzazioni da parte di Alphabet, Microsoft, Zoom – siano a carico dei singoli insegnanti e/o delle famiglie, per cui riterrei utile che nelle scuole si discutesse questo tema e si decidessero politiche di spesa.