Taskificazione e monetizzazione dell’intelligenza prestazionale

di Marco Guastavigna

La discussione di primo livello sull’IA – come è usanza degli intellettuali organici al mercato – è lenta e, of course, sui massimi sistemi.
Al secondo livello, quello della pacata divulgazione, si muore e si provocano morti per asfissia culturale, malattia tipica della citazione subordinata e subordinante, che riconosce e naturalizza la gerarchizzazione della supply chain della conoscenza.

Laddove si decide, si progetta e si fa, invece, si agisce. E così si dispiega sempre più l’aziendalizzazione del mondo 4.0 per via digitale.
Già i software “tradizionali” e successivamente le applicazioni per dispositivi mobili avevano consentito di scomporre il “lavoro” in micro-attività distinte e misurabili, incrementandone – in nome dell’utilitarismo razionale a matrice capitalistica, per cui la priorità è il profitto – l’alienazione e minimizzandone per contro la capacità contrattuale.

Ora tocca ai dispositivi di intelligenza artificiale.
Se (anche solo per pochi istanti) ci si astiene dal praticare l’onanismo autogratificante a proposito di chatbot conversazionali generalisti e applicativi text2image e ci si avventura su portali di accesso a “servizi” articolati e monetizzati, ci si accorge che l’imitazione computazionale degli esiti dei processi cognitivi umani si sta configurando in modo sempre più esteso e solido anche come loro classificazione utilitaristica, misurabile secondo crediti e pagamenti e quindi verso ontologia ed epistemologia della mercificazione.

Chiunque può verificare questa affermazione accedendo, per esempio, a Poe.com, dove potrà realizzare chatbot personalizzati, ovvero “addestrati” su materiali forniti in proprio, ma anche fruire di assistenti che vengono presentati come specificamente esperti, per esempio, in:

  • Dottrina cristiana;
  • IA nella didattica;
  • Emoji natalizi;
  • Riepilogo/sommario di video di Youtube;
  • Autopromozione su Linkedin;
  • Redazione di libri a partire da spunti;
  • Allenamento al debate;
  • Preparazione di slide;
  • Supporto alla ricerca;
  • Public Speaking;
  • Medicina militare durante la II guerra mondiale
  • Previsioni in campo sportivo;
  • Generatori di QRcode creativi;
  • Redattori di tesi;
  • Libri da colorare;
  • Lettori di libri lunghi, facenti le veci dell’utente…

… l’elenco completo è troppo lungo per riportarlo tutto.

Più importante è comprendere che siamo di fronte a proposte che si possono provare gratuitamente. Se si è ingolositi dalla vastità delle opportunità operative, si può decidere di acquistare l’abbonamento.

In chiusura, pertanto, mi permetto di ricordare che le diffusissime chiacchiere intorno all’ingresso dei dispositivi di intelligenza artificiale nella scuola prescindono nella loro quasi totalità da una questione che è invece cruciale: chi si farebbe carico delle licenze, di fatto necessarie per un uso intensivo di tutte le applicazioni?




Niente di nuovo sul fronte artificiale

 

di Marco Guastavigna

Non vi è nulla di cui preoccuparsi. Il sommo filosofo dell’onlife tassonomizza perfino il proprio aspirapolvere robot. E, di fronte alla fertilità delle macro-categorie, cosa sarà mai la mancata citazione delle micro-lavoratrici e dei micro-lavoratori del Sud globale che fotografano feci di cane per addestrare i dispositivi domestici “intelligenti” ad evitarle, qualora nelle dimore del Nord globale si verificasse questa emergenza?

Più in generale, l’accademia sta praticando la solita strategia, ovvero l’innovazione conservatrice. E quindi, come sempre, si proclama fervida paladina dell’ennesima rivoluzione ontologica ed epistemologica, a cui non si può certo restare indifferenti se si vuole avere lo sguardo proteso nel futuro. Ovviamente, quello a supremazia occidentale. L’importante è convogliare il tutto in “sapere da scaffale”, utile per strutturare insegnamenti ed esami che garantiscano la conservazione degli organigrammi e dei rapporti di potere consolidati nei decenni trascorsi e auspicati per quelli a venire.

La casta più elevata di questo tecno-feudalesimo intellettuale è tutta intenta, inoltre, a pubblicare monografie autografe, in cui esplicitare e celebrare concettualizzazioni originali e, soprattutto, proprietarie. Queste opere consentiranno di sedere da protagonisti ai tavoli della conoscenza mercificata, di ricevere inviti a convegni, seminari, trasmissioni televisive e così via. Il patto sottoscritto tra gli autori è del resto molto solido: è gradita la reciprocità della citazione bibliografica, in modo di rafforzare le posizioni di tutti. Fare rete.

Qualcuno, particolarmente audace, si spinge fino ad assumere la leadership della curricularizzazione dell’intelligenza artificiale, intesa come oggetto di apprendimento, prima per gli insegnanti, poi per gli studenti. Anche l’istituzione centrale dell’istruzione secondaria, del resto, ha battuto un colpo nella direzione dell’addestramento. A un livello gerarchico-culturale più basso, infine, valvassori e valvassini di università pubbliche e private, associazioni, sindacati, riviste e aziende in genere promuovono una miriade di percorsi di formazione adattiva, fondati sull’empirismo e sui ricettari pratici.

La gran parte di queste ultime iniziative ha per altro un buon successo. Esse, infatti, intercettano – anche qui nulla di autenticamente nuovo, niente paura! – il bisogno di trivializzazione dei destinatari, ovvero la riduzione al minimo indispensabile di ciò che si deve fare per (avere l’illusione di) capire. Questo approccio è una delle piaghe dell’istruzione nel nostro Paese. In sé e perché consente a troppi soggetti e a troppi individui di improvvisarsi agenzie formative e formatori.

Del resto, si finisce con l’avere a che fare con l’epistemologia e l’ontologia dell’improvvisazione anche nel ragionare di motori di ricerca e di dispositivi artificiali conversazionali. Mi spiego.
Come forse qualcuno sa, mi occupo da tempo di rappresentazioni grafiche della conoscenza, argomento su cui ho accumulato un certo numero di studi e di pubblicazioni e – almeno per me – una certa credibilità scientifica. Considerandomi pertanto sufficientemente esperto della questione, è un mio costante vezzo cognitivo e professionale testare i dispositivi digitali con cui vengo via via a contatto interrogandoli in proposito.

L’ho fatto nel passato con i vari search engine (da sua maestà Google e DuckDuckGo, passando per Qwant) e recentemente con chatbot e affini (da sua signoria ChatGPT, a Perplexity.ai, passando per Google Bard e You.com).

Come è noto, i motori di ricerca propongono un accesso a risorse selezionate e indicizzate; starà all’utente decidere quali utilizzare. I chatbot, invece, formulano una risposta articolata e, spesso anche se non sempre, indicano le fonti a cui hanno attinto, oltre a proporre domande e indicazioni con cui proseguire la conversazione. Questa la differenza sostanziale tra le due modalità. Ma vi è anche – almeno nel campo delle “mappe” – una costante: i riferimenti, le fonti e le risorse sono molto spesso i medesimi. Il che, nel caso specifico, significa che le risposte (quale che ne sia la forma) erano e sono infarcite di corbellerie, banalizzazioni, errori teorici e operativi.

Le rappresentazioni grafiche della conoscenza – per la vulgata le “mappe concettuali” – sono infatti un tema sottovalutato e quanto mai banalizzato, da insegnanti, studenti ed editoria. Ad aggravare ulteriormente la questione, le numerose applicazioni destinate alla loro confezione hanno diffuso la convinzione che saper utilizzare i software sia condizione necessaria e sufficiente per impiegare in modo significativo le “mappe” nella didattica.

Uno sfondone ricorrente tra gli “esperti” è da sempre affidare ai prodotti il cui nome commerciale fa riferimento alle mind maps (da Freemind, a MindManager, fino a Xmind Copilot, che nuota nell’acquario dell’IA) la realizzazione di concept maps.
Bene: confusione e ignoranza hanno fatto da sfondo non solo alla produzione di risorse inizialmente indicizzate e proposte dai motori di ricerca, ma anche ai comportamenti degli utenti di fronte alle risposte alle loro query (apertura effettiva delle varie fonti, tempi di permanenza su di esse, quantità di link verso un’unità informativa). E, di conseguenza, hanno inquinato anche il monitoraggio da parte degli algoritmi di manutenzione e raffinamento, con il risultato di valorizzare le risorse di minor qualità culturale, perché molto frequentate da utenti alla ricerca di soluzioni rapide; tra questi, molti siti di venditori di applicazioni, le cui informazioni hanno quindi la dimensione del marketing. Al peggio non c’è mai fine.
E così la contaminazione si è ribaltata anche sui chatbot, perché essi sono stati addestrati su materiali ampiamenti degradati dal processo descritto. Gli utenti, per altro, sono rimasti in larga misura gli stessi, con il medesimo atteggiamento riduttivo; e così anche feedback e validazioni/bocciature delle risposte sono corrotti: l’insipienza degli autori e quella degli utenti si saldano in un circolo vizioso che al momento sembra impossibile arrestare.




Quello “digitale” è pluriverso

di Marco Guastavigna

Nel silenzio dei più, è arrivata la notizia che Google Bard ha abbassato la soglia dei 18 anni per l’accesso – temporaneamente solo in inglese – ai propri servizi.
L’età minima varia da Paese a Paese, in base alle norme locali, ma la proposta globale è chiara: ci si rivolge ai “teens”, gli adolescenti.

E così siamo di fronte a un’altra tappa dell’universalizzazione dei dispositivi tipici del capitalismo cibernetico, che – già dominante da tempo – ha esteso la propria egemonia operativa, professionale e culturale nel periodo del lockdown, della chiusura delle scuole e del distanziamento delle attività didattiche.
Per sfociare nel PNRR, celebrazione della cessione della logistica dell’istruzione alle multinazionali digitali.

Rarissime sono per contro le occasioni per conoscere e apprezzare l’esistenza di altri dispositivi, tipici invece di mutualismo, cooperazione e condivisione conviviale della conoscenza, intesa come risorsa collettiva per lo sviluppo umano e non come voucher individuale per l’auto-imprenditorialità nella competizione globale.

Alla nuova iniziativa egemonica di Google si dovrebbe rispondere non tacendo rassegnati, ma rafforzando il posizionamento critico nei confronti delle concettualizzazioni correnti, ben riassunta dalla diffusissima espressione “il digitale”.
Questo aggettivo assunto a sostantivo, infatti, costituisce una formulazione “ombrello”, che – paradossalmente – accomuna coloro che ne sono fautori e coloro che ne sono oppositori in una (presunta) condivisione ontologica ed epistemologica, consentendo in realtà a ciascun attore di attribuire senso e significato propri e ostacolando perciò qualsiasi ragionamento davvero analitico. Oltre alla ricerca e all’individuazione di eventuali alternative sul piano sia intellettuale sia pratico.

La contrapposizione corretta, infatti, non è “digitale sì” versus “digitale no”, ma quella tra dispositivi digitali finalizzati alla logistica estrattiva della conoscenza, che, come detto, sono attualmente i più diffusi e conosciuti, e dispositivi digitali a vocazione aperta e decentralizzata. I primi richiedono e attivano competenze che vanno nella direzione dell’accettazione e dell’adattamento al loro modello; i secondi capacità e riflessioni che sviluppano emancipazione. Vediamo perché.

Capitalismo cibernetico

I dispositivi a logistica estrattiva (di cui sono paradigmatiche le diverse branche di Alphabet, la holding a cui appartengono Google Bard e Google Search) hanno un’impostazione operativa fondata sulla valorizzazione delle piattaforme del capitalismo cibernetico in nome dell’efficienza e della velocità di comunicazione; inducono a un consumo cospicuo, ostentato, feticista, compulsivo, di apparecchiature prodotte da marchi a massima notorietà e di software a pagamento; il tutto è per di più soggetto a obsolescenza programmata, per garantirsi ripetuti cicli di acquisto oneroso. Forniscono inoltre servizi apparentemente gratuiti perché money free, ma che in realtà mettono in moto un gigantesco scambio ineguale: il tracciamento delle modalità d’uso e la profilazione di ciascun singolo utente accumulano ed elaborano continuativamente materia prima per profitti mediante azioni di marketing.

Ma l’alternativa c’è

I dispositivi conviviali e decentralizzati (di cui sono paradigmatiche le distribuzioni di Linux e piattaforme come Framasoft), invece, valorizzano la vocazione etica delle attrezzature e delle infrastrutture aperte, l’accesso alle quali non comporta profilazione degli utenti.
Propongono free software, per l’impiego del quale non è richiesto il pagamento di royalties e il cui codice sorgente è spesso open, cioè investigabile e modificabile, in nome della condivisione collettiva e di un equo accrescimento della conoscenza. Offrono esempi di “fair device”, in particolare nel campo degli smartphone, preoccupandosi di prolungarne il ciclo di vita mediante modularità e riparabilità dei componenti e di impiegare sistemi operativi e applicazioni con una richiesta di risorse hardware meno onerosa e più stabile nel tempo rispetto a quella dei software proprietari, in particolare Windows e la suite Office. Curano la riservatezza e permettono, anzi, di operare anche nel pieno anonimato. Il monitoraggio e l’aggregazione dei comportamenti d’uso, infatti, vengono attivati solo se considerati utili per un miglioramento delle funzionalità (come nel caso del motore di ricerca DucKDuckGo), con immediata ed equa ridistribuzione del patrimonio di conoscenza ricavato. Allo stesso modo, l’identificazione degli utenti viene chiesta solo a garanzia della partecipazione, per esempio per proteggere di depositi di dati o di file condivisi o di altre elaborazioni del genere.

Diversi approcci cognitivi

Le due opposte impostazioni operative comportano approcci cognitivi molto distanti tra loro. Apprendere per adattarsi all’uso dei dispositivi digitali a logica estrattiva significa infatti porsi come obiettivo l’acquisizione di capacità individuali, oggetto e criterio di selezione, di competizione e pertanto di graduazione gerarchica nell’istruzione, nella cultura e nel lavoro, secondo una matrice abilista. Imparare competenze professionali implica anche l’allenamento alla frammentazione delle prestazioni e al loro asservimento ai macchinari, tipico del comando e del controllo di algoritmi finalizzati alla produttività.
Analogamente si valorizzano l’inserimento in team il cui obiettivo è il successo sui concorrenti e il loro coordinamento: ne sono testimonianza il successo di metodi di matrice aziendalistica come il debate e le escape room, estesi e intensificati mediante comunicazione e interazione digitali.
Apprendere per emanciparsi collettivamente con i dispositivi digitali conviviali vuol dire, invece, cogliere opportunità collettive di inclusione e partecipazione e di estensione e prolungamento nel tempo delle capacità umane, in termini operativi e culturali e secondo il principio generale del mutualismo e della cooperazione.
La logistica estrattiva della conoscenza, del resto, considera quest’ultima capitale, tanto è vero che pone a fondamento delle opere di ingegno la brevettazione e il copyright, mentre principio fondamentale della logica conviviale e mutualistica sono la conoscenza come bene comune, il già citato free software, codice e contenuti aperti.

E’ il mercato, bellezza…

Nulla di cui stupirsi: i dispositivi digitali del capitalismo cibernetico sono del tutto congruenti con una visione antropocentrica, che concepisce il mercato come supremo regolatore dei rapporti tra gli esseri umani e la natura una risorsa separata dalla società, a cui ricorrere senza limite alcuno. Metafore come quella del cloud (nuvola) supportano del resto una visione “leggera”, auto-assolutoria, che ammanta di pseudo-immaterialità i dispositivi medesimi. Le persone, per altro, sono presentate nella doppia veste di competitor e di consumer naturali, in base ad uno pseudo-realismo, che non concepisce altra metrica sociale che la produttività e la crescita, intesa come consumo di merci.
Ne consegue che internet è sempre più un insieme di agglomerati informativi e comunicativi privatizzati, separati e recintati, che agiscono come infrastrutture razionalmente asservite al sistema di relazioni capitalistico e rappresentano la dimensione tecno-economica del solo progresso possibile.
La visione sottesa rafforza e celebra l’evidenza e la conseguente inevitabilità della supremazia cognitiva e culturale occidentale sulle altre culture del pianeta. È in atto una sorta di sovranismo tecno-utilitarista, che in cui una civiltà superiore punta principalmente all’innovazione, in primis tecnologica e concepita come distruzione creatrice, ovvero capace di rilanciare il basilare meccanismo della concorrenza e della competizione.

Coloro che optano per la cooperazione e il mutualismo anche per via digitale scelgono questa strada perché sono invece consapevoli che l’interdipendenza planetaria e l’inter-specismo sono condizioni essenziali per la salvaguardia dell’ambiente e della vita.
Coloro che realizzano e usano software libero, piattaforme aperte e fair device sottolineano infatti quanto è importante tenere conto dell’impatto ambientale del proliferare dei dispositivi a immaterialità mistificata. L’approccio conviviale, inoltre, non solo si contrappone a questa forza distruttiva, ma pratica l’integrità delle persone coinvolte, prefigurandone un’estensione di massa, che vada oltre le minoranze attuali. Internet va infatti restituita alla sua funzione di infrastruttura senza confini, pubblica, sede di intelligenza collettiva aperta e arcipelago di punti di enunciazione, senza gerarchie di potere epistemologico, economico e logistico. Il rinnovamento – tecnologico ma non soltanto – non deve essere un obiettivo, ma uno strumento di sviluppo equo e democratico, capace di ottimizzare sinergicamente mutamento e continuità.

L’approccio didattico conseguente alla subalternità infrastrutturale, operativa, culturale e professionale all’impianto materiale e ideologico del capitalismo cibernetico assume come finalità soprattutto la preparazione degli studenti al mercato del lavoro, a volte anche precoce. È intessuta di sperimentalismo, senza verifiche di efficacia, e spesso gli obiettivi coincidono in modo davvero banale con le modalità d’uso delle apparecchiature materiali (si pensi ad esempio alle stampanti 3D) o degli applicativi usati.
Vive di episodi ammantati di sensazionalismo, per esempio il volo di un drone nel cortile della scuola; è competitiva ad oltranza, con siti-vetrina, fiere, expo, sfide, pitch, contest inter-scolastici e perfino intra-scolastici.
Del resto, è nel DNA delle furerie digitali scolastiche concorrere per ottenere finanziamenti fondati sulla scarsità e sulla concorrenza. Solo il PNRR sembra andare controcorrente, per introdurre – come già fatto presente – altri tipi di vincoli. In tutte queste articolazioni, si usa un lessico che si riduce per lo più a un gergo subalterno, ricco di slogan, trivializzato, manipolatorio e opacizzante.

L’alternativa: una didattica autenticamente sperimentale

Una didattica con obiettivi emancipanti è ancora assolutamente minoritaria, ma può avere alcune caratteristiche ben precise, che emergono per opposizione.
In primo luogo, deve essere davvero sperimentale, ovvero proporre e verificare ipotesi definite e prevedere impieghi in contesti i cui bisogni formativi siano stati rilevati con attenzione. Si deve porre di volta in volta il problema della scelta consapevole dei dispositivi più adatti alla situazione in cui opera, considerando anche le alternative. Deve conseguentemente operare la decostruzione della visione e delle pratiche mainstream, perché deve utilizzare, costruire e diffondere invece un linguaggio autodeterminato, ovvero analitico, capace di significato autenticamente professionale e demistificante l’approccio tecnocratico e il tecno-entusiasmo acritico.

La recente irruzione dell’intelligenza artificiale nel campo della conoscenza e dell’istruzione, del resto, prospetta un altro campo di confronto e scontro tra l’approccio maggioritario, subordinato alle nuove magnifiche sorti e progressive dell’oligopolio digitale, e un minoritario posizionamento critico, emancipato ed emancipante. Di fronte alle mega-macchine predittive fondate su modelli a correlazione statistica, il primo atteggiamento magnifica l’efficacia della traduzione di processi complessi in materiale computabile, in nome dell’efficacia.
L’intelligenza di un dispositivo viene infatti misurata su base prestazionale, ovvero in rapporto ai risultati ottenuti: ontologia ed epistemologia scivolano nel marketing concettuale dell’entusiastico ricorso all’oracolo digitale di turno. Da questa visione derivano comportamenti di massa acritici, in particolare – una volta superata (con grande fatica!) l’idea che ChatGPT rappresentasse l’intero settore – l’esplorazione compiaciutamente empirica delle varie funzionalità delle applicazioni etichettabili come “AI”.
Insomma: la privatizzazione della conoscenza collettiva, l’esaltazione del soluzionismo tecnologico competitivo e dirompente e l’algocrazia (il controllo e la regolazione dei comportamenti umani mediante mega-macchine di calcolo a comando capitalistico) hanno riportato una nuova esaltante vittoria culturale e antropologica.

Il secondo approccio ha invece come focus la decostruzione dell’IA: interpreta la riduzione statistica e la ricerca della computabilità come vincoli, che spingono a naturalizzare e perpetuare il modello socio-economico corrente, a immaginare il probabile anziché il possibile, il modificabile.
In questo campo sono quanto mai necessarie concettualizzazioni autonome e analitiche, che disertino ogni standardizzazione della mentalità, e la denuncia dell’agire oligopolistico delle corporation di settore, la cui capacità di elaborazione di BigData e di costruzione di BigCorpora dinamici dipendono da una potenza di calcolo e infrastrutturale ineguagliabile da altri soggetti. Così come vanno poste domande in campo algoretico: non solo “cosa?” e “come?”, ma anche “perché (finale e causale)?” e “se”, inteso come vaglio delle potenziali conseguenze di ciascuna scelta o di ogni soluzione, senza dare nulla per scontato.

L’approccio subordinato caratterizza del resto anche l’attuale formazione massiva degli insegnanti e del personale scolastico in genere. L’innovazione è un obiettivo e un metodo, non più uno strumento da usare con ragionevolezza ed equità. La soluzione di continuità dirompente una finalità strategica. Ad affermare il primato tecnocratico campeggia il riferimento al Syllabus STEM come riferimento principale per le capacità da acquisire e da sviluppare nella didattica. A gerarchizzare definitivamente i ruoli concorre poi la recente – e grottescamente sessista – differenziazione in 6 livelli (Novizio, Esploratore, Sperimentatore, Esperto, Leader, Pioniere), per altro perfettamente congruente con quanto avvenuto in precedenza, dall’esaltazione dell’empirismo delle (presunte) buone pratiche all’emulazione delle cosiddette “avanguardie educative”.

L’approccio emancipante alla e della formazione è in questo periodo assolutamente minoritario e frammentato. Anche in questo caso sono però individuabili per contrasto gli aspetti più importanti per il recupero e la riaffermazione del diritto all’autodeterminazione professionale, intellettuale e culturale, collettiva prima ancora che individuale. La formazione deve infatti essere assegnazione autonoma e dialogica di senso e significato dell’utilizzo di dispositivi digitali analizzati e – se necessario – decostruiti, in rapporto a contesti definiti con certezza e lucidità in termini di bisogni e di potenziali valori aggiunti.
L’analisi dei dispositivi deve prestare attenzione alla potenziale dequalificazione dell’agire cognitivo, rifiutando, per esempio, ogni possibilità di sostituzione da parte di dispositivi di intelligenza artificiale, non per un’astratta difesa della categoria dei docenti, ma perché si tratterebbe di un impoverimento delle relazioni umane e della creatività in favore della maggiore probabilità, dell’omogeneizzazione che appiattisce. Impostare percorsi di formazione di questo genere significa perseguire – e prima ancora accettare – l’Ibridazione del sapere richiesta dalla trattazione non di skill e/o di applicativi in chiave funzionale, ma di temi generatori di riflessione e consapevolezza. Un contributo in questa direzione può arrivare dall’impostazione Stepwise, una proposta di educazione scientifica direttamente finalizzata all’azione civica per il recupero dei danni sociali ed ambientali, che si contrappone a pratiche neoliberiste quali la sterilizzazione dell’educazione STEM dagli aspetti economici ed etici e dal rapporto tra sfera pubblica e finanziamenti ed interessi privati.
Vi sono almeno due temi che possono essere oggetto di formazione secondo questa modalità, entrambi già citati: smartphone e intelligenza artificiale, in un quadro che ne affronti non solo la dimensione tecnico-funzionale, ma tutti gli intrecci culturali, sociali, economici, psicologici, giuridici, etici, geopolitici e di impatto sull’ambiente.




Intelligenza ri-generativa

di Marco Guastavigna

Una cosa è sempre più evidente: bisogna urgentemente decostruire la visione “strumentale” dell’IA, che ha un approccio adattivo e subordinante.
Da una parte, infatti, valorizza una visione dei dispositivi fondata sull’ottimizzazione tecnocratica del modello socio-economico in atto, assolutizzandone categorie, obiettivi, compatibilità, principi e così via, che si fondano su competizione e profitto.
Dall’altra illude che sia possibile avere il controllo della situazione, usando in modo manipolatorio il concetto di strumento e dimenticando di conseguenza che i dispositivi hanno complementarità attiva all’agire umano: vincoli, regole di ingaggio, prerequisiti, monitoraggio, feedback, determinazione di modi di procedere e ritmi, fino alla sostituzione.

Il contesto italiano, inoltre, si caratterizza – a differenza della produzione culturale di altri Paesi – per assenza di posizionamento critico, soprattutto nel campo dell’istruzione. Anzi: c’è addirittura chi cerca di rinchiudere anche l’attivismo nel “sapere da scaffale” su cui esercitare il potere classificatorio tipico della sussunzione accademica, categorizzandolo come “etica hard”, contrapposta a una più blanda “etica soft”. (Floridi, 2022 – citato da Panciroli, Rivoltella, 2023).

Per fortuna, fuori dai patri confini è più frequente la vigilanza civile e deontologica, quella che caratterizza ad esempio l’ultimo lavoro di Dan McQuillan, “Resisting AI: An Anti-fascist Approach to Artificial Intelligence”.

Assumendo la definizione di fascismo come “ultranazionalismo palingenetico”, egli mette in evidenza che l’IA può a sua volta funzionare come tecnologia di divisione, perché promossa nelle pratiche e nell’immaginario collettivo come soluzione “neutra” – fondata sui “dati” – della crisi sociale con la conservazione di potere e privilegi dei gruppi dominanti, mediante esclusioni, separazioni e discriminazioni computazionali. Con procedure di calcolo che individuano meritevoli e non meritevoli di residui del welfare, interventi sanitari, concessione di crediti, clemenza giudiziaria, per fare solo alcuni esempi.
Da una parte, soluzionismo ultranazionalista, razzializzante, patriarcale, etero-normato in campo sessuale; dall’altra, soluzionismo tecno-sociale. Entrambi per l’eternizzazione dei rapporti di produzione e di proprietà del sistema capitalista, mediante naturalizzazione e intensificazione delle gerarchie esistenti.
L’IA, insomma, non è fascista di per sé, ma, in virtù della propria architettura, si presta a soluzioni fascistizzanti, autoritarie, azzeranti ogni partecipazione dei cittadini, in nome dell’efficienza della Nazione (o dell’Occidente).

Avere un approccio antifascista, quindi, vuol dire in primo luogo comprendere l’esistenza di un processo di rimozione politico-culturale delle possibili alternative al modello socio-economico capitalistico, in nome dell’innovazione tecnocratica.
McQuillan è netto: di fronte a pandemia, guerra, crisi climatica, finanziarizzazione della vita e indebitamento, dobbiamo invece tornare a immaginare il possibile, piuttosto che calcolare il probabile. Le mega-macchine predittive dell’IA, che si basano su correlazioni statistiche individuate nei dati elaborati, sono infatti – per definizione – destinate a concepire il futuro in continuità con il passato, se non come sua ripetizione.

Scopriamo così un’altra ragione per apprezzare il libro: un riferimento diretto, come metodo di analisi, a Freire, il cui posizionamento rispetto all’esistente era esplicito. Si tratta infatti di recuperare la sua indicazione a pretendere di partecipare, porre collettivamente domande sui problemi comuni e determinare che cosa fare.
La pedagogia critica è un mezzo per generare nuove conoscenze per affrontare problemi condivisi e, altrettanto importante nel nostro caso, per disimparare modi precedenti di conoscere che inibiscono la possibilità di cambiamento. (…) La pedagogia critica non riguarda solo l’apprendimento di ciò che sta accadendo, ma anche di ciò che non sta accadendo e dovrebbe essere, in modo da poter riformulare i nostri apparati socio-tecnici come rigenerativi e non semplicemente come meccanismi per razionare la scarsità”. [traduzione in proprio].

Per contrastare non solo gli esiti, ma la logica etica e politica dell’apprendimento automatico delegato alla macchina, obiettivo che implica, come nella pedagogia degli oppressi, il rifiuto della separazione tra osservatore e osservato, McQuillan propone di disimparare i modi precedenti di conoscere, che inibiscono le possibilità di cambiamento.  E di “pensare con cura”. E così il suo ragionamento arriva a María Puig de la Bellacasa, che sostiene che il concetto di “thinking with care” può contribuire a una visione più inclusiva e responsabile della conoscenza. Esso, infatti, individua e valorizza l’interdipendenza e l’interconnessione dei rapporti che permeano il mondo. Invece di vedere il sapere come qualcosa di distante e astratto, il pensare con cura invita a considerare attentamente l’importanza delle relazioni e delle connessioni tra gli esseri viventi.
E quindi richiede l’impegno per una politica e un’etica della cura che includa tutte le forme di vita e le connessioni, sfidando le concezioni tradizionali della conoscenza come qualcosa di distante e astratto, e promuovendo l’importanza dell’attenta considerazione dei contesti e delle relazioni nel processo di conoscenza.

Pensare con cura diventa insomma un modo per contrapporsi alle forme di conoscenza dominanti che sono spesso basate sulla distinzione tra soggetto e oggetto.
McQuillan ne conclude che il pensare con cura e la pedagogia critica indicano con chiarezza l’alternativa al modello riduzionista su cui si fonda, progredisce e accelera l’intelligenza artificiale, affermando e rivendicando un approccio radicalmente trasformativo, che si allinei con valori più ampi, equità e bene comune.

Curiamo insieme la nostra intelligenza condivisa e relazionale.

 

Riferimenti bibliografici

 Floridi L., “Etica dell’intelligenza artificiale. Sviluppi, opportunità, sfide”, Raffaello Cortina Editore, 2022
McQuillan D., “Resisting AI. An Anti-fascist Approach to Artificial Intelligence”, Bristol University Press, 2022
Panciroli C. – Rivoltella P. C, “Pedagogia algoritmica. Per una riflessione educativa sull’Intelligenza Artificiale”, Scholé
Puig de la Bellacasa M., “Matters of Care: Speculative Ethics in More than Human Worlds”, University of Minnesota Press, 2017




Questioni intelligenti e per nulla artificiali

di Marco Guastavigna

OpenAi – l’azienda di ChatGPT – ha appena dedicato all’insegnamento uno spazio specifico del proprio blog. Tra i vari temi trattati, la questione del plagio. Del resto, questo è stato il vertice della diffidenza di molti docenti: “Con i chatbot gli studenti e le studentesse copieranno in modo ancora più facile che con un motore di ricerca”.

La fiducia nelle famiglie, del resto, è la stessa di molti filosofi-opinionisti e/o commentatori di sentenze dei TAR che vanno per la maggiore nella ciclica rissa mediatica sulla scuola.
Il fatto che Google Bard sia interdetto prima dei 18 anni e che ChatGPT preveda la soglia dei 13 e successivamente il permesso dei genitori o del tutore per utilizzare la piattaforma, infatti, in genere non è noto e comunque è considerato una barriera insufficiente.
Il problema dell’attribuzione, per altro, è questione generale, non di carattere tecnico, ma etico e deontologico, che va ben oltre la malvagità adolescenziale.

Vi sono infatti dispositivi (uno tra molti, Adobe Firefly, generatore di immagini) che applicano su quanto hanno realizzato in base alle indicazioni dell’utente credenziali molto chiare, che dichiarano la provenienza e la non utilizzabilità a fini commerciali del prodotto.
Alcuni, invece, non appongono alcuna marcatura.
Per contro, altri (per esempio, Gamma), arrivano a proporre una versione “premium” (a pagamento) che dà la possibilità di rimuovere il badge apposto sul lavoro e di presentarlo quindi come proprio.
Altra questione – questa totalmente sottaciuta – è quella della titolarità e dei costi di eventuali licenze d’uso: molti dispositivi usano infatti la policy della doppia versione. Una è free e prevede in genere soltanto l’acquisizione di credenziali di accesso. L’altra è appunto “premium” e consente a seconda dei contratti un accesso costante o privilegiato alla piattaforma, maggiore velocità di esecuzione, più funzionalità, una maggiore quantità di elaborazioni, esclusività dei prodotti e così via. Non mi sembra corretto che le spese – che per altro da tempo riguardano anche dispositivi di campi diversi dall’assistenza artificiale e/o fuori dalle avvenute colonizzazioni da parte di Alphabet, Microsoft, Zoom – siano a carico dei singoli insegnanti e/o delle famiglie, per cui riterrei utile che nelle scuole si discutesse questo tema e si decidessero politiche di spesa.




Benvenuto (si fa per dire) Google Bard!

di Marco Guastavigna

Da ieri, il dispositivo di conversazione simulata a scopo estrattivo di Alphabet è disponibile anche nell’Europa comunitaria e di conseguenza in Italia, per tutti coloro che hanno compiuto i 18 anni.
È necessario un account Google e sono esclusi quelli gestiti tramite Family Link o quelli di Google Workspace for Education che risultino appartenere a qualcuno che ha meno di 18 anni.

Al primo accesso veniamo avvisati che le nostre conversazioni con Google Bard potrebbero essere elaborate dai revisori “a fini qualitativi”.
Approfondendo, scopriamo quali sono le misure per la protezione dei dati personali adottate, presumibilmente per evitare osservazioni come quelle fatte dal Garante della privacy, cui a suo tempo ChatGPT rispose bloccando l’accesso agli indirizzi IP provenienti dall’Italia, provvedimento che ancora adesso fior di intellettuali laureati interpretano come un blocco diretto di matrice istituzionale, senza minimamente porsi il problema (che noja, la tecnica!) di come fosse e sia (im)possibile attuarlo.

A leggerlo, il documento sulla privacy è trasparente, in piena coerenza con quanto messo in atto per gli altri servizi a vocazione profilante ed estrattiva: “Google raccoglie le tue conversazioni con Bard, le informazioni relative all’utilizzo del prodotto, le informazioni sulla tua posizione e il tuo feedback. Google utilizza questi dati, in conformità con le sue Norme sulla privacy, per fornire, migliorare e sviluppare prodotti e servizi e tecnologie di machine learning di Google, inclusi i prodotti aziendali di Google come Google Cloud”. Per partecipare alla sperimentazione, insomma, dobbiamo accettare anche in questo caso uno scambio – ineguale – tra servizi ricevuti e lavoro prestato ai fini del raffinamento dei dispositivi.

Per quanto riguarda i singoli utenti, apprendiamo che “Per impostazione predefinita Google memorizza le tue attività di Bard sul tuo Account Google per un massimo di 18 mesi, un periodo che puoi cambiare in 3 o 36 mesi all’indirizzo myactivity.google.com/product/bard.
Anche le informazioni sulla tua posizione, compresa l’area generale del dispositivo, l’indirizzo IP o gli indirizzi di casa o di lavoro nel tuo Account Google, vengono memorizzate nell’attività di Bard. Scopri di più all’indirizzo
g.co/privacypolicy/location”. Il costante tracciamento individuale è dichiarato e verificabile, insomma.

Tornando ai revisori, “Per contribuire alla qualità e migliorare i nostri prodotti, (…) [essi] leggono, annotano ed elaborano le tue conversazioni con Bard. Nell’ambito di questa procedura, adottiamo misure volte a proteggere la tua privacy. Ciò include la disconnessione delle conversazioni con Bard dal tuo Account Google prima che i revisori possano visualizzarle o annotarle. Non includere informazioni che possano essere utilizzate per identificare te o altri utenti nelle conversazioni su Bard”.
La piena protezione dal riconoscimento dei soggetti impegnati nelle conversazioni è quindi a carico degli utenti dei servizi.

Consigliamo di leggere con attenzione tutto il documento da cui abbiamo estrapolato le citazioni e di riflettere su ogni singolo passaggio, limitandoci qui a richiamare ancora la più interessante tra le precauzioni a scarico di responsabilità elencate tra le cose da sapere: “Non considerare le risposte di Bard al pari di consigli medici, legali, finanziari o di altro tipo.”
Abbiamo una sola speranza: che si smetta di appiattire la discussione sulla cosiddetta intelligenza artificiale su ChatGPT, come è avvenuto in modo ingenuo, sensazionalistico e irritante in questi ultimi mesi.

 




Chat GPT non sa nulla di De Bartolomeis! Ma, ce ne facciamo qualcosa?

di Marco Guastavigna

ChatGPT, chi è il pedagogista Francesco De Bartolomeis?

ChatGPT

Mi dispiace, ma al mio attuale livello di conoscenza, non sono a conoscenza di un pedagogista di nome Francesco De Bartolomeis. Potrebbe essere una persona poco conosciuta o potrebbe non esserci informazioni sufficienti disponibili su di lui al momento. È possibile che sia un professionista meno noto nel campo della pedagogia o potrebbe essere una persona privata con lo stesso nome. In ogni caso, non posso fornire ulteriori dettagli su di lui o sul suo lavoro.

GoogleBard
Who is the pedagogist Francesco De Bartolomeis?

Francesco De Bartolomeis was an Italian pedagogist, critic of art and politician. He was born in Pellezzano, Salerno, Italy, on January 20, 1918, and died in Turin, Italy, on June 29, 2023. He was a professor of pedagogy at the University of Turin from 1956 to 1988
De Bartolomeis was a student of Ernesto Codignola, and he was influenced by the theories of John Dewey. He was also interested in existentialism, and he wrote a book on the subject titled “Esistenzialismo e idealismo” (Existentialism and Idealism).

De Bartolomeis was a proponent of the school of thought known as “pedagogia attiva” (active pedagogy), which emphasizes the importance of student participation and experiential learning. He was also interested in the reform of education, and he played a role in the creation of full-time schools in Italy.
De Bartolomeis was a prolific writer, and he published over 100 books on pedagogy, art criticism, and politics. He was also a regular contributor to newspapers and magazines.
De Bartolomeis is considered to be one of the most important Italian pedagogists of the 20th century. His work has had a significant impact on the development of education in Italy.

Here are some of his most notable works:

  • La pedagogia come scienza (Pedagogy as a science)
  • Esistenzialismo e idealismo (Existentialism and Idealism)
  • La scuola attiva (The Active School)
  • La riforma della scuola (The Reform of Education)
  • L’arte come esperienza (Art as Experience)

De Bartolomeis was a respected and influential figure in the field of pedagogy. His work continues to be studied and debated today.

Francesco De Bartolomeis è stato un pedagogista, critico d’arte e politico italiano. Era nato a Pellezzano, Salerno, Italia, il 20 gennaio 1918, ed è morto a Torino, Italia, il 29 giugno 2023. È stato professore di pedagogia all’Università di Torino dal 1956 al 1988. De Bartolomeis fu allievo di Ernesto Codignola, e fu influenzato dalle teorie di John Dewey.
Si interessò anche di esistenzialismo e scrisse un libro sull’argomento intitolato “Esistenzialismo e idealismo”.
De Bartolomeis è stato un sostenitore della scuola di pensiero nota come “pedagogia attiva”, che sottolinea l’importanza della partecipazione degli studenti e dell’apprendimento esperienziale.
Era anche interessato alla riforma dell’istruzione e ha svolto un ruolo nella creazione di scuole a tempo pieno in Italia. De Bartolomeis fu uno scrittore prolifico e pubblicò oltre 100 libri di pedagogia, critica d’arte e politica. Collaborò regolarmente con giornali e riviste. De Bartolomeis è considerato uno dei più importanti pedagogisti italiani del 20 ° secolo. Il suo lavoro ha avuto un impatto significativo sullo sviluppo dell’istruzione in Italia.
Ecco alcune delle sue opere più notevoli: La pedagogia come scienza Esistenzialismo e idealismo (Existentialism and Idealism) La scuola attiva (The Active School) La riforma della scuola (The Reform of Education) L’arte come esperienza (Art as Experience)
De Bartolomeis fu una figura rispettata e influente nel campo della pedagogia.
Il suo lavoro continua ad essere studiato e dibattuto oggi.