di Marco Guastavigna
Non vi è nulla di cui preoccuparsi. Il sommo filosofo dell’onlife tassonomizza perfino il proprio aspirapolvere robot. E, di fronte alla fertilità delle macro-categorie, cosa sarà mai la mancata citazione delle micro-lavoratrici e dei micro-lavoratori del Sud globale che fotografano feci di cane per addestrare i dispositivi domestici “intelligenti” ad evitarle, qualora nelle dimore del Nord globale si verificasse questa emergenza?
Più in generale, l’accademia sta praticando la solita strategia, ovvero l’innovazione conservatrice. E quindi, come sempre, si proclama fervida paladina dell’ennesima rivoluzione ontologica ed epistemologica, a cui non si può certo restare indifferenti se si vuole avere lo sguardo proteso nel futuro. Ovviamente, quello a supremazia occidentale. L’importante è convogliare il tutto in “sapere da scaffale”, utile per strutturare insegnamenti ed esami che garantiscano la conservazione degli organigrammi e dei rapporti di potere consolidati nei decenni trascorsi e auspicati per quelli a venire.
La casta più elevata di questo tecno-feudalesimo intellettuale è tutta intenta, inoltre, a pubblicare monografie autografe, in cui esplicitare e celebrare concettualizzazioni originali e, soprattutto, proprietarie. Queste opere consentiranno di sedere da protagonisti ai tavoli della conoscenza mercificata, di ricevere inviti a convegni, seminari, trasmissioni televisive e così via. Il patto sottoscritto tra gli autori è del resto molto solido: è gradita la reciprocità della citazione bibliografica, in modo di rafforzare le posizioni di tutti. Fare rete.
Qualcuno, particolarmente audace, si spinge fino ad assumere la leadership della curricularizzazione dell’intelligenza artificiale, intesa come oggetto di apprendimento, prima per gli insegnanti, poi per gli studenti. Anche l’istituzione centrale dell’istruzione secondaria, del resto, ha battuto un colpo nella direzione dell’addestramento. A un livello gerarchico-culturale più basso, infine, valvassori e valvassini di università pubbliche e private, associazioni, sindacati, riviste e aziende in genere promuovono una miriade di percorsi di formazione adattiva, fondati sull’empirismo e sui ricettari pratici.
La gran parte di queste ultime iniziative ha per altro un buon successo. Esse, infatti, intercettano – anche qui nulla di autenticamente nuovo, niente paura! – il bisogno di trivializzazione dei destinatari, ovvero la riduzione al minimo indispensabile di ciò che si deve fare per (avere l’illusione di) capire. Questo approccio è una delle piaghe dell’istruzione nel nostro Paese. In sé e perché consente a troppi soggetti e a troppi individui di improvvisarsi agenzie formative e formatori.
Del resto, si finisce con l’avere a che fare con l’epistemologia e l’ontologia dell’improvvisazione anche nel ragionare di motori di ricerca e di dispositivi artificiali conversazionali. Mi spiego.
Come forse qualcuno sa, mi occupo da tempo di rappresentazioni grafiche della conoscenza, argomento su cui ho accumulato un certo numero di studi e di pubblicazioni e – almeno per me – una certa credibilità scientifica. Considerandomi pertanto sufficientemente esperto della questione, è un mio costante vezzo cognitivo e professionale testare i dispositivi digitali con cui vengo via via a contatto interrogandoli in proposito.
L’ho fatto nel passato con i vari search engine (da sua maestà Google e DuckDuckGo, passando per Qwant) e recentemente con chatbot e affini (da sua signoria ChatGPT, a Perplexity.ai, passando per Google Bard e You.com).
Come è noto, i motori di ricerca propongono un accesso a risorse selezionate e indicizzate; starà all’utente decidere quali utilizzare. I chatbot, invece, formulano una risposta articolata e, spesso anche se non sempre, indicano le fonti a cui hanno attinto, oltre a proporre domande e indicazioni con cui proseguire la conversazione. Questa la differenza sostanziale tra le due modalità. Ma vi è anche – almeno nel campo delle “mappe” – una costante: i riferimenti, le fonti e le risorse sono molto spesso i medesimi. Il che, nel caso specifico, significa che le risposte (quale che ne sia la forma) erano e sono infarcite di corbellerie, banalizzazioni, errori teorici e operativi.
Le rappresentazioni grafiche della conoscenza – per la vulgata le “mappe concettuali” – sono infatti un tema sottovalutato e quanto mai banalizzato, da insegnanti, studenti ed editoria. Ad aggravare ulteriormente la questione, le numerose applicazioni destinate alla loro confezione hanno diffuso la convinzione che saper utilizzare i software sia condizione necessaria e sufficiente per impiegare in modo significativo le “mappe” nella didattica.
Uno sfondone ricorrente tra gli “esperti” è da sempre affidare ai prodotti il cui nome commerciale fa riferimento alle mind maps (da Freemind, a MindManager, fino a Xmind Copilot, che nuota nell’acquario dell’IA) la realizzazione di concept maps.
Bene: confusione e ignoranza hanno fatto da sfondo non solo alla produzione di risorse inizialmente indicizzate e proposte dai motori di ricerca, ma anche ai comportamenti degli utenti di fronte alle risposte alle loro query (apertura effettiva delle varie fonti, tempi di permanenza su di esse, quantità di link verso un’unità informativa). E, di conseguenza, hanno inquinato anche il monitoraggio da parte degli algoritmi di manutenzione e raffinamento, con il risultato di valorizzare le risorse di minor qualità culturale, perché molto frequentate da utenti alla ricerca di soluzioni rapide; tra questi, molti siti di venditori di applicazioni, le cui informazioni hanno quindi la dimensione del marketing. Al peggio non c’è mai fine.
E così la contaminazione si è ribaltata anche sui chatbot, perché essi sono stati addestrati su materiali ampiamenti degradati dal processo descritto. Gli utenti, per altro, sono rimasti in larga misura gli stessi, con il medesimo atteggiamento riduttivo; e così anche feedback e validazioni/bocciature delle risposte sono corrotti: l’insipienza degli autori e quella degli utenti si saldano in un circolo vizioso che al momento sembra impossibile arrestare.