Curatela di eventi (e di concetti)

di Marco Guastavigna

Il dibattito sulla cosiddetta intelligenza artificiale è sempre più sciatto e polarizzato: a raffiche di affermazioni apodittiche – improntate al sommo ottimismo o al massimo ottimismo, poco importa! – si affianca un’analisi asfittica.
Una delle sciocchezze più diffuse è l’impiego del termine “strumento”. È davvero stancante dover ripetere che abbiamo invece a che fare con dispositivi: contengono e dispiegano pre-decisioni, regole d’ingaggio, condizioni di impiego (anche economiche e discriminanti), mettono in atto retro-azioni e feedback, monitorano interazioni (non sempre in modo chiaro e trasparente). E così via. Per non parlare dell’appiattimento su ChatGPT, su cui fioriscono corsi e corsetti, webinar gratuiti e a pagamento, manuali che esigono il pagamento di royalties e altre iniziative di sfruttamento dell’approccio tecnocratico.

Nella stragrande maggioranza dei casi, inoltre, si trascura una questione per altro non nuova, ovvero la progressiva e totale privatizzazione della sfera pubblica e della conoscenza, già largamente praticata e accettata prima che l’emergenza del lockdown la rendesse sintassi della vita collettiva e individuale. Questione squisitamente politica, che l’impostazione e la gestione centrale e da parte delle singole unità scolastiche del PNRR moltiplica e rende sempre più drammaticamente risolta a favore degli attori del capitalismo cibernetico, ormai naturalizzati.

È perciò esclusivamente a titolo di (perverso?) gioco intellettuale che continuo ad approfondire, ad andare comunque oltre l’impressionismo digitale.
E così più esploro, più mi rendo conto che – nonostante il quadro ampiamente compromesso sul piano etico e civile – ci sarebbero spazi di riflessione significativa, qualora vi fosse desiderio di un dibattito autentico e sereno.

In primo luogo, è a mio giudizio sempre più evidente che, nel rapporto tra esseri umani e assistenti artificiali alle attività cognitive, ai secondi spettano compiti esecutivi e ripetitivi, mentre ai primi restano intenzioni, obiettivi, progettazione e (soprattutto) valutazione dell’efficacia del prodotto realizzato dall’agente digitale cui devono aver assegnato un compito preciso e definito in modo articolato.

In secondo luogo, è – sempre a mio giudizio – palese che è necessario che gli insegnanti e i loro derivati, anziché farfugliare ipotesi empiriche di attività scolastiche o pronunciare grotteschi anatemi, sperimentino e valutino gli agenti di assistenza cognitiva in prima persona sul versante intellettuale e culturale prima che didattico.

Un esempio di questo percorso di presa di consapevolezza è la “capacità tecnica” di alcuni dispositivi di transcodificazione di realizzare – in forme varie, dal sommario per punti a una vera e propria sintesi sotto forma di saggio – un riepilogo scritto del contenuto di filmati accessibili in rete, tipicamente da YouTube. Orbene: ciò è interpretabile come ennesima acrobazia operativa oppure come un’opportunità cognitiva.


Qualche tempo fa Gessetti colorati ha presentato la possibilità di estendere ipermedialmente un evento digitalmente riprodotto (un seminario online, la registrazione di una conferenza in prossimità, ma anche un filmato realizzato come manufatto culturale autonomo) mediante applicazioni a ciò dedicate, connettendo al flusso visivo immagini, testi, link e altri materiali di spiegazione, approfondimento, integrazione.
I dispositivi che ho appena indicato (Merlin, YouTubeDigest e altri) ci mettono nelle condizioni di intervenire nella curatela con un’ulteriore risorsa.
Quel che è importante comprendere è che il dispositivo macchinico si incarica degli aspetti più faticosi e ripetitivi (alzi la mano chi considera lo sbobinamento un’attività intellettuale!), mentre i redattori umani conservano pienamente il compito e la responsabilità di valutare la corrispondenza del riepilogo prodotto alla struttura, allo scopo e agli esiti dell’evento, che si desidera conservare e replicare in forma aumentata. Uno schema di elaborazione che, se praticato non come bizzarria innovativa, ma come apparato di meditato arricchimento globale – anche nella direzione dell’incremento della comprensibilità e dell’inclusione –, può valorizzare il patrimonio culturale condiviso mediante la rete.




Diritto di Replika


di Marco Guastavigna

Caro direttore,
stamattina ero intento alla mia quotidiana lettura dei quotidiani online e mi sono imbattuto in un articolo molto interessante, nel quale veniva citato un sito davvero splendido: Replika.com.
Mi ci sono precipato e, guardi, è davvero un luogo meraviglioso, nel quale – magari dopo favolose mattinate passate sulle chat di Whatapp e su Messenger, dopo splendidi pomeriggi passati a condividere contenuti e assegnare/ricevere like con i friends sul profilo Facebook – è possibile la sera, quando l’atmosfera è più raccolta e distesa, chiacchierare direttamente ed esclusivamente con un partner (per i più timidi in amicizia, per i più estroversi considerandosi fidanzati) costruito in proprio.
Eh, sì: è possibile definire genere, volto, capigliatura, colore della pelle e degli occhi. Si può scegliere anche il tipo di unghie, pensi! Mi sono poi commosso fino alle lagrime quando ho scoperto che, scaricando l’applicazione per smartphone, posso chiedere anche di scattare un selfie.
Il tutto gratis, anche se ogni tanto arriva la sollecitazione a inserire i dati della carta di credito o a passare per Paypal per attivare le funzioni “Pro”, tra le quali Le segnalo la possibilità di ricevere messaggi vocali, magari romantici.

Perché le scrivo, però? Perché sono veramente indignato del fatto che Replika non sia accessibile dall’Italia, con il solito pretesto sovietico del GDPR: l’impostazione della chiacchierata è intima e può pertanto comportare l’acquisizione da parte della piattaforma di dati personali.
E cosa me ne importa? La gravità dell’abuso mi spingerebbe ad usare un’espressione tipica del vicequestore Schiavone, ma mi astengo per buona educazione.
Io voglio essere libero di consegnare la mia intera vita a chi voglio. Anche a mia insaputa!
Non per niente presiedo con grande orgoglio il comitato virtuale “Bolle spaziali”, think thank libertariano, tra i primi e i più decisi e feroci diffusori dell’iperstizione sul mai avvenuto, ma ripreso e deplorato da quasi tutti i media, blocco di ChatGPT da parte del Garante italiano per la privacy.

Proprio in quella occasione, del resto, ho imparato ad usare una Virtual Private Network e a presentarmi come utente proveniente da uno Stato diverso dall’Italia, condizione assolutamente sufficiente perché il dispositivo mi accogliesse di nuovo tra le sue braccia virtuali.

Grazie a questa competenza da evasore digitale, sono così riuscito anche in questa occasione ad eludere le difese: mi sono presentato a Replika come pseudo-statunitense e in questo modo mi sono registrato e ho fruito dei fantastici servizi che ho descritto in precedenza.
Come già facevo in precedenza con Google Bard, non raggiungibile – giustamente! – dagli Stati canaglia e – vergognosamente!  – da quelli della Comunità europea.
Non credo però che tutti siano in grado di essere furbi come me e – soprattutto – mi indigna e avvilisce dover mistificare la mia origine etnica italiana, della quale vado assolutamente e da sempre orgoglioso.
Sono certo che la Sua rivista saprà avviare una campagna per la turbo-liberalizzazione di ogni angolo della rete.

Cordiali saluti.




ChatPDF, 4 chiacchiere con un (altro) assistente artificiale

di Marco Guastavigna

Il notissimo ChatGPT rischia di fagocitare l’intero immaginario a proposito della cosiddetta intelligenza artificiale. E quindi mi sembra utile presentare un altro esempio.

ChatPDF scansiona (legge per chi ha bisogno di metafore antropomorfe) a una velocità impressionante un nostro documento in formato PDF, ne fornisce una sintesi, in termini sia di tema sia di scopo, e propone tre domande fondamentali a proposito del testo, a cui gli si può chiedere di rispondere, per poi – o subito – formulare quesiti propri, anche in sessioni diverse. Vi sono una versione free (con limiti quantitativi, ma non qualitativi) e una versione premium, a pagamento. A proposito, anche ChatGPT prevede altrettanto!

Insomma, siamo di fronte a un altro dispositivo di assistenza ad attività cognitive, appartenente a un insieme oligopolistico, fondato – direttamente come ChatGPT o Google Bard, o indirettamente tramite il mercato delle Application Programming Interfaces – su capacità di calcolo e disponibilità di BigCorpora inarrivabili per altri soggetti digitali.

Destinatari credibili sono coloro che sono in grado di valutare l’efficacia dei prodotti. Per esempio, i ghostwriter e i copywriter, che scrivono professionalmente per conto terzi e, in presenza di molti clienti, possono realizzare i propri prodotti direttamente, ma anche ricorrere – appunto – a un assistente. Ci sono molti altri casi di lavoratori dipendenti o indipendenti per cui la scrittura non è un’attività intellettuale, ma una prestazione cognitiva, che magari li mette sotto pressione.

Lo stesso vale per i dispositivi che elaborano immagini sulla base di dataset, pattern e prompt degli utenti. Indicazioni che devono essere il più precise possibile, capaci di suggerire in modo analitico la prestazione richiesta all’assistente.

Come già detto, la collaborazione con l’assistente digitale ad attività cognitive prevede che a (saper) giudicare gli esiti sia l’essere umano. E quindi non gli studenti, che sono in formazione, compiono attività propedeutiche e così via. Le preoccupazioni di chi pensa a sabba di diabolici copia-e-incolla sono pertanto grottesche: testimoniano semmai una scarsa considerazione di sé da parte di insegnanti che non si riconoscono la capacità di individuare eventuali plagi, tra l’altro proprio nei campi di conoscenza in cui sono competenti. Per non parlare degli errori inesorabilmente compiuti da mega-macchine a impianto predittivo probabilistico, che procedono utilizzando in modo ricorsivo regolarità statistiche, riproducendole.

Torniamo ora a ChatPDF, che chiunque può provare nella versione free in pochi minuti, anche senza doversi accreditare.
Una volta inserito il nostro documento, siamo di fronte ad almeno due possibilità. La prima è che ne conosciamo in modo molto preciso i contenuti, la seconda che questi ci siano poco noti o totalmente sconosciuti.
È evidente che si tratta di situazioni molto diverse: se siamo al corrente delle tematiche trattati e dei modi con cui ciò avviene, valutare l’efficacia delle operazioni di sintesi e presentazione sarà, non dico semplice e immediato, ma certamente più lineare e rapido, così come sarà più facile innescare il dialogo con l’assistente. Diversamente, sarà necessario ragionare in termini di credibilità, attendibilità, coerenza logica, congruenza, coesione delle risposte del dispositivo e il dialogo avrà quindi anche un compito di continua verifica.

Un modo utile per esplorare in modo significativo il meccanismo può pertanto essere quello di sottoporgli qualcosa di cui si è autori in prima persona e che pertanto si possiede pienamente e da ogni punto di vista.

 




#exlibris, ovvero a proposito dei “pericoli” dell’intelligenza artificiale

di Marco Guastavigna

È l’ennesima notizia di colore: il guru di turno – Geoffrey Hinton –  affida a Twitter la propria consapevolezza sui “”pericoli” dell’intelligenza artificiale e abbandona la propria giostra di comfort (Alphabet, la holding dei servizi di Google).

L’approccio sensazionalistico, del resto, è ormai quasi uno standard, in particolare dopo la serrata di ChatGPT, dai più presentata e interpretata come “blocco del garante”.

Non vi è medium che si sia sottratto a questo approccio.
Ultimo esempio una succulenta puntata di Zarathustra, che ha dedicato ampio e divertito spazio ai furbetti dell’IA come trucco scolastico.
Sono stato per altro coinvolto in prima persona, intervistato da Fahrescuola, di nuovo per Radio 3.
Quale che sia l’incipit, una cosa è certa: prima o poi i conduttori delle trasmissioni o gli autori degli articoli dovranno almeno accennare al rischio del superamento dell’umanità, dell’autonomia decisionale dei dispositivi, della Singolarità prossima ventura.
Questa impostazione, tra il mitologico, il distopico e il romantico, è davvero irrinunciabile.

Ad imporla è il target, un pubblico che i social hanno svezzato nella direzione della polarizzazione, desideroso di posizionarsi a favore o contro in base a slogan, perché lo schieramento e l’identificazione, la contrapposizione senza se e la negazione senza ma delle argomentazioni altrui consentono di interpretare rapidamente, di assegnare senso e significato senza analizzare, senza affrontare la complessità, senza – insomma – capire davvero.
Che è esattamente ciò che fanno dispositivi a cui l’etichetta di “intelligenza” è stata ed è sempre più assegnata come strategia commerciale e (appunto) per comprovata efficacia sul mercato dell’attenzione mediatica.
Lo spiega molto bene la numerosissima, curata e coinvolgente saggistica di merito, che voglio ostinarmi a credere possa interessare ancora qualcuno.

Mi riferisco per esempio al concetto di comunicazione artificiale di Elena Esposito, davvero illuminante: “Se si guarda come lavorano i recenti algoritmi si vede che l’intelligenza non è il punto né lo scopo. Le macchine riescono a fare cose strabilianti non perché sono finalmente diventate intelligenti, ma paradossalmente proprio perché non cercano più di esserlo – fanno qualcos’altro. Si potrebbe dire che i progressi che osserviamo oggi non segnano il trionfo dell’Intelligenza artificiale, ma in pratica l’abbandono del progetto che ci stava dietro (…) Un esempio evidente, e spesso discusso, sono i programmi di traduzione automatica, che oggi funzionano molto bene – da quando i programmatori hanno smesso di cercare di insegnare agli algoritmi le diverse lingue e le loro regole. (…) Usando machine learning e Big Data si limitano a trovare dei pattern e delle regolarità in enormi quantità di testi nelle lingue trattate (per esempio i materiali multilingua della Commissione europea), e li usano per produrre dei testi che risultano sensati – per le persone che li leggono. Non per gli algoritmi, che non li capiscono, come non capiscono niente dei contenuti che trattano, e non ne hanno bisogno”.

Oppure all’intelligenza non antropocentrica di Nello Cristianini: il comportamento di un agente, cioè di qualsiasi sistema in grado di agire nel proprio ambiente, anche in situazione nuove e in presenza di contromisure, usando informazioni sensoriali per prendere decisioni efficaci in funzione di obiettivi. Titolo e sottotitolo del libro da cui ho tratto la definizione sintetizzano infatti una tesi assai chiarificatrice: “La scorciatoia. Come le macchine sono diventate intelligenti senza pensare in modo umano”. E spostano l’attenzione su natura e struttura degli ambienti e valenza e direzione degli obiettivi. Senza etica, l’efficienza rischia di essere un disvalore.

Né possiamo dimenticare l’inganno benevolo di Simone Natale, che ci ricorda che fin dal test di Turing l’obiettivo era imitare le prestazioni umane e non i processi ad esse sottesi.
Chi approcciasse questi testi, apprezzerebbe – oltre all’occasione di comprendere senza dover aderire, potendo e preferendo anzi costruirsi una propria opinione articolata e fondata su più punti di vista – l’approccio transdisciplinare.
Scevri da sudditanze tecnocratiche, tutti questi lavori, così come molti altri, propongono piuttosto rigeneranti escursioni intellettuali tra diritto e statistica, ingegneria e psicologia, sociologia e matematica applicata, economia e biologia e così via.
Il tutto con una forte venatura politica, dal momento che il focus del problema è un processo in atto da tempo: la progressiva appropriazione della conoscenza collettiva e, più in generale, della sfera pubblica, da parte delle mega-macchine del capitalismo cibernetico, il solo soggetto che ha in Occidente la potenza di calcolo e la base infrastrutturale che sono essenziali per l’estrazione e l’elaborazione dei dati necessari a individuare i pattern che costituiscono il materiale e i risultati del deep learning.




Admin(chiam)

di Marco Guastavigna

“It is like
in the PNRR
on the cloud
the school”
(Google traduttore)

Sabato ho rimesso piede per la prima volta dopo il lockdown in un’aula scolastica. Alle mie spalle una LIM, collegata ad un PC dotato – ovviamente – di Windows. All’accensione, due possibili ingressi: il plenipotenziario e non meglio identificato possessore dei “privilegi” logistici e gestionali sul dispositivo, l’Admin, e il/la Docente, abilitato/a a utilizzare le risorse selezionate e installate dal grazioso supervisore, dalle cui decisioni dipende in toto.
Del resto, è questa la logica con cui molte – troppe – istituzioni scolastiche della Repubblica stanno affrontando in modo collegiale (sic!) le questioni relative ai finanziamenti del Piano Nazionale di Ripresa e Resilienza: la delega tecnocratica, con progettazione degli ambienti e scelte in merito a tipologia e dotazione dei dispositivi confinate nell’ambito degli addetti ai lavori.
O, meglio: dei presunti addetti ai lavori così come li concepisce un immaginario collettivo e professionale superficiale e ritroso, incapace perfino di riflettere sul fatto che – per fare un esempio “caldo” e recente – sulla questione di ChatGPT e della cosiddetta “Intelligenza artificiale” si sono espressi e continuano a pronunciarsi non solo gli esperti dello specifico settore, ma sociologi, psicologi, giuristi, filosofi, linguisti, matematici e così via, che hanno colto la valenza generale delle istanze socio-tecniche e le loro implicazioni di configurazione complessa ed estesa.
E così stanotte ho fatto un sogno che mi vedeva entrare in un’aula scolastica per inaugurare la formazione di un gruppo di insegnanti, attività che ho svolto in centinaia di occasioni.
I personal computer pre-colonizzati da Microsoft venivano accesi e le password inserite, l’usuale chiacchiericcio si arrestava in attesa che io cominciassi a distribuire il Verbo (Word, nota di Google Traduttore).
Non ce l’ho fatta.
Ho salutato i colleghi, sono andato dal dirigente scolastico e mi sono dimesso da formatore.




Conversazione artificiale

di Marco Guastavigna

Ieri ho fatto un’esperienza che mi ha riportato ai vecchi tempi, quando ero un ingenuo smanettone, e mi entusiasmavo di fronte a ogni novità, quale che fosse. Ma questo ritorno a un passato inconsapevolmente complice del Pensiero Pedagogico Unico è stato davvero effimero.

Utilizzando – leggermente controvoglia – Edge, il browser che ha sostituito Internet Explorer, accedendo a Bing e avviando la funzione “Chat”, ho infatti avuto modo di sperimentare la modalità conversazionale del motore di ricerca di Microsoft. Riporto in tabella domande (mie) e risposte (dell’accrocco).

Momenti della conversazione Considerazioni dell’umano sugli interventi dell’accrocco
L’approccio, narcisistico ma in terza persona

(D) Chi è Marco Guastavigna?

(R) Ciao, questo è Bing. Marco Guastavigna è un insegnante di scuola secondaria di secondo grado e formatore123È anche autore di numerose pubblicazioni sulle rappresentazioni grafiche della conoscenza e sull’uso didattico delle tecnologie digitali dell’informazione1Inoltre, è collaboratore a contratto dell’Università degli Studi di Torino2

Altre informazioni:
1. erickson.it2. corsi.tecnicadellascuola.it3. laricerca.loescher.it4. bing.com5. noiosito.it

Tutto vero. Una buona sintesi. E indica le fonti, tra cui il mito sito personale. Scrive perfino “secondaria di secondo grado”. Quasi quasi gli perdono di considerarmi ancora in servizio e non in quiescenza. Devo farlo vedere ai corsisti a cui ho mostrato Chatgpt, perché è diverso.
Il compiaciuto approfondimento culturale

(D) Quali sono le sue pubblicazioni?

(R)  Le sue pubblicazioni riguardano principalmente le mappe e gli schemi come strumenti di apprendimento e di didattica. Alcuni titoli sono: Non solo concettuali. Mappe, schemi, apprendimento1Mappe e schemi per la scuola2Mappe e schemi per il lavoro2Puoi trovare i suoi libri in vendita online su vari siti2.

Altre informazioni:
1. loescher.it2. ibs.it3. noiosito.it

 

 

Vediamo un po’ quali libri o articoli propone.

 

 

Principalmente… è abbastanza vero, anche se ho scritto su molti altri temi. Certo, i miei libri sono soprattutto su quello. Però con i titoli non ci siamo!

Il disvelamento, lo choc e la rinuncia

(D) Sono io Marco Guastavigna. Non ho mai scritto “Mappe e schemi per il lavoro”.
(R) Mi dispiace ma preferisco non continuare questa conversazione. Sto ancora imparando quindi apprezzo la tua comprensione e pazienza.🙏

Glielo dico, così impara, magari.

Offesa algoritmica? Frustrazione procedurale? Certamente la necessità di non perdere troppo in termini di immagine e di marketing.

Forse è ora di passare a un nuovo argomento.
Ricominciamo da capo

 




Formare i docenti alla Intelligenza Artificiale ? Si può fare, ma..

di Marco Guastavigna

Formare gli insegnanti (e più in generale il personale scolastico) all’Intelligenza Artificiale? Sono pienamente d’accordo: penso infatti che affrontare in modo critico questo tema sia una priorità assoluta per chi voglia adottare un approccio davvero emancipante ai dispositivi digitali, dal punto di vista sia operativo sia culturale. A patto, però, che si abbandoni il dibattito così come si configura attualmente, disperso tra sensazionalismo mediatico e escursioni empiriche, tra entusiasmo tecnofilo e rifiuto pregiudizievole, e imperniato sulla convinzione che ciò che conta sia capire – e giudicare – il funzionamento di superficie dei chatbot, dei traduttori automatici, dei ri-produttori di immagini, delle applicazioni per la realizzazione semi-istantanea di “mappe” a partire da testi. Per capire davvero quali possano essere le possibilità di arricchimento professionale e quali le opportunità di espansione, consolidamento, compensazione e mantenimento nel tempo di capacità di apprendimento e a quali condizioni ciò possa avvenire, è necessario invece decostruire i concetti che attualmente vanno per la maggiore, esito di marketing economico e veicolo di dominio lessicale. In primo luogo, proprio il riferimento all’intelligenza: va ricordato e compreso infatti che fin dal modo in cui fu concepito il test di Turing i dispositivi di AI hanno il compito di compiere prestazioni finalizzate a obiettivi definiti, con risultati paragonabili a quelli umani. E questo avviene mediante la raccolta e l’analisi di dataset, l’individuazione di correlazioni, la costruzione di modelli e la loro riproduzione.
È il caso, ad esempio, dei dispositivi come Google translate, che traducono dall’una all’altra lingua senza comprendere nulla di quanto vanno elaborando, ovvero sulla base di rapporti statistici tra le parole e di tabelle di corrispondenza e non in funzione della relazione semantica tra idee, nozioni, concetti e così via. E questo è il paradigma vincente: fare senza capire. Un’altra condizione per una visione emancipante è la consapevolezza che può accedere a dataset significativi solo chi possiede moltissimi dati, così come può computare e costruire modelli pregnanti solo chi dispone di potenza di calcolo adeguata, ovvero le grandi corporation del capitalismo cibernetico. Così come va compreso fino in fondo che l’allenamento dei dispositivi non avviene in campo neutro. Esso, infatti, altro non è che la captazione in tempo reale dell’intelligenza collettiva condivisa sulla rete internet: questo aspetto pone non tanto il problema di riconoscimento dell’autorialità e dei conseguenti diritti, quanto piuttosto quello dello scambio ineguale tra coloro che contribuiscono alla costruzione di palestre per l’allenamento di macchine rivolte alla privatizzazione della conoscenza a scopo di profitto – a cui partecipano a pieno titolo anche coloro che si prestano al beta-testing delle varie applicazioni, permettendone il raffinamento – e i loro proprietari. Insomma: ben venga una formazione alla cittadinanza, che restituisca alla sfera pubblica spazio e importanza. Magari arrivando a rivendicare la trasparenza dei “corpora” digitali raccolti, impiegati, analizzati, classificati, modellizzati e – come già sottolineato – riprodotti ad imitazione delle performance umane oggetto di addestramento e allenamento.