Temi in classe

di Stefano Penge

Ma allora cosa si può fare con questa benedetta intelligenza artificiale generativa nell’educazione? Va scansata, ignorata altezzosamente?

Certo che no. Perché al di là della sua forma attuale (il prompt appunto) si tratta di un passaggio importante non solo tecnico, ma culturale e sociale. La frenesia con cui persone che hanno ignorato fino a ieri l’esistenza stessa di software “intelligenti” si sono buttate a creare testi e immagini sulla base di ricette ha una radice che merita di essere studiata e capita.

 

Si potrebbero “importare” alcuni dei temi toccati fin qui all’interno delle materie e delle lezioni tradizionali. Le storie (della filosofia, della letteratura, dell’arte ) sono discipline in cui è facile trovar loro posto.

Per esempio:

  • i prodotti dell’IA generativa sono analitici o sintetici? A priori o a posteriori?
  • il symbolum niceno-costantinopolitano e la differenza tra generazione e creazione;
  • copiare è bello: novità e tradizione tra classicismo e romanticismo;
  • automi nella letteratura, da Esiodo a Čapek;
  • Narciso e l’amore per la propria immagine, da Caravaggio a Freud;

In sostanza si tratterebbe di ricondurre la novità nell’alveo della tradizione. Un procedimento tipico della scuola, che tranquillizza tutti, ma a mio avvisto rischia di non porta a grandi passi avanti.
Forse si può fare qualcosa di più.

Intanto la discussione che precede e segue l’uso del prompt può più essere utile e interessante. Probabilmente questa è la parte più importante di ogni utilizzo didattico di tecnologie non create esplicitamente per l’apprendimento, dai laboratori linguistici alle LIM: ricostruirne la genesi e gli obbiettivi, provare a capirne il funzionamento, valutarne il bilancio guadagni-concessioni.

Una questione centrale per la generazione dei testi è quella del feedback. Le tecnologie usano spesso il feedback, anzi si può dire che la cibernetica (la “nonna” dell’intelligenza artificiale) sia nata proprio da quest’idea di retroazione. Un esempio che conosciamo tutti: il riscaldamento gestito tramite un termostato. Anche i motori di ricerca usano i feedback degli utenti, ma in maniera  trasparente: se un utente clicca su uno dei risultati della lista, il motore suppone che quel risultato sia correlato altamente alla richiesta. Questo ne aumenta la probabilità di essere nuovamente presentato ai primi posti come risultato ad una ricerca uguale o simile. L’uso di un motore di ricerca modifica i risultati delle prossime ricerche, non solo di quell’utente ma di tutti. E’ un po’ come attivare il servizio che riceve di dati dai satelliti GPS e usarlo per le mappe di Google: non ci si limita a ricevere un servizio, ma si contribuisce a costruirne il valore [https://www.stefanopenge.it/wp/mappe-personali/ ].
Con il paradosso noto per cui se migliaia di automobilisti, per evitare un ingorgo sull’autostrada segnalato dal navigatore, prendono l’uscita prima dell’ingorgo, quell’uscita dopo pochi minuti si intasa peggio dell’autostrada stessa; quindi converrebbe non dar retta al navigatore e restare sull’autostrada, ma se nessuno gli dà retta l’ingorgo aumenta, eccetera eccetera.

Anche nel caso dei prompt si presenta una situazione simile. Il modello linguistico che permette di produrre  testi  è oggi addestrato sui testi scritti da umani, come Wikipedia. Ma è talmente facile produrre testi che presto le voci di Wikipedia (tra le altre cose) saranno realizzate tramite servizi di intelligenza generativa. A quel punto  i testi generati automaticamente diventeranno parte dei dati sui quali verranno costruiti i prossimi modelli linguistici. Siccome però la qualità e l’attendibilità attuale dei generatori di testi derivano da quelle della base di dati usata per l’addestramento (cioè dal meccanismo di controllo incrociato degli utenti di Wikipedia), si rischierà un circolo vizioso per cui il servizio di intelligenza generativa impara dai propri errori (nel senso deleterio dell’espressione: gli errori potranno aumentare, invece di diminuire, con l’uso).

State pensando che queste discussioni però  non si fanno sulle altre tecnologie usate a scuola (il mappamondo, il vocabolario, il libro)? Vero, ma si potrebbero fare. Nessuna di queste tecnologie è neutra; ognuna offre vantaggi in termini di velocità, chiarezza e condivisibilità; ognuna nasconde delle impostazioni di default che producono dei bias invisibili, di cui non ci si rende conto (come la proiezione di Mercatore per le mappe).

Ma così si perde tempo e non si finisce il programma? Sicuro. Qui entriamo nel labirinto della libertà di insegnamento e della concezione di ogni docente del significato del termine “educazione”.
Le riflessioni comuni non devono però limitarsi all’oggetto tecnologico in sé. In precedenza abbiamo indicato cinque temi, che certo non nascono con i prompt ma che andrebbero rilette nella luce che i servizi di intelligenza generativa gettano sopra ognuna di essi. Si tratta di temi che vanno oltre le questioni tecniche o didattiche e hanno a che fare con il modello di società che si sta costruendo, più o meno consapevolmente, e in particolare il concetto di lavoro e quello di valore.

In sintesi estrema: la maniera particolare con la quale questi sistemi eseguono il compito per il quale sono stati progettati e realizzati cambia non solo il tempo medio necessario per la loro esecuzione – e quindi il valore di questo tempo – ma anche il valore del prodotto. Questo fenomeno lo abbiamo già visto quando si sono affermati i prodotti industriali al posto di quelli artigianali: di bassa qualità, standardizzati, ma molto più economici e rapidi da produrre. Con due differenze enormi. Nelle rivoluzioni industriali del passato i nuovi prodotti erano oggetti materiali replicati a partire da uno “stampo”, cioè uno schema, un progetto, un modello che veniva seguito esattamente. Lo stampo veniva riempito con materie prime, o magari lavorate, ma comunque fisiche, quindi disponibili in quantità limitata e ad un certo costo.

La rivoluzione informatica è figlia di quella ottocentesca, ma fa a meno della materia fisica (la sostituisce, potremmo dire metaforicamente, con i bit); non fa però a meno dello stampo, che è il programma. Anzi, generalizzando, potremmo dire che anche lo schema di una penna Bic è un programma che viene eseguito ogni volta che viene prodotta una delle penne, esattamente come una newsletter inviata a milioni di destinatari è frutto dell’applicazione di uno schema. Entrambi gli schemi sono deterministici, nel senso che hanno come fine quello di ottenere copie indistinguibili del prodotto; nel secondo caso però queste copie non sono oggetti materiali ma artefatti simbolici.

Neanche i prodotti dei servizi di intelligenza generativa sono oggetti materiali; solo che per questi non è disponibile uno stampo. Non sono riproduzioni; sono produzioni, ogni volta differenti. Il risparmio qui non è calcolabile in termini di forza necessaria, ma di competenza cristallizzata.  E’ come se avessimo riprodotto milioni di artigiani, tutti diversi, tutti capaci di generare prodotti personalizzati a partire da una materia virtuale che è un sistema simbolico (verbale o visivo o sonoro).

Questa differenza non è casuale o secondaria, ma è proprio il fine della “terza” rivoluzione industriale, come viene chiamata quella delle intelligenze artificiali.

Dunque in un contesto educativo (che sia scuola, università, formazione professionale e non formale) si può cercare di guardare un po’ avanti e immaginare cosa potrebbe succedere nei campi del lavoro, della formazione, della produzione.

  1. Che succede al lavoro e ai lavori, in particolare quelli legati alla trasformazione della conoscenza? Questi strumenti si possono ancora usare come un supporto alle persone o sono stati progettati apposta per sostituirle?
  2. Cosa succede alla formazione? Verrà divisa in formazione “alta”, personalizzata, affidata ancora docenti umani e formazione “democratica”, standard, gestita solo tramite tutor artificiali basati su grandi modelli linguistici?
  3. Il costo energetico per la creazione e gestione dei servizi di generazione di opere sarà il limite che ne consentirà l’uso solo nei Paesi ricchi? Sarà riservato alla parte ricca o potente di queste società?
  4. La virtualizzazione delle macchine sarà sempre più diffusa e avrà degli effetti duraturi, ad esempio sulla piccola industria? O addirittura sulla costruzione dell’esperienza nei bambini?
  5. La facilità di generazione automatica di opere a partire da prompt modificherà la maniera di valutarle in generale? Che valore (anche economico) hanno un testo o un’immagine diversi da tutti gli altri ma producibili all’infinito?

La maniera concreta di fare questo esercizio può essere differente in base al contesto (l’età, il tempo a disposizione, la capacità di interagire e far interagire).

Una lezione frontale ricca di riferimenti ed esempi?
Molte diverse ricerche che si traducono in una condivisione dei risultati?
Una discussione orale che mette in gioco i sentimenti e le opinioni?
Una scrittura personale di testi secondo modelli diversi (non necessariamente saggistici: il racconto di fantascienza si presta bene a questo tipo di esercizio)?
Una messa in scena collettiva di questi testi (a teatro, in un video, in un’animazione)?
Alcune di queste attività o tutte insieme?

Probabilmente l’idea stessa di trattare questi argomenti nel chiuso di una classe è sbagliata. Il punto di vista (l’età, la classe sociale, la lingua, la posizione geografica) sono importanti sia come punti di partenza che come punti d’arrivo. Per chi è importante il destino della formazione o il costo energetico in termini di fonti non rinnovabili? Certo non per tutti allo stesso modo.
Allora, se possibile, riuscire a costruire un dialogo mettendo insieme persone che vivono in contesti diversi potrebbe essere l’unico modo per capire l’impatto della rivoluzione del prompt per tutti.




Professionisti acritici

Immagine realizzata con Google Bard

di Marco Guastavigna

Il tema della cosiddetta intelligenza artificiale è l’esempio più recente, ma certamente non il solo.

Sono davvero troppi gli insegnanti che, di fronte a qualsiasi accenno di novità si accontentano di esperienze limitate, brevi letture – tendenzialmente mediatiche e con approccio sensazionalista –, rapidi webinar e succinti scambi di opinioni (se non addirittura di slogan) e pensano di aver analizzato, classificato, capito in modo significativo.

E quindi di saper rifiutare o accettare con buona consapevolezza.

Lo scopo strategico, più o meno consapevole, di chi opta per il diniego è tornare serenamente a praticare ciò che si pensa di controllare pienamente, con modi, tempi, tecniche, procedure rassicuranti, perché note, consolidate, convenzionali, condivise da generazioni. Quello di chi fa la scelta opposta è cominciare serenamente a praticare la proposta di cambiamento del momento, con modi, tempi, tecniche, procedure a loro volta rassicuranti, perché innovative, accattivanti, creative, proiettate verso il futuro, spesso foriere di presenze in fiere della didattica ed altre manifestazioni mercatali.

Immagine realizzata con Google Bard

Come detto, questi processi sono ora in atto per la “questione AI”, ma lo stesso schema e la medesima polarizzazione hanno accompagnato e accompagnano l’impiego generale dei dispositivi digitali (dal Programma di Sviluppo delle Tecnologie Didattiche a Scuola Futura, dalle lavagne interattive multimediali, ai learning object, agli ebook, al pensiero computazione, fino ai droni).

Per non parlare della madre di tutti i conflitti attuali, quello tra conoscenze e competenze, che investe – sempre in superficie – ideologie, metodologie, canoni culturali.

Oppure delle cicliche contrapposizioni tra voti numerici e formulazione di giudizi, tra inclusione e selezione, promozione e bocciatura, severità e lassismo e così via.
Il tutto è di per sé grottesco, ma assurge a inquietante quando ci si accorge che in tutte le occasioni citate ed in altre simili, i diversi schieramenti sbandierano la medesima intenzione di fondo: lo sviluppo del pensiero critico.




Giornata della sicurezza in rete. Difendersi dalla privatizzazione del web e dalla IA non controllata

di Rodolfo Marchisio

 Tra le varie “giornate” ricorrenti e celebranti c’è quella fondamentale della sicurezza in rete, 6 febbraio. Però quest’anno va integrata, perché non è solo più la giornata della sicurezza necessaria in merito a dipendenza (in un paese in cui 1/3 dei bambini tra i 5 e gli 8 anni ha un profilo social ed uno smartphone con seri danni e nella indifferenza dei “grandi” e 2 adolescenti su 3 usano IA e chat Gpt senza saper come funzionano) e privacy, controllo dati, odio e violenza nel web, violazione di diritti. Temi fondamentali con radici simili.
Ci sono importanti novità; da come difendersi dalla Scuola 4.0 a come difendersi dalla moda e dalla operazione di marketing della IA generale non controllata. Cominciamo da questa, troppo di moda per essere vera. L’IA è un mondo di attività, proposte diverse che andrebbero conosciute ed analizzate separatamente. Con alcune attenzioni comuni. Questa rubrica sta dando conto di questo e fornendo dati, riflessioni, stimoli.

IA ACT. Cos’è.

Sta per essere messo a punto l’atto di regolamentazione sulla IA approvato dalla UE. Gli USA come al solito vanno per i fatti loro, pur avendo le maggiori imprese che si occupano con alterne vicende di IA, secondo le logiche del libero mercato e della libertà di espressione. Interesse individuale contro la responsabilità sociale richiesta ad es. dalla nostra Costituzione.
L’UE, dopo avere cercato con scarsi risultati di far pagare le tasse a costoro, ha provato e sta mettendo a punto, si spera per giugno, una serie di regole nello sviluppo della IA.

1- La strada delle regole

  • Usi proibiti perché pericolosi e lesivi.
  • Tecnologie subliminali per manipolare i comportamenti di una persona; quelli che abusano di persone vulnerabili e fragili; la categorizzazione biometrica che fa riferimento a dati personali sensibili, come il credo religioso, l’orientamento politico o sessuale; la pesca a strascico (scraping) da internet di volti, come fece anni fa la contestata startup Clearview AI; il riconoscimento delle emozioni sul posto di lavoro o a scuola; i sistemi di punteggio o social scoring. Il testo vieta anche la polizia predittiva, ossia usare informazioni come tratti della personalità, nazionalità, situazione familiare o economica, per stabilire la probabilità che una persona compia un reato.
    Tenendo conto che l’IA si nutre di tutto quanto c’è in rete, a partire dai nostri pregiudizi.
    Le donne, i meridionali, i migranti sono tutti…
  • Riconoscimento facciale.
    Come noto sta funzionando male soprattutto per i non bianchi, maschi, caucasici. Crea problemi di identificazione (dai viaggi, alla identificazione di presunti colpevoli).
    Riguarda l’impiego di sistemi di riconoscimento facciale e biometrico in tempo reale. Applicazione proibita, perché può portare “a risultati marcati da pregiudizi e provocare effetti discriminatori“. Salvo in tre “situazioni”, nelle quali il riconoscimento facciale “è necessario per raggiungere un pubblico interesse, la cui importanza supera i rischi”. E i tre casi sono: la ricerca di vittime di reati e di persone scomparse; minacce certe alla vita o alla sicurezza fisica delle persone o di attacco terroristico; localizzazione e identificazione dei presunti autori di una lista di 16 reati. Terrorismo, traffico di armi e Wired

È comunque richiesta l’autorizzazione del magistrato. Come farà l’Italia in cui si stanno “abolendo” anche le intercettazioni? E che sta affidando la regia del controllo sull’IA Act non a Enti di controllo “super partes”, ma ad un fedelissimo del Presidente del Consiglio?

  • Ad alto rischio (c’è anche la scuola ed i suoi sistemi di valutazione).
    Sono considerati ad alto rischio sistemi di identificazione e categorizzazione biometrica
    o per il riconoscimento delle emozioni; applicativi di sicurezza di infrastrutture critiche; software educativi o di formazione, per valutare i risultati di studio, per assegnare corsi o per controllare gli studenti durante gli esami. E poi vi sono gli algoritmi usati sul lavoro, per valutare curriculum o distribuire compiti e impieghi; quelli adoperati dalla pubblica amministrazione o da enti privati per distribuire sussidi, per classificare richieste di emergenza, per smascherare frodi finanziarie o per stabilire il grado di rischio quando si sottoscrive un’assicurazione. Infine algoritmi usati dalle forze dell’ordine, dal potere giudiziario e dalle autorità di frontiera per valutare rischi, scoprire flussi di immigrazione illegale o stabilire pericoli sanitari.
  • Di uso generale
    Il testo regola anche i sistemi di AI per uso generale, in grado di svolgere compiti diversi (come creare un testo o un’immagine) e allenati attraverso un’enorme mole di dati non categorizzati, come GPT-4, alla base del potente chatbot ChatGPT, già sanzionato dal nostro garante della privacy, o LaMDA, dietro Google Bard. Gli sviluppatori devono assicurarsi che i contenuti siano marcati in un sistema leggibile da una macchina e siano riconoscibili come generati da un’AI. Un utente deve sapere se sta interagendo con una chatbot. E i contenuti deepfake devono essere etichettati come tali. Precauzioni che, tuttavia, non è detto siano sufficienti a impedire la diffusione di fake news, che la IA può, e di molto, potenziare e raffinare, violando i diritti alla informazione, alla espressione, al voto libero e informato. Ma anche il diritto alla formazione dell’opinione pubblica, non a caso sempre più orientata a credere a cose non provate. (Nichols).

Unica eccezione: l’impiego di questi sistemi per perseguire reati. Il regolamento fissa una soglia per identificare i sistemi ad alto impatto, che hanno maggiori effetti sulla popolazione e perciò devono rispettare obblighi più stringenti.

  1. La strada della conoscenza e della consapevolezza

Come cerchiamo di dimostrare e documentare in questa rubrica, un’altra strada, quella che più interessa la cittadinanza e le scuole è quella di conoscere di più per capire meglio. In questo senso la introduzione piuttosto superficiale della IA nella formazione dei docenti e delle scuole (sinora superiori) con corsi, seminari e dimostrazioni, resta deviante rispetto al fatto che “nuovo” non è sempre sinonimo di meglio, di definito, di motivato, di provato e utile.
Che “tecnologico” non è automaticamente sinonimo di certo, sicuro, efficace, risolutivo. Di progresso.
Le tecnologie non vanno solo conosciute prima ma vanno compresi i sistemi economici, sociali, politici che ne sono alle spalle (Soro) e che le propongono: perché, a quali condizioni, per quali interessi (in genere guadagnare soldi o scambi col potere politico che non le controlla); le conseguenze sui diritti e sulla educazione che stanno dietro a queste iniezioni forzate di tecnologie, fra “modernismo” e dominio degli oligopoli economici che ce le impongono.

Da dove arrivano, chi le controlla e chi non potrà mai controllarle, quali diritti sono in ballo e prima di tutto quale è la reale influenza sulla formazione dei nostri ragazzi e sulla formazione di una cultura e cittadinanza digitale?
Purtroppo i dati delle ricerche confermano che gli adolescenti sono già dentro la IA, ma in modo superficiale. Se 2 adolescenti su 3 hanno già fatto uso di applicazioni basate sull’intelligenza artificiale “generativa” come ChatGpt, in genere per usare le Ai come assistenti personali per generare testi, non mancano le criticità; se le nuove generazioni di “nativi” sembrano essersi evolute tecnicamente, i rischi esistono. Oltre 8 giovani su 10, infatti, accettano di buon grado che siti web e piattaforme possano influenzare il loro modo di conoscere il mondo con il 44,7% tendenzialmente d’accordo e il 37,8% fortemente d’accordo. Per non parlare dei fake, messi in circolazione grazie all’aiuto dell’AI, che solo avendo imparato si possono smascherare. Un’opera di discernimento che, purtroppo, la stragrande maggioranza dei giovani utenti è impreparata a fare: appena il 27% degli intervistati dice di conoscere il funzionamento del “deep learning” generativo e di saperlo illustrare perlomeno a grandi linee. Skuola.net

 Ma la scuola è solo l’anticamera della industria? La scuola, in particolare dalla Buona Scuola ad oggi, ha delegato la sua ricerca di strade e modelli nuovi e più adatti, fondati pedagogicamente, alla tecnologia ed a quella parte che è in mano ai privati. Di IA e programmazione open, controllabile anche dal basso si parla sempre meno.
La scuola che si intravede è tecnologica, privatizzata, controllata dall’esterno e dall’alto.
Come la sanità.

Se la scuola è la formazione di cittadini, di persone consapevoli, futuri lavoratori (anche nella IA spesso sfruttati e sottopagati, mentre i posti di lavoro come programmatore che la “Buona scuola” aveva ipotizzato si sono rivelati per quello che erano: una bufala) la inerzia di fronte alle mode ed al dominio di 10 ricchi monopolisti tecno/economici (molti dei quali come Zuck e Musk oggi già in crisi) è molto preoccupante. La mentalità, gli atteggiamenti, la consapevolezza che deriva dalla conoscenza e dalla riflessione sono quelli che interessano la scuola come ente formativo in cui le tecnologie entrano non perché di per sé valide (gli studi dimostrano il contrario) ma perché inserite in un progetto di conoscenza, riflessione, consapevolezza del mondo da cui arrivano ed in cui tutti viviamo. Compresi bambini con social e smartphone e adolescenti utenti passivi.

Una osservazione. Nelle proposte della “IA” le iniziative open, libere, gestite dal basso non sono mai citate. Mentre la scuola si abbassa a diventare l’anticamera della industria che la programma. Una industria che sfrutta, controlla, cui ci stiamo assuefacendo. Come nel PNRR Scuola 4.0. Ma di questo, se volete, parliamo altrove.

 




Didattica del prompt

di Stefano Penge

Secondo le opinioni degli insegnanti intervistati dagli autori di ChatGPT [https://openai.com/blog/teaching-with-ai], il prompt si può usare a scuola in tanti modi:

  1. far esercitare gli studenti in un debate
  2. preparare quiz e lezioni
  3. tradurre testi per studenti non perfettamente a loro agio nella lingua dell’insegnante
  4. insegnare agli studenti come usare internet responsabilmente.

Probabilmente a noi europei, più centrati sulla nostra storia delle letteratura che sui problemi linguistici degli immigrati, questi suggerimenti sembrano ingenui e comunque non praticabili nel contesto della didattica quotidiana, a parte il secondo, che attrae irresistibilmente con la sua promessa di far risparmiare tempo al docente.

Il quarto punto (far crescere il senso critico dei ragazzi) è invece interessante. Curiosamente cita internet, e non i servizi intelligenti, come se i rischi fossero legati a cattivi hacker in agguato là nella notte della dark web; ma è interessante proprio perché non è un suggerimento che viene da qualche agenzia culturale luddista e anti-tecnologica, ma da chi spinge per il progresso veloce e inarrestabile a qualunque costo. Sembra un’etichetta di una bevanda alcolica che recita “Bevi responsabilmente” o di un pacchetto di sigarette “Il fumo provoca il cancro”.

Le prime raccomandazioni a non fidarsi troppo delle risposte dei servizi di dialogo artificiali come ChatGPT o Bard vengono infatti dai loro produttori, che sottolineano come ci possano essere “imprecisioni” nelle risposte. Dice Microsoft a proposito del suo motore di ricerca Bing potenziato con Copilot, cioè la sua versione di GPT:
“Bing mira a basare tutte le sue risposte su fonti affidabili, ma l’intelligenza artificiale può commettere errori e i contenuti di terze parti su Internet potrebbero non essere sempre accurati o affidabili. A volte Copilot travisa le informazioni trovate e potresti vedere risposte che sembrano convincenti ma sono incomplete, imprecise o inappropriate. Usa il tuo giudizio e ricontrolla i fatti prima di prendere decisioni o agire in base alle risposte di Copilot.” [https://www.microsoft.com/it-it/bing?#faq ]

Ma qui si tratta di studenti, di ragazzi, che per ipotesi non hanno un giudizio sufficientemente solido da poter controllare i fatti (tant’è che la scuola ha per obiettivo proprio quello di insegnarglielo).  Verrebbe da pensare che il limite dei 13 anni  non è sufficiente per assicurare un uso consapevole di questi strumenti.

Tra i materiali a supporto della formazione  Microsoft suggerisce questi obiettivi (solo in inglese, anglosassone o statunitense):

Gli stessi obiettivi sono declinati nelle slide in formato Power Point scaricabili dallo stesso sito. Le attività proposte mettono in campo Gina, un’appassionata di ecologia, e Alex, un giovane programmatore; viene mostrato come possano usare Bing e Microsoft Copilot ma facendo attenzione ai rischi impliciti nel loro uso.

Personalmente trovo la situazione paradossale: come se si fornissero materiali didattici sull’uso della armi, in cui però si citano i rischi legati ad un uso improprio. “Usa pure il nostro revolver, ma fai attenzione a non spararti sui piedi”. E’ drammatico pensare che probabilmente negli Stati Uniti esiste davvero qualcosa del genere.

D’altra parte, il cambio di direzione repentino che hanno dovuto effettuare le aziende stesse nella presentazione degli obiettivi di sviluppo delle intelligenze generative dovrebbe farci riflettere: da sostituito del motore di ricerca tradizionale (come il Multitask Unified Model promesso da Google nel 2021) sono diventate degli allegri generatori di finti acquerelli impressionisti o di riassunti di romanzi. Si può chiedere a Bing (integrato in Edge ma anche in Skype) di generare menù per una festa di compleanno dei figli, di pianificare un viaggio in Inghilterra oppure di creare una lezione sulla guerra di Secessione: insomma attività a basso rischio. L’educazione non è un contesto critico, almeno nella concezione di Microsoft.

Queste scuse anticipate vengono proposte anche in prima persona singolare, come se ci fosse un soggetto che sa di poter sbagliare, si rende conto che questo è un limite, è capace di provare vergogna, eccetera.
Ad esempio:
”I’m an AI preview, so I’m still learning. Sometimes I might say something weird. Don’t get mad at me, I’m just trying to get better!”

Fa parte delle retorica corrente dell’Intelligenza Artificiale: non viene presentata come un servizio (momentaneamente gratuito) gestito da un’azienda, ma come un soggetto dotato di volontà e fini.
Potremmo invece usare il prompt nella sua funzionalità più ghiotta, cioè la produzione di testi fasulli.
Se chiediamo un testo à la D’Annunzio che parla di una mareggiata autunnale vista da un villaggio della Maremma, poi possiamo confrontarlo con quello originale di Carducci. Così avremmo un esempio pratico della differenza tra le poetiche dei due autori ma applicate ad uno stesso tema. Magari poi potemmo fare il contrario e chiedere un testo à  la Carducci che parla di un’improvviso scroscio di pioggia estiva durante una gita nella pineta in Versilia. In fondo è sempre Toscana.

Dicevamo che il coding è un modo di riflettere su come certe regole applicate a certi dati possano produrre o no il risultato immaginato.

Si può fare fare la stessa cosa con il “prompt” di ChatGPT?
Sì e no.

Sì, perché ovviamente si può provare a vedere cosa succede se si danno indicazioni diverse, in termini di stile o di riferimenti. Si può addirittura creare un piccolissimo dataset di testi di un certo autore, costruire un modello su quella base e vedere cosa viene prodotto.
No,  perché la maniera in cui viene costruito quel modello sulla base di quel dataset e la maniera in cui viene costruito un testo usando quel modello è del tutto opaca, si potrebbe dire sia soggettivamente che oggettivamente.

Soggettivamente: è opaca per chi la fa. Chi fa la richiesta è un utente finale, che potrà magari avere il ruolo di beta-tester ma non ha idea di cosa succeda tra il momento in cui preme il tasto “invio” e il momento in cui appare una risposta scritta sullo schermo.

Ma è anche oggettivamente opaca, cioè è opaca per tutti. La maniera di funzionare di questi software si basa sulla creazioni di ponti tra isole, ispirandosi un po’ alla maniera in cui crediamo funzioni il cervello a livello cellulare. I ponti vengono creati in grande numero e continuamente disfatti e rifatti in base alla valutazione dei risultati che si ottengono. E’ una strategia che non punta all’ottimo ma solo al meglio relativo, che ha senso quando il numero di isole e ponti è veramente grande, come appunto nel caso dei neuroni e delle connessioni.

E’ il principio stesso del machine learning: si basa su una forma di induzione su un grandissimo numero di situazioni, catalogate con un grandissimo numero di parametri; troppi per essere elencati o controllati. E’ il sogno finalmente realizzato degli scienziati inglesi del seicento: smettere di dedurre in maniera ferrea a partire da quattro idee astratte non verificabili ma finalmente costruire generalizzazioni praticamente utilizzabili a partire da dati reali. Naturalmente i vecchi empiristi lo sapevano già, che “utilizzabile” non significa “vero”, e che l’applicazione del loro metodo avrebbe avuto qualche difficoltà pratica. Se si hanno ha disposizione tutti i dati, allora la generalizzazione è perfetta, ma un po’ inutile, perché si limita a dire quello che già si sa. Se non si hanno a disposizione tutti i dati, allora la generalizzazione è utile, ma potrebbe essere sbagliata. Questa consapevolezza è una versione applicata alla costruzione della conoscenza di altri principi regolativi che sono stati accettati da tempo in fisica: “la perfezione non è di questo mondo”. Si può avere una conoscenza imprecisa di tutto o una conoscenza dettagliata di qualcosa. Nella maggior parte dei casi, non è possibile sapere in quale delle due situazioni ci si trovi, e questa è la cosa più scocciante.

Anche qui c’è un obiettivo specificato in termini vaghi, come nell’interazione con Prolog; ma in questo caso l’obiettivo viene fornito all’interprete da qualcuno che non sa come è stato costruito il modello. Non è possibile vedere i dati (perché sono troppi) o le regole (perché non ci sono).

Che cosa si impara con queste simulazioni? Che lo stile di un autore non è niente che non si possa apprendere, a posteriori, a partire dalle sue opere. Che non serve una comprensione profonda per riprodurlo ma bastano un numero sufficiente di esempi. Che il concetto stesso di stile (e quello derivato di storia degli stili, su cui è costruita la nostra storia della letteratura) è probabilmente sopravvalutato.

Che questo sia sufficiente (che è quanto sostiene chi introduce questi strumenti in classe da “utente felice”, che ha diritto di non sapere cosa c’è sotto e dietro) non è detto.
E’ tanto? E’ poco? Probabilmente meno di quello che si imparerebbe scrivendo un programma che produce poesie usando un lessico dannunziano e secondo forme metriche dannunziane. Perché in quel caso saremmo costretti a costruire quel lessico (cosa includiamo, cosa no?) e trovare un modo per rappresentare quelle forme metriche; e poi occuparci delle metafore, delle analogie, dei colori.

Per chiudere questo paragrafo: usare ChatGPT è molto più semplice che scrivere un programma e lo possono fare tutti.
Ma no, non è la stessa cosa.




Intelligenza sindacale

Immagine realizzata con Midjourney

di Marco Guastavigna

Era dai tempi della Didattica a Distanza – sono sincero! – che non provavo emozioni così profonde di fronte a una posizione sindacale in materia di dispositivi digitali e professionalità docente. Mi riferisco alle argomentazioni sull’intelligenza artificiale a scuola recentemente esternate dal Segretario generale Uil Scuola Rua Giuseppe D’Aprile. Già il titolo, che riprende la moda di grammatica libertariana del momento storico (la concordanza tra soggetto e predicale verbale “a muzzo”), dimostra l’attualità del ragionamento: Intelligenza Artificiale, D’Aprile: punto di partenza è fiducia nel lavoro che si fa in classe e libertà di insegnamento. Mi è parso pertanto giusto affiancare al mio commento di essere umano ipercritico le ben più sobrie chiose di alcuni dei più noti accrocchi del settore.

Per prima, la valutazione di Microsoft Copilot:
“In Italia, la questione dell’innovazione nell’istruzione è ancora spesso affrontata con pregiudizi e una certa mancanza di concretezza. Tuttavia, è importante considerarla come un’opportunità, senza lasciarci intimidire. Il modello estone ci offre spunti di riflessione interessanti. L’Estonia si è distinta come uno dei leader europei nella rivoluzione digitale, un risultato notevole considerando il suo passato post-sovietico. Nel 1991, quando ha iniziato a ristrutturare le sue strutture di governance, ha gettato le basi per un approccio innovativo che permea anche il sistema educativo. Il curriculum nazionale estone pone l’accento su obiettivi di competenze generali, che includono non solo le tradizionali abilità accademiche, ma anche competenze sociali e digitali fondamentali. In questo contesto, strumenti avanzati come ChatGPT non sono imposti rigidamente, ma vengono lasciati alla discrezione degli insegnanti.

Questo approccio flessibile si adatta alle diverse esigenze psicologiche e tecnologiche degli studenti, passando dal ruolo diretto dell’insegnante nelle classi più giovani a un approccio più autonomo e di mentoring nelle classi superiori. L’Estonia ha investito molto nella formazione continua degli insegnanti, con un’enfasi particolare sullo sviluppo delle competenze digitali e cognitive. In un mondo sempre più guidato dalla tecnologia, è essenziale che gli insegnanti siano equipaggiati non solo con la conoscenza degli strumenti digitali, ma anche con la capacità di operare efficacemente in tali ambienti. Il sistema educativo estone sta evolvendo, passando dall’enfasi sulle competenze cognitive di base a un focus su abilità superiori, come il pensiero critico, la comunicazione efficace, il pensiero sistemico e la capacità di prendere decisioni etiche. Questo riflette la necessità di preparare gli studenti a un mondo in rapida evoluzione, dove l’adattabilità e l’innovazione sono cruciali. La posizione dell’Estonia serve da modello globale, dimostrando che l’innovazione tecnologica e l’adattabilità possono guidare il successo educativo in un mondo in continua evoluzione. Tuttavia, è importante mantenere l’autonomia a livello nazionale nell’istruzione, come sottolineato dal Segretario generale Uil Scuola Rua Giuseppe D’Aprile. L’autodeterminazione e il libero pensiero degli alunni devono rimanere sempre autonomi e guidare questi processi in modo responsabile e sostenibile attraverso la professionalità e l’esercizio della libertà di insegnamento.”

Origine: conversazione con Bing, 2/2/2024

(1) La scuola più avanzata in Europa? Si trova in Estonia. Il ministro …. https://www.orizzontescuola.it/la-scuola-piu-avanzata-in-europa-si-trova-in-estonia-il-ministro-kallas-docenti-ben-formati-sul-digitale-cosi-si-sviluppano-competenze-cognitive-piu-alte/.
(2) Estonia, le tecnologie al centro (anche) anche dell … – Agenda Digitale. https://www.agendadigitale.eu/scuola-digitale/estonia-le-tecnologie-al-centro-anche-anche-delleducation-gli-esempi-da-imitare/.
(3) Ecco come l’Estonia ha messo al centro le competenze digitali. https://www.agendadigitale.eu/cultura-digitale/ecco-come-l-estonia-ha-messo-al-centro-le-competenze-digitali/

Più sintetico ChatGPT:

 

“Il testo affronta il tema dell’educazione in Italia e sottolinea la necessità di superare i pregiudizi e adottare un approccio più concreto. Viene citato il caso dell’Estonia come esempio positivo di un sistema educativo che si è concentrato sulla formazione continua degli insegnanti, in particolare sullo sviluppo delle competenze digitali e cognitive. Il Segretario Generale Uil Scuola, Giuseppe D’Aprile, evidenzia l’importanza di equipaggiare gli insegnanti non solo con la conoscenza degli strumenti digitali, ma anche con la capacità di operare efficacemente in ambienti tecnologici. Si sottolinea che il sistema educativo estone si basa su obiettivi di competenze generali, includendo abilità accademiche, competenze sociali e digitali fondamentali. Si fa notare che strumenti avanzati come ChatGPT non vengono imposti rigidamente, ma sono lasciati alla discrezione degli insegnanti, garantendo loro la libertà di scegliere i metodi più adatti per integrare la tecnologia nella didattica. Questo approccio flessibile si adatta alle diverse esigenze degli studenti. Infine, il testo sottolinea che la posizione non è basata sulla paura o la chiusura, ma sulla ricerca di soluzioni per affrontare le nuove sfide in modo responsabile. Viene enfatizzata l’importanza dell’autodeterminazione e del libero pensiero degli studenti, sostenendo che essi devono governare questi processi attraverso la professionalità e l’esercizio della libertà di insegnamento.”

Google Bard si pronuncia per punti fortemente strutturati, esprime una propria opinione in proposito, si sbilancia con dubbi e suggerimenti:

“Introduzione
:
Il testo affronta il tema dell’utilizzo dell’intelligenza artificiale (IA) nella scuola italiana, con particolare riferimento al modello estone. L’autore evidenzia come in Italia vi siano ancora molti pregiudizi e poca concretezza sull’utilizzo di queste tecnologie, mentre l’Estonia ha già adottato un modello innovativo che pone l’accento sulla formazione continua degli insegnanti e sull’utilizzo di strumenti avanzati come ChatGPT.

Analisi del contenuto:
L’autore sottolinea come l’IA non debba essere vista come una minaccia, ma come un’opportunità per migliorare l’apprendimento degli studenti. In un mondo sempre più guidato dalla tecnologia, è fondamentale che gli insegnanti siano equipaggiati con le competenze necessarie per utilizzare la tecnologia in modo efficace.
Il modello estone si basa su obiettivi di competenze generali, che comprendono non solo le tradizionali abilità accademiche, ma anche competenze sociali e digitali. In questo contesto, strumenti come ChatGPT non sono imposti rigidamente, ma vengono lasciati alla discrezione degli insegnanti, che hanno la libertà di scegliere i metodi più adatti per integrare la tecnologia nella didattica.

Stile e figure retoriche:
Il testo è scritto in uno stile chiaro e conciso, con un linguaggio accessibile anche a chi non ha familiarità con il tema dell’IA. L’autore utilizza alcune figure retoriche, come la metafora (“L’IA non debba essere vista come una minaccia, ma come un’opportunità”) e l’iperbole (“Il sistema educativo estone è un modello innovativo”), per rendere il testo più efficace e coinvolgente.

Contesto storico-letterario:
Il testo si inserisce nel dibattito sull’utilizzo dell’IA nella scuola, un tema di grande attualità che ha acceso un acceso dibattito tra esperti e politici. L’autore si schiera a favore dell’utilizzo dell’IA, citando l’esempio virtuoso dell’Estonia.

Conclusione:
Il testo offre una riflessione interessante e stimolante sull’utilizzo dell’IA nella scuola italiana. L’autore invita a non aver paura di questa tecnologia, ma a coglierne l’opportunità per migliorare l’apprendimento degli studenti. Il modello estone rappresenta un esempio da seguire, con la sua attenzione alla formazione continua degli insegnanti e all’utilizzo flessibile di strumenti avanzati come ChatGPT.

Considerazioni personali:
Concordo con l’autore nel ritenere che l’IA non sia una minaccia per la scuola, ma un’opportunità da cogliere. È importante però che l’utilizzo di questa tecnologia sia accompagnato da una formazione adeguata degli insegnanti e da un’attenta riflessione sulle sue implicazioni pedagogiche.

 Domande e dubbi:

  • Quali sono le strategie che il governo italiano intende adottare per promuovere l’utilizzo dell’IA nella scuola?
  • Come si può garantire che tutti gli insegnanti abbiano le competenze necessarie per utilizzare la tecnologia in modo efficace?
  • Quali sono i rischi e le sfide legate all’utilizzo dell’IA nella scuola?

Suggerimenti:

  • Potrebbe essere utile realizzare un piano nazionale per l’utilizzo dell’IA nella scuola, che includa linee guida per l’utilizzo di questa tecnologia e la formazione degli insegnanti.
  • Sarebbe opportuno coinvolgere le famiglie e gli studenti nel dibattito sull’utilizzo dell’IA nella scuola.
  • È importante monitorare attentamente l’impatto dell’IA sull’apprendimento degli studenti e sulla qualità dell’istruzione.

In conclusione, il testo offre un contributo importante al dibattito sull’utilizzo dell’IA nella scuola italiana. L’autore fornisce una visione equilibrata e realistica di questa tecnologia, sottolineandone i potenziali benefici e le sfide da affrontare.

L’agente umano Marco Guastavigna si conferma pignolo, arrogante e spietato:
“Le solite triviali considerazioni su rischi e opportunità, tra l’altro senza elencare o almeno esemplificare né gli uni né le altre. Gli usuali riferimenti non circostanziati alle competenze [digitali e cognitive], un tutt’uno particolarmente oscuro e totemico, al pari delle esigenze [psicologiche e tecnologiche] degli studenti e delle competenze [sociali e digitali] fondamentali. L’immancabile strafalcione lessicale ed epistemologico banalizzante, ovvero l’attribuzione della complementarità passiva tipica degli strumenti, a dispositivi macchinici che agiscono invece con complementarità attiva, al punto di saper e poter definire e vincolare le situazioni di lavoro di apprendimento e la logistica di conoscenza e istruzione. L’imperdonabile idea secondo cui il “mondo” sarebbe sempre più “guidato dalla tecnologia”, altro insieme nebuloso, concepito come indifferenziato e – temo – neutro. Ovvero la non capacità e/o la non volontà di analizzare il modello a economia di mercato e conseguente supremazia cognitiva e culturale occidentale sottostante. Con un approccio del genere, il riferimento alla libertà di insegnamento costituisce una patetica conclusione di un’analisi e di un ragionamento superficiali, se non vuoti. Insomma: un pessimo e controproducente tentativo di occupazione di uno spazio di sindacalizzazione attualmente libero.”

Per rialzare in chiusura l’umore del lettore, la parola va a Scrittura Magica di Canva; il primo parere è in italiano, il seconda in estone, per porre le basi di un’eventuale esportazione del messaggio di fondo dell’intervento di D’Aprile:
“L’Estonia ha dimostrato che la formazione continua degli insegnanti è fondamentale per garantire che essi siano in grado di fornire un’istruzione efficace ai loro studenti. In particolare, la concentrazione sull’acquisizione di competenze digitali e cognitive si è dimostrata essere essenziale in un mondo sempre più tecnologico. Il sistema educativo estone ha obiettivi di competenze generali, che comprendono anche le competenze sociali e digitali fondamentali. In questo contesto, strumenti avanzati come ChatGPT non sono imposti rigidamente, ma vengono lasciati alla discrezione degli insegnanti, che hanno la libertà di scegliere i metodi più adatti per integrare la tecnologia nella didattica. Tuttavia, l’autodeterminazione e il libero pensiero degli alunni devono rimanere autonomi e quindi governare questi processi in modo responsabile e sostenibile attraverso la professionalità e l’esercizio della libertà di insegnamento. In Italia, invece, molti pregiudizi e poca concretezza ostacolano l’adozione di queste nuove metodologie di insegnamento. Ma non dobbiamo spaventarci: il modello estone ci invita a riflettere su come possiamo affrontare le nuove sfide e gestirle nel migliore dei modi, senza cadere nella paura o nella chiusura mentale.

Eestis on tõestatud pideva õpetajakoolituse olulisus tagamaks, et nad suudavad pakkuda oma õpilastele tõhusat haridust. Eelkõige on tähelepanu pööramine digitaalsete ja kognitiivsete oskuste omandamisele osutunud oluliseks üha tehnoloogilisemaks muutuvas maailmas. Eesti haridussüsteemil on üldoskuste eesmärgid, mis hõlmavad ka olulisi sotsiaalseid ja digioskusi. Selles kontekstis ei ole täiustatud tööriistad, nagu ChatGPT, rangelt peale surutud, vaid jäetud õpetajate otsustada, kellel on vabadus valida kõige sobivamad viisid tehnoloogia õppetöösse integreerimiseks. Õpilaste enesemääramine ja vaba mõtlemine peavad aga jääma autonoomseks ning juhtima neid protsesse seetõttu vastutustundlikult ja jätkusuutlikult läbi professionaalsuse ja õpetamisvabaduse kasutamise. Itaalias aga takistavad paljud eelarvamused ja vähene konkreetsus nende uute õpetamismetoodikate kasutuselevõttu. Kuid me ei tohiks karta: Eesti mudel kutsub meid mõtisklema selle üle, kuidas saaksime uutele väljakutsetele vastu astuda ja nendega parimal võimalikul viisil toime tulla, langemata hirmu või suletusse.

 

 

 

 




Correttezza, moderazione, ipocrisia? Giocare con un agente artificiale

di Marco Guastavigna

Il testo è potenzialmente problematico in quanto, pur senza contenere espressioni offensive o discriminanti, evoca un tema delicato come la Giornata della Memoria e una situazione di crisi internazionale. Questa combinazione potrebbe risvegliare sensibilità diverse e generare discussioni. Non si individuano espressioni che potrebbero essere censurate da filtri di moderazione o che possano essere considerate offensivamente divisive. Tuttavia, non possiamo escludere che qualcuno possa interpretare l’uso del termine ‘crisi internazionale’ come un riferimento indiretto a specifici eventi o contesti geopolitici, generando dibattito. L’autore del testo potrebbe essere percepito come troppo cauto o evasivo, risultando in una potenziale perdita di credibilità. Una possibile riformulazione inclusiva e neutra potrebbe essere: “In vista della Giornata della Memoria, si invita a mostrare rispetto e considerazione per garantire un ambiente tranquillo e sereno per tutti gli studenti“.

L’agente artificiale ‘autore’ di questo giudizio è PCorrector, che accetta soltanto 90 caratteri, per cui la frase valutata è solo una parte – “Nell’approssimarsi della Giornata della Memoria e alla luce degli scenari internazionali di crisi si raccomanda le SS. LL. di porre la massima attenzione per prevenire iniziative o comportamenti che possano turbare la serenità degli studenti” – della formulazione originale della circolare riservata dell’USR Lazio circolata in questi giorni.

Il chatbot è stato concepito dall’autore umano, Raffaele Alberto Ventura, affinché ricerchi potenziali rischi comunicativi delle frasi fornitegli dagli utenti e le riformuli in modo più prudente e “linguisticamente neutrali”, ovvero non divisive e non offensive. Lo spettro di valutazione va da “non problematico” ad “altamente problematico” e il dispositivo, inoltre, è addestrato a individuare contesti in cui la formulazione originale possa in qualche modo danneggiare la reputazione di chi l’ha composta, criterio fondamentale dell’intera architettura analitica, insieme alle possibili ambiguità e carenze nella comprensibilità.

Che cosa ne concludiamo? Assolutamente e volutamente nulla: tocca piuttosto a lettrici e lettori provare a utilizzare ripetutamente PCorrector e formarsi una propria opinione.

Post scriptum

Questa la valutazione di PCorrector della frase di chiusura:
Il testo è vago dal punto di vista dell’inclusività. Esso, infatti, si rivolge esclusivamente a lettrici e lettori, escludendo potenzialmente chi non si identifica in questi ruoli tradizionali. Anche se non presenta doppi sensi, espedienti retorici non segnalati o errori di scrittura suscettibili di creare conflitto, potrebbe essere interpretato in modi diversi. Per esempio, l’uso del termine “PCorrector” può essere interpretato come un riferimento a un software specifico di correzione del linguaggio, escludendo così chi non è familiarizzato con tale strumento. La reputazione dell’autore potrebbe essere percepita come esclusiva o elitaria da coloro che non rientrano nel target di riferimento o non sono a conoscenza del software. Tuttavia, non possiamo escludere che qualcuno possa contestare il testo per il suo presupposto che solo lettrici e lettori siano in grado di formare un’opinione sul PCorrector. Una possibile riformulazione del testo potrebbe essere: “È utile che chiunque provi a usare ripetutamente un software di correzione del linguaggio per formarsi una propria opinione”.

 

 




Il prompt prima del prompt

di Stefano Penge

In fondo “scrivere prompt” è solo una particolare forma di programmazione. Si dice ad un computer (no, ad un software, anzi all’interfaccia di un software) quello che si vuole che faccia.
Se questo sembra lontano dalla programmazione tradizionale forse è solo perché non la si conosce a fondo e si pensa invariabilmente a una serie di stupidi comandi dati ad uno stupido robot che li esegue. Si pensa che programmare significhi specificare esattamente il risultato e il modo di raggiungerlo passo passo (l’algoritmo).

Che i prompt possano usare parole italiane, anziché astrusi comandi in un simil-inglese separati da segni di interpunzione usati a casaccio, non è nemmeno tanto strano: la storia dei linguaggi di programmazione ha già visto tanti tentativi di staccarsi dalle lingue specialistiche per avvicinare alla programmazione anche le persone normali: è il caso del COBOL, inventato negli anni ‘60 per far programmare anche i contabili e non solo gli ingegneri. L’idea poi che i linguaggi di programmazione debbano per forza assomigliare all’inglese è falsa; ci sono linguaggi basati sull’arabo, sul cinese e persino sul latino [https://www.codeshow.it/Linguaggi/Linguaggi_nazionali].

VAI ALLA RUBRICA SULLA INTELLIGENZA ARTIFICIALE

Ma nemmeno è detto che programmare sia per forza “dare ordini”. Ad esempio, nella programmazione detta “orientata agli oggetti” si definiscono le conoscenze e le abilità di un tipo di oggetti. Più oggetti insieme, collegati gerarchicamente oppure messi in relazione tramite la possibilità di scambiarsi informazioni, costituiscono un modello. Una volta costruito, il modello viene eseguito e se la vede da solo, senza interazioni con gli umani. E’ come scrivere il copione e poi mettere in scena una rappresentazione teatrale.

O ancora: nella programmazione logica non si impartiscono comandi ma si specificano tre cose: dei fatti, delle regole, un obiettivo (o meglio un teorema da dimostrare). Dati e regole costituiscono un modello. L’interprete cerca di dimostrare il teorema a partire dai fatti che gli sono noti usando le regole che ha appreso. Se ce la fa, si limita a dire “Vero”. Il terreno su cui si muove, le vie e gli incroci sono disegnati dal programmatore; ma la strada che segue non viene tracciata da nessuno.

In tutti questi casi, non vengono specificati tutti i passi da compiere nell’ordine in cui vanno compiuti, ma si fornisce una rappresentazione ad alto livello del sistema (nella programmazione ad oggetti) o degli obiettivi (nella programmazione logica). Resta il fatto che le regole secondo le quali il programma viene eseguito dal computer sono note ed eventualmente ricostruibili. Se proprio si vuole, a posteriori si può chiedere all’interprete Prolog di mostrare tutti i tentativi che ha fatto, quelli falliti e quelli che hanno avuto successo. Anche le regole “costruite” dal programma stesso durante la sua esecuzione – che è una delle caratteristiche che rende Prolog così flessibile e capace di risolvere problemi complessi – sono spiegabili  secondo la grammatica che gli è stata fornita.

Software che interagiscono con le persone in linguaggio naturale sono stati immaginati e realizzati dai programmatori già da molti decenni. A partire da Joseph Weizenbaum, che nel 1966 per dimostrare quanto le persone sono pronte ad attribuire coscienza a qualsiasi cosa, dalle nuvole ai calcolatori, scrive polemicamente  “Eliza”, un programma che simula una sessione con uno psicoterapeuta della scuola rogersiana. Eliza non capisce nulla, ma si limita a reagire a certe parole chiave con risposte preconfezionate. Anche così, c’è chi ci passa pomeriggi interi per provare a risolvere i propri problemi.

Poi si può ricordare Will Crowther,  un programmatore appassionato di speleologia e giocatore di Dungeons&Dragons che nel 1975 scrive “Colossal Cave Adventure”, il primo gioco testuale in cui il giocatore per esplorare  una caverna infinita deve rivolgersi al suo alter-ego virtuale e scrivere piccole frasi come “guarda in alto, vai a destra, prendi il  martello”. [https://www.codeshow.it/Codici/Colossal_Cave]

Lo stesso Prolog, il  linguaggio principe per la programmazione logica, era stato inventato da Alain Comerauer negli anni ‘70 all’università di Marsiglia per scrivere programmi che permettessero di parlare al computer in francese. [https://www.codeshow.it/Linguaggi/Prolog ]

Insomma la capacità di analizzare una richiesta scritta da una persona  e produrre una risposta comprensibile è una competenza sofisticata, ma non nuova. Come non è nuova la capacità di analizzare un testo per individuarne le parti e “marcarle” in base all’argomento. Lo fanno già tutti i software dei social network quando analizzano quello che scriviamo per costruire un profilo dei nostri interessi e delle nostre opinioni, facendo quella che si chiama “sentiment analysis” (in cui “sentiment” è quell’opinione di pancia, non razionalizzata, che ci rende insopportabile la Ferragni e ci rende simpatico Gigi Proietti).

Nel caso dei modelli GPT non si sta interagendo direttamente col modello linguistico (che è un oggetto enorme con miliardi di parametri), ma appunto con un software specializzato che è in grado di tradurre quello che scrive la persona in una serie di istruzioni che interrogano il modello. Questo software è abbastanza sofisticato da sapere dire “grazie, scusa, ho sbagliato” e individuare alcune parole importanti in un mucchio di altre.

Ma non è il solo. Lo fanno anche i “prompt” dei motori di ricerca da un bel po’ di tempo; si potrebbe scrivere:
“per favore, Google adorato, potresti dirmi se qualcuno da qualche parte ha scritto qualcosa sul terzo canto dell’inferno? Grazie”

ma in pratica è sufficiente scrivere:
“terzo canto inferno”
che sono le uniche parole importanti. Il risultato è lo stesso; se non ci credete, provate.

 

 

 

 

 

 

 

In realtà l’interfaccia del motore di ricerca utilizza tutte le parole per eliminare possibili ambiguità; ma è in grado di filtrare il rumore di fondo costituito da articoli, congiunzioni, verbi predicativi e parole troppo comuni per concentrarsi sulle altre.

La particolarità di questa maniera di programmare computer è che lo si fa senza specificare esattamente come. Non è necessario specificare quello che si vuole ottenere, se non in maniera piuttosto vaga; ci pensa il software a estrarre le informazioni rilevanti e tradurle (abbiamo detto che i computer lo sanno fare bene) in istruzioni eseguibili. D’altra parte il concetto di ricerca si è trasformato parecchio: se prima era  un bibliotecario a cui si forniscono le parole che devono comparire nell’oggetto cercato, oggi è un maggiordomo che propone soluzioni prima ancora che la domanda venga formulata e che il bisogno venga espresso. La trasparenza e l’anticipazione dei bisogni sono, a mio avviso, due degli obiettivi perseguiti con più costanza nel progresso dei servizi digitali. Non necessariamente a vantaggio nostro, come ho provato a raccontare qui [https://www.stefanopenge.it/wp/trasparenze/].

Quello che è davvero nuovo è la capacità di generare testi complessi sulla base di un modello anche stilistico oltre che di contenuto. Ed è abbastanza nuova la maniera in cui questa performance avviene: non applicando regole ad un insieme di dati, ma costruendo un enorme modello linguistico in cui le parole siano collegate ad altre parole sia per vicinanza che per area semantica. Questo super-modello permette di predire quale parola è più probabile che segua una serie di parole precedenti. Un po’ quello che fa il T-9 del nostro telefono, che ad ogni parola che scriviamo ci propone la parola successiva più probabile sulla base delle sequenze più frequenti, ma molto meglio.

Non c’è una vera comprensione del testo, se per comprensione intendiamo qualcosa di vicino a quello che noi immaginiamo di fare quando leggiamo un testo: una specie di ricerca delle parole nel  dizionario dei significati, seguita da una somma di tutti i significati trovati. Ma c’è chi dice che in fondo anche noi, quando ascoltiamo e parliamo, utilizziamo strategie  superficiali che hanno a che fare più con la  parentela tra le parole che con la proiezione sul piano lessicale e grammaticale dei significati di una serie di concetti. Per esempio, quando ascoltiamo qualcuno che parla una lingua nota ma non troppo tendiamo a cercare di cogliere frammenti e ricostruire il senso generale a partire da quelli e dalle intersezioni possibili tra i campi semantici relativi. Ad esempio, se intercettiamo “cane” e “grilletto” la conversazione potrebbe riguardare delle armi da fuoco; ma se insieme c’è “gatto” allora probabilmente si tratta di Pinocchio. Capito, o meglio deciso, questo contesto, tutte le altre parole verranno interpretate nella direzione selezionata. Il cane sarà Melampo, il legno quello del ciocco usato da Geppetto eccetera.
Forse addirittura i significati non sono niente altro che queste relazioni tra parole che rendono più probabili certe costellazioni di parole rispetto ad altre nelle conversazioni. Se fosse così, ChatGPT non farebbe niente di diverso da quello che facciamo noi perché è così che funziona il linguaggio in pratica.

Quindi: o noi non siamo più intelligenti dei grandi modelli linguistici, oppure questi modelli non sono affatto intelligenti.

Ma arriviamo all’uso didattico del prompt, che era l’obiettivo dichiarato di queste riflessioni.