Macchine che fingono di essere intelligenti

Composizione geometrica di Gabriella Romano

di Stefano Penge

In questi ultimi anni si sta diffondendo un approccio che epistemologicamente e eticamente sembra mettere in discussione tutto quello che abbiamo saputo o creduto di sapere. Un passaggio che vale la pena di evidenziare e di discutere, anche e soprattutto in ambito educativo.

Fino a poco fa, i computer erano al nostro fianco nell’esplorazione dell’universo, più precisi di noi, instancabili, più determinati nel non commettere errori e non trarre conclusioni avventate. Gli affidavamo il calcolo delle traiettorie degli aerei, sulla base della matematica e della fisica che avevamo verificato nel corso due millenni precedenti, perché eravamo certi che avrebbero fatto meno pasticci di noi. Li immaginavamo come servi affidabili e incorruttibili. Un po’ come il primo Terminator impersonato da Arnold Schwartzenegger: magari brutale, ma efficace e soprattutto fedele.

VAI ALLA RUBRICA SULLA INTELLIGENZA ARTIFICIALE

Invece è arrivata un’altra generazione di Terminator, più sottile, elegante, fluida. Il modello di software intelligente che va di moda oggi è bravo a fare molte cose, ma soprattutto una in particolare: fingere, cioè cambiare aspetto e assumere quello di chiunque altro. Non sa risolvere un problema o creare un minuetto partendo dalla regole della musica occidentale settecentesca, però può produrre degli artefatti che non sembrano artificiali, che assomigliano a qualcosa che avrebbe potuto produrre un essere umano. Di fatto, assomigliano a molte cose che esseri umani hanno prodotto, contemporaneamente.

Questa capacità, dal punto di vista della storia dei media, non è eccezionale ma è proprio tipica dei computer. E’ un caso limite di re-mediation, cioè della tendenza dei media digitali di copiare i corrispondenti analogici, di inglobarli, di sostituirli. Ne ho parlato e scritto più volte perché è una capacità da cui sono sempre stato affascinato; due esempi qui [https://www.stefanopenge.it/wp/strumenti-digitali-usati-analogicamente/] e qui [https://www.stefanopenge.it/wp/digitale-unetimologia-istruttiva/].

L’impatto è indubitabilmente straordinario e ha fatto intravvedere l’avvento della “singolarità”, cioè del primo computer veramente intelligente e consapevole; tanto che mentre alcuni salutano l’alba di una nuova era transumanista in altri ambienti si sono scatenate le paure dell’intelligenza artificiale senza coscienza etica che presto dominerà il mondo (come Skynet nella saga di Terminator).

Mentre alcuni si sono affrettati a descrivere i mutamenti nella pratica lavorativa quotidiana (almeno in certi settori: la pubblicità, la comunicazione) e a cercare di sfruttarli professionalmente in termini di consulenza e formazione, tanti docenti di buona volontà si sono impegnati a imparare a usare il “prompt”, anche senza sapere bene come funziona, e si sono sforzati di capire come sfruttarlo a fini educativi; con attenzione, certo, perché altrimenti gli studenti ci mettono un attimo a farsi scrivere il riassunto del terzo canto dell’Inferno.

In generale, come per tutti i servizi digitali a cui siamo abituati, questi docenti lo usano senza fare troppo caso al fatto che il loro uso è libero e gratuito. La messa a disposizione gratuita di uno strumento che ha avuto dei costi di sviluppo e di gestione stratosferici è, a mio parere, un indicatore di un progetto di marketing più complesso, che inizia con il beta test su scala mondiale e poi passa per la commercializzazione di servizi personalizzati alle pubbliche amministrazioni, alle aziende, ai professionisti e, perché no?, alle scuole.

Parliamo allora del magico “prompt”, che è il termine che si usa oggi per indicare le richieste (o ricette?) che si inviano ad un servizio online come ChatGPT per ottenere un testo (o un’immagine, o un’animazione, un audio, un video). Infatti il termine collettivo per tutti questi servizi è “intelligenza artificiale generativa”.

Oggi  prompt è diventato un termine di moda, una buzz word. E’ la porta d’ingresso per l’oracolo, come direbbe Gino Roncaglia.[i] Tra parentesi, è curioso che dopo anni in cui la maniera di interagire con un computer usando la tastiera (anziché il mouse o il touchpad o le dita libere nello spazio virtuale) veniva considerata superata  oggi è diventata una modalità avanzatissima, quasi da hacker da salotto. Nemmeno i fieri possessori di Mac si sono lamentati. Anzi è possibile che gli effetti completi in termini di mode culturali ancora siano da vedere. Nella prossima pubblicità di Nespresso si vedrà George Clooney premere tasti per farsi fare il suo caffè preferito.

Ma che significa prompt? Come spesso succede, c’è stato uno slittamento dalla forma alla materia, dallo strumento al contenuto. E’ successo per “Social Network System”, che sarebbero i software che gestiscono le reti sociali ma che sono diventati “i social”, cioè i gruppi di persone con cui abbiamo a che fare. E’ successo per “cloud”, che è il modo di dividere i software su più hardware virtualizzati, ma che è diventato il luogo unico di ogni documento che non sta sul nostro PC. Tutti questi spostamenti di senso vanno nella direzione della semplificazione, cioè della messa tra parentesi della complessità tecnica, ma anche di quella organizzativa e lavorativa. Appena i “social” divengano oggetti dotati di natura propria ci si dimentica che sono costruiti con dei filtri applicati sulla base della profilazione degli utenti, a sua volta costruita leggendo e analizzando messaggi e azioni. Appena il “cloud” diventa un sinonimo di “remoto, lontano, chissà dove” ci si dimentica che la proprietà di quel nostro documento una volta messo nella nuvola è dubbia e così sono vaghi i confini dei suoi usi possibili da parte da qualcuno che non siamo noi.

Torniamo a prompt. In inglese significa letteralmente  “pronto” ed era il simbolo che appariva, e appare ancora, nelle finestre di interazione testuale con i sistemi operativi dei computer. Per esempio, in Linux può essere qualcosa di questo tipo:

[stefano@fedora -]$ □

mentre nei vecchi computer con il sistema MSDOS appariva così:

C:\>_

In genere l’ultimo carattere lampeggia, a significare che il software è in esecuzione, non si è bloccato, ma sta aspettando un comando. E’ pronto. A quel punto si possono scrivere comandi semplici oppure richiamare interi programmi passando dei valori come parametri. Ad esempio, in Linux il comando ls mostra l’elenco dei file e delle directory (come era in DOS il comando DIR); ma:

ls -d */ | grep ‘Doc*’

fa qualcosa di più: mostra solo le cartelle il cui nome inizia per ‘Doc’. Si possono anche fare anche operazioni sofisticate che agiscono su blocchi di informazioni strutturate, come questa:

sed -e ‘s/occhi/orecchi/g’ -e ‘s/vidi/sentii/g’ inferno.txt

che sostituisce tutte le occorrenze della parola ‘occhi’ con ‘orecchi’ e ‘vidi’ con ‘sentii’ in un file di testo che presumibilmente contiene l’inferno di Dante.

Da questo punto di vista, i prompt attuali sono un po’ la stessa cosa: invocazioni di programmi (che però non conosciamo esattamente) a cui si passano come parametri una serie di valori. Ad esempio,  in questo prompt:

I would like to learn about quantum mechanics. Please provide me with a brief summary of spin that could be understood by a 10-year-old.

ci sono tre parametri impliciti (“area”, “argomento” e “target”); le espressioni “quantum mechanics”, “spin” e “10-years-old” sono i valori che assumono questi parametri. Tutta la frase è uno schema che si può svuotare e riempire con altre triple di valori (“letteratura italiana”, “donna dello schermo”, “calciatore”).

Da prompt è stato derivato “prompt engeneering”, cioè la capacità di scrivere buoni prompt, che fa sentire ingegneri anche solo a pronunciarla. Una capacità che si insegna ormai in innumerevoli libri e corsi, alcuni dei quali dedicati a insegnanti e a studenti. Ingegnerizzare significa organizzare le cose in maniera efficiente; in questo caso,  “prompt engeneering” significa semplicemente conoscere degli schemi e saper mettere i valori giusti al posto giusto. Non sembra esattamente un arte e non ci vuole una vita per impararla; comunque, una volta messa da parte, non si capisce bene dove possa venire riusata.

[i]L’architetto e l’oracolo, Laterza, 2023




Macchine che sembrano intelligenti

di Stefano Penge

Immaginate un bel seminario dal titolo accattivante: “Le macchine intelligenti e la scuola: conflitto o opportunità?”. Si presenta come obiettivo, imparziale; non è acritico ma lascia intravvedere la direzione in cui occorre procedere (dalla rilevazione dei rischi alla costruzione di possibilità operative). Ottimismo della ragione e curiosità non vi mancano, siete pronti a iscrivervi?

Un attimo. Già in questo titolo sono visibili alcuni limiti tipici dell’impostazione più diffusa.

Prima di tutto, macchine e scuola: due soggetti, due entità che inevitabilmente si confrontano. Come se ci fosse una natura artificiale che cresce, si sviluppa, produce i suoi frutti (le macchine appunto); e come se la scuola si trovasse in questo giardino incantato, novella Eva, e dovesse decidere come coglierli e mangiarli. Lieto fine: dopo qualche esitazione colpevole ogni invenzione viene assorbita dalla scuola, malgrado l’opposizione dei tecnofobi arretrati e miopi.

VAI ALLA RUBRICA SULLA INTELLIGENZA ARTIFICIALE

E’ vero che non sono molte le tecnologie per l’educazione nate dentro la scuola, come la tavoletta di cera riscrivibile dei romani o la lavagna di ardesia (che sembra sia stata introdotta negli Stati Uniti nell’Ottocento nel quadro della formazione degli insegnanti: una tecnologia meta-educativa).
Dalla tipografia alle fotocopie, dalle diapositive alla LIM: nessuna di queste tecnologie nasce per l’educazione e nemmeno per la formazione, ma tutt’al più nel quadro della comunicazione aziendale, per la diffusione rapida, economica ed efficace di informazioni.

Però l’introduzione di queste tecnologie nella scuola non è un processo naturale, continuo, unico. Si possono descrivere almeno tre modi con cui dispositivi nati in azienda sono stati successivamente usati nella scuola italiana: quello per cui sono i docenti più creativi e divergenti ad andare a caccia di tecnologie da rubare e riadattare, quello per cui è il ministero a distribuire strumenti  a colpi di piani nazionali e finanziamenti su progetti e quello per cui sono le grandi aziende alle prese con un surplus di produzione che cercano di  esportare quei dispositivi nella scuola costruendo ad hoc un discorso di valori incentrato sull’innovazione, l’efficacia, le competenze del futuro.[i]

In poche parole: il primo passo da fare non è accettare una certa tecnologia come inevitabile per poi domandarsi come sfruttarla, ma prima occorre domandarsi da dove viene e dove si vuole che ci porti, per poi decidere se e come usarla per i fini propri dell’educazione.

In secondo luogo, penso che sia riduttivo parlare di macchine intelligenti contrapposte a tutto il resto. Le macchine non sono stupide o intelligenti, l’uno o l’altro; personalmente preferisco vederle come disposte in maniera continua lungo le due dimensioni dell’autonomia e della complessità. Si va da quelle semplici e pochissimo autonome – la ruota – a quelle complesse che prendono decisioni in base alle variazioni del contesto (il termostato); da quelle che possono prendere un solo tipo di decisione (agire sì/no), a quelle che hanno un set di decisioni possibili; fino a quelle che possono decidere di non agire affatto. In questo, analogico o digitale c’entra poco, né c’è bisogno di scomodare sempre HAL 9000. Vedere le ultime incarnazioni della ruota su questo sfondo aiuta a mettere a fuoco dei temi trasversali che a mio parere vale la pena approfondire e discutere con gli studenti: nel seguito ne indichiamo cinque.

  1. Le macchine non sono state inventate semplicemente per fare un lavoro: sono state inventate per fare un lavoro usando meno forza, anche se in più tempo (come la carrucola); oppure per usare una forza diversa da quella muscolare umana (come l’aratro o il motore elettrico); oppure per smontare un lavoro complesso in piccole azioni semplici che si possano ripetere e migliaia di volte, in maniera sempre uguale e senza errori (come la macchina tipografica).Negli ultimi secoli ci siamo concentrati solo sull’ultima abilità perché una volta scoperti il motore a scoppio e quello elettrico il problema dell’uso della forza muscolare non si pone più; almeno così pare, fino al momento in cui scopriamo che le macchine che costruiscono i modelli linguistici sottostanti a ChatGPT consumano la stessa elettricità di un’intera provincia italiana. Per lo più  si tratta di elettricità prodotta in loco tramite sterminati campi di pannelli fotovoltaici, quindi definita “verde”; ma gli effetti collaterali (dal consumo d’acqua nel processo di estrazione dei minerali rari come il gallio e il germanio, allo smaltimento e stoccaggio dei rifiuti) non sono banali.Primo tema trasversale su cui appuntare l’attenzione: l’energia.

     

  2. Le macchine tradizionali si possono pensare come abilità congelate in mattoncini: abilità applicabili ripetutamente, indipendentemente da quelle delle persone che le usano. Un tipografo non deve essere uno scrittore e nemmeno un calligrafo. Staccare l’abilità dalla persona produce dei vantaggi: per esempio, le macchine possono essere usate da persone deboli o inesperte, o possono lavorare continuamente per un tempo superiore alla giornata di lavoro, senza andare in ferie o in malattia. A chi giovino questi vantaggi è un’altra questione che è legata al possesso delle macchine. La pubblicità della macchine per l’automazione dei lavori di casa presenta la casalinga come l’unica beneficiaria dell’adozione della lavatrice o dell’aspirapolvere, come le macchine per ufficio vengono presentate come aiutanti delle segretarie. Ma è ovvio che questo dislocamento delle abilità dalla persona alla macchina ha degli effetti sulle relazioni tra persone, nella famiglia come nell’ufficio o in fabbrica.Secondo tema: i lavori che diventano obsoleti e le classi sociali che perdono potere d’acquisto. 
  3. Ha effetti – e questo dovrebbe farci riflettere per tempo – anche sulla formazione e sulla scuola: non ha senso insegnare alle persone delle abilità che sono di pertinenza delle macchine. Né ogni formazione professionale può essere convertita nella formazione per gestire le macchine. La macchina può finire per sostituire l’operaio, o anzi essere progettata apposta per finirla una buona volta con tutti i tipi di operai; nello stesso tempo, contribuisce alla chiusura dei corsi di formazione professionale, dalle lingue alla programmazione, e quindi permette di finirla una buona volta con tutti i tipi di docenti.Terzo tema: il destino della formazione, per come la conosciamo ora. 
  4. Appena si sale un po’ di complessità e autonomia si trovano macchine che non fanno affatto sempre la stessa cosa, sia nel senso che eseguono una serie di operazioni, sia nel senso che possono eseguire alcune operazioni al posto di altre. Un carillon è una macchina che è in grado di eseguire sequenze di azioni (musicali) diverse, infinite sequenze di azioni. Ma può eseguire solo sequenze musicali scritte per quella determinata macchina. La stessa cosa vale per il telaio Jacquard. Entrambe sono basate sull’idea di “programma”, cioè di serie di azioni scritte in maniera formalizzata, leggibili in maniera univoca ed eseguibili. Nel caso del telaio, quando si vuole avere risultato diverso, questo programma può essere sostituito. Invece di cambiare tutta la macchina (con costi e tempi enormi), si cambia solo la scheda. E’ la prima volta che l’hardware si separa fisicamente dal software e i due fratelli seguono una strada diversa. Come se lo stesso corpo potesse ospitare anime diverse, a turno.Anche le macchine digitali sono in grado di eseguire azioni diverse in base al programma che viene caricato. Solo che hanno in più la possibilità di “apprendere” abilità diverse e tenerle in memoria per sempre o finché non le si mette a dormire. Un telaio Jacquard non ha memoria; invece un computer sì: quando lo si sveglia, si ricorda tutto quello che ha appreso nel passato. Non è solo una questione di comodità: significa che un computer può eseguire un programma nel contesto di un programma precedente. In sostanza, in questo modo si reinventa il concetto di cultura – conservabile, trasmissibile, sovrapponibile – che permette di andare oltre la natura.Sembra una banalità, ma è la base per tutte le finzioni presenti e future: un computer esegue un programma in base al quale si comporta come un altro computer. In pratica il software si mangia l’hardware, cioè fa finta di essere un hardware diverso.

    Quarto tema: la virtualizzazione.

     

  5. L’enorme differenza tra un carillon e un computer è che il computer non è limitato ad un solo tipo di azioni, quindi di abilità. Ad un computer si può “insegnare ad imparare”, non solo scrivendo nuovi programmi, ma inventando nuovi linguaggi con i quali scrivere altri programmi.
    Tra le cose che può imparare a fare un computer è modificare o tradurre o scrivere nuovi programmi, che in fondo sono solo sequenze di simboli con un qualsiasi testo. Si tratta per la verità di cose non particolarmente nuove, che i computer fanno da sempre e, letteralmente, in continuazione. Il fatto che sappiano trattare testi in generale, compresi quelli delle lingue naturali, non dovrebbe stupirci più di tanto. Se sapessimo che i computer passano la vita ad analizzare, riassumere, tradurre quel tipo particolare di testo che è il codice sorgente di un programma forse saremmo meno colpiti dal fatto che lo sappiano fare con l’italiano.Quinto tema: la produzione automatica di testi.

Le macchine più avanzate hanno la meta-abilità di sapere quale abilità applicare e quando farlo; le potremmo chiamare competenze. Hanno dei magazzini di risorse, e possono andarle a scegliere per usare quella più adatta. Non è escluso che la definizione standard di “competenza” come capacità di selezionare le risorse più adatte ad un problema derivi proprio da questo modo di funzionare delle macchine complesse; nel senso che quella definizione è stata scritta in un’ottica che paragona il cervello ad un computer e il pensiero al software.

Certi software, da tanto tempo, sono capaci di esercitare competenze che a noi umani sembrano “alte”, cioè vicine alle nostre: sanno giocare a scacchi, sanno risolvere problemi, in particolare quelli di ricerca all’interno di archivi sterminati. Non brillano particolarmente nel campo della produzione di oggetti nuovi ma comunque lo fanno. Se i programmatori sono in grado di definire formalmente come si risolve un problema, o come si crea un minuetto, i software sanno farlo –  con piccole variazioni dovute al caso, anche quello inserito dal programmatore con parsimonia.

Su questa relazione programmatore-programma si basa il senso didattico di insegnare a programmare ai bambini (e in generale a persone che nella vita non faranno i programmatori, piccoli e grandi). Il famigerato e bistrattato coding è un modo di costruire dei modelli di situazione definendo le condizioni e le regole. E’ un modo di capire le situazioni, di comprendere le relazioni tra cause ed effetti, potendo sperimentare direttamente e immediatamente, correggendo le regole fino ad arrivare al risultato atteso. Non è tanto un gioco gradevole, un modo per esercitare la creatività e passare il tempo disegnando girandole e muovendo gattini, ma un laboratorio per la mente dove si mettono alla prova in maniera collettiva (e quindi discutibile) diverse interpretazioni del mondo. E’ uno dei casi a mio parere più significativi di ripensamento di una tecnologia nata altrove (la programmazione) e del suo adattamento al contesto e agli scopi della didattica. Non si fa coding per preparare futuri programmatori domani, ma per scoprire come funziona il mondo oggi.

Questa modalità (che chiamerei “tradizionale”, a segnalare che novità e tradizione si susseguono più velocemente di quello che ci piacerebbe) viene messa in discussione dai servizi di intelligenza generativa. Il bello di questi servizi è che la competenza che esibiscono non è stata costruita a tavolino, ma è stata imparata sul campo; solo che è impossibile dire esattamente come.

[i]Una versione più estesa di questa descrizione è nel volume 4 di “Il mondo della rete spiegato ai ragazzi”




Perchè i docenti studiano l’intelligenza artificiale?

Composizione geometrica di Gabriella Romano

di Stefano Penge

Come in ogni occasione in cui qualche strumento viene inventato e proposto sul mercato delle professioni della conoscenza, ancora prima che parta l’ennesimo progetto nazionale per la trasformazione delle classi tradizionali in ambienti innovativi dove gli studenti si preparino alle  le professioni digitali del futuro e il personale scolastico alla transizione digitale, alcuni insegnanti si sentono in dovere di aggiornarsi e di prepararsi al nuovo che avanza. Questo va ovviamente ascritto a loro merito: invece di lamentarsi del tempo perso necessario per imparare a usare questa o quella stravaganza voluta dal ministero, invece di laudare le tecnologie naturali di una volta e rimpiangere le buone vecchie LIM, si lanciano a studiare,  giocare e sperimentare coinvolgendo la famiglia, gli amici e gli studenti. Sono docenti ottimisti, entusiasti, curiosi e insieme coscienziosi.

VAI ALLA RUBRICA SULLA INTELLIGENZA ARTIFICIALE

Le ragioni di questo interesse didattico sono diverse: dalla difesa dei “nostri” nei  mercati del lavoro internazionali alla risposta rapida alle trasformazioni culturali in arrivo, con una quota di orgoglio professionale o semplicemente un desiderio inconscio di allinearsi alla moda del momento.

Stavolta non si tratta di afferrare la meteora del Metaverso, ma di preparare gli studenti a usare l’intelligenza artificiale, cioè le interfacce dialogiche di OpenAI, cioè i prompt.  I tre concetti sono spesso percepiti come uno solo: se il prompt di ChatGPT coincide con l’intelligenza artificiale, imparare a usarlo significa avere una patente che permette di entrare nel Paese dei Balocchi intelligenti.

Questo, dal mio punto di vista, non è un buon punto di partenza: ci sono mille tipi di “intelligenza artificiale”, mille modi di applicarla e mille interfacce diverse. Convincersi che conoscerne uno solo sia la chiave per il futuro è davvero ingenuo. E poi, anche ammettendo che si tratti della più grande invenzione degli ultimi dieci anni, niente ci assicura che la maniera specifica per averci a che fare oggi – il prompt – rimanga la stessa anche solo per i prossimi sei mesi. Avere una visione d’insieme: certo; vedere degli esempi per capire come funziona: d’accordo; imparare il modo più furbo per farsi scrivere una ricetta di cucina nello stile di Artusi… non saprei. Può essere divertente, ma quali garanzie fornisce sull’occupabilità futura (se questo era lo scopo)? Sarebbe come se negli anni ‘90 qualcuno avesse detto che per prepararsi alle professioni digitali bisognava imparare a usare il mouse. Come? Dicevano proprio così? Può darsi.

Un secondo limite che vedo in questa autoformazione è la tonalità emotiva. I docenti si preparano  nei modi più disparati, iscrivendosi a webinar, partecipando a convegni, comprando libri, in attesa di frequentare corsi veri e propri. Accedono a  flussi di informazioni di qualità diversa, proposti da attori diversi, pubblici e privati, ma che hanno in comune una caratteristica: l’adesione entusiasta e la scarsa propensione alla critica. Gli aggettivi usati per descrivere gli agenti artificiali creativi sono “entusiasmante, creativo, coinvolgente, dinamico, stimolante”. Siamo ancora nella fase pubblicitaria, in cui il discente (il cliente) deve essere convinto della bontà del prodotto. Si capisce anche che nessuno abbia voglia di spendere tempo e soldi per leggere un libro che parla male della novità del momento. La modalità critica appartiene tipicamente alla terza fase, quella che viene dopo l’utilizzo quotidiano con l’apparire dei problemi. Purtroppo a volte non è possibile aspettare così tanto: a quel punto certe modalità si sono inserite nella pratica e diventano inamovibili.

Una vecchia conoscenza, un’insegnante che conosco da trent’anni, quando ho detto pubblicamente che non avevo ancora ben capito i vantaggi dell’uso di ChatGPT in classe si è meravigliata: “ma come, proprio tu che una volta eri tra quelli più aggiornati e avanzati nel proporre tecnologie digitali?” E’ vero che quando ci frequentavamo ero uno di quelli che proponevano di usare, smontare, fare e non solo stare a guardare; lo facevo anch’io e mostravo i risultati dei miei esperimenti. Non è che adesso sia diventato luddista tutto insieme; ma mi pare che un’analisi critica mostri come quegli strumenti fossero più smontabili e controllabili di questi. Forse, da vero boomer,  sono anche diventato un po’ più sospettoso sulle nuove tecnologie attuali di quanto non lo fossi sulle nuove tecnologie del passato. Ma è un atteggiamento che rivendico come conquista dovuta all’esprienza. E’ un po’ come il Lego: lo si può usare e basta, oppure ci si può domandare dove viene fabbricato e con quale plastica (se lo si fa, si scopre che i mattoncini sono fatti di Acrilonitrile Butadiene Stirene, un polimero  derivato dal petrolio che ha un tempo di decomposizione stimato intorno ai 1300 anni. Noi forse non ci saremo più ma i mattoncini saranno sempre là).

Credo insomma che sia sempre utile collocare ogni nuova iniezione tecnologia nel suo contesto: da dove viene, a cosa serve, a chi porta vantaggi, cosa potrebbe diventare, quali rischi potrebbe nascondere. Più la tecnologia sembra meravigliosa, gratuita, irrinunciabile, più credo che occorra studiarla da vicino. L’Omino di burro è sempre molto abile a invitare a salire sul suo carro.

Le tecnologie non sono tutte uguali. Ci sono tecnologie che si possono smontare e tecnologie opache; tecnologie che possono potenziare l’apprendimento e tecnologie che si limitano a liofilizzarlo; tecnologie nate o almeno adattate all’educazione e tecnologie importate velocemente per massimizzare il recupero degli investimenti. Non si tratta di essere a favore o contro in generale, ma di scegliere.

In questa serie di articoli provo a ricostruire il senso di questa ennesima importazione nella scuola di uno strumento tecnologico nato altrove. Lo faccio cercando di collocarlo all’interno di un contesto più generale: quello delle macchine programmabili.

Anche se mi sono occupato professionalmente di programmazione, di intelligenza artificiale e di didattica, non è un approccio dettato solo dalla mia storia personale e per fortuna non sono il solo a tentare di adottarlo:[i] anche da qualche altra parte si comincia a pensare che il rischio più grande stia proprio nel ritenere che si possa ragionare e parlare di intelligenza artificiale (in generale, di qualsiasi tecnologia della conoscenza) da un solo punto di vista, che sia quello epistemologico (complessità), quello tecnico (efficienza), oppure quello didattico (efficacia). Nessuna tecnologia è solo una faccenda di trovare le soluzioni migliori per risolvere problemi; per il semplice fatto che quella soluzione determinata che è incarnata da una certa tecnologia creerà problemi di altro tipo (per esempio, di sostenibilità ambientale o sociale). Così pure nessuna tecnologia può essere astratta dal contesto per cui è nata, presa in prestito e immersa nell’ambiente educativo senza considerarne le logiche profonde, senza essere ripensata e adattata.

Nella prima parte ci occupiamo delle macchine che sembrano intelligenti, poi di quelle che fingono di esserlo; vediamo poi come è nato il prompt e dove altro lo possiamo incontrare. Infine cerchiamo di capire quale potrebbe essere il senso del suo uso didattico, se ce n’è uno.

[i] Penso in particolare alle persone con cui ho discusso di questi temi (Rodolfo Marchisio, Marco Guastavigna, Monica Oriani)

VAI ALLA RUBRICA SULLA INTELLIGENZA ARTIFICIALE




L’anno che verrà. Pensiero critico ravvicinato e circostanziato? Magari

– di Marco Guastavigna

Su questi bit mi sono espresso in modo inequivocabile a proposito di dispositivi digitali e di intelligenza artificiale: bisogna andare senza esitazione nella direzione dell’emancipazione e della decostruzione dei miti di mercato. Su altri ho presentato un possibile approccio professionale agli assistenti artificiali e una traccia di percorso di formazione in proposito.

Ad accomunare i tre interventi ci sono parecchie concettualizzazioni analitiche e proposte operative, ma soprattutto il rifiuto in blocco e il rovesciamento dello sciocchezzaio corrente – “il digitale”, “competenze digitali”, “didattica digitale”, “educazione (al) digitale e così via -, caratterizzato da un approccio adattivo.
Che “naturalizza” la situazione esistente considerandola, anziché un recinto da cui liberarsi per ritornare all’autodeterminazione didattica, la sola alternativa possibile e la declina in abilità e capacità da acquisire in una condizione di subalternità gerarchizzata e gerarchizzante.

Credo pertanto di disporre di un patrimonio di consapevolezza utile per affrontare più da vicino i dispositivi di intelligenza artificiale, secondo un posizionamento esplicitamente critico della logistica capitalistica della conoscenza e dell’istruzione. Patrimonio che non voglio considerare di mia esclusiva proprietà, ma piuttosto condividere, come per altro ho già fatto.

Ad incuriosirmi è questa volta il portale Magic School, esplicitamente dedicato ad insegnanti interessati a usare l’IA nella propria didattica, per due ragioni.

La prima: l’uso di un’iperbole, ovvero di un linguaggio per scelta mistificante e efficacemente manipolatorio, sottolineato dalla presenza – come nel caso delle iniziative autopromozionali degli insegnanti imprenditori – di una zona per lo shopping virtuale.
La seconda: la ricostruibilità di un profilo professionale a partire dalle diverse funzionalità AI offerte, sempre con un meccanismo commerciale teso al lucro su licenze individuali e massive. Vediamo meglio.

Il senso generale del portale è davvero lucido in uno degli obiettivi dichiarati: saving time. Ovvero risparmiare tempo in attività ripetute. Ripetute in quanto tipiche del mestiere di insegnante. E come tali facilmente modellizzabili e automatizzabili, perché essenzialmente di tipo esecutivo.
Analizziamo insieme il pacchetto di dispositivi: io fornirò alcune prime indicazioni e i lettori che vorranno potranno proseguire lo scandagliamento per proprio conto, in modo da esercitare in modo attivo il proprio pensiero critico e costruirsi un’opinione davvero autonoma e compiuta. Magari un po’ rapidamente, perché il 16 gennaio scatteranno alcune limitazioni per la versione free…

Occupiamoci in primo luogo del rapporto con la redazione di testi. Tra i 60 e più “Magic Tools” offerti, sono infatti parecchi quelli che appartengono a questa area operativa. Li elenco con le relative diciture tradotte per comodità in italiano.

Magic Tool Descrizione funzionale
Adattamento di testi Prendi qualsiasi testo e adattalo a qualsiasi livello scolastico per adattarlo al livello/alle competenze di lettura di uno studente
Compito di analisi del testo Genera un compito di analisi basato su testo che includa una richiesta di scrittura insieme a domande dipendenti dal testo
Contenuti accademici Genera contenuti accademici originali personalizzati in base ai criteri di tua scelta.
Correttore di bozze Prendi qualsiasi testo e fallo correggere, correggendo la grammatica, l’ortografia, la punteggiatura e aggiungendo chiarezza.
Domande dipendenti da un testo

 

Genera domande dipendenti dal testo per gli studenti in base a qualsiasi testo inserito.
Generatore di elenchi di vocaboli

 

Genera un elenco di parole del vocabolario basato su un argomento, argomento o testo che è importante apprendere per gli studenti.
Impalcatura di un testo Prendi qualsiasi testo e strutturalo per i lettori che sono indietro rispetto al livello scolastico o che necessitano di ulteriore supporto
Inizio frase Fornisci spunti di frase per qualsiasi argomento, compito, standard o obiettivo.
Riepilogo di un testo

 

Prendi qualsiasi testo e riassumilo nella lunghezza che preferisci.
Riepilogo di un video di Youtube Ottieni un riepilogo testuale di un video di YouTube nella lunghezza che preferisci.
Riscrittura di testi Prendi qualsiasi testo e strutturalo per i lettori che sono indietro rispetto al livello scolastico o che necessitano di ulteriore supporto
Testi basati su vocabolario Genera testi originali per la tua classe che includono un elenco personalizzato di vocaboli per aiutare a esercitarsi con le parole nel contesto
Testi informativi Genera testi informativi originali per la tua classe, personalizzati in base all’argomento di tua scelta
Traduttore di testi

 

Prendi qualsiasi testo e traducilo istantaneamente in qualsiasi lingua

Domande guida per l’analisi autonoma? Almeno tre:

  1. Riconosco nelle funzioni proposte attività che mi sono usuali?
  2. Se provo un “Magic Tool” e verifico il risultato – condizione imprescindibile e antidoto contro ogni possibile sudditanza –, qual è il mio grado di soddisfazione?
  3. Ho davvero risparmiato tempo?

Ed ecco altri due accrocchi stimolanti, a cui non posso non far seguire esemplificazioni, pur ribadendo l’invito allo scandagliamento personale.

Magic Tool Descrizione funzionale
Assegnazioni resistenti all’intelligenza artificiale Ricevi suggerimenti su come rendere i compiti più impegnativi per i chatbot
Scheda di scelta tra compiti su base Universal Design for Learning Crea una scheda di scelta per un compito studentesco basata sui principi dell’UDL

Assegnazioni resistenti all’AI di “Scrivere un saggio sull’intelligenza artificiale nella didattica” – compito universitario

Aggiornamento per rendere questo compito resistente all’intelligenza artificiale (idea 1):

Modifica il suggerimento del saggio per il pensiero critico

Descrizione del compito riscritta con la prima idea su come renderlo più resistente all’IA:
Scrivi un saggio in cui discuti l’impatto dell’intelligenza artificiale sui metodi di insegnamento, concentrandoti sui suoi vantaggi e svantaggi. Analizza i potenziali vantaggi e le sfide derivanti dall’integrazione dell’intelligenza artificiale in classe e fornisci esempi di vita reale a sostegno delle tue argomentazioni. Inoltre, esplorare le considerazioni etiche che circondano l’uso dell’intelligenza artificiale nell’istruzione e proporre strategie per garantire un’implementazione responsabile ed efficace.

Spiegazione: per rendere questo compito più resistente all’intelligenza artificiale, il suggerimento del saggio è stato modificato per enfatizzare le capacità di pensiero critico. Invece di chiedere agli studenti di fornire semplicemente informazioni sull’intelligenza artificiale nell’istruzione, gli studenti sono ora tenuti ad analizzare, valutare e proporre strategie. Questa modifica rende più difficile per i sistemi di intelligenza artificiale generare risposte e incoraggia gli studenti a impegnarsi in un pensiero di ordine superiore.

Aggiornamento per rendere questo compito resistente all’intelligenza artificiale (idea 2):
Incorporare l’apprendimento collaborativo

Descrizione del compito riscritta con la seconda idea su come renderlo più resistente all’IA:
In un piccolo gruppo, condurre una ricerca sull’uso dell’intelligenza artificiale nell’insegnamento e nell’apprendimento. Ogni membro del gruppo dovrebbe esplorare un aspetto specifico dell’intelligenza artificiale, come piattaforme di apprendimento adattivo, sistemi di tutoraggio intelligenti o valutazioni automatizzate. Dopo aver condotto la ricerca, prepara una presentazione di gruppo che esamini criticamente le opportunità e le sfide associate all’uso dell’intelligenza artificiale nell’istruzione. Ciascun membro del gruppo dovrebbe presentare i propri risultati e contribuire all’analisi complessiva. Preparati a discutere con la classe sulle implicazioni dell’intelligenza artificiale in classe.

Spiegazione: incorporando l’apprendimento collaborativo, questo compito aggiunge un elemento difficile da replicare per i sistemi di intelligenza artificiale. Invece di fare affidamento esclusivamente sul lavoro individuale, gli studenti sono tenuti a lavorare insieme, contribuire con idee e impegnarsi in discussioni. Ciò non solo migliora la loro esperienza di apprendimento, ma rende anche più difficile per i sistemi di intelligenza artificiale generare risposte esaustive al compito assegnato.

Aggiornamento per rendere questo compito resistente all’intelligenza artificiale (idea 3):
Sviluppare un quadro etico per l’intelligenza artificiale nell’istruzione

Descrizione del compito riscritta con la terza idea su come renderlo più resistente all’IA:
Immagina di essere stato nominato membro di una task force governativa responsabile dello sviluppo di un quadro etico per l’uso dell’intelligenza artificiale nell’istruzione. Il tuo compito è ricercare e proporre una serie di linee guida che affrontino i problemi di privacy, equità, trasparenza e responsabilità. Progettare un rapporto dettagliato che includa un’introduzione all’IA nell’istruzione, un’analisi delle sfide etiche e le raccomandazioni per garantire un’implementazione responsabile dell’IA. Sostieni le tue argomentazioni con prove pertinenti provenienti da fonti credibili.

Spiegazione: questa modifica si concentra sullo sviluppo di un quadro etico, richiedendo agli studenti di condurre ricerche approfondite e pensare in modo critico alle implicazioni etiche dell’IA nell’istruzione. Chiedendo agli studenti di proporre linee guida specifiche e supportare le loro argomentazioni con prove, questo compito spinge il carico cognitivo sugli studenti, rendendo meno fattibile per i sistemi di intelligenza artificiale generare risposte complete e ben motivate.

  1. Fornire istruzioni chiare per ciascuna opzione di assegnazione. Per esempio:
    • Testo: Scrivi un breve saggio che spieghi l’impatto dell’intelligenza artificiale sulla società. Il tuo saggio dovrebbe contenere almeno 500 parole e includere esempi di come viene attualmente utilizzata l’intelligenza artificiale e il suo potenziale impatto futuro. Utilizza fonti credibili per supportare le tue argomentazioni.
    • Diapositiva: crea una presentazione PowerPoint che evidenzi i vantaggi e i rischi dell’utilizzo dell’intelligenza artificiale in vari settori. La tua presentazione dovrebbe essere visivamente accattivante e includere almeno 10 diapositive. Utilizza immagini, grafici e statistiche per supportare i tuoi punti.
    • Sceneggiatura di Video: Scrivere una sceneggiatura per un video che spieghi i concetti di intelligenza artificiale a un pubblico generale. Il tuo script dovrebbe essere chiaro e conciso, concentrandosi sulla spiegazione di termini e concetti chiave relativi all’intelligenza artificiale. Prendi in considerazione l’utilizzo di elementi visivi o animazioni per migliorare il video.
    • Testo da Ascoltare: Registra un saggio audio in cui discutono le considerazioni etiche che circondano l’uso dell’intelligenza artificiale in ambito sanitario. Il tuo saggio audio dovrebbe durare almeno 3 minuti e dovrebbe fornire una discussione equilibrata sulle implicazioni etiche dell’uso dell’intelligenza artificiale in ambito sanitario.
    • Illustrazioni: crea una serie di illustrazioni che descrivono come l’intelligenza artificiale può essere integrata nella vita di tutti i giorni. Le tue illustrazioni dovrebbero essere creative e visivamente accattivanti, mostrando diversi scenari in cui viene utilizzata la tecnologia dell’intelligenza artificiale. Includi didascalie o descrizioni per ogni illustrazione.
    • Sceneggiatura di Scena Teatrale: Scrivi una sceneggiatura per una breve scena teatrale che mostri una conversazione tra due personaggi che discutono sui pro e contro dell’intelligenza artificiale. La tua sceneggiatura dovrebbe includere dialoghi che presentino diverse prospettive sull’argomento. Punta a una durata della scena di 5-10 minuti.
    • Presentazione: Fornire alla classe una presentazione dal vivo sulla storia e lo sviluppo dell’intelligenza artificiale. La tua presentazione dovrebbe essere ben studiata e includere le tappe fondamentali nello sviluppo dell’intelligenza artificiale. Utilizza immagini, video o dimostrazioni per coinvolgere il pubblico.
    • Infografica: progetta un’infografica che mostri i diversi tipi e applicazioni dell’intelligenza artificiale. La tua infografica dovrebbe essere visivamente accattivante e organizzata in modo chiaro, evidenziando le principali categorie o ambiti in cui viene applicata l’intelligenza artificiale. Includi statistiche o esempi pertinenti per supportare i tuoi punti.
    • Interattivo: sviluppa un quiz online interattivo che metta alla prova la conoscenza degli utenti sull’intelligenza artificiale. Il tuo quiz dovrebbe contenere almeno 10 domande con opzioni a scelta multipla o vero/falso. Includi spiegazioni o feedback per ciascuna domanda per aiutare gli utenti a comprendere le risposte corrette.
  2. Stabilisci una scadenza entro la quale gli studenti devono completare il compito scelto e fornire eventuali risorse aggiuntive o materiali di riferimento di cui potrebbero aver bisogno.
  3. Incoraggia gli studenti a scegliere un’opzione di compito in linea con i loro interessi e stili di apprendimento. Ricordare loro di rivedere le linee guida e le rubriche per ciascun compito per assicurarsi che soddisfino le aspettative.
  4. Fornire opportunità agli studenti di condividere i compiti completati con la classe, come presentazioni, passeggiate in gallerie o discussioni online.

Offrendo una scheda di scelta, fornisci agli studenti la flessibilità di interagire con i contenuti nel modo che meglio si adatta ai loro punti di forza e alle loro preferenze, promuovendo un’esperienza di apprendimento più inclusiva e personalizzata.

Chi ha avuto la pazienza di arrivare fino a qui può ora provare, verificare, valutare.
Buona consapevolezza professionale!

 

 




Intelligenza artificiale e/a scuola: questioni aperte e qualche conclusione (provvisoria)

di Rodolfo Marchisio

Due aneddoti

  • Mentre organizzavamo For Tic 1 con USR Piemonte e Unito, con M. Guastavigna, un assistente di Luciano Gallino tutto “goduto” ci ha mostrato un suo software che somministrava le prove, le correggeva, attribuiva i voti e inviava in automatico una mail agli allievi. Domanda: “se fa tutto il software, tu coi tuoi allievi quando ci parli?”
  • Ricordate il colonnello russo che contro ogni evidenza che proveniva dalle sue tecnologie (5 missili nucleari in arrivo dagli USA) ha preso tempo ed evitato di far partire la prima guerra nucleare?
    Ci ha salvato. È stato lodato e poi è sparito.

“Prima di usare tecnologie molto potenti, prima addirittura di ipotizzare per cosa usarle, bisogna anzitutto conoscere questi strumenti. Capire come funzionano, quali sono le loro potenzialità e (soprattutto) quali sono i loro limiti. Ma anche evitare di considerarli una scatola nera che processa chissà come input e restituisce magicamente output da applicare a occhi chiusi.” (Soro)

Soro e Rodotà
 “Tutto quello che è tecnicamente possibile è anche eticamente lecito, politicamente e socialmente accettabile, giuridicamente ammissibile?” (Rodotà)

L’algoritmo non è infallibile né neutro. Si tratta di opinioni umane strutturate in forma matematica. L’uomo ha (deve avere) la possibilità di intervenire in qualsiasi momento dei processi decisionali. (Soro)
Senza regole la società (l’ambiente) digitale rischia di divenire la società della schedatura, la rete, da straordinaria risorsa democratica, può diventare strumento di sorveglianza globale da parte dei grandi poteri economici” Rodotà.  Schiavitù volontarie o passive, disinformazione e post verità.
L’IA dà un grande potere a chi la gestisce. Quante delle nostre decisioni come cittadini sono sempre più condizionate: dagli acquisti, ai gusti, alle idee, al nostro stanco diritto di votare influenzato dalle Fake? I GAFAM e soci da servizi di informazione e comunicazione tendono a gestire anche servizi ed attività sociali, sanità, istruzione, servizi ai cittadini.

Si indebolisce la capacità di conoscere i fenomeni e governarli, di intervenire a vantaggio della comunità. (Soro).
Il pericolo del passato era che gli uomini divenissero schiavi, quello del presente è che diventino robot che vivono in bolle tra uguali “selezionati” da algoritmi, coi loro pregiudizi; intolleranti verso le differenze ed il pluralismo: tribù dei social asservite a badanti “Intelligenti”.
Il focus non è cosa fare o far fare alle tecnologie, ma cosa queste possono fare all’uomo (Soro, Turkle)

I fabbricanti di IA si interrogano già su come faranno a controllarla (loro figuriamoci noi) quando sarà più intelligente degli uomini e di loro; la risposta è farla controllare da forme di IA meno evolute. Ha senso?

“Occorre una etica dell’algoritmo e protezione dei dati. Internet da strumento è oggi dimensione, ambiente, ecosistema in cui viviamo; alla IA si delegano decisioni su lavoro, salute, ricerca, giustizia.
Aumenta sempre più ciò che la rete sa di noi e che noi non sappiamo ancora.
Dimostrato che gli algoritmi non sono matematica pura (infallibili e neutri), ma opinioni umane potenziate e implementate, il rischio è che i nostri pregiudizi ed errori siano amplificati dalla IA” (razzismo, discriminazione…). (Soro).
 Il passato (di cui si nutre l’IA) non va cristallizzato nel futuro, l’ultima parola deve aspettare all’uomo. Anche perché il 95% di chi usa la rete si concentra solo sullo 0,03% dei contenuti, quelli suggeriti dalle piattaforme.
La disintermediazione non deve diventare una delega in bianco ai potenti. (Soro).

IA e/a scuola
Le competenze digitali, non si possono ridurre a degli insegnamenti funzionali a singoli compiti, ma necessitano di una costante contestualizzazione culturale, politica e sociale
“L’intelligenza artificiale generativa può rappresentare un’enorme opportunità per lo sviluppo umano, ma può anche causare danni e pregiudizi – Audrey Azoulay dell’Unesco – Non può essere integrata nell’istruzione senza l’impegno pubblico e le necessarie garanzie e normative da parte dei governi”. La via che tenta l’UE.

Gli attuali esempi di intelligenza artificiale sono intrisi di un tipo di politica che applica soluzioni tecniche e di mercato a tutti i problemi sociali. Più prosaicamente, è possibile che l’intelligenza artificiale riproduca gli aspetti peggiori dell’istruzione scolastica: il saggio standardizzato è già fortemente vincolato dalle esigenze dei regimi di valutazione, e i modelli linguistici tendono a riprodurlo nel formato e nel contenuto.” Soro.

Burrell e Fourcade hanno distinto tra “l’élite del coding”, una nuova classe professionale di competenze tecniche e una forza lavoro recentemente emarginata o non retribuita, il “cybertariat”, da cui estrarre manodopera. Gli ingegneri e i dirigenti della Khan Academy sono una nuova élite di sviluppo dell’intelligenza artificiale nel campo dell’istruzione, che sfrutta il lavoro degli insegnanti e degli studenti del cybertariato in classe. (Khanmigo).
Richiede lavoro aggiuntivo non retribuito da parte degli insegnanti e ne estrae valore.
Infine l’intelligenza artificiale potrebbe, a lungo termine, esercitare un’ulteriore pressione degenerativa sulle pratiche e sulle relazioni in classe già ampiamente in crisi.

Alcune conclusioni

Sebbene gli agenti di IA siano in grado di ragionare su problemi molto complessi, non pensano nel modo in cui lo fa l’uomo. L’intelligenza artificiale può avere impatti sia positivi che negativi sulla società. (AI4K12.org)
Allora posto che:

  • Usare il digitale senza una cultura non solo è pericoloso ma è diseducativo
  • Non abbiamo bisogno di più “strumenti o più effetti speciali” (da Buona scuola a Scuola 4.0) ma di migliori cittadini e maggiore cultura della rete.
  • La scuola, i docenti, gli adulti devono essere in grado di dare un senso critico a ciò che i ragazzi fanno con la rete, a fare esperienze significative insieme: a costruire una cultura digitale.
  • Non è utile dividersi (favorevoli/contrari), ma conoscere di più (ricerca) per capire meglio. (Losito)
     (Però se per una volta lasciassimo in pace la scuola che deve ancora digerire il PNRR?)

 Preso atto che il capitalismo si ripete, si potenzia con la rete, rifiuta le regole e la democrazia[1] mi preoccupa la passività, il sonno, degli utenti/consum-attori più ancora che i “pericoli” delle supertecnologie in mani private.
Mi preoccupa vedere e rivivere sempre le stesse cose ad ogni apparire di novità
(o moda) tecnologica.
Papert pensava ad un metodo attivo. Anche per risolvere problemi di cittadinanza e formare cultura. Facciamo esperienze – coi più grandigiochiamo coi nuovi giocattoli per capire come funzionano, ma insegniamo soprattutto cosa c’è dietro ed in che mondo web viviamo con IA.
Ed impariamo a fare buone domande per avere risposte utili.

In sintesi dobbiamo decidere se l’IA debba essere un alleato, un assistente o un nuovo modo di dominarci.
Usare o parlare di IA per usare e non farsi usare. A che età e come?
Ecco i consigli della Commissione europea.

[1] Srinivasan ha pubblicato un intero libro, scaricabile gratuitamente, sul tema dei “network states”. L’idea di base è quella di creare reti di persone connesse via internet che nel tempo sviluppino un legame economico, politico e valoriale tale da identificarsi come gruppo nazionale. Il concetto di “network state” si basa su una democrazia “decentralizzata”, nella quale le persone avranno la possibilità di votare direttamente sulle questioni che le riguardano. I servizi essenziali come la salute, l’educazione e la cura saranno distribuiti attraverso la rete. Un “network state” avrà la capacità di riunire diverse comunità offline in una grande nazione del web. Alla fine, scrive Srinivasan nel suo e-book “possiamo ricucire digitalmente queste enclavi disgiunte in un nuovo tipo di entità politica che possa ottenere un riconoscimento diplomatico”. Si creeranno stati come si creano startup.
I “network states” sono essenzialmente società parallele, gestite tramite la rete, libere dalle pastoie regolatorie degli stati, delle banche centrali, delle burocrazie. Insomma, si potrebbe aggiungere, anche dalle noiose società democratiche
. (Wired WAR)

 




Taskificazione e monetizzazione dell’intelligenza prestazionale

di Marco Guastavigna

La discussione di primo livello sull’IA – come è usanza degli intellettuali organici al mercato – è lenta e, of course, sui massimi sistemi.
Al secondo livello, quello della pacata divulgazione, si muore e si provocano morti per asfissia culturale, malattia tipica della citazione subordinata e subordinante, che riconosce e naturalizza la gerarchizzazione della supply chain della conoscenza.

Laddove si decide, si progetta e si fa, invece, si agisce. E così si dispiega sempre più l’aziendalizzazione del mondo 4.0 per via digitale.
Già i software “tradizionali” e successivamente le applicazioni per dispositivi mobili avevano consentito di scomporre il “lavoro” in micro-attività distinte e misurabili, incrementandone – in nome dell’utilitarismo razionale a matrice capitalistica, per cui la priorità è il profitto – l’alienazione e minimizzandone per contro la capacità contrattuale.

Ora tocca ai dispositivi di intelligenza artificiale.
Se (anche solo per pochi istanti) ci si astiene dal praticare l’onanismo autogratificante a proposito di chatbot conversazionali generalisti e applicativi text2image e ci si avventura su portali di accesso a “servizi” articolati e monetizzati, ci si accorge che l’imitazione computazionale degli esiti dei processi cognitivi umani si sta configurando in modo sempre più esteso e solido anche come loro classificazione utilitaristica, misurabile secondo crediti e pagamenti e quindi verso ontologia ed epistemologia della mercificazione.

Chiunque può verificare questa affermazione accedendo, per esempio, a Poe.com, dove potrà realizzare chatbot personalizzati, ovvero “addestrati” su materiali forniti in proprio, ma anche fruire di assistenti che vengono presentati come specificamente esperti, per esempio, in:

  • Dottrina cristiana;
  • IA nella didattica;
  • Emoji natalizi;
  • Riepilogo/sommario di video di Youtube;
  • Autopromozione su Linkedin;
  • Redazione di libri a partire da spunti;
  • Allenamento al debate;
  • Preparazione di slide;
  • Supporto alla ricerca;
  • Public Speaking;
  • Medicina militare durante la II guerra mondiale
  • Previsioni in campo sportivo;
  • Generatori di QRcode creativi;
  • Redattori di tesi;
  • Libri da colorare;
  • Lettori di libri lunghi, facenti le veci dell’utente…

… l’elenco completo è troppo lungo per riportarlo tutto.

Più importante è comprendere che siamo di fronte a proposte che si possono provare gratuitamente. Se si è ingolositi dalla vastità delle opportunità operative, si può decidere di acquistare l’abbonamento.

In chiusura, pertanto, mi permetto di ricordare che le diffusissime chiacchiere intorno all’ingresso dei dispositivi di intelligenza artificiale nella scuola prescindono nella loro quasi totalità da una questione che è invece cruciale: chi si farebbe carico delle licenze, di fatto necessarie per un uso intensivo di tutte le applicazioni?




Intelligenza artificiale: perché pone interrogativi etici e sui nostri diritti di cittadini?

di Rodolfo Marchisio
e Stefano Penge

Dopo aver introdotto il tema, averlo approfondito  vediamo di spiegare un po’ di più gli aspetti critici dal punto di vista della cittadinanza.
Un intervento educativo (formazione di competenze e cultura digitale) è possibile solo se si supera la visione della digitalizzazione come un processo di democratizzazione spontanea dell’accesso delle informazioni oggi non più possibile. Agenda digitale. E come un processo “magico” e spontaneo di riforma della scuola in senso democratico grazie alle tecnologie

Quale IA
L’Europa ha stabilito i limiti da porre allo sviluppo della IA per tutelare i cittadini:
AI Act.
Riguardano i modelli fondativi alla base di grandi sistemi di AI e il ricorso alla sorveglianza biometrica e alla (ipotizzata) polizia predittiva. L’AI Act, inquadra i diversi sistemi di intelligenza artificiale pone paletti, proibisce alcune applicazioni e introduce procedure di salvaguardia per mettere al riparo i cittadini dell’Unione da abusi e violazioni dei diritti fondamentali. L’attenzione è:
1- sui modelli fondativi, quelle forme di intelligenza artificiale generali in grado di svolgere compiti diversi (come creare un testo o un’immagine) e allenati attraverso un’enorme mole di dati non categorizzati.
Si è lavorato ad una applicazione preventiva delle regole su sicurezza informatica, trasparenza dei processi di addestramento e condivisione della documentazione tecnica prima di arrivare sul mercato. Wired.
2- La UE è arrivata ad un compromesso sull’uso dell’AI per compiti di polizia e di sorveglianza.
Sul riconoscimento biometrico in tempo reale, ma si era discusso anche di polizia predittiva poi vietata. Ossia usare gli algoritmi per prevedere le probabilità con cui può essere commesso un reato, da chi e dove? Quali diritti verrebbero violati con questa delega? AI Act Europa (Wired)

Oltre a questo ci sono nodi e modi di vedere la IA (che è mondo complesso) che emergono anche dal fatto che il termine sia sempre più spesso accompagnato da un aggettivo (generativa, etica, spiegabile …).
Si riflette su questi temi e interrogativi:

  • L’intelligenza artificiale può prendere decisioni basate sui dati e sul passato. Talora errate a causa di una mancanza di consapevolezza del contesto. Esiste una possibilità di sapere come? Dovrebbe essere la IA explainable. (spiegabile). Ma funziona? Per tutta la IA?
  • Una decisione può influenzare la vita delle persone, essere utilizzata per scopi maligni, essere influenzata dai pregiudizi e dai valori dei suoi creatori. Gli algoritmi utilizzati nell’IA possono essere influenzati da pregiudizi, anche involontari. O “premiati” in modo da imparare in una certa direzione prefissata da chi li progetta. Ciò può portare a decisioni discriminatorie, sbagliate, diverse da quelle che avrebbero preso degli umani (processi di selezione del personale, prestito bancario…). Anche se le stesse decisioni umane sono diverse se prese da persone competenti, da potenti, da una maggioranza più o meno informata. Come constatiamo da anni. Ma il meccanismo si potenzia ed opacizza con IA.
  • L’ IA comporta la raccolta e l’elaborazione di grandi quantità di dati personali. Questo solleva preoccupazioni sulla privacy delle persone e sulla sicurezza dei dati.
  • L’IA sta automatizzando e sostituendo sempre più lavori umani. Ciò solleva preoccupazioni sulla perdita di posti di lavoro e sulla necessità di una riqualificazione delle persone.
    Vedi studi del possibile impatto sulla occupazione.
  • Nonostante i progressi nell’IA, esistono ancora criticità sui sistemi di controllo decisionale affidabili e trasparenti. Questi problemi richiedono una rigorosa regolamentazione, un’etica e una responsabilità riguardo all’uso dell’IA, nonché un’attenzione costante alla sua implementazione e sviluppo.

Stefano Penge, filosofo e informatico, avverte:
“L’interesse recente – da un anno a questa parte – per l’intelligenza artificiale, con tutti i discorsi a favore e contro, si è concentrato su un sottoinsieme particolare di abilità che attraggono e spaventano apparentemente più delle altre: quelle linguistiche, che permettono ad un software di analizzare un testo, di tradurlo, di prepararne un riassunto, ma anche di continuarlo o riscriverlo secondo un altro stile; il tutto, attraverso un’interazione continua con le persone (il famoso ‘prompt’).
Il riconoscimento facciale e la guida autonoma (le altre abilità di cui si occupa l’AI ACT) hanno in comune con questo sottoinsieme linguistico  l’abbandono della logica tradizionale, quella basata su regole e deduzione, a favore di una logica induttiva
Niente di nuovo, insomma: tutto sommato anche la nostra specie funziona così la maggior parte del tempo e solo in casi speciali usiamo la logica classica e il ragionamento formale. Vedi anche https://www.stefanopenge.it/wp/intellig-enti/.
Quelli citati sopra sono tutti esempi di machine learning, che indica una maniera di costruire modelli artificiali che simulano una parte del mondo (per esempio, un testo)  a partire dalla raccolta di dati relativi a miliardi di situazioni, per induzione appunto.
Questo sistema è inerentemente soggetto ad errore, perché i dati di partenza non sono tutti i dati ma solo una selezione;  perché la maniera in cui sono stati selezionati quei dati (e la maniera in cui vengono “premiati” i modelli migliori) potrebbe essere non oggettiva ma guidata da preferenze culturali o sociali. Ma soprattutto perché il futuro non è per forza uguale al passato, mentre il machine learning per sua natura si basa proprio su questa fede.
Ma anche se decidessimo di fidarsi delle competenze dei software basati sul machine learning, il problema nasce quando queste competenze vengono usate non a fianco, ma  al posto di quelle umane come se fossero equivalenti in qualità, perché costano di meno e rendono di più a chi le governa.”

Anche Sasha Luccioni, ricercatrice nell’AI etica e sostenibile -HuggingFace – sottolinea:

  1. Consumi energetici troppo elevati, i bias cognitivi che vengono riproposti dagli algoritmi, e la tutela del copyright sono le tre sfide che l’intelligenza artificiale dovrà affrontare.
    La diversità deve essere presente all’interno dei modelli dell’intelligenza artificiale: “La tecnologia non è neutra, i bias dell’intelligenza artificiale altro non sono che quello che noi vediamo nella società. Qualsiasi stereotipo si applichi viene peggiorato dal sistema, che tende ad amplificare la distorsione. Solo il 12% di chi lavora nell’AI è donna …è fondamentale che questa tecnologia “non sia nelle mani di pochi soggetti, deve essere open, per intervenire su questi aspetti in modo condiviso”. Wired
  2. Per tutelare la proprietà intellettuale e il copyright (Luccioni) bisogna “implementare meccanismi per capire quali siano le fonti che sono state utilizzate, analizzare i dataset usati da un’intelligenza artificiale. Un lavoro immane che va fatto fare dalle macchine, ma come e da chi controllate? E i cittadini/utenti in tutto questo?
  3. L’impatto ambientale non è trascurabile:
    Ad esempio, sono state emesse 500 tonnellate di CO2 per la creazione di Gpt-3”.
    Wired

    A proposito della possibilità di controllare l’IA
    Penge paragonava la IA ad una piccola bomba atomica: ha un potere enorme, ma può essere costruita (e smontata) solo da quelli che hanno sufficiente potere per raccogliere, selezionare e gestire i materiali (radioattivi!) necessari. Il semplice cittadino non avrà mai questa possibilità; al massimo può giocare con le interfacce che permettono di interagire con i software di IA.
    “Per dire meglio ci sono tre aspetti:
    uno è quello della chiusura del software, in questo caso della proprietà dei modelli linguistici utilizzati, che hanno grande valore perché sono stati prodotti con molte ore di calcolo e molto lavoro di revisione umana;
    – il secondo è quello delle dimensioni di questi modelli, che per essere creati e trattati richiedono risorse informatiche enormi, che consumano elettricità, scaldano, etc.;
    – il terzo è quello dell’opacità: un Large Language Model è costruito con miliardi di parametri. Significa che non è analizzabile da umani, non si può capire perché risponde in un modo o in un altro. Questi tre aspetti insieme impediscono di mettere le mani in questi strumenti come si potrebbe fare con un software libero, ad esempio con LibreOffice (ma non con MS Word)
    .”

    Tornando alla scuola un esempio di preoccupante ottimismo in questo podcast che ipotizza una scuola alla cinese. Paese che notoriamente è da tempo l’incarnazione del “grande fratello” che viola costantemente i diritti dei cittadini, sudditi ipercontrollati e prigionieri.  Concluderemo sulla scuola.