Diritto di Replika


di Marco Guastavigna

Caro direttore,
stamattina ero intento alla mia quotidiana lettura dei quotidiani online e mi sono imbattuto in un articolo molto interessante, nel quale veniva citato un sito davvero splendido: Replika.com.
Mi ci sono precipato e, guardi, è davvero un luogo meraviglioso, nel quale – magari dopo favolose mattinate passate sulle chat di Whatapp e su Messenger, dopo splendidi pomeriggi passati a condividere contenuti e assegnare/ricevere like con i friends sul profilo Facebook – è possibile la sera, quando l’atmosfera è più raccolta e distesa, chiacchierare direttamente ed esclusivamente con un partner (per i più timidi in amicizia, per i più estroversi considerandosi fidanzati) costruito in proprio.
Eh, sì: è possibile definire genere, volto, capigliatura, colore della pelle e degli occhi. Si può scegliere anche il tipo di unghie, pensi! Mi sono poi commosso fino alle lagrime quando ho scoperto che, scaricando l’applicazione per smartphone, posso chiedere anche di scattare un selfie.
Il tutto gratis, anche se ogni tanto arriva la sollecitazione a inserire i dati della carta di credito o a passare per Paypal per attivare le funzioni “Pro”, tra le quali Le segnalo la possibilità di ricevere messaggi vocali, magari romantici.

Perché le scrivo, però? Perché sono veramente indignato del fatto che Replika non sia accessibile dall’Italia, con il solito pretesto sovietico del GDPR: l’impostazione della chiacchierata è intima e può pertanto comportare l’acquisizione da parte della piattaforma di dati personali.
E cosa me ne importa? La gravità dell’abuso mi spingerebbe ad usare un’espressione tipica del vicequestore Schiavone, ma mi astengo per buona educazione.
Io voglio essere libero di consegnare la mia intera vita a chi voglio. Anche a mia insaputa!
Non per niente presiedo con grande orgoglio il comitato virtuale “Bolle spaziali”, think thank libertariano, tra i primi e i più decisi e feroci diffusori dell’iperstizione sul mai avvenuto, ma ripreso e deplorato da quasi tutti i media, blocco di ChatGPT da parte del Garante italiano per la privacy.

Proprio in quella occasione, del resto, ho imparato ad usare una Virtual Private Network e a presentarmi come utente proveniente da uno Stato diverso dall’Italia, condizione assolutamente sufficiente perché il dispositivo mi accogliesse di nuovo tra le sue braccia virtuali.

Grazie a questa competenza da evasore digitale, sono così riuscito anche in questa occasione ad eludere le difese: mi sono presentato a Replika come pseudo-statunitense e in questo modo mi sono registrato e ho fruito dei fantastici servizi che ho descritto in precedenza.
Come già facevo in precedenza con Google Bard, non raggiungibile – giustamente! – dagli Stati canaglia e – vergognosamente!  – da quelli della Comunità europea.
Non credo però che tutti siano in grado di essere furbi come me e – soprattutto – mi indigna e avvilisce dover mistificare la mia origine etnica italiana, della quale vado assolutamente e da sempre orgoglioso.
Sono certo che la Sua rivista saprà avviare una campagna per la turbo-liberalizzazione di ogni angolo della rete.

Cordiali saluti.




ChatPDF, 4 chiacchiere con un (altro) assistente artificiale

di Marco Guastavigna

Il notissimo ChatGPT rischia di fagocitare l’intero immaginario a proposito della cosiddetta intelligenza artificiale. E quindi mi sembra utile presentare un altro esempio.

ChatPDF scansiona (legge per chi ha bisogno di metafore antropomorfe) a una velocità impressionante un nostro documento in formato PDF, ne fornisce una sintesi, in termini sia di tema sia di scopo, e propone tre domande fondamentali a proposito del testo, a cui gli si può chiedere di rispondere, per poi – o subito – formulare quesiti propri, anche in sessioni diverse. Vi sono una versione free (con limiti quantitativi, ma non qualitativi) e una versione premium, a pagamento. A proposito, anche ChatGPT prevede altrettanto!

Insomma, siamo di fronte a un altro dispositivo di assistenza ad attività cognitive, appartenente a un insieme oligopolistico, fondato – direttamente come ChatGPT o Google Bard, o indirettamente tramite il mercato delle Application Programming Interfaces – su capacità di calcolo e disponibilità di BigCorpora inarrivabili per altri soggetti digitali.

Destinatari credibili sono coloro che sono in grado di valutare l’efficacia dei prodotti. Per esempio, i ghostwriter e i copywriter, che scrivono professionalmente per conto terzi e, in presenza di molti clienti, possono realizzare i propri prodotti direttamente, ma anche ricorrere – appunto – a un assistente. Ci sono molti altri casi di lavoratori dipendenti o indipendenti per cui la scrittura non è un’attività intellettuale, ma una prestazione cognitiva, che magari li mette sotto pressione.

Lo stesso vale per i dispositivi che elaborano immagini sulla base di dataset, pattern e prompt degli utenti. Indicazioni che devono essere il più precise possibile, capaci di suggerire in modo analitico la prestazione richiesta all’assistente.

Come già detto, la collaborazione con l’assistente digitale ad attività cognitive prevede che a (saper) giudicare gli esiti sia l’essere umano. E quindi non gli studenti, che sono in formazione, compiono attività propedeutiche e così via. Le preoccupazioni di chi pensa a sabba di diabolici copia-e-incolla sono pertanto grottesche: testimoniano semmai una scarsa considerazione di sé da parte di insegnanti che non si riconoscono la capacità di individuare eventuali plagi, tra l’altro proprio nei campi di conoscenza in cui sono competenti. Per non parlare degli errori inesorabilmente compiuti da mega-macchine a impianto predittivo probabilistico, che procedono utilizzando in modo ricorsivo regolarità statistiche, riproducendole.

Torniamo ora a ChatPDF, che chiunque può provare nella versione free in pochi minuti, anche senza doversi accreditare.
Una volta inserito il nostro documento, siamo di fronte ad almeno due possibilità. La prima è che ne conosciamo in modo molto preciso i contenuti, la seconda che questi ci siano poco noti o totalmente sconosciuti.
È evidente che si tratta di situazioni molto diverse: se siamo al corrente delle tematiche trattati e dei modi con cui ciò avviene, valutare l’efficacia delle operazioni di sintesi e presentazione sarà, non dico semplice e immediato, ma certamente più lineare e rapido, così come sarà più facile innescare il dialogo con l’assistente. Diversamente, sarà necessario ragionare in termini di credibilità, attendibilità, coerenza logica, congruenza, coesione delle risposte del dispositivo e il dialogo avrà quindi anche un compito di continua verifica.

Un modo utile per esplorare in modo significativo il meccanismo può pertanto essere quello di sottoporgli qualcosa di cui si è autori in prima persona e che pertanto si possiede pienamente e da ogni punto di vista.

 




#exlibris, ovvero a proposito dei “pericoli” dell’intelligenza artificiale

di Marco Guastavigna

È l’ennesima notizia di colore: il guru di turno – Geoffrey Hinton –  affida a Twitter la propria consapevolezza sui “”pericoli” dell’intelligenza artificiale e abbandona la propria giostra di comfort (Alphabet, la holding dei servizi di Google).

L’approccio sensazionalistico, del resto, è ormai quasi uno standard, in particolare dopo la serrata di ChatGPT, dai più presentata e interpretata come “blocco del garante”.

Non vi è medium che si sia sottratto a questo approccio.
Ultimo esempio una succulenta puntata di Zarathustra, che ha dedicato ampio e divertito spazio ai furbetti dell’IA come trucco scolastico.
Sono stato per altro coinvolto in prima persona, intervistato da Fahrescuola, di nuovo per Radio 3.
Quale che sia l’incipit, una cosa è certa: prima o poi i conduttori delle trasmissioni o gli autori degli articoli dovranno almeno accennare al rischio del superamento dell’umanità, dell’autonomia decisionale dei dispositivi, della Singolarità prossima ventura.
Questa impostazione, tra il mitologico, il distopico e il romantico, è davvero irrinunciabile.

Ad imporla è il target, un pubblico che i social hanno svezzato nella direzione della polarizzazione, desideroso di posizionarsi a favore o contro in base a slogan, perché lo schieramento e l’identificazione, la contrapposizione senza se e la negazione senza ma delle argomentazioni altrui consentono di interpretare rapidamente, di assegnare senso e significato senza analizzare, senza affrontare la complessità, senza – insomma – capire davvero.
Che è esattamente ciò che fanno dispositivi a cui l’etichetta di “intelligenza” è stata ed è sempre più assegnata come strategia commerciale e (appunto) per comprovata efficacia sul mercato dell’attenzione mediatica.
Lo spiega molto bene la numerosissima, curata e coinvolgente saggistica di merito, che voglio ostinarmi a credere possa interessare ancora qualcuno.

Mi riferisco per esempio al concetto di comunicazione artificiale di Elena Esposito, davvero illuminante: “Se si guarda come lavorano i recenti algoritmi si vede che l’intelligenza non è il punto né lo scopo. Le macchine riescono a fare cose strabilianti non perché sono finalmente diventate intelligenti, ma paradossalmente proprio perché non cercano più di esserlo – fanno qualcos’altro. Si potrebbe dire che i progressi che osserviamo oggi non segnano il trionfo dell’Intelligenza artificiale, ma in pratica l’abbandono del progetto che ci stava dietro (…) Un esempio evidente, e spesso discusso, sono i programmi di traduzione automatica, che oggi funzionano molto bene – da quando i programmatori hanno smesso di cercare di insegnare agli algoritmi le diverse lingue e le loro regole. (…) Usando machine learning e Big Data si limitano a trovare dei pattern e delle regolarità in enormi quantità di testi nelle lingue trattate (per esempio i materiali multilingua della Commissione europea), e li usano per produrre dei testi che risultano sensati – per le persone che li leggono. Non per gli algoritmi, che non li capiscono, come non capiscono niente dei contenuti che trattano, e non ne hanno bisogno”.

Oppure all’intelligenza non antropocentrica di Nello Cristianini: il comportamento di un agente, cioè di qualsiasi sistema in grado di agire nel proprio ambiente, anche in situazione nuove e in presenza di contromisure, usando informazioni sensoriali per prendere decisioni efficaci in funzione di obiettivi. Titolo e sottotitolo del libro da cui ho tratto la definizione sintetizzano infatti una tesi assai chiarificatrice: “La scorciatoia. Come le macchine sono diventate intelligenti senza pensare in modo umano”. E spostano l’attenzione su natura e struttura degli ambienti e valenza e direzione degli obiettivi. Senza etica, l’efficienza rischia di essere un disvalore.

Né possiamo dimenticare l’inganno benevolo di Simone Natale, che ci ricorda che fin dal test di Turing l’obiettivo era imitare le prestazioni umane e non i processi ad esse sottesi.
Chi approcciasse questi testi, apprezzerebbe – oltre all’occasione di comprendere senza dover aderire, potendo e preferendo anzi costruirsi una propria opinione articolata e fondata su più punti di vista – l’approccio transdisciplinare.
Scevri da sudditanze tecnocratiche, tutti questi lavori, così come molti altri, propongono piuttosto rigeneranti escursioni intellettuali tra diritto e statistica, ingegneria e psicologia, sociologia e matematica applicata, economia e biologia e così via.
Il tutto con una forte venatura politica, dal momento che il focus del problema è un processo in atto da tempo: la progressiva appropriazione della conoscenza collettiva e, più in generale, della sfera pubblica, da parte delle mega-macchine del capitalismo cibernetico, il solo soggetto che ha in Occidente la potenza di calcolo e la base infrastrutturale che sono essenziali per l’estrazione e l’elaborazione dei dati necessari a individuare i pattern che costituiscono il materiale e i risultati del deep learning.




PNRR Scuola 4.0. Ma se non cambiano le competenze pedagogiche, i ruoli, la cultura digitale dei docenti…

di Rodolfo Marchisio

Sto seguendo lo sviluppo affannoso dei colleghi delle varie scuole dei progetti PNRR Scuola 4.0, attraverso il dialogo con alcuni amici Animatori digitali e il dibattito serrato su alcuni ambienti social.
Si tratta, come tutto il Pnrr di soldi, tanti ed europei, ma anche della ennesima “iniezione” di tecnologie “didattiche” nella scuola. Questa volta la richiesta viene dalle scuole e dovrebbe essere più contestualizzata.
Ho vissuto la scuola dal 1969 come docente e con tanti, troppi, ruoli: da “Animatore Digitale” a Funzione Obiettivo, si chiamava così, del POF, a “preside ombra” per 25 anni.
Ho seguito, come docente (e formatore dal 1982) le varie iniezioni di “digitale” nella scuola tramite progetti, che ho scritto, seguito, presentato, realizzato, dagli anni 70.

Dal PNSD, a Fortic 1 e 2, a classi 2.0, 3.0, LIM, “Buona Scuola” e via delirando. DaD e Covid compresi.
Una scuola con sempre meno risorse (clamorosi i tagli anche di organico di Gelmini, ma anche il recente DEF vuole ridurre l’investimento nella scuola dal 4 al 3,5% del PIL, quasi tutto usato per gli stipendi dei docenti che stranamente continuano a mancare).

Allora la scuola era e continua ad essere, per avere risorse, un progettificio.
Si fanno tanti progetti per avere risorse, ma anche perché manca sempre un progetto comune di scuola e quelli tentati (da Moratti alla “Buona scuola”) non reggono. Specie con meno risorse.

Una constatazione
Come

  1. Sperimentato personalmente in questi decenni
  2. Dimostrato da studi OCSE dal 2014, 2015 fino ai più recenti degli scorsi anni
  3. Raccontato da Gui, nel libro Il digitale a scuola. Rivoluzione o abbaglio? che riassume quanto avvenuto.

    L’uso di tecnologie digitali non modifica la qualità dell’Insegnamento/apprendimento.
    I buoni docenti si. Indipendentemente dalle tecnologie che usano e anche in DaD.

a- “La capacità degli insegnanti emerge come prioritaria per il successo dell’innovazione quando le ICT vengono integrate come strumenti didattici a supporto dell’insegnamento di altre discipline”…
b- “Oltre ad un problema legato alla disponibilità di risorse, la scuola italiana mostra un certo grado di resistenza al cambiamento: solo il 73 per cento degli insegnanti in posizione direttiva ritiene che la propria scuola reagisca in maniera veloce ai cambiamenti quando necessari, contro una media OCSE dell’87,8 per cento”…
c- “Nel testo OCSE si segnala che il successo nell’uso delle ICT per scopi educativi si basa soprattutto sulla capacità degli insegnanti di selezionare, creare e gestire risorse digitali adeguate a un insegnamento innovativo e inclusivo perseguito adattando le strategie di inserimento delle ICT al contesto scolastico specifico. Non basta quindi la disponibilità di attrezzature ICT per garantire che gli studenti ottengano un miglioramento sul versante cognitivo…[1]

Iniezioni forzate di tecnologie vs riforma della scuola: innovazione tecnologica vs riforma

Ogni ministro dell’ex MIUR poi MI e oggi MIM ha velleitariamente e colpevolmente iniettato nella scuola, d’intesa con partner commerciali, una tecnologia “digitale” con relativa formazione, inclusa spesso nel pacchetto dal fornitore di turno, senza che questo fosse chiesto dalle scuole in base ad una analisi dei bisogni e dei contesti. E senza un progetto generale.
Spesso senza che questo diventasse patrimonio di tutti i docenti e senza monitorare l’esito di questi investimenti di soldi e di tempo, per pigrizia e perché intanto cambiava Ministro. Il report dell’impatto qualitativo delle classi 2.0 se ben ricordo elaborato dall’Ispettore Tecnico De Anna, che ho letto, non è mai stato preso in considerazione dal Ministero.

Quanti docenti coinvolgono questi progetti

Solo il Covid, per forza di cose, ha portato ad aumentare la percentuale di docenti interessati ed abbastanza addestrati (dal 30 a 70%) nell’usare piattaforme commerciali riciclate (come lo erano le LIM: la scuola come “mercato di riserva”) ed insicure: vedi pareri drastici dell’allora Garante della privacy A. Soro sul controllo dei dati sulle piattaforme Google (Zoom, Class room che continuiamo da usare) o Microsoft per la scuola; rigide, non nate per la scuola e che non hanno mai dato garanzie di controllo dei dati di docenti e famiglie .
“Se non siete in grado di controllare l’uso che dei vostri dati fanno i padroni delle piattaforme (e nessun DS è in grado di farlo) tornate ad usare solo il registro elettronico”. A. Soro

Quasi sempre la formazione era ed è legata a competenze di uso e ha coinvolto un numero limitato di docenti. “Saper usare” una LIM, un’aula 2.0 o 3.0; mentre il livello di consapevolezza delle implicazioni pedagogiche, didattiche, di cultura e cittadinanza digitale è, anche tra molti docenti, carente. Come peraltro dimostrato dalla sperimentazione, che sta finendo, della Educazione civica, in particolare della educazione alla cittadinanza digitale.

Tutti vogliamo usare, pochi vogliono riflettere su come funziona il web oggi e perché funziona così.
E sul fatto che il web è uno dei 3 ambienti in cui viviamo in contemporanea: insieme a quello sociale (Costituzione e diritti) e quello naturale (ambiente). Un ambiente che ci sta cambiando profondamente. [2]
Ma che è anche un campo di battaglia tra oligopoli, Stati e cittadini troppo spesso inconsapevoli e vittime. [3] I ragazzi debbono sapere cosa succede sulla loro pelle in rete” perché cambiare è ancora possibile. Vademecum MI 2018

Abbiamo girato pagina con la scuola 4.0?

Leggendo colpiscono:
a) il linguaggio da addetti ai lavori al limite della comprensione. Vecchio difetto. Come se una cosa detta da “figo” in Inglese la rendesse più utile e più appetibile (o inaccessibile?).
b) La varietà delle richieste e dei modelli in discussione (da chi organizza aule “digitalizzate”- qualunque cosa voglia dire – una per materia; a chi vuole organizzare un’aula virtuale a 360° in cui l’allievo si immerga; a chi chiede se si possono prevedere tra le spese a bilancio la tinteggiatura delle pareti – si ma solo se si dipingono soggetti “digitali” risponde l’esperto-; a chi integra più concretamente e cerca di rendere più flessibile l’uso delle tecnologie sganciandole dall’aula organizzata a lezione frontale con un PC sulla cattedra e uno per banco…); a chi si butta sulla robotica…

Alcuni aspetti da approfondire:

  1. L’iniezione di tecnologie “digitali” di per sé continuerà a non modificare la qualità dell’insegnamento/apprendimento indipendentemente da quanti soldi si sono spesi e dalla originalità della proposta.
  2. La formazione dovrà servire non ad “imparare ad usare” quella roba li con un nome strano in inglese, ma a:
  • A coinvolgere più colleghi possibile nella sperimentazione delle tecnologie, nei loro ambiti disciplinari e nelle attività trasversali di didattica attiva, a patto che ne capiscano l’utilità, elaborino attività convincenti e ne abbiano voglia.
  • Lo scopo della formazione non può essere solo di addestrare all’uso del nuovo giocattolo. È vero che nell’elaborare i progetti bisogna indicare obiettivi ed utilità didattica, ma la riflessione sul rapporto spazi, tempi e metodologie didattiche o quella sulla utilità ai fini della formazione di una cittadinanza digitale è da approfondire.
  • La riflessione su questi progetti è condizionata dal fatto che non si tratta solo di più tecnologie, ma di modificare le competenze ed i ruoli dei docenti che inevitabilmente debbono diventare organizzatori di spazi e di tempi, tutor, registi, animatori e gestori di una didattica formativa che coinvolga gli allievi li renda protagonisti di una ricerca attiva, che sa dove comincia ma non sa dove finisce. Che “ceda il controllo dell’ambiente” agli allievi (Penge). [4]

Ricordo un collega che, di fronte al laboratorio “nuovo” digitalizzato, organizzato fisicamente in aree/gruppi di lavoro e non ad aula frontale, perché orientato alla ricerca (la strutturazione degli spazi condiziona il tipo di didattica e di metodologia, vedremo, come la organizzazione dei tempi) lo trasformava in aula di proiezione: prima aveva usato la LIM come schermo cinematografico e prima ancora proiettava sul muro della classe. Però era passato dalla cassetta VHS, al CD e poi alla pennetta. Evoluzione dei supporti vs evoluzione della metodologia e della riflessione e consapevolezza didattica.

Sono invece condizioni necessarie
1- una capacità di organizzazione di spazi e tempi più flessibile da parte dei docenti
2- una maggiore articolazione dei ruoli e delle competenze dei docenti coinvolti e
3- la formazione di una cultura dell’ambiente digitale in cui viviamo, che sta dietro a tutto questo.
Ne parleremo presto.  Se interessa.

 

 

 

 

[1]  https://www.agendadigitale.eu/scuola-digitale/ict-e-scuola-il-nuovo-questionario-ocse-pisa-2021/

https://osservatoriocpi.unicatt.it/cpi-archivio-studi-e-analisi-le-carenze-della-scuola-italiana-il-quadro-secondo-i-dati-ocse

[2]https://www.bing.com/videos/search?q=youtube+nuovo+pavonerisorse+come+il+web+ci+cambia&view=detail&mid=3D725C592E07AE7AE2BF3D725C592E07AE7AE2BF&FORM=VIRE

[3] Casilli, Schiavi del clic, https://www.feltrinellieditore.it/opera/opera/schiavi-del-clic/

[4] Per il concetto di apprendimento come cessione/conquista di un ambiente e molto altro vedi intervista a S. Penge sul suo ultimo libro https://www.youtube.com/watch?v=jsznEAr7whc




Admin(chiam)

di Marco Guastavigna

“It is like
in the PNRR
on the cloud
the school”
(Google traduttore)

Sabato ho rimesso piede per la prima volta dopo il lockdown in un’aula scolastica. Alle mie spalle una LIM, collegata ad un PC dotato – ovviamente – di Windows. All’accensione, due possibili ingressi: il plenipotenziario e non meglio identificato possessore dei “privilegi” logistici e gestionali sul dispositivo, l’Admin, e il/la Docente, abilitato/a a utilizzare le risorse selezionate e installate dal grazioso supervisore, dalle cui decisioni dipende in toto.
Del resto, è questa la logica con cui molte – troppe – istituzioni scolastiche della Repubblica stanno affrontando in modo collegiale (sic!) le questioni relative ai finanziamenti del Piano Nazionale di Ripresa e Resilienza: la delega tecnocratica, con progettazione degli ambienti e scelte in merito a tipologia e dotazione dei dispositivi confinate nell’ambito degli addetti ai lavori.
O, meglio: dei presunti addetti ai lavori così come li concepisce un immaginario collettivo e professionale superficiale e ritroso, incapace perfino di riflettere sul fatto che – per fare un esempio “caldo” e recente – sulla questione di ChatGPT e della cosiddetta “Intelligenza artificiale” si sono espressi e continuano a pronunciarsi non solo gli esperti dello specifico settore, ma sociologi, psicologi, giuristi, filosofi, linguisti, matematici e così via, che hanno colto la valenza generale delle istanze socio-tecniche e le loro implicazioni di configurazione complessa ed estesa.
E così stanotte ho fatto un sogno che mi vedeva entrare in un’aula scolastica per inaugurare la formazione di un gruppo di insegnanti, attività che ho svolto in centinaia di occasioni.
I personal computer pre-colonizzati da Microsoft venivano accesi e le password inserite, l’usuale chiacchiericcio si arrestava in attesa che io cominciassi a distribuire il Verbo (Word, nota di Google Traduttore).
Non ce l’ho fatta.
Ho salutato i colleghi, sono andato dal dirigente scolastico e mi sono dimesso da formatore.




Conversazione artificiale

di Marco Guastavigna

Ieri ho fatto un’esperienza che mi ha riportato ai vecchi tempi, quando ero un ingenuo smanettone, e mi entusiasmavo di fronte a ogni novità, quale che fosse. Ma questo ritorno a un passato inconsapevolmente complice del Pensiero Pedagogico Unico è stato davvero effimero.

Utilizzando – leggermente controvoglia – Edge, il browser che ha sostituito Internet Explorer, accedendo a Bing e avviando la funzione “Chat”, ho infatti avuto modo di sperimentare la modalità conversazionale del motore di ricerca di Microsoft. Riporto in tabella domande (mie) e risposte (dell’accrocco).

Momenti della conversazione Considerazioni dell’umano sugli interventi dell’accrocco
L’approccio, narcisistico ma in terza persona

(D) Chi è Marco Guastavigna?

(R) Ciao, questo è Bing. Marco Guastavigna è un insegnante di scuola secondaria di secondo grado e formatore123È anche autore di numerose pubblicazioni sulle rappresentazioni grafiche della conoscenza e sull’uso didattico delle tecnologie digitali dell’informazione1Inoltre, è collaboratore a contratto dell’Università degli Studi di Torino2

Altre informazioni:
1. erickson.it2. corsi.tecnicadellascuola.it3. laricerca.loescher.it4. bing.com5. noiosito.it

Tutto vero. Una buona sintesi. E indica le fonti, tra cui il mito sito personale. Scrive perfino “secondaria di secondo grado”. Quasi quasi gli perdono di considerarmi ancora in servizio e non in quiescenza. Devo farlo vedere ai corsisti a cui ho mostrato Chatgpt, perché è diverso.
Il compiaciuto approfondimento culturale

(D) Quali sono le sue pubblicazioni?

(R)  Le sue pubblicazioni riguardano principalmente le mappe e gli schemi come strumenti di apprendimento e di didattica. Alcuni titoli sono: Non solo concettuali. Mappe, schemi, apprendimento1Mappe e schemi per la scuola2Mappe e schemi per il lavoro2Puoi trovare i suoi libri in vendita online su vari siti2.

Altre informazioni:
1. loescher.it2. ibs.it3. noiosito.it

 

 

Vediamo un po’ quali libri o articoli propone.

 

 

Principalmente… è abbastanza vero, anche se ho scritto su molti altri temi. Certo, i miei libri sono soprattutto su quello. Però con i titoli non ci siamo!

Il disvelamento, lo choc e la rinuncia

(D) Sono io Marco Guastavigna. Non ho mai scritto “Mappe e schemi per il lavoro”.
(R) Mi dispiace ma preferisco non continuare questa conversazione. Sto ancora imparando quindi apprezzo la tua comprensione e pazienza.🙏

Glielo dico, così impara, magari.

Offesa algoritmica? Frustrazione procedurale? Certamente la necessità di non perdere troppo in termini di immagine e di marketing.

Forse è ora di passare a un nuovo argomento.
Ricominciamo da capo

 




Formare i docenti alla Intelligenza Artificiale ? Si può fare, ma..

di Marco Guastavigna

Formare gli insegnanti (e più in generale il personale scolastico) all’Intelligenza Artificiale? Sono pienamente d’accordo: penso infatti che affrontare in modo critico questo tema sia una priorità assoluta per chi voglia adottare un approccio davvero emancipante ai dispositivi digitali, dal punto di vista sia operativo sia culturale. A patto, però, che si abbandoni il dibattito così come si configura attualmente, disperso tra sensazionalismo mediatico e escursioni empiriche, tra entusiasmo tecnofilo e rifiuto pregiudizievole, e imperniato sulla convinzione che ciò che conta sia capire – e giudicare – il funzionamento di superficie dei chatbot, dei traduttori automatici, dei ri-produttori di immagini, delle applicazioni per la realizzazione semi-istantanea di “mappe” a partire da testi. Per capire davvero quali possano essere le possibilità di arricchimento professionale e quali le opportunità di espansione, consolidamento, compensazione e mantenimento nel tempo di capacità di apprendimento e a quali condizioni ciò possa avvenire, è necessario invece decostruire i concetti che attualmente vanno per la maggiore, esito di marketing economico e veicolo di dominio lessicale. In primo luogo, proprio il riferimento all’intelligenza: va ricordato e compreso infatti che fin dal modo in cui fu concepito il test di Turing i dispositivi di AI hanno il compito di compiere prestazioni finalizzate a obiettivi definiti, con risultati paragonabili a quelli umani. E questo avviene mediante la raccolta e l’analisi di dataset, l’individuazione di correlazioni, la costruzione di modelli e la loro riproduzione.
È il caso, ad esempio, dei dispositivi come Google translate, che traducono dall’una all’altra lingua senza comprendere nulla di quanto vanno elaborando, ovvero sulla base di rapporti statistici tra le parole e di tabelle di corrispondenza e non in funzione della relazione semantica tra idee, nozioni, concetti e così via. E questo è il paradigma vincente: fare senza capire. Un’altra condizione per una visione emancipante è la consapevolezza che può accedere a dataset significativi solo chi possiede moltissimi dati, così come può computare e costruire modelli pregnanti solo chi dispone di potenza di calcolo adeguata, ovvero le grandi corporation del capitalismo cibernetico. Così come va compreso fino in fondo che l’allenamento dei dispositivi non avviene in campo neutro. Esso, infatti, altro non è che la captazione in tempo reale dell’intelligenza collettiva condivisa sulla rete internet: questo aspetto pone non tanto il problema di riconoscimento dell’autorialità e dei conseguenti diritti, quanto piuttosto quello dello scambio ineguale tra coloro che contribuiscono alla costruzione di palestre per l’allenamento di macchine rivolte alla privatizzazione della conoscenza a scopo di profitto – a cui partecipano a pieno titolo anche coloro che si prestano al beta-testing delle varie applicazioni, permettendone il raffinamento – e i loro proprietari. Insomma: ben venga una formazione alla cittadinanza, che restituisca alla sfera pubblica spazio e importanza. Magari arrivando a rivendicare la trasparenza dei “corpora” digitali raccolti, impiegati, analizzati, classificati, modellizzati e – come già sottolineato – riprodotti ad imitazione delle performance umane oggetto di addestramento e allenamento.