Intelligenza artificiale. Che modo di pensare?
L’IA sta creando un nuovo modo di pensare: si chiama “sistema 0”. Ma…
“L’Intelligenza Artificiale sta creando un nuovo modo di pensare: è un processo di pensiero esterno alla nostra mente, battezzato “sistema 0”, che in futuro affiancherà e potenzierà le nostre abilità cognitive. Si tratterà di una vera e propria estensione della mente umana da utilizzare con criterio, nel rispetto della nostra indipendenza”. Rivista “Nature Human Behaviour” dell’Università Cattolica di Milano.
Finora si parlava di due modelli di pensiero umano proposti dal Premio Nobel Daniel Kahneman:
“Proponiamo, quindi, che i sistemi di IA basati sui dati costituiscano un sistema psicologico distinto che abbiamo chiamato sistema 0 e lo posizioniamo accanto al sistema 1 e al sistema 2”.
Si tratta quindi di un nuovo e diverso modo di pensare; secondo gli autori il “sistema 0” non potrà mai sostituirsi alla nostra capacità di pensiero critico. L’obiettivo sarà quello di aiutarla.
Sin qui niente di troppo nuovo. L’IA può fare, e soprattutto potrà fare, molte cose utili, ma a certe condizioni; talora è usata in modo dannoso. Siamo inoltre ancora in moltissimi campi a livello di sperimentazioni e dibattiti.
“Il “sistema 0” emerge dall’interazione tra utenti e IA, creando un’interfaccia dinamica e personalizzata tra esseri umani e informazioni”. Che è la strada già battuta da Google.
“Il termine sistema 0 è stato scelto deliberatamente per enfatizzare il suo ruolo fondamentale e pervasivo nella cognizione moderna. A differenza del sistema 1 e del sistema 2 (che operano all’interno della mente individuale), il sistema 0 forma uno strato artificiale (non biologico) di intelligenza distribuita, che interagisce e potenzia sia i processi di pensiero intuitivo sia quelli analitici”, sottolinea Riva. Tuttavia, a differenza del pensiero intuitivo o analitico, il “sistema 0” non attribuisce un significato intrinseco alle informazioni che elabora. In altre parole, l’IA può eseguire calcoli, previsioni e generare risposte senza realmente “comprendere” il contenuto dei dati con cui lavora.
Gli esseri umani, quindi, rimangono essenziali per interpretare e dare significato ai risultati prodotti dall’IA. È come avere un assistente che raccoglie, filtra e organizza informazioni in modo efficiente, ma che richiede comunque il nostro intervento per prendere decisioni informate.
“Questo supporto cognitivo fornisce input preziosi e tuttavia il controllo finale deve sempre rimanere nelle mani dell’uomo.” Anche se esistono ricerche per riprodurre attraverso la IA le persone. [1]
Perdiamo qualcosa?
Secondo Riva “una delle preoccupazioni più urgenti è la potenziale erosione delle nostre capacità di pensiero critico e ragionamento. Se ci fidiamo ciecamente dei risultati del “sistema 0”, senza metterli in discussione, rischiamo di perdere la nostra capacità di pensare in modo indipendente e formare i nostri giudizi in modo bilanciato”.
Una delle poche divergenze che io ho avuto con mio figlio, adulto ed esperto nel campo della programmazione, sempre dipendente dal navigatore satellitare – mentre io organizzo prima il percorso, lo studio e caso mai solo se mi perdo chiedo aiuto allo smartphone – è legata al fatto che io, agendo così, mi costruisco, man mano, le mappe mentali dei luoghi che frequento. Lui no, delega e talora dimentica. Lo stesso vale per la successione cronologica degli avvenimenti (le “linee del tempo” delle brave maestre), per l’orientamento temporale. E per molte altre mappe mentali che stiamo rinunciando, per comodità e per pigrizia, a costruirci, che però ci rendevano più autonomi. Ci sono le app!
Riva: “Così come il passaggio dalle mappe stradali cartacee a GoogleMap ha ridotto la nostra capacità di orientamento spaziale, lo stesso potrebbe accadere con la nostra capacità decisionale”. Gli uomini e le donne di domani, dunque, rischiano di soffrire di dipendenza dall’IA (NdA ma anche dalle app dello smartphone) nel risolvere i problemi, di veder ridotte curiosità e creatività, di essere colpiti da pigrizia mentale.” Questo sta già accadendo e viene prima della IA con la gente per strada, a casa, al bar incollata alle sue troppe e talora inutili app ed alle sue troppe e non sempre utili comunicazioni (social, SMS, Whats App, telefono come dipendenze).
Abbiamo già cercato di sottolineare come il web in generale (e con più forza la IA) stiano modificando il nostro modo di informarci, comunicare, pensare, sentire dal punto di vista emotivo e sociale; e quindi ci stiano modificando, rendendo meno autonomo e critico, il nostro modo di agire, scegliere, esprimerci come cittadini.
Qui trovate l’indice e il primo capitolo del nostro ebook Come il WEB ci cambia, di Rodolfo Marchisio.
Iscrivendoti alla Associazione, con un piccolo contributo aggiuntivo puoi avere in omaggio una serie di ebook su questo e altri temi.
Tutte le info in una pagina dedicata
La forte rinuncia al voto e l’egocentrismo dominante a livello individuale, ma anche a livello politico, sono spie di questi cambiamenti forti che stanno modificando la nostra società ed il mondo; non solo dovuti al web, ma da esso fortemente influenzati.Come il crescente controllo della IA sulle decisioni (non sulla elaborazione di dati, ma sul livello più alto delle decisioni) in campo militare.
Farsi curare dalla IA
O sulla criticità del fornire dati medici personali a questi sistemi (e a chi li controlla e vende).
Come riportato dal sito di notizie TechCruch, stanno aumentando anche le persone che si rivolgono a chatbot per porre domande sulla loro salute e per capire come curarsi, non solo cercando informazioni parziali, ma anche caricando dati sanitari privati.
Chiunque può trovare immagini di questo tipo online. Compresi futuri datori di lavoro e agenzie governative. Anche il “famoso” o “famigerato” proprietario di X, Elon Musk, ha incoraggiato gli utenti del social a caricare le loro radiografie su Grok, una chatbot di intelligenza artificiale. L’obiettivo è che il modello migliori nel tempo, arrivando a interpretare dati medici con precisione maggiore. Il punto però è che sapere chi ha l’accesso ai dati forniti in pasto a Gork (NdA e che uso ne vogliono fare) non è facile. Nell’informativa privacy è infatti dichiarato che X condivide alcune informazioni personali degli utenti con un numero imprecisato di aziende collegate. Stile Musk.
Stiamo prendendo la strada del farci curare dalla IA o meglio dai padroni della IA e non dagli esperti umani (Nichols). Parallelamente allo smantellamento del servizio sanitario pubblico ed all’invito a rivolgersi al privato (anche digitale).[2]
L’etica ai tempi di Musk
E ricaschiamo nella etica. Non solo nella IA etica tout court, ma nella riflessione sulle regole e sui controlli (chi controlla chi?) delle evoluzioni tecnologiche forti, anche se immature.
Il punto è sempre chi ha il controllo, che controllo abbiamo noi, quali alternative ci sono, quale mentalità, passiva e illusoria, sta prevalendo e perché. E quale ruolo il capitalismo “digitale” ha in questi processi di modica, sfruttamento, violazione dei diritti dei cittadini: schiavi del clic.
“Il sistema 0 introduce importanti sfide etiche: fino a che punto possiamo mantenere una vera autonomia, se le informazioni che plasmano le nostre convinzioni e intenzioni sono e saranno sempre più curate dai sistemi di IA? Come possono gli individui essere ritenuti responsabili delle decisioni basate su informazioni condizionate dall’IA?”
FN cambiamenti e decisioni
“Il vantaggio del sistema 0 – sottolinea Riva – riguarda la capacità di vedere scenari non immediatamente visibili all’interno di grandi quantità di dati. Possono aumentare significativamente le nostre capacità di predizione”. Anche se non sempre in modo qualitativo.
Conclusioni ovvie
“Servono persone in grado di valutare l’affidabilità, la trasparenza e i potenziali bias dei sistemi di IA che compongono il “sistema 0”. Bisogna stabilire linee guida per l’uso responsabile ed etico dell’IA nei processi decisionali, promuovere l’alfabetizzazione digitale e le competenze di pensiero critico per aiutare gli individui a orientarsi negli ambienti informativi mediati dall’IA, oltre che incoraggiare la ricerca interdisciplinare sugli effetti cognitivi, psicologici e sociali dell’integrazione umani-IA e favorire un dialogo pubblico sulle implicazioni etiche della cognizione potenziata dall’IA.”
E, non ultimo, dicono gli specialisti, si devono valutare con attenzione i potenziali effetti sull’autonomia umana e sui nostri processi decisionali.
La scuola ha un ruolo?
Certo! Uno dei tanti; ma non nell’usare solo; nel far riflettere su cosa c’è dietro, su come funzionano questi meccanismi politici e sociali, nell’insegnare a non seguire acriticamente le mode.
Non nel costruire inutili e costose cattedrali nel deserto (le tante aule avveniristiche PNRR in scuole che crollano).
In breve nel formare i cittadini digitali e la loro cultura. Legge Ed. civica 92/19 filone 3.
- Secondo Park, riuscire a creare repliche fedeli degli esseri umani potrebbe fornire strumenti utili ai decisori politici per testare in modo più realistico l’impatto delle loro proposte sulla popolazione. Ma, ovviamente, ci sono scenari più inquietanti, legati per esempio a uno sfruttamento commerciale della cosa: poter simulare le reazioni delle persone a un particolare prodotto o a una particolare campagna di marketing potrebbe rappresentare una miniera d’oro per i venditori. Al momento (fortunatamente) non sarà possibile: gli sperimentatori hanno sottoscritto un contratto con i partecipanti allo studio che vincola l’uso dei loro dati a “scopi strettamente accademici”. In futuro, chissà. ↑
- Uno studio Nationals Institutes of Healt rivela come un algoritmo della IA sia bravo a diagnosticare una malattia, ma non sia in grado di spiegare i criteri della sua scelta. Manacorda ↑