Una vita da mediano anche per il testo?
Hai voglia e curiosità di giocare con un ambiente della cosiddetta “intelligenza artificiale” che manipola il linguaggio? Puoi andare sull’apposito spazio di OpenAI e provare. Facendo – ma soltanto per ora! – finta di nulla sul fatto che il progetto sia ampiamente compromesso con Elon Musk e Microsoft.
Ti verrà chiesto “soltanto” di accreditarti, magari con uno dei passaporti digitali rilasciati da privati di cui già disponi, ovvero account appunto di Microsoft o di Google e, pertanto, di partecipare in misura ancora maggiore all’estrazione di valore attraverso l’elaborazione dei dati e delle conoscenze da te conferiti per “sperimentare” il dispositivo. Insomma, sarai esente da pagamenti in denaro, dal momento che ti collocherai volontariamente tra i fornitori di materia prima del capitalismo di sorveglianza.
Lo schema di funzionamento è molto semplice e immediato.
Tu scrivi una riga di comando in inglese, avendo l’accortezza di indicare una tipologia testuale, un riferimento tematico e una lingua (io ho provato italiano e latino, influenzato dagli ultimi residui dei miei studi classici); e poi attivi il pulsante “Submit”.
L’accrocco (perdonami la forse eccessiva confidenza, ma serve a smitizzare fin da subito) digitale reagisce in tempi molto rapidi e scrive un testo, a volte più azzeccato e congruente, a volte meno. Testo che potrai memorizzare e collezionare, copiare e incollare e così via.
Ma cosa succede ogni volta? Una sorta di iper-esercizio di stile: il dispositivo riposa infatti su di un gigantesco corpus di testi classificati e correlati secondo varie categorizzazioni, a cui appoggiarsi per ritrovare un modello di struttura, un lessico ed esempi di sequenze sintattiche e semantiche coerenti con la tipologia indicata dall’utente, che potrà per altro essere più o meno soddisfatto e (magari) riproporre una consegna di elaborazione più puntuale.
Nessuna magia, pertanto.
E nessuna “intelligenza”. Siamo infatti in pieno nel campo del machine learnig, ovvero di un apprendimento che si fonda in larga misura sui Big Data disponibili nel “web partecipativo”, quello che permette a qualsiasi utente di produrre contenuti, che verranno scansionati e utilizzati da algoritmi che il marketing concettuale delle aziende produttrici e sfruttatrici fanno passare per intelligenti, provocando in molti una condizione di incertezza e di disagio.
Che non ha in realtà piena giustificazione se appena si leggono gli autori che adottano un approccio critico, e non i mistici dell’entusiasmo futurista o gli apocalittici del timore passatista.
È il caso, ad esempio, di Elena Esposito, che è davvero molto netta e chiara: “Oggi gli algoritmi traducono testi dal cinese senza conoscere il cinese, e nemmeno i loro programmatori lo conoscono. Usando machine learning e Big Data si limitano a trovare dei pattern e delle regolarità in enormi quantità di testi nelle lingue trattate (per esempio i materiali multilingua della Commissione europea), e li usano per produrre dei testi che risultano sensati – per le persone che li leggono. Non per gli algoritmi, che non li capiscono, come non capiscono niente dei contenuti che trattano, e non ne hanno bisogno”. (E. Esposito, “Dall’Intelligenza artificiale alla comunicazione artificiale”, Aut Aut, 392/2022)
La questione allora è piuttosto un’altra: il ricorso ai testi reperibili per le più diverse ragioni in rete e la ricerca di “regolarità” all’interno di questa massa via via sempre meno indifferenziata sono destinati per forza di cose a valorizzare ciò ritorna, è stereotipato e magari frutto di pregiudizi, comunque attestato su di una sorta di mediano “senso comune”.
Riproporre ciò che i pattern e le correlazioni rivelano essere più frequente è del resto una formula di successo: lo testimoniano un primo luogo i motori di ricerca, Google in testa, computando numero e qualità dei link delle pagine indicizzate e monitorando in tempo reale le reazioni degli utenti alle proprie proposte.
Siamo immersi nella cattura della conoscenza umana attiva e nella sua cooptazione all’interno dei processi e delle procedure che rendono i dispositivi sempre più efficienti.
Niente di eccezionale, per altro: il meccanismo socio-culturale per cui la conoscenza umana è una risorsa economica fondata sulla scarsità e sulla proprietà rivale è a sua volta un bias diffusissimo.
A partire dall’idea che l’istruzione deve preparare al mercato del lavoro e che i voti sono una sorta di simulazione anticipata del rapporto salariale.
E per ritornare sul nostro produttore-artificiale-di-testi-imitati, il quale, una volta perfezionato, ha già una propria vocazione di mercato, per cui sarà legittimo esigere un pagamento in denaro: la produzione accelerata di merce linguistica (articoli, post, comunicati, slogan e così via) in sostituzione magari dei ghost writer umani, in una nuova forma di attribuzione non etica di un’autorialità da lungo tempo rivolta alla comunicazione manipolatoria e al profitto e non allo sviluppo intellettuale.