di Cristiano Corsini In questi anni, con il risalto mediatico ottenuto dalle ricerche Ocse, Iea e Invalsi, mi pare si sia rafforzata l’infausta tendenza a confondere i dati di alcune indagini educative con ricette da applicare nell’agenda politica. Ho sentito dire che classi da 25 non sono un problema perché un certo paese con un numero simile ottiene punteggi elevati ai test Pisa o Timss, affermazione che attesta confusione notevole sul cosa, sul come e sul perché delle ricerche Pisa o Timss. Indagini correlazionali vengono scambiate per disegni sperimentali, la comparazione è ridotta a ranking, la valutazione a un’approssimativa misurazione e la qualità a una pessima quantità, mentre le competenze vengono snaturate nell’affastellamento rabberciato delle poche conoscenze e delle poche abilità quantificabili risparmiando sui costi e sui tempi. Il tutto genera vanvere del tipo “il 51% degli adolescenti non comprende un testo”. Spesso, questa dinamica è legata alla fretta di veder confermata la bontà di scelte politiche di basso cabotaggio. Eppure, la ricerca scientifica in campo educativo (e non solo quella “quantitativa”) da decenni affronta i rischi di tale riduzionismo con un senso della misura che invece sfugge del tutto a chi si occupa di istruzione e continua a scambiare le scuole per contesti in cui applicare rigidamente lo schema economicistico input/processo/output che darà forse risultati apprezzabili in altri ambiti (quali, è da vedere). In campo educativo, piuttosto che dire che “tale metodo produce tali risultati” svolgiamo un’analisi dei contesti, dei metodi e di ciò che si intende per “risultati” che se conferma certe ipotesi si traduce in una formulazione del tipo “il più delle volte, a determinate condizioni, agendo così osserviamo questi risultati”. Per esempio, se sappiamo che i riscontri descrittivi generalmente migliorano gli apprendimenti è perché abbiamo messo alla prova per decenni in diversi contesti questa ipotesi. Continua a leggere