venerdì 12 dicembre 2014

La guerra al maiale e la ricerca scientifica nel paese del "mondo di mezzo"

Nel romanzo “Diario della guerra al maiale”, Adolfo Bioy Casares narra la storia surreale di una guerra civile dove i giovani di Buenos Aires danno la caccia a chiunque abbia superato i 50 anni, perché ormai ritenuto inutile alla società. Una metafora, quella dello scrittore argentino, che vuole mettere in risalto l'uso molto spesso strumentale e propagandistico di una retorica giovanilista fine a se stessa, ma molto in voga oggi, dopo esserlo stata in altri periodi oscuri del nostro paese: ricordate "Giovinezza, giovinezza, primavera di bellezza"?
Parlando dei problemi reali dei giovani nel nostro paese, invece, come non essere d'accordo con quanto denunciato di recente in una lettera-appello al Presidente Napolitano da Cosimo La Cava, uno dei tanti ricercatori italiani costretti a dover cercare fortuna all'estero? Conosco bene il problema: nel corso degli anni, infatti, ho assistito all'esodo di diversi giovani bravi che si sono formati nel mio laboratorio verso Spagna, Inghilterra e Stati Uniti. Sono stati inevitabilmente attratti dalle concrete prospettive economiche e ambientali offerte da questi paesi.
Un paese civile ha il dovere di garantire un degno futuro ai suoi giovani meritevoli, invece in Italia, costringendoli a fuggire, non solo si produce una grave emorragia di "capitale umano" e si mandano in fumo anche le risorse economiche investite per la loro formazione, come sottolinea La Cava, ma anche si pregiudicano o addirittura si cancellano ricerche promettenti. Senza dimenticare le migliaia di ricercatori e docenti, giovani e meno giovani, armati di passione e dedizione, quelli che sono rimasti e che da anni cercano di resistere. Anche essi sono esasperati e umiliati dalla mancanza di considerazione che la classe politica e dirigente di questo paese mostra nei confronti del loro lavoro.
Molti stati europei programmano in largo anticipo piani di spesa dettagliati e investono significative percentuali del PIL nella ricerca, perchè la ritengono elemento cardine per la crescita. In Italia, al contrario, la ricerca pubblica è stata da anni abbandonata, in assenza di programmazione e risorse adeguate. Non a caso Renato Dulbecco, premio Nobel per la Medicina, nel 2008 denunciava che «Un paese che investe lo 0,9% del proprio prodotto interno lordo in ricerca, contro la media del 2% degli altri, non può essere scientificamente competitivo, né attirare a sé o trattenere i suoi ricercatori migliori». Malgrado i reiterati e accorati appelli inviati alla classe politica nel corso degli anni anche da altri primi nobel italiani, come Rita Levi Montalcini e Mario Capecchi, la situazione non è cambiata: università e ricerca nel nostro paese sono sempre più delle conclamate cenerontole, figlie di un dio minore.
I tagli continui, sempre più pesanti e indiscriminati inflitti da tutti i recenti governi ai fondi di finanziamento ordianario (FFO) degli atenei e la quasi totale cancellazione del turnover voluta dalla premiata ditta Gelmini & co, stanno portando al collasso definitivo del sistema universitario e della ricerca. Come se non bastasse, le risorse ministeriali destinate ai fondi pubblici per la ricerca negli ultimi anni hanno toccato il fondo, mi si perdoni il calembour e nel 2014 sono state azzerate. Il governo Letta, prima della sua dipartita, ha infatti definitivamente cancellato i bandi dei Progetti di Ricerca di Interesse nazionale (PRIN), destinando i pochi fondi residui ai bandi SIR (Scientific Independence of young Researchers), dedicati esclusivamente ai "giovani" sotto i 40 anni. La ministra Carrozza, nello stesso periodo, aveva dato alla luce, ma solo sulla carta, una sorta di piano di programmazione della ricerca nazionale dove era previsto, tra l'altro, un nuovo bando battezzato RIDE (Ricerca Italiana di Eccellenza) che avrebbe dovuto sostituire il PRIN: ennesimo esempio di vuoto nominalismo all'italiana. Dopo quasi 9 mesi, non si sente più parlare del mitico bando RIDE, che quindi rischia di essere ricordato per essere stato il più inutile ed effimero acronimo, partorito con (speriamo) involontaria autoironia dal MIUR. Forse, sarebbe stato più realistico chiamarlo PIANGE (Progetti Italiani Ancora Non GEstibili).
In questa cronica scarsità di risorse, negli atenei e nei centri di ricerca si vive ormai da anni alla giornata e la competizione esasperata che si è venuta creare, lungi dall'essere un elemento positivo, ha premiato spesso i più forti, non sempre i più meritevoli, cancellando quella variabilità culturale e scientifca che è un fattore determinante per lo sviluppo della ricerca e della conoscenza.
Perchè siamo arrivati a questo punto? E' semplice, al contrario di altri paesi, in Italia si sono anteposti gli interessi personali di grandi e piccoli gruppi di potere politico-economico a quelli dei cittadini e del paese. Il recente scandalo emerso a Roma dall'inchiesta "Mondo di mezzo" parla chiaro e mette in evidenza probabilmente solo la punta dell'iceberg di un fenomeno di corruzione di massa. In questa melma di sottosviluppo politico e sociale, le nuove generazioni sono state cresciute e nutrite con i miti del successo facile. Piuttosto che andare all'università per studiare e formarsi, c'è chi farebbe di tutto pur di partecipare a qualche demenziale programma televisivo, pur di apparire, pur di diventare ricco e famoso come un calciatore od una velina. Questi sono i modelli dominanti che ispirano molti giovani oggi. E' chiaro, quindi, che in questa situazione di degrado, l'istruzione, la ricerca e più in generale, la cultura, una volta valori fondamentali e necessari per la crescita e lo sviluppo del paese, sono diventati degli inutili optional, o meglio, dei fastidiosi impedimenti alla scalata sociale, all'affermazione personale che si base esclusivamente sulla sete di potere e denaro.
E' possibile uscire da questo pantano e risollevare università e ricerca nel nostro paese? Nel lontano 1848 Victor Hugo sosteneva che la crisi si combatte aumentando i fondi alla cultura e non tagliandoli. Considerazione più che ovvia, ma incomprensibile per la nostra classe politica. E' chiaro che servono programmazione e risorse congrue per rilanciare università e ricerca pubblica e per sbloccare il turn over, allo scopo di ripristinare subito un livello fisiologico di reclutamento e progressione delle carriere. In mancanza di misure urgenti molti ricercatori smetteranno di lavorare, molti laboratori chiuderanno, con ulteriori e gravi conseguenze sulla didattica universitaria e sul futuro dei giovani.
Dove trovare le risorse necessarie per un piano di risanamento a lungo termine? Uno studio condotto di recente dalla UIL mette in evidenza l'esistenza di un sottobosco che ruota intorno ai partiti (comitati elettorali, segreterie di partiti, collegi elettorali, consulenti, portaborse, ecc. ecc.) e che consuma miliardi di euro. I costi della politica, diretti e indiretti, nel complesso ammonterebbero a circa 23,9 miliardi di euro annui. Se queste stime si avvicinassero anche minimamente alla realtà, allora non servirebbero miracoli, basterebbe anche solo dimezzare i costi esasperati della politica per risollevare il paese e finanziare adeguatamente istruzione e ricerca.
Se invece di intervenire con azioni concrete ed efficaci, la classe politica e dirigente del nostro paese proseguirà soltanto a sbandierare proclami ad effetto e programmi virtuali, fingendo ipocritamente di scandalizzarsi per poi rimanere sorda ai veri bisogni di istruzione e ricerca, se si continuerà a disprezzare istruzione e ricerca pubbliche, se ne decreterà la definitiva condanna a morte. In questo modo, la decadenza del paese sarà sempre più rapida e irreversibile e la melma del sottosviluppo morale, culturale e economico ci sommergerà definitamente.
Patrizio Dimitri
Professore di Genetica,Università Sapienza, Roma
Intervento inviato al direttore di Repubblica.it Giuseppe Smorto. L'intervento non è stato pubblicato e Giuseppe Smorto non ha nemmeno trovato il tempo per rispondermi

mercoledì 15 ottobre 2014

Follie di una VQR all'italiana!

Ricevo e dal collega Giorgio Prantera dell'Università della Tuscia, e pubblico con piacere, alcune brevi ma incisive considerazioni su alcune delle tante disfunzioni del metodo utilizzato dall'ANVUR per la VQR 2004-2010.
Già sapevamo che in una stessa classe sono state inserite riviste scientifiche con valori qualitativi molto diversi tra loro. Ad esempio, in classe 1 per l'area biologica sono presenti: Science, Nature, PNAS e...Insect molecular biology....
Giorgio qui denuncia un'altra situazione veramente paradossale: uno stesso articolo pubblicato su una rivista che appartiene a diverse subject category, può attenere valutazioni diverse a seconda della subject category scelta! Può essere quindi contemporaneamente eccellente o mediocre!!! Follie di una VQR all'italiana, o meglio all'amatriciana!
Per ogni Subject Category (SC) si calcola la distribuzione degli impact factor di tutte le riviste che ricadono in quella SC.
La distribuzione di cui sopra viene divisa in 4 intervalli non uguali.
Classe 1, le riviste i cui IF cadono nel 20% superiore della distribuzione.
Classe 2, le riviste i cui IF cadono nell'intervallo 60-80% superiore della distribuzione.
Classe 3, le riviste i cui IF cadono nell'intervallo 50-60% superiore della distribuzione.
Classe 4, le riviste i cui IF cadono nell'intervallo 50-00% della distribuzione.
Lo stesso criterio si applica alle citazioni. Per ogni Subject Category (SC) si calcola la distribuzione delle citazioni di tutti gli articoli che ricadono in quella SC.
Classe 1, gli articoli le cui citazioni cadono nel 20% superiore della distribuzione.
Classe 2, gli articoli le cui citazioni cadono nell'intervallo 60-80% superiore della distribuzione.
Classe 3, gli articoli le cui citazioni cadono nell'intervallo 50-60% superiore della distribuzione.
Classe 4, gli articoli le cui citazioni cadono nell'intervallo 50-00% della distribuzione.
La combinazione fra la classe dell'impact factor e la classe delle citazioni in cui ricade ciascun articolo determina la valutazione della pubblicazione.
A parte ogni valutazione sulla macchinosità e aleatorietà di una simile valutazione, un paradosso emerge immediatamente.
Molte riviste vengono classificate da ISI Web of Science in due o più SC. Per cui, lo stesso articolo scientifico con il suo numero di citazioni, può essere valutato ottimo buono o sufficiente a seconda di quale SC si scelga per la rivista che lo ha pubblicato (scelta che compete all'autore).
E' immediatamente evidente che seguendo questi criteri la qualità di una pubblicazione scientifica non è intrinseca alla pubblicazione stessa, ma dipende dall'abilità di chi compila la scheda VQR.

domenica 12 ottobre 2014

Per la Scienza, per la Cultura

Come ho scritto più volte fino alla noia su questo blog e anche altrove,senza ricerca non si esce dalla crisi, ma anzi si sprofonda più velocemente nelle sabbie mobili del degrado culturale.
I ricercatori francesi hanno organizzato per il 17 ottobre una protesta dal titolo "Sciences en Marche" http://sciencesenmarche.org/fr/ che prevede una marcia in bicicletta dalla provincia a Parigi per responsabilizzare l’opinione pubblica sullo stato disastroso della ricerca e dell’università prodotto dai tagli sconsiderati dei governi. Cosa dovremmo fare in Italia, dove la situazione è ancora peggiore?? Per ora dimostriamo loro la nostra comprensione aderendo alla manifestazione e pubblicizzando l'iniziativa.
Si invitano tutti a partecipare alle assemblee e alle iniziative locali, anche in preparazione della manifestazione nazionale che si terrà al Pantheon di Roma il 18 ottobre 2014.

domenica 14 settembre 2014

I mostri della VQR

I risultati della recente VQR 2004-2010, se da una parte hanno premiato strutture di ricerca di buono od ottimo livello, dall'altra hanno prodotto, come si temeva, diverse aberrazioni e risultati paradossali. Questi "mostri" della valutazione sono sotto gli occhi di tutti.
Se l'Università di Messina (con tutto il rispetto per i colleghi di quell'Ateneo) risulta migliore del Politecnico di Milano e la Normale di Pisa viene classificata come un'Università mediocre, significa che esistono dei seri problemi alla base del metodo valutativo ideato dall'ANVUR
http://www.roars.it/online/lo-strano-caso-della-normale-e-della-vqr/
E questi sono solo di due esempi clamorosi tra i tanti messi in evidenza finora. I sette saggi del consiglio direttivo dell'Anvur, che ci costa circa un milione e 200mila euro all'anno, dovrebbero fare una seria autocritica ed invece non mi risulta che si siano pronunciati o che stiano preparando dei correttivi.
Il fenomeno delle aberrazioni valutative però è molto serio, non può e non deve essere ignorato. Anomalie e casi paradossali sono stati segnalati altrove, anche nella Facoltà di Scienze della Sapienza di Roma. In particolare, il Dipartimento di Biologia e Biotecnologie "Charles Darwin" ha ottenuto sorprendentemente un piazzamento mediocre. E nel Dipartimento, anche settori di punta come la Genetica e la Biologia Molecolare hanno stranamente e inaspettatamente conseguito valutazioni non degne della loro fama. Qualcosa però non quadra, perché questi risultati sono in clamorosa contraddizione con quelli della precedente valutazione delle strutture di ricerca condotta dal CIVR per il periodo 2001-2003. In quel caso, infatti, il Dipartimento di Genetica e Biologia Molecolare, confluito a luglio 2010 nel nuovo Dipartimento di Biologia e Biotecnologie, aveva ottenuto un ottimo piazzamento. Risultati simili a quelli del CIVR erano stati ottenuti anche da un metodo in silico ideato dal collega Gianni Cesareni.
http://www.fisv.org/2013-09-04-15-46-07/attivita/item/234-valutazione-della-ricerca-gianni-cesareni-risponde-al-nostro-invito-con-un-suo-contributo.html
Il metodo di Cesareni basato su Google Scholar è stato critica
to anche da Roars, ma se ha prodotto risultati simili a quelli ottenuti dal CIVR che ha utilizzato il peer-review, forse meriterebbe un po' più di considerazione. Come spiegare questa apparente défaillance della Genetica e della Biologia Molecolare, considerando che parliamo di settori da sempre molto produttivi anche alla Sapienza? Si tratta di settori "Jekill e Hyde", che da buoni si trasformano in cattivi?
1) Se si esaminano i dati, i punteggi negativi dovuti alla presenza di ricercatori inattivi hanno contato soprattutto per la Biologia Molecolare . 2) C'è stata poi una alta percentuale di “prodotti penalizzati”, ovvero inserimento di pubblicazioni non pertinenti da parte del gruppo pubblicazioni della Sapienza che ha operato la scelta. Per penalizzanti si intendono i prodotti non valutabili, i prodotti identici presentati più volte dalla stessa struttura, i prodotti identici presentati più volte dallo stesso soggetto valutato per due strutture di tipologia differente (es. Università ed Ente di Ricerca). C'è da capire come questo sia potuto accadere, visto che la scelta dei prodotti è stata effettuata dal gruppo pubblicazioni della Sapienza. Si tratta di un aspetto molto critico, che poco ha a che fare con la qualità della ricerca e che andrà necessariamente "curato" per evitare che si ripeta la prossima volta.
3)A parte i suddetti aspetti, un altro elemento determinante, il cosiddetto "baco" della VQR, come già evidenziato altrove, è insito nel metodo utilizzato. Infatti, il metodo valutativo del CIVR era basato sul peer-review, mentre quello della VQR utilizza sostanzialmente dei parametri bibliometrici automatici; il peer-review viene utilizzato solo marginalmente. I risultati finali vengono poi definiti in base a fattori di correzione scelti molto arbitrariamente.
I principali difetti del metodo automatico dell'ANVUR che generano aberrazioni valutative sono i seguenti:
1) Le strutture di ricerca o i settori si devono valutare in base alla loro produzione complessiva del periodo in esame. La richiesta di presentare solo i tre "migliori" lavori è un errore, perché può penalizzare Dipartimenti che hanno maggior produttività. E' vero che la quantità non significa necessariamente qualità, ma se si penalizzano le strutture per la presenza di docenti inattivi (che non hanno prodotti) o parzialmente attivi (che non arrivano a 3), allora bisognerebbe premiarle nel caso di docenti "iperattivi" ovvero che nel periodo di riferimento ottengono più di tre prodotti. C'è poi da sottolineare che la qualità degli articoli è funzione principale dalle citazioni ottenute e questo è un altro punto dolente
2) Alle citazioni, soprattutto per gli articoli pubblicati nel periodo 2004-2008, è stato attributo dall'Anvur un peso esageratamente determinante, come nel caso delle ASN. Al contrario, a livello internazionale, il numero di citazioni (come d'altrove tutta la bibliometria spicciola) non è ritenuto affatto una misura affidabile per valutare il merito e la qualità della ricerca e dei ricercatori. Questo è stato sottolineato più volte da diversi articoli pubblicati su Roars (vedi come esempio http://www.roars.it/online/uk-consultazione-pubblica-sugli-indicatori-quantitativi-per-la-valutazione-della-ricerca/) e anche su eccellenti riviste scientifiche internazionali. A tale riguardo consiglio di leggere l'articolo dei colleghi Adam Eyre-Walker e Nina Stoletzki pubblicato recentemente su PLOS BIOLOGY (vedi sotto).
Il peso delle citazioni è evidente se si consultano i "Quadrati Magici" dell'ANVUR, come li chiama Giuseppe De Nicolao.
Di conseguenza, può accadere che un articolo su PNAS o Science (classe A) venga retrocesso nelle categorie inferiori o addirittura non sia nemmeno considerato (come è successo al sottoscritto) per non aver ottenuto il numero minimo di citazioni previsto dall’Anvur. In compenso, sempre in base alle citazioni, un articolo su una rivista di categoria inferiore (B, C o D) può venire sopravvalutato. In questo modo, si appiattiscono le differenze o addirittura si rovesciano i valori in campo. E' possibile che la qualità di un articolo scientifico debba essere così pesantemente condizionata da questa sorta di audience, alla stregua di una trasmissione televisiva? Attribuendo alle citazioni un peso così determinante, questa VQR tende in molti casi a premiare con risorse immeritate i comportamenti opportunistici di colleghi "furbetti" che da sempre abusano delle autocitazioni. Vogliamo accettare questo "doping" della valutazione?
3) A parte i casi di eccesso di autocitazioni, le citazioni rappresentano comunque un parametro molto delicato: spesso possono essere anche negative e non sempre vengono assegnate così "democraticamente", come qualcuno vorrebbe farci credere. Come sottolineato nell'articolo di Adam Eyre-Walker e Nina Stoletzki, il fattore geografico, ad esempio, è sicuramente determinante. In particolare, per esperienza trentennale sul campo ho verificato che in certi settori come per l'appunto la Genetica e la Biologia Molecolare degli organismi modello, i ricercatori italiani che svolgono ricerca di base devono sostenere una fortissima competizione internazionale soprattutto con ricercatori di paesi abituati ad avere una notevole supremazia in campo scientifico, come Stati Uniti, Inghilterra e Germania. In virtù di questo, tendiamo spesso ad essere "snobbati" e sottovalutati anche in termini di citazioni. In soldoni, un nostro lavoro anche molto buono può non riscuotere successo in termini di citazioni.
E' abbastanza ovvio, quindi, che una siffatta VQR tenda a privilegiare gruppi ampi e accademicamente forti che lavorano in campi di ricerca più gettonati ed in sistemi sperimentali più diffusi o più di moda anche nel nostro paese. Gruppi che pubblicano articoli con folte schiere di autori e hanno, anche per questo motivo, un livello fisiologico di citazioni molto più alto rispetto a gruppi che fanno ricerca di base. Questo si può verificare facendo un piccolo e banale esperimento: consultando pub med, si osserva che, ad esempio, gli articoli scientifici in campo umano sono circa 100-200 volte più numerosi di quelli sugli organismi modello come Drosophila e S. cerevisiae (vedi tabella sottostante). Di conseguenza, la maggior numerosità fa crescere anche il parametro citazionale ed il valore degli altri indicatori bibliometrici, indipendentemente dalla valore scientifico della pubblicazione. E questo è vero per tutte le aree di ricerca.
Perché i 7 saggi dell'ANVUR non hanno considerato questo aspetto così lapalissiano?Non volendo considerare la totale infermità mentale, per molti l'ipotesi più probabile è che i parametri della VQR (come per le ASN) siano il frutto di una scelta fatta ad hoc, ovvero siano quelli più favorevoli ai settori di appartenenza degli stessi 7 saggi. Per il futuro, allora, l'ANVUR farebbe prima a pubblicare direttamente la lista delle discipline scientifiche che intende privilegiare a priori, comunicando allo stesso tempo la definitiva cancellazione della ricerca di base nel nostro paese.
CONCLUSIONI
In base alle considerazioni fatte, è evidente che in molti casi i risultati ottenuti dalla recente VQR sono poco attendibili e non è corretto usarli per distribuire le risorse, premiando "i buoni" e punendo "i cattivi". Ma la cosa più grave è che in molte università, Sapienza compresa, i risultati della VQR sono presi da molti colleghi (quelli a cui conviene) come "oro colato", senza che sia stata aperta una riflessione seria su quelle che sono le evidenti disfunzioni del sistema. In conseguenza di ciò, per la distribuzione dei punti organico, nei dipartimenti penalizzati si è scatenata una bagarre tremenda, dove chi ha una VQR "migliore" si ritiene automaticamente al top dell'accademia!
Queste considerazioni riflettono il pensiero di molti altri colleghi che vorrebbero svegliarsi al più presto da questa specie di incubo in cui l'ANVUR li ha costretti a vivere. Visto che l'Anvur non sembra disposta a correre ai ripari per introdurre adeguati correttivi, a breve invieremo una lettera al Ministro di turno, all'Anvur, al CUN e anche alle riviste scientifiche per denunciare i "mostri" generati da questa VQR.
Speriamo ardentemente che i nuovi membri dei vari GEV riflettano su questa situazione per contribuire dall'interno a riformare il metodo della VQR, allo scopo di garantire un sistema di valutazione più equo che sappia realmente individuare la qualità, senza occultarla.
QUALE ANTIDOTO CONTRO I MOSTRI DELLA VQR?
Cosa fare per rendere più equo il sistema di valutazione? La valutazione della ricerca e dei ricercatori non può essere basata esclusivamente sul sistema bibliometrico quantitativo dell'ANVUR. La valutazione deve essere condotta usando modalità simili a quelle utilizzate in precedenza dal CIVR. Le pubblicazioni e i prodotti della ricerca devono essere valutati dai pari e non da un sistema automatico fatto di numeri, dividendi e fattori di correzione scelti ad hoc. La bibliometria deve essere usata con parsimonia, eventualmente come strumento accessorio.
Se questo non sarà possibile, per la prossima VQR auspichiamo almeno i seguenti correttivi:
1) Eliminare le autocitazioni
2) Ridefinire le categorie delle pubblicazioni e i loro livelli qualitativi
Ad esempio, non è possibile che nell'area 05 in categoria A siano presenti riviste con valori clamorosamente diversi di Impact Factor, come Science (IF 32) e Insect Molecular Biology (IF 2,9) perché quest'ultima risulta una delle migliori in un settore, ahimè, un po' depresso come l'Entomologia. Nessun ricercatore sano di mente potrebbe mai sostenere che pubblicare su Science o su Insect Molecular Biology sia la stessa cosa. Ma l'ANVUR invece si!!!
3) Ridurre o eliminare l'effetto delle citazioni sul valore di una pubblicazione
4) Ridurre il peso degli inattivi sulla valutazione finale, ad esempio considerando solo i docenti inattivi assunti nei 5 anni precedenti al periodo in esame.
5) Non considerare i cosiddetti "prodotti penalizzanti" che nulla hanno a che fare con la qualità scientifica di una struttura di ricerca, ma che pesano negativamente sulla valutazione.
6) Rapportare ogni settore alla media nazionale dell'area scientifica di appartenenza e non a quella del singolo settore. In altre parole, ad esempio nell'area 05 (Scienze Biologiche), ogni settore (Genetica, Microbiologia,Biologia Molecolare, Biologia Cellulare, Botanica, Zoologia, ecc) oppure ogni dipartimento, dovrebbe rapportare il valore della propria VQR a quello della media nazionale dell'area stessa.
In questo modo, molti dei mostri valutativi a cui abbiamo fatto riferimento verrebbero debellati o almeno addomesticati.
Last but not least: appurato che il sistema VQR è disfunzionale e produce errori di valutazione anche clamorosi, chi ripagherà i settori e i ricercatori penalizzati che si sono visti ingiustamente privare di risorse essenziali?

sabato 28 giugno 2014

YETI: una piccola proteina dalle grandi responsabilità

Segnalo un articolo del mio gruppo pubblicato questo mese su Journal of Cell Science, a cui la rivista ha dedicato la copertina.
http://www.lescienze.it/lanci/2014/06/25/news/la_sapienza_universit_di_roma_yeti_una_piccola_proteina_dalle_grandi_responsabilit-2194194/
http://jcs.biologists.org/content/127/11/2577.abstract?sid=9f940246‐80a4‐4d6f‐a570‐ 313f45bd6382

venerdì 23 maggio 2014

Ma quanto ci costa l'ANVUR?

Ecco gli anvuriani: Stefano Fantoni, Luisa Ribolzi, Andrea Bonaccorsi, Massimo Castagnaro, Andrea Graziosi, Fiorella Kostoris Padoa Schioppa e, dulcis in fundo, Sergio Benedetto, vero artefice e strenuo sostenitore a tutti i costi del sistema “medianico”. Con la partecipazione di Diego Novelli, ora Rettore di Tor Vergata.
Questi sono, chi più chi meno, i fautori dell'attuale sistema di valutazione basato sulle mediane degli indicatori bibliometrici. Un sistema che a guardare i risultati delle recenti abilitazioni scientifiche nazionali (ASN) e della valutazione della qualità della ricerca (VQR) ha suscitato non poche polemiche e si è rivelato uno strumento inadeguato per stimare la qualità della ricerca; un sistema che nessun paese evoluto si sognerebbe mai di utilizzare.
Ma gli anvuriani prestano la loro preziosa opera gratuitamente, oppure ricevono qualche gettone di presenza? Insomma, quanto ci costano i saggi dell'agenzia? Andiamo a leggere la tabella pubblicata l'anno scorso da Roars e prepariamoci al collasso:
Apprendiamo che i sette saggi, per aver messo in piedi il loro bel sistema automatico e quantitativo di valutazione, nel complesso percepiscono la bella somma di 1.281.000 euro!!! Senza contare tutti gli altri docenti coinvolti nella VQR che a loro volta saranno stati ben foraggiati anche se con compensi che non raggiungono le cifre dei 7 sommi anvuriani.
Mi chiedo, ma chi valuta gli anvuriani? Chi decide se hanno lavorato bene e si sono meritati i compensi ricevuti? Qualcuno sostiene che se venissero giudicati in base ai risultati delle ASN e VQR, dovrebbero essere licenziati in tronco!!!

venerdì 16 maggio 2014

La triste storia di AVA e del fattore Kr, ovvero: quand'è che l'ANVUR la smetterà di dare i numeri?

Per quelli che negli anni '60 guardavano Carosello (bei tempi...), la parola AVA evoca la famosa reclam di Calimero, il pulcino piccolo e nero: AVA come lava! Mentre agli appassionati di cinema americano hollywoodiano viene subito in mente la bella Ava Gardner.
Attenzione, niente di tutto ciò, l'AVA in voga di questi tempi è qualcosa di molto più serio: è nientepopodimeno che l'acronimo di Autovalutazione, Valutazione periodica, Accreditamento. Sul sito dell'Agenzia Nazionale di Valutazione di Università e Ricerca (ANVUR) si legge che AVA è "un sistema di accreditamento iniziale e periodico dei corsi di studio e delle sedi universitarie, della valutazione periodica della qualità, dell’efficienza e dei risultati conseguiti dagli atenei e il potenziamento del sistema di autovalutazione della qualità e dell’efficacia delle attività didattiche e di ricerca delle università. L’ANVUR ha il compito di fissare metodologie, criteri, parametri e indicatori per l’accreditamento e per la valutazione periodica". Perbacco: quanti e quali contenuti si possono nascondere dietro un semplice acronimo!
A proposito di AVA, in una comunicazione apparsa il 12 maggio scorso nel sito della ormai mitica agenzia di valutazione viene comunicato quanto segue (http://www.anvur.org/index.php?option=com_content&view=category&layout=blog&id=47&Itemid=362&lang=it):
Pubblichiamo oggi nella sezione AVA/documenti la tabella con i valori del fattore correttivo Kr per ciascun ateneo. Come descritto nel DM 1059/2013 Allegato B, il fattore Kr corregge in senso moltiplicativo l’indicatore relativo alla quantità massima di didattica assistita (DID). Ai fini del calcolo le università sono state divise in grandi, medie e piccole secondo il numero di prodotti attesi. All’interno di ciascun gruppo sono stati calcolati i quartili della distribuzione dell’indice di miglioramento, calcolato in base alla differenza percentuale tra l’indicatore finale VQR ed il peso dell’Università sul proprio gruppo in termini di prodotti attesi. Alle università appartenenti al primo quartile della distribuzione, per ciascun gruppo, viene attribuito il valore massimo del fattore correttivo Kr (Kr = 1,2), per quelle nel secondo quartile il valore Kr = 1,1 , mentre per le altre università Kr=1. Quindi il Fattore Kr non riduce mai il valore del DID.
L'ANVUR ci ricorda così che il fattore Kr serve per correggere l'indicatore DID della didattica assitita che comprende tutte le forme di didattica diverse dallo studio individuale erogabile. Il DID di un ateneo, per chi non lo sapesse, è definito dalla seguente formula: DID = (120 x Nprof + 90 x Npdf +60 x Nric) x (1 +0.30) (http://www.roars.it/online/il-d-m-a-v-a-e-laccreditamento-iniziale-delle-sedi-universitarie/).
E' triste e a dir poco preoccupante che un'attività importante e delicata come la valutazione della ricerca e della didattica venga ridotta ad un mero esercizio solipsistico e automatico di numerologia, fatto di definizioni, indici, fattori, formule, algoritmi, correttivi, regolette, dividendi e moltiplicandi. Costringere i docenti a cimentarsi con una tale selva intricata di regole che hanno poco a che fare con il buon senso e con la cultura, spingerli ad un uso così controproducente e perverso della numerologia significa solo allontanarli dalle loro vere e principali attività: l'insegnamento e la ricerca.
Dietro la scelta del fattore Kr potrebbe, però, nascondersi una fine conoscenza linguistica e forse anche un messaggio criptato di pentimento: nella famiglia delle lingue indoeuropee, la radice kr rimanda al verbo "fare" e, secondo alcuni, anche al verbo "piangere" (http://it.wikipedia.org/wiki/Radici_del_protoindoeuropeo). Non a caso, un tale sistema di valutazione non può che fare piangere!
Che i saggi dell'ANVUR, tra ASN, VQR e AVA, si siano fatti prendere la mano dal sistema di cui sono artefici e ormai dediti all'abuso della numerologia tout court, siano costretti a dare i numeri a vita? Per il loro bene e per evitare il rischio di overdose, auspichiamo che qualcuno al Ministero li aiuti a smettere. Ci sarà pure da qualche parte, una comunità per il recupero e la riabilitazione dei numero-dipendenti.
Agli ostinati seguaci dell'ANVUR, a chi propone la numerologia a tutti i costi e ne sostiene oggettività e democraticità, consiglio di riflettere sulle numerose anomalie prodotte dai risultati delle recenti ASN e VQR e suggerisco di leggere l'approfondito intervento di Fabio Siringo, pubblicato di recente su Roars (http://www.roars.it/online/errare-humanum-est-perseverare-autem-diabolicum-a-proposito-di-asn/).