Scienza aperta e integrità della ricerca

Programma

9 novembre 2017

aula 113 via Festa del Perdono 7

ore 15-19

Emilia Perassi (Università di Milano, delegata per l’Open Access), Paola Galimberti(consigliera AISA, Università di Milano), Maria Chiara Pievatolo (vice-presidente AISA, Università di Pisa),  Apertura dei lavori

Alberto Baccini (Università di Siena) Giuseppe De Nicolao (Università di Pavia)
ANVUR: i dati chiusi della bibliometria di stato

L’Italia è probabilmente il paese del mondo occidentale dove l’ossessione per le etichette d’eccellenza sta modificando più profondamente i comportamenti dei ricercatori e delle istituzioni. Con l’esercizio di valutazione massiva della ricerca denominato VQR, si è inaugurata una fase di crescente controllo centralizzato, realizzato attraverso dispositivi apparentemente tecnici. Il tentativo di dare una giustificazione scientifica ai metodi di valutazione adottati nella valutazione ha generato un inedito conflitto tra dimensione politica, scientifica ed etica della ricerca. In questo contributo, l’attenzione è focalizzata sull’esperimento condotto e analizzato dall’Agenzia italiana per la valutazione della ricerca (ANVUR) per validare la metodologia adottata per la valutazione. Se ne descrive dettagliatamente la strategia di diffusione da parte dell’agenzia, con la pubblicazione di estratti dei rapporti ufficiali in working papers di diverse istituzioni, riviste accademiche e blog gestiti da think-tank. E si illustra un inedito conflitto di interessi: la metodologia e i risultati della valutazione della ricerca nazionale sono stati giustificati a posteriori con documenti scritti dagli stessi studiosi che hanno sviluppato e applicato la metodologia ufficialmente adottata dal governo italiano. Inoltre, i risultati pubblicati in questi articoli non sono replicabili, dal momento che i dati non sono mai stati resi disponibili a studiosi diversi da quelli che collaborano con ANVUR.

Mario Biagioli (Center for Science & Innovation Studies – UC Davis)
Metrics and misconduct: redefining “publication” and “evaluation”

Tradizionalmente, la frode scientifica e accademica è stata legata alla mentalità “publish or perish” e, più recentemente, alle nuove possibilità offerte dalle tecnologie di pubblicazione digitale. Voglio suggerire, invece, che oggi la frode sta attraversando una fase di profonda trasformazione, adattandosi ai nuovi regimi di valutazione basati su indici quantitativi, ed ai nuovi incentivi a loro associati. Questi sviluppi stanno influenzando sia la pratica che il concetto di frode. La definizione tradizionale di frode era radicata sull’opposizione fra verità e falsità, giusto e sbagliato, errore onesto e manipolazione intenzionale. Invece, alcune delle nuove forme di frode connesse e incentivate dai regimi quantitativi di valutazione accademica sembrano più vicine a pratiche di “gaming” che a chiare violazioni di norme etiche o legali. Queste nuove forme di frode ci spingono quindi a ridefinire la frode ma, allo stesso tempo, ci chiedono anche di ripensare sia il concetto di pubblicazione che di quello d’impatto.

Enrico Bucci (Sbarro Health Research Organization – Temple University, Philadelphia; Resis Srl – Ivrea)
Metriche bibliometriche ed effetti distorsivi su etica e produzione scientifica

La tendenza attuale ad inquadrare la ricerca scientifica di qualunque ambito come un’attività fortemente competitiva per i fondi e per l’avanzamento professionale è giustificata con l’argomentazione che, in presenza di un finanziamento pubblico limitato, le istituzioni che rappresentano il cittadino devono poter effettuare una scelta quanto più oculata possibile degli enti e dei ricercatori destinatari del denaro pubblico.
Sebbene questa argomentazione possa essere condivisibile, essa costituisce il punto di partenza per la creazione di un meccanismo che in realtà tradisce proprio lo scopo che si intende raggiungere, quello cioè di identificare la migliore ricerca ed i migliori ricercatori e di garantire il miglior ritorno possibile all’investimento del cittadino. Trascurando infatti di approfondire cosa si intende per migliori scienziati e per scienza più promettente, è facile dimostrare come le politiche concretamente messe in atto, tutte poggiate sull’uso distorto e in taluni casi assolutamente infondato di metriche bibliometriche più o meno complesse, soprattutto quando tali politiche si accompagnano ad una eccessiva concentrazione di fondi su pochi istituti e ricercatori “di eccellenza”, producono di fatto una profonda distorsione nelle finalità stesse della ricerca scientifica ed in ultima analisi portano ad un’esponenziale crescita di pubblicazioni manipolate e false. Poiché queste sono a loro volta utilizzate tal quali per la valutazione della ricerca, si genera un pericoloso meccanismo a feedback positivo, con il catastrofico risultato finale che si può prevedere, per cui tutte le risorse finiscono per essere allocate nella peggiore ricerca.

Giuseppe Longo (Centre Cavaillès, CNRS, Ecole Normale Supérieure, Paris; Department of Integrative Physiology and Pathobiology, Tufts University School of Medicine, Boston)
Scienza e senso: deformazioni scientiste del rapporto al reale

Una nuova correlazione sembra stabilirsi fra strumenti di valutazione e «scientismo». Da una parte, tecniche bibliometriche rendono difficile quel che in scienza più conta: lo spirito critico, l’idea veramente originale, l’apertura di nuovi spazi di senso, necessariamente non con-sensuali. Dall’altra, sempre più si fa credere che la scienza coincida con l’occupazione progressiva e completa del reale con gli strumenti che già si hanno. Così «metodi di ottimizzazione», originari e pertinenti in teorie fisico-matematiche del XIX secolo, pretendono di governare l’economia all’equilibrio, individuare l’ottimalità di traiettorie filogenetiche ed ontogenetiche in biologia, guidare il «deep learning» sui Big Data. Promesse mirabolanti (curare l’Alzheimer ed il Parkinson capendoli nel silicio, personalizzare la medicina grazie ad una perfetta conoscenza del DNA, prevedere senza capire grazie ai Big Data …) sono accompagnate dall’uso di strumenti ben consolidati o vetusti, a tutti comprensibili, di facile successo bibliometrico a breve termine e presentate con parole d’ordine allettanti (il percorso migliore, l’unico possibile, in economia, in biologia, … ; macchine per il «deep learning», con o senza «supervisione» e con «ricompense», che evocano un bambino Pavloviano che apprende). Le tante promesse garantiscono finanziamenti miliardari, definiscono i progetti di “eccellenza”; il dubbio scientifico, l’incertezza, il “risultato negativo”, la critica che esplora altri punti di vista, ne vengono esclusi. Così, progetti ricchissimi portano a valanghe di pubblicazioni e di citazioni, in giochi di rinvii reciproci; queste garantiscono nuovi finanziamenti.
Lo scientismo crede nel progresso cumulativo della scienza, lungo un’unica via possibile verso la verità, indicata ovviamente da chi detiene il “pacchetto di maggioranza”; le bibliometria è la misura e l’indicatore di tale progresso. Si metteranno infine in evidenza i legami stretti fra scienza e democrazia, fra scienza e costruzione storica di senso.

Moderatore: Roberto Caso (presidente AISA, università di Trento)

10 novembre 2017

Sala Napoleonica via Sant’Antonio 12

ore 9-13

Maria Cassella (Università di Torino)
Strumenti e pratiche per l’open science: l’open peer review tra opportunità e (qualche) perplessità

L’intervento si propone di offrire una prima riflessione sulle pratiche dell’open peer review, un termine cappello che racchiude diverse modalità alternative di revisione “aperta” tra pari.
Ford (2013), ad esempio ne cita otto, mentre Hellauer (2016) ne individua sette diverse tipologie.
L’open peer review migliora il processo di revisione rendendolo più aperto e trasparente. Il contributo cerca, tuttavia, di rispondere a due temi cruciali per il futuro dell’open peer review:

  1. come raccogliere una massa critica di contributi che siano scientificamente rilevanti;
  2. se l’open peer review possa dirsi qualitativamente superiore al sistema di revisione più tradizionale (single blind o double blind che sia).

Rispetto al primo problema l’autore propone come forma ottimale di opr non quella dell’open crowd review (open participation) che può essere utilizzata post-pubblicazione per raccogliere eventuali commenti e suggerimenti ma quella basata sull’invito a partecipare al dibattito rivolto ad una cerchia selezionata di revisori.Le diverse forme di opr non sono, infatti, neutrali rispetto alle comunità, ai gruppi di ricerca alle tipologie (monografia o articolo) e alle modalità di pubblicazione (piattaforma o rivista). Rispetto al secondo problema alcuni studi dimostrano la superiore valenza qualitativa dell’opr: Bormann (2011) e Maria K. Kowalczuk, et al. (2015).
L’adozione dell’opr nella comunicazione scientifica richiede un cambio di paradigma. La tecnologia e la scienza aperta stanno favorendo la diffusione di diverse forme di opr. Grazie alla revisione partitaria aperta la peer review riacquista il valore di servizio per le comunità di ricerca e si esalta il dialogo tra scienziati e tra discipline diverse. “Somewhere along the way in education, we forgot that peer review is a conversation. The peer-review process reminds us of those human connections.”(Brito et al. 2014). Rispetto al nesso con le norme mertoniane della scienza l’opr facilita e velocizza il riconoscimento pubblico del lavoro del ricercatore. Aggiunge al riconoscimento per il lavoro di ricerca anche il riconoscimento del lavoro dei revisori. Al tempo stesso rispetta il valore mertoniano del comunismo. Nel mondo dell’open science le norme mertoniane della scienza riprendono vigore, anche se restano imperfette.

Diego Giorio (Comune di Villanova Canavese – SEPEL Editrice)
Gli open data pubblici a supporto e validazione della ricerca

Nell’era dell’informazione, l’immenso patrimonio di dati detenuti negli uffici pubblici, può essere messo a disposizione di tutti: cittadini, studiosi, altre entità pubbliche e di ricerca. Dati demografici, nascite, morti con relative cause, rilievi topografici, cataloghi di musei e biblioteche, elementi sulle attività industriali ed artigianali, flussi di traffico… Solo per citare i primi esempi che vengono in mente di una lista quasi infinita.
Le norme già ci sono, la diffusione dei dati stenta però a decollare per tanti motivi, dalla penuria di tempo e di personale negli uffici, alla scarsa attitudine mentale degli impiegati, agli applicativi software non ancora adeguati. Con opportune campagne di informazione, e con l’auspicabile svecchiamento della PA, non si tratta tuttavia di un problema insormontabile.
Un secondo problema da non sottovalutare è l’anonimizzazione dei dati, che devono essere resi disponibili in forma sufficientemente dettagliata da essere utili e fruibili, ma abbastanza aggregata da non poter risalire all’interessato neppure per via indiretta, questione piuttosto scivolosa nell’era dei big data. Questo rischio si accentua per la peculiarità del territorio italiano, diviso in quasi 8000 Comuni anche molto piccoli.
Assumendo comunque che i dati siano disponibili e correttamente gestiti, l’effetto non può che essere positivo per i ricercatori e per chi deve verificare il loro lavoro. Inoltre, poiché non sempre i dati in possesso della PA sono corretti e completi, potrebbe verificarsi anche il percorso inverso, ovvero la correzione di errori ed anomalie rilevate nel corso della ricerca.
Insomma, un circolo virtuoso che non è facile innescare ma che, una volta messo in moto, non può che portare benefici a tutta la società.

Daniela LuziRoberta RuggieriLucio PisacaneRosa Di Cesare (CNR – Istituto di Ricerche sulla Popolazione e le Politiche Sociali, Roma)
Open peer review dei dati: uno studio pilota nelle scienze sociali

L’open peer review (OPR) può essere applicata a tutte le tipologie di risultati della ricerca, dagli articoli scientifici, alle proposte di progetto fino ai dataset. Tuttavia, a partire dalla sua definizione, vanno ancora analizzati i criteri e modalità per assicurare una valutazione trasparente ed efficace per il progresso della ricerca scientifica. Ciò si inquadra nell’ambito dell’Open Science che coglie l’esigenza di analizzare le trasformazioni strutturali e tecnologiche nel sistema della comunicazione scientifica odierna. E’ proprio in tale contesto che i principi di Merton – in particolare quelli di communality e organized skepticism – diventano importanti punti di riferimento.
Questo studio ha lo scopo di analizzare l’applicabilità della revisione paritaria aperta dei dati della ricerca prodotti nelle discipline afferenti alle scienze sociali. Lo studio inserisce nel progetto europeo OpenUP (OPENing UP new methods, indicators and tools for peer review, dissemination of research results, and impact measurement), che intende analizzare le trasformazioni nell’attuale scenario della ricerca scientifica allo scopo di 1) identificare meccanismi, processi e strumenti innovativi per la peer review applicata a tutti i risultati della ricerca (pubblicazioni, software e dati), 2) esplorare i meccanismi della disseminazione innovativa efficaci per le imprese, l’industria, il settore educativo e la società nel suo insieme e 3) analizzare un insieme di nuovi indicatori (altmetric) che valutano l’impatto dei risultati della ricerca collegandoli ai canali per la disseminazione.
OpenUp utilizza una metodologia centrata sull’utente. Questo approccio metodologico non solo coinvolge tutti gli stakeholder (ricercatori, case editrici, enti che finanziano la ricerca, istituzioni, industria e il pubblico in generale) in una serie di workshops, conferenze e corsi di formazione, ma vuole testare i risultati acquisiti in un set di studi pilota. Questi ultimi sono collegati ai tre pilastri del progetto (revisione paritaria, disseminazione innovativa dei risultati e altmetric) e sono applicati ad alcune comunità e settori della ricerca specifici: scienze umane, scienze sociali, energia e scienze della vita.
Nello specifico il lavoro presentato intende descrivere la metodologia usata per sviluppare lo studio pilota sull’OPR dei dati nelle scienze sociali. In particolare si concentra sulla prima fase che intende ricostruire il contesto generale della diffusione e condivisione dei dati. Sulla base di questa analisi, saranno identificati i criteri di selezione della comunità da coinvolgere nello studio pilota, insieme alle caratteristiche e alle problematiche specifiche che verranno successivamente indagate durante il suo svolgimento. L’analisi prende in considerazione sia la prospettiva di coloro che forniscono i dati sia quella degli utenti che li utilizzano. Essa si pone nella prospettiva di considerare i principi Mertoniani ed in particolare le problematiche legate alla loro applicabilità nella condivisione e valutazione dei dati della ricerca.

Silvia Scalzini (LUISS Guido Carli, Lider Lab – Dirpolis Scuola Superiore Sant’Anna)
A chi appartengono le mie idee? Un itinerario tra diritto ed etica attorno al concetto di ‘scientific authorship’ nell’era della scienza aperta

Un lavoro scientifico, a qualunque branca del sapere appartenga, è il frutto di intuizione, dedizione e della costruzione di una profonda conoscenza dell’argomento. Uno dei problemi più spinosi è la corretta attribuzione di un lavoro scientifico a colui o coloro che lo hanno posto in essere. Tale difficoltà deriva da una serie di fattori. Anzitutto un lavoro scientifico non si limita all’articolo finale, ma comprende misurazioni, sperimentazioni, scambi di idee, codici e così via, elementi non facilmente scomponibili ed attribuibili ai vari “autori”. Altre volte, la non corretta attribuzione di un lavoro deriva da condotte scorrette poste in essere dai ricercatori. Tali condotte si collocano in uno spettro di mutevole gravità, che va dal plagio ad “appropriazioni” sempre più sfumate. Per citare alcuni esempi estremi, sono diffusi i casi in cui il lavoro di giovani ricercatori non viene riconosciuto e la paternità è usurpata. Sono noti anche casi in cui l’ordine dei nomi degli autori in un paper scientifico è deciso arbitrariamente, in assenza di coercibilità della condotta. E l’elenco potrebbe continuare con la descrizione della morfologia di vecchie e nuove attività che si pongono più o meno nitidamente in esso, e che sono esacerbate dall’attuale contesto del “publish or perish”.
La disciplina sul diritto d’autore protegge l’espressione dell’idea e non l’idea in sé. L’opera dell’ingegno, inoltre, per essere suscettibile di protezione dovrà superare la soglia del “carattere creativo”. I canoni del diritto d’autore non sono, quindi, spesso in grado di regolare “i debiti di idee degli scienziati” (M. Bertani, Diritto d’autore e connessi, in L.C. Ubertazzi (a cura di), La Proprietà Intellettuale, Giappichelli, 2011, p. 276), anche per motivi legati a esigenze di certezza del diritto e di effettività della tutela. In certi casi sono le stesse comunità scientifiche ad autoregolarsi, attraverso l’adozione di norme sociali – ad esempio in materia di ordine dei nomi nelle pubblicazioni – e di codici di condotta, come quelli – sempre più raffinati – in materia di integrità nella ricerca, che mirano ad indicare i – ed educare ai – “principi ed ai valori etici, dei doveri deontologici e degli standard professionali sui quali si fonda una condotta responsabile e corretta da parte di chi svolge, finanzia o valuta la ricerca scientifica nonché da parte delle istituzioni che la promuovono e la realizzano” (Linee Guida per l’integrità nella ricerca, elaborate nell’ambito delle attività della Commissione per l’Etica della Ricerca e la Bioetica del Consiglio Nazionale delle Ricerche (CNR)). La scienza aperta, inoltre, può agevolare la corretta attribuzione di un lavoro, in quanto la diffusione di un’idea ad una vasta comunità scientifica dovrebbe sancirne pubblicamente la priorità. Labili sono, tuttavia, ancora i confini del concetto di attribuzione scientifica ed incerto il perimetro delle condotte illecite e scorrette che vi si associano, nonché del limite tra il fisiologico evolversi della scienza ed il suo carattere patologico.
Il presente lavoro intende, dunque, illustrare una riflessione in corso sull’intersezione e la sovrapposizione di nozioni ed interpretazioni che ruotano attorno al concetto di “attribuzione scientifica” a cavallo tra le varie categorie del diritto e dell’etica.

Moderatore: Marco Pedrazzi (presidente del Comitato etico dell’Università di Milano)

 

Chi desidera partecipare al convegno, soprattutto se preferisce che la sua presenza sia certificata, può registrarsi qui.

Programma

Locandina

Registrazione

Sedi dei lavori

Richiesta di contributi (cfp)

English version