Archive for the ‘Opinions’ Category

Αριστοτέλης Παπαγεωργίου

Δικαιοσύνη στη μεταφορά των αποτελεσμάτων της έρευνας

Η γνώση, η πληροφορία κάθε μορφής και η άποψη θεωρούνται εδώ ως δημόσιο αγαθό (Suber 2009). Η ανάπτυξη των σύγχρονων μορφών επικοινωνίας ευνοεί περισσότερο από ποτέ τη διάχυση της γνώσης, της πληροφορίας και της άποψης (Abelson 2008). Η επιστημονική έρευνα είναι θεμελιώδες συστατικό της πανανθρώπινης συνύπαρξης. Είναι η βάση της ανάπτυξης της τεχνολογίας, της ευημερίας των ανθρώπων και της δημιουργίας νέας σκέψης. Συνδέει την ανάγκη διατήρησης και μεταφοράς της υφιστάμενης γνώσης και παράδοσης με την ανάπτυξη του νέου, την εξέλιξη και την πρόοδο. Κοινωνίες που έδωσαν προτεραιότητα στην επιστημονική έρευνα, θεωρητική και εφαρμοσμένη, κατάφεραν να αναπτύξουν ανταγωνιστική τεχνολογία και αξιόλογο πολιτισμό, επιτυγχάνοντας συνήθως υψηλού επιπέδου βιωτικό επίπεδο για τους πολίτες. Στον αντίποδα, όταν η έρευνα θυσιάζεται λόγω οικονομικών δυσχερειών και άλλων προτεραιοτήτων, οδηγούμαστε συνήθως σε αποκλεισμό και ύφεση.

Τα αποτελέσματα των επιστημονικών ερευνητικών δράσεων θα έπρεπε κατά συνέπεια να είναι και αυτά δημόσιο αγαθό, να διακινούνται ελεύθερα και να διαχέονται ανεμπόδιστα από και προς όποιον επιθυμεί να ενημερωθεί (Suber 2009). Η ελεύθερη αυτή διακίνηση γνώσης, πληροφορίας και άποψης στηρίζει την πρόοδο της επιστήμης αλλά και τη σύνδεση της επιστήμης με την κοινωνία. Με βάση την προσέγγιση αυτή, θεωρούμε τη δίκαιη διακίνηση των αποτελεσμάτων της έρευνας εξετάζοντας δύο βασικές συνιστώσες: (α) την ελεύθερη και ανεμπόδιστη πρόσβαση στα αποτελέσματα αυτά όλων των ανθρώπων όλου του κόσμου, των χρηστών δηλαδή και (β) τη δίκαιη και ισότιμη δυνατότητα δημοσιοποίησης των αποτελεσμάτων της επιστημονικής έρευνας για όλους τους ερευνητές. Η πρώτη συνιστώσα αφορά τα πνευματικά διακαιώματα που προκύπτουν για τα ερευνητικά προϊόντα και δεδομένα, την κατοχύρωση των δικαιωμάτων αυτών και τη δυνατότητα πρόσβασης που έχει ο κάθε ένας από εμάς σε αυτά ως χρήστης. Το δεύτερο σκέλος αφορά την αποτελεσματικότητα και δικαιοσύνη του συστήματος δημοσιοποίησης της έρευνας για τον ίδιο τον ερευνητή που το επιθυμεί. Στην εργασία αυτή θα γίνει μια προσπάθεια αξιολόγησης του ισχύοντος διεθνούς συστήματος κοινοποίησης των αποτελεσμάτων της έρευνας στις περιβαλλοντικές επιστήμες, μέσα από το πρίσμα των δύο αυτών συνιστωσών που αναφέρθησαν εδώ.

Η δημοσίευση στις περιβαλλοντικές επιστήμες

Η δημοσίευση είναι βασικός παράγοντας προόδου της επιστήμης και της ακαδημαϊκής σκέψης και η συμβολή της σε αυτήν αποτιμάται θετικά, από την εποχή του Γουτεμβέργιου μέχρι σήμερα (Suber 2012). Η επιστημονική δημοσίευση μπορεί να γίνει με διάφορους τρόπους. Το μοντέλο που κυριάρχησε κατά τον 20ό αιώνα και έφτασε στις μέρες μας ως το πλέον κυρίαρχο και αποδεκτό, είναι αυτό της δημοσίευσης των αποτελεσμάτων της επιστημονικής έρευνας με τη μορφή άρθρων σε εξειδικευμένα επιστημονικά περιοδικά. Οι άλλες μορφές δημοσίευσης (παρουσιάσεις σε συνέδρια, άτυπες αναρτήσεις στο διαδίκτυο, σημειώσεις, κεφάλαια σε βιβλία, επιστολές, κ.α.) έχουν σήμερα μικρότερη βαρύτητα, σε σχέση με τα άρθρα σε επιστημονικά περιοδικά (Van Noorden 2010). Ο λόγος για τη διάκριση αυτή είναι κυρίως η διαδικασία της κρίσης μέσα από την οποία οφείλουν να διέλθουν οι εργασίες προκειμένου να δημοσιευτούν. Πρόκειται δηλαδή για μια αξιολόγηση που γίνεται με κριτές τα ίδια τα μέλη της ακαδημαϊκής κοινότητας (peer review) και συντονιστές τους εκδότες των περιοδικών, επίσης μέλη της ίδιας κοινότητας (Hauser & Fehr 2007). Με τον τρόπο αυτό “φιλτράρονται” οι εργασίες που υποβάλλονται για δημοσίευση και το κάθε περιοδικό δημοσιεύει και παρουσιάζει εργασίες υψηλής ποιότητας, με έγκυρα επιστημονικά πορίσματα που προέρχονται από αξιόπιστα ερευνητικά αποτελέσματα. Αν δεν υπήρχε αξιολόγηση, ο χρήστης θα δυσκολεύονταν να διακρίνει τις αυθεντικές και σοβαρές επιστημονικές εργασίες από τις πρόχειρες και μη αξιόπιστες μελέτες. Το σύστημα αυτό λειτουργεί για πολλές δεκαετίες έχοντας προσφέρει πολλά στην πρόοδο της επιστήμης. Σε γενικές γραμμές φαίνεται να είναι ένας λειτουργικός και αποτελεσματικός τρόπος διάχυσης και αξιολόγησης της επιστημονικής γνώσης (Grayson 2009). Είναι όμως δίκαιος;

Το μερίδιο της περιβαλλοντικής έρευνας στις επιστημονικές δημοσιεύσεις είναι μεγάλο. Και αυτό κυρίως επειδή η ίδια η περιβαλλοντική επιστήμη είναι τόσο ευρεία και πολυδιάστατη που περιλαμβάνει σχεδόν όλα τα επιστημονικά πεδία, από τη βιολογία, τα μαθηματικά και τη φυσικοχημεία, μέχρι τα τεχνικά αντικείμενα και τις κοινωνικές και οικονομικές επιστήμες. Για το λόγο αυτό είναι πολύ δύσκολο να διακρίνει κανείς τα επιστημονικά περιοδικά που δημοσιεύουν εργασίες σχετικές με την περιβαλλοντική έρευνα και να τα διαχωρίσει από αυτά άλλων επιστημών. Σχεδόν όλα τα περιοδικά όλων των επιστημών δημοσιεύουν ή μπορούν να δημοσιεύσουν τέτοιες εργασίες.

Τα επιστημονικά περιοδικά σήμερα αξιολογούνται και αυτά ως προς την ποιότητα της επιστήμης που παρουσιάζουν. Αυτό γίνεται μέσα από διάφορους ποσοτικούς δείκτες, από τους οποίους ένας ιδιαίτερα χρησιμοποιείται σε μεγάλη έκταση και έχει καθιερωθεί διεθνώς: ο “δείκτης βαρύτητας”, ή Impact Factor (IF). Αυτός εξαρτάται από το μέσο αριθμό αναφορών που λαμβάνουν οι εργασίες του κάθε περιοδικού και είναι δείκτης αξιολόγησης και ιεράρχησης των περιοδικών (Τhe PLoS Medicine Editors 2006). Κατά μία στρεβλή έννοια, σήμερα ο δείκτης αυτός χρησιμοποιείται κυρίως σαν μέσο αξιολόγησης επιστημόνων, ιδρυμάτων, σχολών και εργαστηρίων (Bommann et al. 2012). Τα μειονεκτήματα της προσέγγισης αυτής θα εξεταστούν πιο κάτω.

Περιορισμοί πρόσβασης του κοινού στα επιστημονικά περιοδικά

 Τα επιστημονικά περιοδικά χωρίζονται σε διάφορες κατηγορίες σχετικά με το κόστος συνδρομής που αυτά έχουν και τον τρόπο με τον οποίο αυτά διαχειρίζονται τη γνώση που διακινούν. Θα θεωρήσουμε εδώ δύο πολύ βασικές ομάδες: (1) τα συνδρομητικά περιοδικά, όπου όποιος θέλει να τα διαβάσει πρέπει να πληρώσει μια συνδρομή, ή να τα αναζητήσει σε κάποια βιβλιοθήκη ακαδημαϊκού ιδρύματος, που με τη σειρά της έχει πληρώσει τη σχετική συνδρομή και (2) τα περιοδικά “ανοιχτής πρόσβασης” (open access), που ο οποιοσδήποτε ενδιαφερόμενος μπορεί να διαβάσει χωρίς καμία χρέωση, συνήθως διαδικτυακά. Πριν την εξάπλωση του διαδικτύου, σχεδόν όλα τα επιστημονικά περιοδικά ανήκαν στην πρώτη κατηγορία. Σήμερα, η δεύτερη κατηγορία κερδίζει σημαντικό έδαφος (Lawrence 2001, Eysenbach 2006), ενώ εμφανίζονται και ενδιάμεσες καταστάσεις, που το ίδιο περιοδικό προσφέρει τη δυνατότητα στον επιστήμονα που θέλει να δημοσιεύσει την έρευνά του να επιλέξει αν θέλει το άρθρο να δημοσιευτεί χωρίς συνδρομή με ελεύθερη πρόσβαση. Στην περίπτωση αυτή, ο επιστήμονας ή το ίδρυμα όπου αυτός / αυτή εργάζεται αναλαμβάνουν κάποιο κόστος. Ακόμα και σήμερα, η συντριπτική πλειοψηφία των αναγνωρισμένων επιστημονικών περιοδικών ανήκουν στην πρώτη κατηγορία, είναι δηλαδή συνδρομητικά (Willinsky 2005).

Το γεγονός αυτό παρουσιάζει κάποια σημαντικά προβλήματα. Αν κάποιος θέλει να διαβάσει το αποτέλεσμα μιας έρευνας, πρέπει να πληρώσει. Ή να αναζητήσει την έρευνα αυτή μέσω κάποιου πανεπιστημίου ή ερευνητικού ιδρύματος. Η αναζήτηση τότε γίνεται κατά κύριο λόγο από ερευνητές, ή μέλη της ακαδημαϊκής κοινότητας. Όταν κάποιος δεν ανήκει στην οικογένεια αυτή συνήθως δεν έχει πρόσβαση στην έρευνα (Abelson 2008). Αν για παράδειγμα ένας καρκινοπαθής θελήσει να ενημερωθεί για τα τελευταία επιτεύγματα της επιστήμης για το πρόβλημά του, απλά δεν μπορεί. Η γνώση ανακυκλώνεται μόνο στον αυστηρά επιστημονικό χώρο. Το πρόβλημα παίρνει άλλη διάσταση διαπιστώνοντας ότι το σύστημα των αναγνωρισμένων επιστημονικών περιοδικών είναι στην ουσία ολιγοπωλιακό, έως και μονοπωλιακό, με αποτέλεσμα να αυξάνει διαρκώς η τιμή της συνδρομής. Σήμερα, οι πέντε πιο μεγάλοι εκδοτικοί οίκοι καταλαμβάνουν πάνω από το μισό μερίδιο της αγοράς (Suber 2012). Τα 20 τελευταία χρόνια, οι τιμές των περιοδικών έχουν αυξηθεί σε τριπλάσιο ρυθμό από τον πληθωρισμό των ΗΠΑ, την ίδια στιγμή που οι προϋπολογισμοί των ακαδημαϊκών ιδρυμάτων συρρικνώνονται (Abelson 2008). Ακόμα και τα κορυφαία πανεπιστήμια των ΗΠΑ και του Ηνωμένου Βασιλείου αντιμετωπίζουν δυσκολίες να κρατήσουν τις συνδρομές τους ή να αποκτήσουν νέες (Willinsky 2005, Grayson 2009). Στην Ελλάδα βιώνουμε την κατάσταση όπου η υποχρηματοδότηση των ακαδημαϊκών ιδρυμάτων έχει οδηγήσει σε μείωση των προσβάσιμων περιοδικών με ανυπολόγιστες συνέπειες για την έρευνα και την επιστήμη στη χώρα μας.

Συνεπώς, το σύστημα των συνδρομητικών περιοδικών δεν είναι δίκαιο, καθώς δεν έχουν όλοι οι πολίτες πρόσβαση στα αποτελέσματα της έρευνας και στην επιστημονική γνώση γενικότερα. Ιδιαίτερα αν σκεφτούμε ότι οι περισσότερες έρευνες χρηματοδοτούνται από δημόσια κονδύλια (Suber 2009). Τα συγγραφικά δικαιώματα των εργασιών περνούν στους εκδοτικούς οίκους των περιοδικών, που αποτελούν το μόνο μέρος που πληρώνεται. Οι συγγραφείς και τα ιδρύματα που τους πληρώνουν δεν αμείβονται, ούτε έχουν καν πρόσβαση στη δική τους δουλειά. Η ανταμοιβή για τον επιστήμονα είναι η ίδια η δημοσίευση της εργασίας του, που με τον καιρό αποτελεί το σημαντικότερο – ως και το μόνο – κριτήριο αξιολόγησης για τον ίδιο και το ίδρυμα του.

Τα περιοδικά ελεύθερης πρόσβασης ξεπερνούν το πρόβλημα που περιγράφηκε εδώ. Είναι ανοιχτά από το διαδίκτυο και η πρόσβαση δεν περιορίζεται από κανέναν. Τα δε συγγραφικά δικαιώματα μένουν στους ίδιους τους συγγραφείς που μπορούν να διαχειρίζονται όπως επιθυμούν το προϊόν της δημιουργίας τους (Grayson 2009). Τότε γιατί οι συγγραφείς δεν επιλέγουν αποκλειστικά τα περιοδικά ανοιχτής πρόσβασης και συνεχίζουν να στέλνουν κατά προτίμηση τις εργασίες τους σε συνδρομητικά περιοδικά; Η απάντηση είναι ότι οι επιστήμονες προτιμούν να δουν το όνομά τους σε ένα αναγνωρισμένο και γνωστό περιοδικό, παρά να ρισκάρουν τη δημοσίευση σε ένα όχι τόσο γνωστό έντυπο. Οι περισσότεροι στο χώρο της επιστήμης αξιολογούν τις εργασίες μονοσήμαντα, μόνο από το έντυπο όπου αυτές εμφανίζονται και όχι από το περιεχόμενό τους. Παρά τις δυσκολίες αυτές, τα περιοδικά ανοιχτής πρόσβασης πολλαπλασιάζονται και αρκετά από αυτά έχουν ήδη δημιουργήσει πολύ καλό όνομα (Vanclay 2012).

Πόσο κοστίζει μια επιστημονική δημοσίευση;

 Η δικαιοσύνη στην πρόσβαση από την πλευρά των ερευνητών, που αφού ολοκληρώσουν την έρευνα καλούνται να υποβάλουν τη γραπτή τους εργασία για δημοσίευση στα επιστημονικά περιοδικά, θεωρείται εδώ κυρίως σαν παράγοντας ίσων ευκαιριών, αξιοκρατίας και δίκαιης αξιολόγησης. Πριν όμως φτάσει η εργασία στο περιοδικό για να κριθεί, υπάρχει ένας πολύ βασικός παράγοντας που πολλές φορές αποτελεί εμπόδιο στην ισότιμη πρόσβαση στη δημοσίευση: το κόστος. Υπάρχουν δύο τρόποι να δημοσιεύσει κανείς. Αν επιλέξει συνδρομητικό περιοδικό, τότε θεωρητικά δεν πληρώνει ο συγγραφέας αλλά ο αναγνώστης, ενώ στα περιοδικά ανοιχτής πρόσβασης συμβαίνει το αντίθετο.

Στα συνδρομητικά περιοδικά προκύπτουν όμως διάφορα ζητήματα που τελικά οδηγούν τον ερευνητή να βάλει το χέρι στην τσέπη. Κάποια περιοδικά χρεώνουν τις σελίδες, ενώ σχεδόν όλα χρεώνουν κάποιο κόστος για έγχρωμες εικόνες και γραφήματα. Και οι τιμές είναι υψηλές. Σε πολλά επιστημονικά πεδία οι δημοσιεύσεις έχουν φωτογραφίες, χάρτες ή γραφήματα που πρέπει να είναι έγχρωμα, αλλιώς δεν βγαίνει νόημα. Και αν αυτό έβγαζε νόημα την εποχή της έντυπης δημοσίευσης, είναι μάλλον παράλογο για τις ηλεκτρονικές ψηφιακές δημοσιεύσεις. Επίσης τα περισσότερα περιοδικά παρέχουν υπηρεσίες γλωσσικής επιμέλειας και συνιστούν στους συγγραφείς να τις χρησιμοποιήσουν, με κόστος φυσικά. Συχνά αντιμετωπίζουν πολύ καχύποπτα όσους δεν ακολουθούν τη συμβουλή τους. Τελικά η δημοσίευση σε συνδρομητικά περιοδικά κοστίζει αρκετά.

Στα μη συνδρομητικά περιοδικά, όπου ο αναγνώστης έχει ελεύθερη πρόσβαση στα άρθρα, οι συγγραφείς πρέπει να πληρώσουν. Το κόστος μπορεί να φτάσει τα 5.000 ευρώ (Suber 2012). Πολλά περιοδικά της κατηγορίας αυτής είναι βέβαια δωρεάν (Abelson 2008) αλλά τα πιο αναγνωρισμένα είναι ακριβά. Υπάρχουν εναλλακτικές, όπως είναι η μείωση όλου ή μέρους του κόστους για κάποιες χώρες από κάποια περιοδικά. Ή οι συνδρομές από πανεπιστήμια και ινστιτούτα. Κάποια περιοδικά δέχονται άρθρα δωρεάν, αν ο συγγραφέας δηλώσει υπεύθυνα ότι η έρευνά του δεν χρηματοδοτείται από πουθενά (Suber 2012). Αλλά στις περισσότερες περιπτώσεις, ο συγγραφέας πρέπει να πληρώσει.

Το κόστος της δημοσίευσης είναι παράγοντας ανισότητας στην ελεύθερη πρόσβαση πριν την κρίση στο περιοδικό. Επιστήμονες από σχετικά φτωχές χώρες, από μικρά πανεπιστήμια ή ανεξάρτητοι ερευνητές συχνά καλούνται να πληρώσουν ποσά που δεν μπορούν να καλύψουν και μοιραία αδυνατούν να προσεγγίσουν πολλά περιοδικά. Με τον τρόπο αυτό συντηρείται ένας ελιτισμός διακίνησης της επιστημονικής γνώσης από μία μειοψηφία ιδρυμάτων και επιστημονικών ομάδων, όπου η πρόσβαση από «έξω» είναι δύσκολη.

Η κρίση των εργασιών και τα προβλήματά της

Από τη στιγμή που θα φτάσει μία εργασία στο γραφείο (ή στο ηλεκτρονικό ταχυδρομείο) του εκδότη ενός περιοδικού, ξεκινά μία διαδικασία κρίσης από τον εκδότη αρχικά και από διάφορους κριτές, που στέλνουν την κρίση τους στον εκδότη ώστε αυτός τελικά να αποφασίσει την τύχη της δημοσίευσης. Το σύστημα αυτό των συναδέρφων – κριτών (peer review) αντιμετωπίζει συγκεκριμένα προβλήματα αξιοπιστίας και δικαιοσύνης (Laband & Piette 1994, Symonds et al. 2006).

Καταρχήν, η κρίση από μόνη της είναι μια υποκειμενική διαδικασία. Από τη στιγμή που δεν υπάρχουν αντικειμενικά κριτήρια αξιολόγησης της επιστημονικής ποιότητας των εργασιών, ο κάθε ένας κριτής ή εκδότης αποφασίζει με βάση τη δική του κρίση με υποκειμενικό τρόπο. Μπορεί δηλαδή, όσο σοβαρός και αν είναι ο κριτής, να επιρεαστεί από προσωπικές συμπάθειες ή αντιπάθειες, απόψεις σχετικά με την αξία ή όχι συγεκριμένων επιστημονικών πεδίων, ερευνητικών ομάδων, αντιλήψεων, μεθόδων, ιδρυμάτων ή και χωρών. Επίσης υπάρχει και μια σχετική ανταγωνιστικότητα μεταξύ ιδρυμάτων και επιστημόνων που μπορεί να επηρεάσει την κρίση, ειδικά τη στιγμή που ο κριτής παραμένει ανώνυμος. Το σύστημα σήμερα δεν μπορεί να φυλάξει έναν συγγραφέα από την αρνητική κρίση ενός ανταγωνιστή του, ή αντίστοιχα τη θετική κρίση ενός φίλου του (Laband & Piette 1994).

Και αν η προηγούμενη περίπτωση υπάγεται στην αδυναμία της ανθρώπινης φύσης, η όλο και αυξανόμενη ζήτηση για κριτές από τα περιοδικά προκαλεί άλλες παρενέργειες. Τα επιστημονικά περιοδικά αυξάνουν με εκθετικό ρυθμό (Abelson 2008), το ίδιο και ο αριθμός των επιστημονικών εργασιών που υποβάλλονται κάτω από την πίεση της ακαδημαϊκής εξέλιξης των επιστημόνων. Τα περιοδικά χρειάζονται κριτές και οι εργασίες που στέλνονται στα μέλη της ακαδημαϊκής κοινότητας αυξάνουν. Αυτό σημαίνει ότι κάτω από την πίεση αυτή πολύ πιθανόν να επιλέγονται και «ακατάλληλοι» κριτές, επιστήμονες δηλαδή που βρίσκονται στα όρια του επιστημονικού αντικειμένου που καλούνται να κρίνουν. Πέρα από τις απίθανες χρονικές καθυστερήσεις (Hauser & Fehr 2007), η ανθρώπινη φύση αναλαμβάνει και εδώ δράση: προκειμένου να εκφέρουν άποψη, οι κριτές που δεν βρίσκονται ακριβώς στην καρδιά του αντικειμένου της εργασίας που κρίνουν, αλλά κατανοούν μόνο μέρος της, ασχολούνται εξονυχιστικά μόνο με αυτό το μέρος που κατανοούν. Έτσι προκύπτουν κρίσεις και αξιολογήσεις των εργασιών που αδυνατούν να συλλάβουν το σκοπό μιας εργασίας και προτείνουν διορθώσεις που δεν έχουν νόημα (Papageorgiou 2013).

Πέρα από αυτά τα σχετικά κατανοητά προβλήματα, υπάρχουν και περιπτώσεις όπου η δίκαια και ορθή αξιολόγηση μιας εργασίας μπορεί να αλλοιωθεί εξ επίτηδες, με σκοπό τη γρήγορη και απροβλημάτιστη δημοσίευση, πάντα κάτω από την πίεση ενός ιδιαίτερα πιεστικού ακαδημαϊκού συστήματος (Laband & Piette 1994). Παρατηρείται δηλαδή η τάση, συγκεκριμένοι ερευνητές να επιλέγουν σταθερά συγκεκριμένα περιοδικά, όπου η κρίση είναι πιο εύκολη και ευνοϊκή προς εκείνους ή γενικά. Καταγράφονται περιπτώσεις επιλογής γνωστών κριτών ή εκδοτών (εκεί όπου επιτρέπεται η πρόταση κριτών), ή η εμφάνιση και καθιέρωση περιοδικών που είναι πιο «εύκολα» από άλλα, προσφέροντας χαμηλή τιμή δημοσίευσης για τους συγγραφείς. Έτσι βλέπει κανείς πολύ μέτριες έως ανακριβείς εργασίες να φιγουράρουν σε περιοδικά υψηλής ποιότητας και ταυτόχρονα περιοδικά με σταθερά μέτριες και ελλιπείς εργασίες (Ioannidis 2005). Ακραία, αλλά δυστυχώς συχνή, περίπτωση αποτελούν τα λεγόμενα «αρπακτικά περιοδικά» (predator journals), που κατακλύζουν τα ηλεκτρονικά ταχυδρομεία των ερευνητών με προτάσεις δημοσίευσης διαφημίζοντας την ευκολία που μπορεί κανείς να περάσει μία εργασία. Συχνά εμφανίζονται καταγγελίες για περιοδικά της κατηγορίας αυτής που συστηματικά «κλέβουν» αντιγράφοντας λέξη προς λέξη άλλες εργασίες, ή παρουσιάζουν επαναλήψεις της ίδιας δημοσίευσης (Miller & Harris 2004).

Ίσως το πιο βασικό πρόβλημα με την κρίση των εργασιών που υποβάλλονται προς δημοσίευση να αποτελεί το γεγονός ότι η εργασία διαμορφώνεται με τέτοιο τρόπο ώστε τελικά να είναι αρεστή στους κριτές ή στους εκδότες. Ακόμα και αν η κρίση είναι αντικειμενική και ορθή, πολλές φορές οι κριτές προτείνουν αλλαγές ουσίας, που αλλάζουν τη φύση των εργασιών (Pain 2013). Έτσι, πριν την υποβολή ακόμα, οι συγγραφείς ακολουθούν μία «πεπατημένη» διαδικασία συγγραφής που γνωρίζουν ότι είναι αρεστή σε κριτές. Επιλέγουν συγκεκριμένες τεχνικές ανάλυσης που είναι του «συρμού», ερευνητικά ερωτήματα που αρέσουν στην επιστημονική κοινότητα, στατιστικές αναλύσεις που μπορεί να είναι περιττές και γενικά ακολουθούν τη λογική της δημιουργίας εντύπωσης στους εκδότες, που με τη σειρά τους ακολουθούν μια πιο εμπορική και ανταγωνιστική φιλοσοφία απέναντι σε άλλα περιοδικά (Papageorgiou 2013). Επιπλέον, προκειμένου να πετύχουν τη δημοσίευση, οι συγγραφείς θα ακολουθήσουν πιστά τις συστάσεις κριτών και εκδοτών, ακόμα και αν αυτές αλλάζουν το ερευνητικό ερώτημα που τέθηκε εξ αρχής. Το σύστημα λοιπόν αυτό, ωθούμενο και από την ολοένα αυξανόμενη ανάγκη των νέων ερευνητών να πετύχουν πολλές δημοσιεύσεις σε σύντομο χρονικό διάστημα, τελικά δημιουργεί ένα πολύ σταθερό και στενό πλαίσιο που θα πρέπει να κινούνται οι εργασίες. Σε τελική ανάλυση, αυτό μειώνει τη δημιουργικότητα των νέων επιστημόνων, μειώνει τον αυθορμητισμό και την πρωτοτυπία και συχνά δρα ενάντια στην ίδια την πρόοδο της επιστήμης (Hauser & Fehr 2007).

Η κακή χρήση του IF: όταν το μέσο γίνεται σκοπός

Ένας τρόπος να αξιολογούνται τα περιοδικά ως προς την ποιότητά τους είναι ο ευρύτατα χρησιμοποιούμενος δείκτης βαρύτητας, γνωστός σαν impact factor (IF). Όπως αναφέρθηκε στην εισαγωγή, ο IF υπολογίζεται ως ο μέσος αριθμός αναφορών που λαμβάνουν οι εργασίες του κάθε περιοδικού, σε περιοδικά που έχουν ήδη IF και αναφέρονται στη σχετική λίστα (Τhe PLoS Medicine Editors 2006). Αμέσως καταλαβαίνει κανείς ότι το σύστημα είναι κάπως «κλειστό», καθώς δεν προσμετρώνται οι αναφορές που γίνονται σε εργασίες που είναι εκτός περιοδικών της λίστας των IF (Τhe PLoS Medicine Editors 2006). Άλλα συστήματα προσμέτρησης αναφορών (Scopus, Google Scholar) είναι πιο ανοιχτά, όμως και αυτά περιορίζονται σε ένα συγκεκριμένο κατάλογο περιοδικών και βιβλίων.

Επιπλέον, επειδή ο IF ενός περιοδικού προέρχεται από αναφορές σε όλα τα άρθρα του περιοδικού αυτού , ο αριθμός αυτός δεν μπορεί να μας δώσει καμία πληροφορία για την ποιότητα ενός συγκεκριμένου άρθρου, ούτε για την ποιότητα της εργασίας ενός συγκεκριμένου συγγραφέα. Έτσι ο IF ενός περιοδικού μπορεί να επηρεαστεί σημαντικά από τη δημοσίευση άρθρων ανασκόπησης, ή άρθρων που πραγματεύονται θέματα που απασχολούν μεγάλο αριθμό ερευνητών (π.χ. βιοϊατρικά θέματα) (Τhe PLoS Medicine Editors 2006).

Πέρα από τη στατιστική του στρεβλότητα, είναι σημαντικό να κατανοήσουμε ότι ο IF ενός περιοδικού δεν είναι χρήσιμος δείκτης έξω από το στενό πυρήνα της επιστημονικής κοινότητας του συγκεκριμένου αντικειμένου που αναφέρεται το περιοδικό. Με το σκεπτικό αυτό, είναι αδύνατον να συγκριθούν δύο περιοδικά διαφορετικών επιστημονικών πεδίων ως προς τον IF (Schmidt 2013).

Παρά τους εμφανείς περιορισμούς οι IF των περιοδικών που δημοσιεύουν οι διάφοροι ερευνητές έχει πολύ μεγάλη επιρροή στην ακαδημαϊκή κοινότητα και στο σύστημα αξιολόγησης ερευνητών και ιδρυμάτων. Είναι γεγονός ότι ακόμη και η εταιρεία «Thomson Scientific», που διαχειρίζεται το δείκτη αυτό, αναγνωρίζει ότι ο IF έχει αυξηθεί πέρα από τον έλεγχό της και χρησιμοποιείται σε πολλούς ακατάλληλους τρόπους (Τhe PLoS Medicine Editors 2006). Σαν μέτρο αξιολόγησης, οι IF των περιοδικών έχουν χρησιμοποιηθεί αποκλειστικά για να αποφασίσει εάν ένας επιστήμονας θα ανέβει βαθμίδα στο ίδρυμα του ή όχι, αν θα βρει εργασία ή αν θα πάρει κάποια επιχορήγηση ή πρόγραμμα. Σε ορισμένες χώρες, η χρηματοδότηση ολόκληρων ιδρυμάτων εξαρτάται από τον αριθμό των δημοσιεύσεων σε περιοδικά με IF (Bommann et al. 2012). Σήμερα σε πολλές χώρες και σε πολλά ακαδημαϊκά ιδρύματα, πρόσωπα, εργαστήρια και ερευνητικές ομάδες αξιολογούνται με ένα νούμερο, το συνολικό IF των εργασιών που δημοσιεύουν. Έτσι, ένας κριτής ή εκλέκτορας δεν χρειάζεται να διαβάσει τις εργασίες που υποβάλλει ένας υποψήφιος για εξέλιξη, απλά υπολογίζει το νούμερο αυτό και κρίνει (Papageorgiou 2013). Αυτό το σύστημα είναι προφανώς άδικο και αναξιοκρατικό. Οδηγεί δε τους ερευνητές σε έναν αδυσώπητο αγώνα να δημιουργήσουν εργασίες αρεστές σε συγκεκριμένα περιοδικά και μόνο, που τελικά μειώνει την ποιότητα της επιστήμης αντί να την αυξάνει διαχρονικά.

Από την πλευρά των περιοδικών, υπάρχει επίσης ένας μεγάλος ανταγωνισμός, καθώς ο IF τους προσδίδει κύρος και αυξάνει την προτίμηση από την πλευρά των συγγραφέων και τις συνδρομές από την πλευρά των ακαδημαϊκών ιδρυμάτων. Στο πλαίσιο του ανταγωνισμού αυτού, πολλές φορές τα περιοδικά επινοούν τρόπους τεχνητής αύξησης του IF. Συχνά μπορεί να ζητούν από τους υποψήφιους συγγραφείς να αναφέρουν εργασίες του ίδιου του περιοδικού, ή οι συγγραφείς από μόνοι τους να επιλέγουν αυτήν την τακτική προκειμένου να γίνουν αρεστές και αποδεκτές οι εργασίες τους (Τhe PLoS Medicine Editors 2006). Επίσης μπαίνουν στη διαδικασία να επιλέγουν εργασίες σε αντικείμενα που είναι δημοφιλή, που χρησιμοποιούν μεθόδους που είναι σύγχρονες και διαδεδομένες. Άλλος τρόπος αύξησης του IF είναι να μειώνεται ο παρανομαστής του σχετικού κλάσματος, ο αριθμός δηλαδή των εργασιών που τελικά δημοσιεύονται και ο αριθμός των αναφορών σε κάθε εργασία (Τhe PLoS Medicine Editors 2006). Τα περιοδικά συχνά πιέζουν τους συγγραφείς προς αυτήν την κατεύθυνση.

Πρόσφατες έρευνες δείχνουν ότι ο IF των περιοδικών και ο αριθμός αναφορών των άρθρων συνδέεται στατιστικά με πολλούς παράγοντες που είναι άσχετοι με την επιστημονική ποιότητα των εργασιών, όπως είναι το όνομα του περιοδικού, ο αριθμός και η χώρα προέλευσης των συγγραφέων, η χρήση συγκεκριμένων λέξεων και το μέγεθος των εργασιών (Schmidt 2013).

Καταλήγουμε στο συμπέρασμα, ότι ο IF είναι ένας ξεπερασμένος ποσοτικός δείκτης, που αντιμετωπίζει σοβαρά προβλήματα αξιοπιστίας (Seglen 1997). Είναι δε εντελώς ακατάλληλος για να περιγράψει την αξία ενός επιστήμονα ή μιας ερευνητικής ομάδας, ή ακόμα και μιας σχολής ή ενός ακαδημαϊκού ιδρύματος. Κι όμως αυτός ο λανθασμένος τρόπος χρησιμοποιείται συνεχώς, όπως είπαμε πιο πάνω. Αυτό έχει σημαντικά αρνητικές επιπτώσεις στην ποιότητα της επιστήμης που παράγεται και δημοσιεύεται και τελικά συντηρεί ένα στρεβλό σύστημα ακαδημαϊκού ελιτισμού.

Υπάρχει έρευνα έξω από τα περιοδικά;

Όπως αναφέρθηκε πριν, φαίνεται πως ο πλέον διαδεδομένος τρόπος αξιολόγησης της ερευνητικής παραγωγικότητας είναι σήμερα η δημοσίευση σε επιστημονικά περιοδικά με κριτές. Για το λόγο αυτό, η δραστηριότητα της δημοσίευσης άρθρων σε περιοδικά αποτελεί την προτεραιότητα των ερευνητών και επιστημόνων γενικότερα που αποσκοπούν σε ακαδημαϊκή καριέρα. Χτίζουν δηλαδή ένα βιογραφικό όπου πρέπει να αναφέρεται ένας μεγάλος αριθμός δημοσιεύσεων σε περιοδικά μιας συγκεκριμένης λίστας με συντελεστή IF όσο το δυνατόν υψηλότερο. Προφανώς οι δημοσιεύσεις στα περιοδικά δεν είναι το μόνο προϊόν που προκύπτει από την ερευνητική δραστηριότητα.

Πολλές φορές υπάρχουν περιοδικά που κινούνται έξω από το σύστημα που αναφέραμε πιο πάνω και δεν διαθέτουν IF. Περιοδικά επιστημονικών ενώσεων ή πανεπιστημίων με κριτές, αυστηρά θεματικά, ή άλλα περιοδικά που εκδίδονται από χώρες ή οργανισμούς που δεν έχουν τη δυνατότητα του marketing των μεγάλων εκδοτικών οίκων, επίσης δεν διαθέτουν IF. Στις περισσότερες περιπτώσεις, η δημοσίευση σε ένα τέτοιο περιοδικό δεν μετρά με την ίδια βαρύτητα στα βιογραφικά όπως αυτή σε ένα περιοδικό με IF, παρόλο που οι εργασίες περνούν από κρίση πριν δημοσιευτούν. Πολλοί ερευνητές επιλέγουν να μην στέλνουν εργασίες σε αυτά τα περιοδικά, ενώ οι περισσότεροι νέοι επιστήμονες δέχονται συμβουλές του τύπου αυτού. Έτσι δημιουργείται και διατηρείται ένα «μονοπώλιο» στην διάδοση της επιστημονικής έρευνας, που όπως είδαμε παρουσιάζει πολλά προβλήματα. Με την τεχνική δυνατότητα που παρέχει όμως σήμερα το διαδίκτυο, η έρευνα μπορεί να κοινοποιηθεί πολύ πιο γρήγορα και να διαδοθεί πολύ πιο αποτελεσματικά.

Εργασίες σε κεφάλαια βιβλίων, ή συλλεκτικούς τόμους μπορεί να έχουν μεγαλύτερη επιστημονική αξία από άρθρα επιστημονικών περιοδικών, καθώς συχνά οι συγγραφείς προσκαλούνται να συμβάλλουν στην έκδοση, που σημαίνει ότι έχουν υψηλή διεθνή αναγνωρισιμότητα. Εργασίες σε τόμους πρακτικών συνεδρίων επίσης υποτιμούνται συχνά, μπορεί όμως να περιέχουν ερευνητικά δεδομένα μεγάλης αξίας. Πέρα από αυτά υπάρχουν και πιο άτυπα προϊόντα έρευνας: πόστερ και παρουσιάσεις από συνέδρια ή εκδηλώσεις, διδακτικό υλικό από παρουσιάσεις και σεμινάρια, αναφορές προγραμμάτων ή ομάδων εργασίας, μνημόνια, αναφορές και άρθρα σε μη επιστημονικά περιοδικά. Προϊόντα επιστημονικής παραγωγής θεωρούνται σήμερα και τα γραφήματα, τα δεδομένα, βίντεο και γενικά οπτικοακουστικό υλικό (Grayson 2009). Η τάση δημοσίευσης των δεδομένων μιας έρευνας, προκειμένου να διευκολυνθεί η επανάληψη και έλεγχος της έρευνας αυτής από άλλους ερευνητές κερδίζει διαρκώς έδαφος. Στους ιστότοπους των πανεπιστημίων, σε προσωπικά ιστολόγια και σε ειδικά διαμορφωμένες ηλεκτρονικές “αποθήκες” δεδομένων και άλλων προϊόντων έρευνας, που αποκαλούνται repositories, βρίσκει κανείς πλέον πολύ ενδιαφέροντα αποτελέσματα ερευνητικών δραστηριοτήτων, πληροφορίες και επιστημονικά στοιχεία, όλα διαθέσιμα χωρίς περιορισμούς, με μόνη υποχρέωση τη σωστή αναφορά της πηγής τους (Lynch 2003).

Οι περισσότεροι ερευνητές έχουν στοιχεία που δεν έχουν αξιοποιηθεί, έρευνες που έχουν δώσει δεδομένα και αποτελέσματα που δεν έφτασαν ποτέ στα περιοδικά και τώρα μπορούν να τα προβάλουν. Αυτά τα δεδομένα έχουν μεγάλη αξία και θα πρέπει να συνυπολογιστούν σε οποιαδήποτε αξιολόγηση ερευνητών ή ιδρυμάτων γίνεται στο μέλλον. Ιδιαίτερη αξία φαίνεται να έχει η προβολή και δημοσιοποίηση των λεγόμενων «αρνητικών αποτελεσμάτων» (negative results). Πρόκειται για αποτελέσματα ερευνητικών προσπαθειών που δεν απέδωσαν τα προσδοκώμενα. Συνήθως θεωρούνται αποτυχίες και δεν δημοσιεύονται. Αν πρόκειται για μια απλή επιβεβαίωση κάποιου κανόνα και δεν παρουσιάζουν ενδιαφέρον για τα περιοδικά της λίστας του IF συχνά μένουν ξεχασμένα σε κάποιον υπολογιστή. Είναι όμως σημαντικά. Ακόμα και αν πρόκειται για αποτυχία ενός ερευνητικού πειράματος, θα οδηγήσει άλλους ερευνητές στην αποφυγή της αποτυχίας αυτής. Η ιστορία της επιστήμης είναι γεμάτη με παραδείγματα αρνητικών αποτελεσμάτων που ωφέλησαν την πρόοδο της επιστήμης (Piwowar 2013). Πολλά σύγχρονα περιοδικά ανοιχτής πρόσβασης και repositories προσκαλούν τους ερευνητές να δημοσιεύουν αρνητικά αποτελέσματα.

Νέες τάσεις  και προοπτικές

Ο χώρος της επιστημονικής δημοσίευσης αλλάζει τα τελευταία χρόνια με μεγάλους ρυθμούς. Την αλλαγή αυτή έφερε η τεχνολογική έκρηξη του διαδικτύου, η υπερβολική αύξηση του αριθμού των επιστημονικών περιοδικών και των εργασιών που υποβάλλονται για κρίση, αλλαγές στην κοινωνία και στο χώρο της εκπαίδευσης και ιδιαίτερα η διαπίστωση ότι το παρόν σύστημα είναι προβληματικό, δεν είναι δίκαιο και δεν προάγει την επιστήμη.

Οι εξελίξεις στις επιστημονικές δημοσιεύσεις περιλαμβάνουν σε μεγάλο βαθμό την άνοδο και καθιέρωση των περιοδικών ανοιχτής πρόσβασης, την κρίση εργασιών με έμφαση στην ορθότητα των μεθόδων και όχι στο αντικείμενο ή στο ενδιαφέρον που αυτό παρουσιάζει (π.χ. PLOS, Peer-J), την κρίση από επώνυμους κριτές ή την κρίση μετά τη δημοσίευση, ιδρυματικές ιστοσελίδες, ηλεκτρονικές βιβλιοθήκες και repositories (figshare, researchgate, arXiv), πολλαπλές μορφές του ίδιου άρθρου με διαφορετικά media, την καλύτερη ενημέρωση των συγγραφέων σχετικά με ζητήματα πνευματικής ιδιοκτησίας, την αρχειοθέτηση και διατήρηση ερευνητικών αποτελεσμάτων σε ειδικούς ιστοχώρους και άλλα. Έδαφος κερδίζουν και νέα εργαλεία που ως τώρα χρησίμευαν στην εκλαϊκευμένη και καθημερινή διακίνηση πληροφοριών, όπως τα ιστολόγια (blogs), ιστοσελίδες ιδρυμάτων ή ερευνητών, κοινωνικά δίκτυα (facebook, twitter), και άλλα. Αυτά τα νεότερα εργαλεία επικοινωνίας επιταχύνουν την άμεση επικοινωνία μεταξύ των μελών της επιστημονικής κοινότητας και τείνουν να παρακάμψουν τα επιστημονικά περιοδικά (Piwowar 2013). Φυσικά τα περιοδικά αυτά δεν πρόκειται ποτέ να εκλείψουν. Αντίθετα αναμένεται να αλλάξουν σιγά σιγά ρόλο και να λειτουργήσουν σε αρμονία με τις νέες τεχνολογίες.

Το ερώτημα παραμένει αν η ακαδημαϊκή κοινοποίηση των πληροφοριών θα γίνει πιο δίκαιη με τη βοήθεια των νέων αυτών εργαλείων. Σίγουρα μπορεί να γίνει πιο ανοικτή και πιο εναλλακτική. Για να γίνει όμως πιο δίκαιη πρέπει να αλλάξει το ίδιο το ακαδημαϊκό σύστημα και κυρίως ο τρόπος αξιολόγησης νέων επιστημόνων και ακαδημαϊκών ιδρυμάτων. Οι νέοι τρόποι κοινοποίησης της έρευνας δεν διαφυλάσσουν έναν νέο επιστήμονα από μια δυσμενή κρίση στο μέλλον, αφού οι όποιοι κριτές βρεθούν στο δρόμο του θα μετρήσουν απλά τον IF των περιοδικών των εργασιών του σε μια προσπάθεια ποσοτικοποίησης της αξίας του. Για να αλλάξει το σύστημα που κυριαρχεί σήμερα και να αντιμετωπιστεί ο ακαδημαϊκός ελιτισμός, πρέπει να αλλάξουν αντιλήψεις, φιλοσοφίες και τρόποι λειτουργίας. Αυτά αλλάζουν δύσκολα και επίπονα. Αλλάζουν δε μόνο από πάνω. Δεν φτάνει να τολμά ένας επιστήμονας να δημοσιεύει τα προϊόντα της εργασίας του χρησιμοποιώντας νέα εργαλεία. Οφείλουν οι ερευνητές των ανώτερων βαθμίδων να τον αξιολογήσουν με βάση το συνολικό του έργο και να προσμετρήσουν όλα του τα αποτελέσματα (Schmidt 2013). Αυτό σίγουρα κάνει μια ακαδημαϊκή κρίση πολύπλοκη, αλλά πιθανόν πιο δίκαιη. Μια τέτοια προσπάθεια έχει ήδη ξεκινήσει με τη διακήρυξη του San Francisco (DOA – Schmidt 2013), όπου οι επιστήμονες καλούνται να δεσμευτούν ότι στο μέλλον δεν θα κρίνουν έναν συνάδερφο, μια ερευνητική πρόταση ή μια χρηματοδότηση μόνο με βάση κάποιους ποσοτικούς δείκτες. Αν η τάση αυτή επικρατήσει, τότε τα σημερινά εργαλεία θα βοηθήσουν σημαντικά σε μια δίκαιη ακαδημαϊκή κοινοποίηση των αποτελεσμάτων της επιστημονικής έρευνας.


Βιβλιογραφία

Abelson, H. (2008). “Open Access Publishing: The Future of Scholarly Journal Publishing”. ΜΙΤ Faculty Newletter. Vol. XXI No. 2. Ανακτήθηκε στις 12 Αυγούστου 2013 από http://web.mit.edu/fnl/volume/212/abelson.html

Bornmann. L., Marx, W., Gasparyan, A.Y., Kitas, G.D. (2012). “Diversity, value and limitations of the journal impact factor and alternative metrics”. Rheumatology International. 32(7), 1861−1867. doi: 10.1007/s00296

Eysenbach, G. (2006). “Citation advantage of open access articles”. PLoS Biol 4(5): e157. doi:10.1371/journal.pbio.0040157. Ανακτήθηκε στις 22 Ιουλίου 2013 από http://www.plosbiology.org/article/info%3Adoi%2F10.1371%2Fjournal.pbio.0040157

Grayson, K. (2009). “5 Trends that Indicate Scholarly Publishing Models are No Longer Sustainable”. Chasing Dragons blog entry. Ανακτήθηκε στις 5 Ιουνλιου 2013 από http://www.chasingdragons.org/2009/08/5-trends-that-indicate-scholarly-publishing-models-are-no-longer-sustainable.html

Hauser, M., Fehr, E. (2007). “An Incentive Solution to the Peer Review Problem”. PLoS Biol 5(4): e107. doi:10.1371/journal.pbio.0050107. Ανακτήθηκε στις 11 Αυγούστου 2013 από http://www.plosbiology.org/article/info:doi/10.1371/journal.pbio.0050107

Ioannidis, J.P.A. (2005). “Why most published research findings are False”. PLoS Med 2(8): e124. doi:10.1371/journal.pmed.0020124. Ανακτήθηκε στις 5 Ιουνίου 2013 από http://www.plosmedicine.org/article/info:doi/10.1371/journal.pmed.0020124

Laband, D.N., Piette, M.J. (1994). “Favoritism versus Search for Good Papers: Empirical Evidence Regarding the Behavior of Journal Editors”. Journal of Political Economy Vol. 102, No. 1, pp. 194-203.

Lawrence, S. (2001). “Free online availability substantially increases a paper’s impact”. Nature. 411, 521.

Lynch, C.A. (2003). “Institutional repositories: Essential infrastructure for  scholarship in the digital age”. portal: Libraries and the Academy 3.2 (2003): 327-336. Ανακτήθηκε στις 25 Ιουνίου 2013 από http://muse.jhu.edu/login?auth=0&type=summary&url=/journals/portal_libraries_and_the_academy/v003/3.2lynch.pdf

Miller, C.T., Harris, J.C. (2004). “Scholarly journal publication: Conflicting agendas for scholars, publishers, and institutions”. Journal of Scholarly Publishing. 35(2), 73-91.

Piwowar, Η. (2013). “Altmetrics: Value all research products”. Nature 493, 159.

Pain, E. (2013). “Interactive Peer Review: For Authors, Potential Downsides”. Science Careers, April 12, 2013. Ανακτήθηκε στις 3 Ιουνίου 2013 από http://sciencecareers.sciencemag.org/career_magazine/previous_issues/articles/2013_04_12/caredit.a1300072

Papageorgiou, AC (2013). “Unterkritisch: doing science under adverse conditions…” FGLab blog entry. Ανακτήθηκε στις 2 Μαίου 2013 από https://arilab.wordpress.com/2013/05/02/unterkritisch-doing-science-under-adverse-conditions/

Schmid, S.L. (2013). “Beyond CVs and Impact Factors: An Employer’s Manifesto”. Science Careers, September 03, 2013. Ανακτήθηκε στις 10 Σεπτεμβρίου 2013 από http://sciencecareers.sciencemag.org/career_magazine/previous_issues/articles/2013_09_03/caredit.a1300186

Seglen, P.O. (1997). “Why the impact factor of journals should not be used for evaluating research”. BMJ 314, 498–502.

Suber, P. (2009). “Knowledge as a public good”. SPARC Open Access Newsletter, issue #139. Ανακτήθηκε στις 14 Ιουλίου 2013 από http://legacy.earlham.edu/~peters/fos/newsletter/11-02-09.htm

Suber, P. (2012). Open Access. Boston: MIT Press. Available at http://mitpress.mit.edu/sites/default/files/titles/content/9780262517638_Open_Access_PDF_Version.pdf

Symonds, M.R., Gemmell, N.J., Braisher, T.L., Gorringe, K.L., Elgar, M.A. (2006). “Gender Differences in Publication Output: Towards an Unbiased Metric of Research Performance”. PLoS ONE 1(1): e127. doi:10.1371/journal.pone.0000127. Ανακτήθηκε στις 12 Σεπτεμβρίου 2013 από http://www.plosone.org/article/info:doi/10.1371/journal.pone.0000127

Τhe PLoS Medicine Editors, (2006). “The Impact Factor Game”. PLoS Med 3(6): e291. doi:10.1371/journal.pmed.0030291. Ανακτήθηκε στις 22 Ιουλίου 2013 από http://www.plosbiology.org/article/info:doi/10.1371/journal.pbio.0050107

Van Noorden, R. (2010). “Metrics: A profusion of measures”. Nature. 465(7300), 864−866. doi: 10.1038/465864a

Vanclay, J.K. (2012). “Impact Factor: Outdated artefact or stepping-stone to journal certification”. Scientometrics 92, 211–238.

Willinsky, J. (2005). “Scholarly Associations and the Economic Viability of Open Access Publishing”. Open Journal System Demonstration Journal, 1(1). Ανακτήθηκε στις 12 Αυγούστου 2013 από http://works.bepress.com/cgi/viewcontent.cgi?article=1012&context=ir_research

Advertisements

Reblogged from http://am.ascb.org/dora/

San Francisco Declaration on Research Assessment

Putting science into the assessment of research


There is a pressing need to improve the ways in which the output of scientific research is evaluated by funding agencies, academic institutions, and other parties.

To address this issue, a group of editors and publishers of scholarly journals met during the Annual Meeting of The American Society for Cell Biology (ASCB) in San Francisco, CA, on December 16, 2012. The group developed a set of recommendations, referred to as the San Francisco Declaration on Research Assessment. We invite interested parties across all scientific disciplines to indicate their support by adding their names to this Declaration.

The outputs from scientific research are many and varied, including: research articles reporting new knowledge, data, reagents, and software; intellectual property; and highly trained young scientists. Funding agencies, institutions that employ scientists, and scientists themselves, all have a desire, and need, to assess the quality and impact of scientific outputs. It is thus imperative that scientific output is measured accurately and evaluated wisely.

The Journal Impact Factor is frequently used as the primary parameter with which to compare the scientific output of individuals and institutions. The Journal Impact Factor, as calculated by Thomson Reuters, was originally created as a tool to help librarians identify journals to purchase, not as a measure of the scientific quality of research in an article. With that in mind, it is critical to understand that the Journal Impact Factor has a number of well-documented deficiencies as a tool for research assessment. These limitations include: A) citation distributions within journals are highly skewed [1–3]; B) the properties of the Journal Impact Factor are field-specific: it is a composite of multiple, highly diverse article types, including primary research papers and reviews [1, 4]; C) Journal Impact Factors can be manipulated (or “gamed”) by editorial policy [5]; and D) data used to calculate the Journal Impact Factors are neither transparent nor openly available to the public [4, 6, 7].

Below we make a number of recommendations for improving the way in which the quality of research output is evaluated. Outputs other than research articles will grow in importance in assessing research effectiveness in the future, but the peer-reviewed research paper will remain a central research output that informs research assessment. Our recommendations therefore focus primarily on practices relating to research articles published in peer-reviewed journals but can and should be extended by recognizing additional products, such as datasets, as important research outputs. These recommendations are aimed at funding agencies, academic institutions, journals, organizations that supply metrics, and individual researchers.

A number of themes run through these recommendations:

  • the need to eliminate the use of journal-based metrics, such as Journal Impact Factors, in funding, appointment, and promotion considerations;
  • the need to assess research on its own merits rather than on the basis of the journal in which the research is published; and
  • the need to capitalize on the opportunities provided by online publication (such as relaxing unnecessary limits on the number of words, figures, and references in articles, and exploring new indicators of significance and impact).

We recognize that many funding agencies, institutions, publishers, and researchers are already encouraging improved practices in research assessment. Such steps are beginning to increase the momentum toward more sophisticated and meaningful approaches to research evaluation that can now be built upon and adopted by all of the key constituencies involved.

The signatories of the San Francisco Declaration on Research Assessment support the adoption of the following practices in research assessment.

General Recommendation

1. Do not use journal-based metrics, such as Journal Impact Factors, as a surrogate measure of the quality of individual research articles, to assess an individual scientist’s contributions, or in hiring, promotion, or funding decisions.

For funding agencies

2. Be explicit about the criteria used in evaluating the scientific productivity of grant applicants and clearly highlight, especially for early-stage investigators, that the scientific content of a paper is much more important than publication metrics or the identity of the journal in which it was published.

3. For the purposes of research assessment, consider the value and impact of all research outputs (including datasets and software) in addition to research publications, and consider a broad range of impact measures including qualitative indicators of research impact, such as influence on policy and practice.

For institutions

4. Be explicit about the criteria used to reach hiring, tenure, and promotion decisions, clearly highlighting, especially for early-stage investigators, that the scientific content of a paper is much more important than publication metrics or the identity of the journal in which it was published.

5. For the purposes of research assessment, consider the value and impact of all research outputs (including datasets and software) in addition to research publications, and consider a broad range of impact measures including qualitative indicators of research impact, such as influence on policy and practice.

For publishers

6. Greatly reduce emphasis on the journal impact factor as a promotional tool, ideally by ceasing to promote the impact factor or by presenting the metric in the context of a variety of journal-based metrics (e.g., 5-year impact factor, EigenFactor [8], SCImago [9], h-index, editorial and publication times, etc.) that provide a richer view of journal performance.

7. Make available a range of article-level metrics to encourage a shift toward assessment based on the scientific content of an article rather than publication metrics of the journal in which it was published.

8. Encourage responsible authorship practices and the provision of information about the specific contributions of each author.

9. Whether a journal is open-access or subscription-based, remove all reuse limitations on reference lists in research articles and make them available under the Creative Commons Public Domain Dedication [10].

10. Remove or reduce the constraints on the number of references in research articles, and, where appropriate, mandate the citation of primary literature in favor of reviews in order to give credit to the group(s) who first reported a finding.

For organizations that supply metrics

11. Be open and transparent by providing data and methods used to calculate all metrics.

12. Provide the data under a licence that allows unrestricted reuse, and provide computational access to data, where possible.

13. Be clear that inappropriate manipulation of metrics will not be tolerated; be explicit about what constitutes inappropriate manipulation and what measures will be taken to combat this.

14. Account for the variation in article types (e.g., reviews versus research articles), and in different subject areas when metrics are used, aggregated, or compared.

For researchers

15. When involved in committees making decisions about funding, hiring, tenure, or promotion, make assessments based on scientific content rather than publication metrics.

16. Wherever appropriate, cite primary literature in which observations are first reported rather than reviews in order to give credit where credit is due.

17. Use a range of article metrics and indicators on personal/supporting statements, as evidence of the impact of individual published articles and other research outputs [11].

18. Challenge research assessment practices that rely inappropriately on Journal Impact Factors and promote and teach best practice that focuses on the value and influence of specific research outputs.

References

  1. Adler, R., Ewing, J., and Taylor, P. (2008) Citation statistics. A report from the International Mathematical Union. http://www.mathunion.org/publications/report/citationstatistics0
  2. Seglen, P.O. (1997) Why the impact factor of journals should not be used for evaluating research. BMJ 314, 498–502.
  3. Editorial (2005). Not so deep impact. Nature 435, 1003–1004.
  4. Vanclay, J.K. (2012) Impact Factor: Outdated artefact or stepping-stone to journal certification. Scientometrics 92, 211–238.
  5. The PLoS Medicine Editors (2006). The impact factor game. PLoS Med 3(6): e291 doi:10.1371/journal.pmed.0030291.
  6. Rossner, M., Van Epps, H., Hill, E. (2007). Show me the data. J. Cell Biol. 179, 1091–1092.
  7. Rossner M., Van Epps H., and Hill E. (2008). Irreproducible results: A response to Thomson Scientific. J. Cell Biol. 180, 254–255.
  8. http://www.eigenfactor.org/
  9. http://www.scimagojr.com/
  10. http://opencitations.wordpress.com/2013/01/03/open-letter-to-publishers
  11. http://altmetrics.org/tools/

stress-in-science-300x164This post is about science, but it has a strong personal bias: my own experience in the field of scientific research, academic existence and survival. The views described here are strictly my own. So, please do not connect this post with the University I work for, or the lab I run. And most important, do not consider that these views are shared by my colleagues. As far as I know, not one agrees completely with me in this issue, and this is fine of course. The conclusions you are going to read are not based on a research or study. They just spring on the keyboard directly from my head.

I have a close friend called Reiner. He is a great friend, always giving me support when I need it and I try to do the same for him. Reiner is an experienced scientist in the same scientific field that I also work, despite some differences we may have in interests and priorities in research. Ten years ago, when the Forest Genetics Laboratory started operating in Orestiada, the small Greek town where our Faculty is based, Reiner visited me to give a hand in setting the lab procedures. After working, visiting interesting places and meeting people, we relaxed and enjoyed a well deserved beer in a local pub. We started talking about priorities in research and teaching. Reiner – always honest and straightforward – he downplayed the chances I had to perform research of high quality. He said that our lab and our faculty was “unterkritisch“. I do not know the English word. Under-critical maybe, but I am not sure if it does mean the same. Reiner meant that the size and location of this small university is dooming any chance of excellence. Or at least of proper function. He meant that no matter how well I work, or how interesting scientific questions I may rise, the infrastructures available and the surrounding academic environment would hinder me from doing first class science. I remember that I have disagreed with him. We discussed on this issue for a few hours more (we may have also consumed some more beer). I remember telling my friend that interesting scientific questions are more important than lab equipment and that great research can be done by designing experiments properly, working with other labs and using the right kind of analysis. I told him that hard work and talent would give great results that could lead to high quality publications. I thought at that time that I was right and that Reiner was too pessimistic. But Reiner knew better. He tried to cool down my expectations to protect me from disappointment. And of course, he was 100% right. Not only because the academic environment of our lab is adverse, but mainly because research has gone such a way, that a small lab would never have the chance to fit in.Overworked

Operational and funding problems

Core funding in our University is a joke. Core funding is a joke for any Greek university. It is probably the same for other countries as well. And this has been so for ever, long ago before the financial crisis knocked on our door. I run a small molecular lab that needs – more or less – 600 euros / week, if we operate normally, thus running one PCR reaction per day (96 wells), not counting costs for isolating DNA or basic infrastructure.  And not counting failures of course. Or the need to have fragments sequenced. We pray to all possible divine forces out there that we will have no damage in any device or instrument. That our -86 freezer will hold another summer, for example. The money our lab receives every year was 600 – 850 euros. And this is not sure for the next years due to the crisis. I also receive 2000 euros more from our graduate programme, again depending on the year. So, more or less 2700 euros / year, but not only for lab consumables: For everything I may need, such as pencils, toner for our printers and batteries for our GPS device. Currently the lab tries to support 4 PhD students, 2 more collaborating PhD students, 1 MSc student and several students that wish to work in the lab for their degree theses. Not counting the standard training of the undergraduate and graduate students. So, how on earth did I manage to fund all this during the previous 10 years? Well, the answer is not simple. Some of the money comes from my own family budget. For example, I have bought the timber to make the first benches, with the help of a friend. My students and I buy gloves, alcohol (for the lab) and tissue paper. Some other consumables are bought using wisely managed funds that have once arrived in our lab, such as donations, grants etc. Some consumables derive from colleagues who need less funds than they get (such as disciplines that do not include lab work). And of course, I was forced to reduce the work done in our lab. Some PhD students work in other labs. Some others use the opportunity of exchange programmes to get trained elsewhere. Reiner has been a major help, by allowing me to run a series of analyzes in his lab. And of course, some of the money needed in the lab derived from a small number of projects that we run from time to time. More about projects will be explained below.

Funding is much less than I need to run the lab. But consumables is not so much an issue as are travel expenses that we need to collect samples. Working with scientific questions related with forest genetics means collecting samples from wild plant populations. Forests and pastures in Greece can be found mainly on the mountains. Most plant species are scattered in small groups growing on different mountains. Sampling in Greece requires a 4X4 vehicle, several days or weeks and a lot of money for gasoline and other expenses. All these costs are not covered by any type of funding. Only one project 6 years ago provided travel expenses for sampling and this was again not easy due to the bureaucracy of the university administration. During the last years, gas price has doubled and my salary is reduced severely. Sampling cannot be funded by me anymore.

So, why don’t you apply for projects, to cover the expenses of your research? This is a question I hear frequently. I have tried. I have applied several times for small or large projects. I have had some success. I will say more about international projects below. The evaluation of national projects is a curious procedure. I have no clue how they evaluate the proposals. I mean that there is a great percentage of luck needed to get something funded out of the national budget. And maybe connections. And probably a good name in the field. Our central administration is called “research committee” and is based in a city 200 kilometres away. This committee keeps part of the money arriving through the projects (mostly 12%) in order to make all arrangements and perform the administrative work. So, they have procedures. And these procedures are so complex and time consuming that need someone in our lab to work full time to cope with this challenge. A good example is what happened last summer. I have found a nice call from the national budget on research and thought that I could apply. I had the research question already written down and some of it was already underway. I was optimistic. Until I got an email and then a phone call from some guy from the Research Committee. He told me to fill several forms BEFORE even applying, just for the formalia of the committee. The information he was asking was extreme (e.g. the salary I got during the last 5 years, the insurance payments, bla bla) and he also needed some signatures of officials and a decision of the faculty board. And some other things I am not allowed to discuss in public. I could not do this alone. I have no secretary or any kind of assistance. Thinking that succeeding in my application would create much more communication with persons like this guy, I have decided not to apply. If you are not familiar with universities in my country, this story will sound weird to you. But think that logic has no place when the only reason of the procedures is to avoid responsibility for the central administration. Another example: I am part of an international project with a small role. The money we will receive will be 1750 euros for a student of mine to work and 2000 for consumables, nothing else. The money is ready to be sent to us from abroad. This has to be done through the Research Committee. They sent me a list of 17 papers I have to prepare to open a project account there. I decided to let the student do that, since he will be the beneficiary of this story, even at a very low scale. He failed to communicate with the people there. I have no idea whose fault it was. I had to jump in and sacrifice hours of not days to try to understand what was going on. And I failed as well. After almost two years, we have still not received the money, although we have done the research needed. These circumstances make a participation at an international project impossible.

drawing-of-overworked-accountant1There is another reason why the participation at an international project is almost impossible. During the last years, visiting conferences has been extremely difficult. With my salary I have limited ability to travel. Yes, the university pays a small part of the cost and of course they do not pay the conference registration fee. With fees of several hundreds of euros, people like me are excluded right from the beginning. The last time I was in a conference was in 2009 in Sofia, where I was able to travel by bus (!) and the registration fee was no more than 150 euros if I remember well. But lack of mobility and participation in conference is just one side of the story. The other one – I believe – is called “excellence” and the way some people deal with it. Of course excellence is nice and international funding bodies, such as the DG Research of the European Union should fund the most excellent. But the way the system operates, there is not a chance for a small scale scientific group or lab or person to become “excellent” unless they are part of this system. I mean that there is a high degree of elitism in participating in funded international research groups. This problem is a known situation and in the EU, it has escalated during the early 2000s when the FP6 was launched. The FP6 funded the existence and maintenance of networks, not projects. So, during the formation of these networks, if someone was out, then he was out for good. Excluded from EU research funds for the next decade or so. I still remember that I was encouraged to participate at a meeting in Strasbourg in 2002, long time ago, when the creation of such a network would be organized. I found myself in the cafeteria of the European Parliament and realized that I was there with some others, but the majority of the conference participants were not there. We all realized (the people in the cafeteria) that the others were in a private meeting shaping the network. The other who drunk coffee with me were just like me: researchers representing small labs or universities. People out of the system. The “hot shots” were in the private meeting. This is how it goes. Of course, I was just starting my university career at that time and my lab was still under development. But this diss-communication from the happenings would never allow me to have a serious European project, no matter how good I may become later or how original my ideas are. My only international collaboration became Reiner and his lab. His support and collaboration allowed me to achieve the most important research activities of the lab during the last years. And this collaboration would never happen if Reiner were not my friend.

Publish or perishempty

The international system of scholarly communication works mainly through publications in peer review journals, the so called papers. There is much discussion about the effectiveness of this system during the last decade. There are several movements of alternative systems, supporting open access journals, open access data, post-publication reviews, etc. I have an opinion about all this, but right now I wish to explain how the current system affects my life and career. I want to show that when a researcher based in a remote and small lab is submitting a manuscript, he is disadvantaged right from the beginning. And this happens in the middle of a paranoid environment of absolute quantification of scientific quality. What I mean, is that whenever a scientist is evaluated, either for a new position, or a promotion up in the tenure ladder the ONLY thing people count is the number of papers he/she has published in international peer reviewed journals. While this index is a good tool, when used exclusively, it becomes an instrument of terror, especially for young researchers who start their career. I believe that the evaluators who judge the chances of a researcher to become something in this world, are too much bored or incapable to read the actual publications of the candidate and really express an opinion. It is so much easier to just use the number of publications, estimate the average impact factor of the journals hoisting these publications and sometimes use the number of citations. All these numbers, in order to just avoid reading the papers. And this kind of evaluation applies everywhere in academia. It decides who will get promoted, who will get his project funded, which department will be shut down, who will exist and who will vanish from the sunlight of science.

This is the starting point of a madness: everyone tries to publish no matter what. They are willing to do anything, just to see their publication list increasing. They prepare manuscripts the way the journals want to have. They use tools the reviewers will most likely accept, such as fancy statistics (even when they are not needed) or new lab techniques (although the old ones are just as good). They tend to do research towards popular and trendy issues, using buzzwords and cliche. Some colleagues have managed to find journals that are “easy” to accept manuscripts and submit their work there. Some others just repeat the same procedure with different data and break down their findings in several small publications. Most of us are ready and willing to PAY to get published. Now, this is a major issue. Publishing costs: Mainstream journals ask money for colour graphics and illustrations, editing of English, etc. Open access journals ask for a fee from the authors. There are several arguments why this is not so bad. They say that institutions usually pay for this. Unfortunately not in most countries and definitely not in our university. They say that there is discount or even free publishing for specific countries that are listed somewhere. Well, many countries are not listed there and still having an academic system where publication costs are not covered. They also say that most open access journals are for free. It is true, but not for the really good ones (the ones counted by the evaluators).

Besides costs, per review evaluation and screening of manuscripts faces serious problems connected with human nature. I read everywhere in blogs and I hear in discussions that many scientists are stuck among rejections, major reviews and some really nasty comments of reviewers. I have experienced this myself. Everyone in the business can tell stories about tough reviewers and demanding editors. This is not new. I hear people say that it gets more and more difficult to publish in certain “good” journals. Especially from the viewpoint of a small research group, a low budget lab. “Unterkritisch” remember? I will give you an example. Lets say that a small lab runs a series of sound and successful PCR reactions and sees fragments in agarose gels. Sampling has been extensive and the analysis on the data is brilliant. A number of nice research questions can be thus answered. A manuscript is prepared and the reviewers start asking: “why did you not use 1000 more markers”? Or “please provide sequences”. It seems that nowadays people do not care that the markers used may be ENOUGH to answer the scientific question presented in the beginning of a manuscript. Or then “use this and that for the analysis”, or “why don’t you just cite these papers” (this is the point where the identity of the reviewers is often exposed…). Why does this happen? Is this a worlds conspiracy against manuscripts? Not at all. I believe that nowadays reviewers are more and more irrelevant to the manuscripts they judge.The number of manuscripts has increased dramatically (since everyone tries to build an impressive publication record) and the journals have problems finding reviewers. It comes often to a point where certain reviewers know only a few things about the subject of the paper they judge. They focus then in a few details they may know, or consider critical, and fail to see the whole concept. I have been asked to review totally irrelevant papers and I have declined doing so. I know many other who haven’t.

My personal experience is full of such cases. I have seen reviews where it was obvious that the reviewer knew only about a small part of the paper and lost the broad picture completely. Still, he/she made a hard critique, suggesting impossible improvements and focusing on secondary issues. I got a manuscript rejected because I used “analyze” instead of “analyse”. I know examples where the editor just read the abstract. I got one reviewer asking for more statistics and the second reviewer asking for less. I have done an analysis suggested by a reviewer and then the next reviewer did not like it. So, finally who is publishing? The reviewers or the author? Authors shape their manuscripts and their research in “reviewer-friendly” format, which carries more chances to be accepted. Is this good for science?

And another thing. I know that it may sound like a complain. But it is true. Some people publish easier than others. Some countries and some institutions and of course some names have better access to high ranked journals than others. I know that certain highfloss profiled institutes have never managed to publish in certain journals. And by looking at these journals, there are sometimes really bad papers published. Most are brilliant, but some are bad, indifferent, just repetitions. The system is not perfect. No system is perfect. But it is even more difficult to get access to it from a small lab in a remote area of a small country. And with a low budget.

A small research group

People working in academic positions in my country (and as far as I know almost everywhere) have three main duties: teaching, research, administration. And there are a lot of sub-divisions within these three categories. In small scale labs, all these activities are carried out by a small number of people. In the case of our Forest Genetics Lab, all this is done by one person, myself. The only people who help me are undergraduate and postgraduate students. Since the ability to pay them is restricted by the system and the current situation, there is no way to have a stable and effective support in almost nothing but lab everyday work. Even in the lab, there are administrative or technical tasks that a student cannot solve. So, one person only has to manage all administrative paper work and bureaucracy, read literature and be in top form in science, prepare teaching material, printed or online, teach and examine, perform lab activities, teach students how to use the lab, find research funding, run the lab, supervise and advise PhD students and write the papers. Did I forget something. Yes, several other activities that are good for the faculty, the university and the career of the researcher. In my case, I have made a clear choice towards teaching. This is priority, but other duties are also urgent. Teaching cannot be done without being good in research and this is very true. My colleagues and I run labs, all by ourselves.

The future?

Things are changing in academic life worldwide. I hope that there will be developments that will make scientific work and dissemination more effective and fair. Some of the tools already exist: repositories, post-publication review, blogs and media, different metrics, journals with different priorities and style, etc. The key will be to have a change in mentality of people like me who try to survive within the “system”. Our small and “unterkritisch” lab, and many other labs like ours, have succeeded in some extent. There is a way of moving forward, trying to do the best with what is available. This is the biggest reward for people in universities, to see a student developing skills, to have a nice research question answered. To take part in broader groups and to be able to communicate science better. There are moments of satisfaction and success, that are not necessary related with the classical ways the current system provides to measure excellence.

I believe that scientists in all kinds of labs should work using new tools and manage to create sound science and disseminate it much broader than used so far. There is a role for all these small research units, labs and groups: to provide scientific training of high quality and to increase access of the public in scientific results. Maybe an “unterkritish” lab will never make a major breakthrough in science, publish in Nature or Science. But it can still play a significant role for the promotion of science in our society. Finally, my good friend Reiner was right about the chances our lab had to show excellency in the field we work on. But even such a lab has an important role to play. There is only one way to move forward. To work better and use the tools available. Untrerkritisch but optimistic!

A very nice post explaining the evolution (and the dead end) of modern scientific publishing.

Sauropod Vertebra Picture of the Week

I mentioned earlier that I was in Oxford yesterday — mostly to participate in the debate at the Oxford Union, “Evolution or Revolution in Science Communication?” I was on the revolution side, with Jason Hoyt (PeerJ), Amelia Andersdotter (Swedish Pirate Party MEP) and Paul Wicks (Patientslikeme). The “evolution” side was represented by David Tempest (Elsevier), Graham Taylor (ex Publishers’ Association), Jason Wilde (Nature) and — rather surprisingly — Cameron Neylon (PLOS).

Here is my opening statement:

Evolution or Revolution In Science Communication

Mike Taylor, University of Bristol

dino@miketaylor.urg.uk

“Rigour and Openness in 21st Century Science” conference

Oxford, Thursday 11 April 2013.

In my academic life, I study the evolution of dinosaurs. I know a bit about evolution, and before I give my position in this evolution-or-revolution debate, I’d like to dispel a few evolutionary myths.

First, the Victorians liked to talk about the scalanaturae, the great chain of…

View original post 667 more words

A short text explaining why data should be citable and how to do it. This manifesto was conducted during the ‘Beyond the PDF’ conference in Amsterdam, 20 March 2013 (more info on the conference here: http://lanyrd.com/2013/btpdf2/). Sign this manifesto if you agree and spread it!

The Amsterdam Manifesto on Data Citation Principles

Preface:

We wish to promote best practice in data citation, to facilitate access to data sets, and to enable attribution and reward for those who publish data. To that end, we propose:

1. Data should be considered citable products of research.

2. Such data should be held in persistent public repositories.

3. If a publication is based on data not included in the text, those data should be cited in the publication.

4. A data citation in a publication should resemble a bibliographic citation.

5. A data citation should include a unique persistent identifier (a DataCite DOI recommended, unless other persistent identifiers are in use within the community).

6. The identifier should resolve to provide either direct access to the data or information on accessibility.

7. If data citation supports versioning of the data set, it should provide a method to access all the versions.

8. Data citation should support attribution of credit to all contributors.

***Please correct***

See http://www.flickr.com/photos/future15/8575092054/sizes/l/in/photostream/

via https://twitter.com/TAC_NISO/status/314377789258215425

AvdK: suggestion for adding
Sign and Share

We invite you to read the Manifesto and sign it, if you wish to show your support.

We also invite you to share this site [url website] with your contacts, colleagues and friends.

About

This Manifesto has been produced within the context of the ‘Beyond the PDF’ conference in Amsterdam, 20 March 2013.

Open access and social media

by Toma Susi

Abstract: The push for open access publishing gained significant momentum in 2012. The shift to open access is not only justified and necessary, but as a bonus also seems to enhance the impact of published research. This has big implications not only for individual researchers, but also journals and research universities via pre-existing ranking systems.

Another recent development is the increasing popularity of social media. It’s adept use is becoming an integral part of science outreach. In addition, it seems that such activity can directly influence the number of article downloads and citations, although more studies are needed to ascertain this effect.

Presenter: Toma Susi received his doctorate in nanomaterials research from Aalto SCI in June 2011. He has spent the past year actively building a social media presence and advocating for open access.

http://mostlyphysics.wordpress.com

The story of some highly skilled young scientists who were forced to invent a new form of fund-raising, in order to keep their jobs in science.

Spare Some Change for Science

By Tyler Shimko

http://blogs.plos.org/thestudentblog/2013/02/22/spare-some-change-for-science/