Library Blog

Blog

Congresverslag Beyond the PDF

Op 19 en 20 maart was ik in Amsterdam voor het Beyond the PDF congres. In meerdere opzichten een uniek event, want ondanks dat het in NL was waren er vooral veel Engelssprekenden (VS, Can en GB), en zowel de sprekers als het publiek bestonden uit een bonte mix van wetenschappers, programmeurs, uitgevers, subsidiegevers, en ook een paar bibliotheekmedewerkers. (Lukas Koster blogt hier over: http://commonplace.net/2013/03/beyond-the-library/) Voor meer informatie over de organisatie achter het congres, zie http://www.force11.org/
Het is moeilijk om 2 dagen met zoveel “lightning talks” samen te vatten, en je kunt de presentaties sowieso binnenkort terugzien op http://www.force11.org/beyondthepdf2

Wat ik wil doen, is een aantal rode draden beschrijven, en jullie uitnodigen daarover mee te denken en praten.

Publiceren duurt te lang. Zowel de keynote van Kathleen Fitzpatrick als de presentatie van Carole Goble gingen daar dieper op in. Er zijn een aantal factoren die een rol spelen, maar ondoorzichtige peer review-modellen en de terughoudendheid van uitgevers om te investeren in monografieën waar geen winst op te behalen valt, werden het meest genoemd. Interessante oplossingen vond ik:
• Online monografieën publiceren via http://mediacommons.futureofthebook.org/ (juist ook in de humaniora, waar het letterlijk jaren kan duren voor je een uitgever voor je boek vindt)
• Peer review als een service http://www.rubriq.com/ (je kunt als auteur vervolgens met je publicatie én je review onder je arm gericht tijdschriften benaderen voor publicatie)
• Don’t publish, release! (Mantra van Carole Goble…) Publiceren is geen eenmalige actie, maar een continu proces. Hiervoor gebruik je bijvoorbeeld http://www.wf4ever-project.org/research-object-model (Je brengt alle relevante documenten en data en informatie over de workflow samen, en voorziet deze van goed versiebeheer- je behandelt onderzoek in feite hetzelfde als het documenteren van je software.)

Natuurlijk hoort in dit rijtje ook Open Journal Systems (OJS) thuis als de ideale oplossing voor wetenschappers om hun eigen online (Open Access) tijdschrift te starten. De tools die daar op aansloten (en die wellicht interessant zijn voor ons publishing team):
• SWORD API van OJS naar Dataverse (om de data bij verrijkte publicaties automatisch in Dataverse op te slaan)
• XML converter voor OJS (om o.a. pdf’s naar xml te converteren)
• Een plugin om AV-materiaal in OJS te publiceren (in ontwikkeling bij Beeld en Geluid)

Traditionele publicatievormen zijn aan herziening toe. O.a. de presentaties van Nathan Jenkins en Paolo Ciccarese gingen daarover. Een tweetal initiatieven die de moeite waard zijn om naar te kijken:
• De Open Annotation standaard (http://www.openannotation.org/); de standaard achter tools zoals DOMEO. De drijvende kracht hierachter is Ciccarese, die terecht opmerkt dat bookmarken, bloggen en twitteren het nieuwe annoteren is.
• Gebruik van Git (een Open Source software versioning systeem) als publicatieplatform. Zowel Authorea (https://www.authorea.com/, ook geschikt voor digibeten) als Push (https://github.com/cwcon/push/blob/master/index.md, niet geschikt voor digibeten) maken hier gebruik van. Sluit aan bij Don’t publish, release!

Er worden in razend tempo nieuwe standaarden en nieuwe tools ontwikkeld, en soms zit er opeens een killer tussen die aanslaat. De beste voorbeelden hiervan: Mendeley (http://www.mendeley.com/) als killer tool en ORCID (http://orcid.org/) als killer standaard. Vooral de opmars van die laatste is bizar; zo’n 6 maanden na de officiële launch lijkt het alsof niemand er meer aan twijfelt dat dit de nieuwe standaard is. Het lastige is natuurlijk dat iedereen alle andere ID’s wil vervangen door ORCID. Dat kan bv. door conversiesoftware te schrijven die gebruik maakt van de (member) API, maar als organisatie moet je dan wel lid worden van ORCID… (Een individu kan overigens wel gratis een ORCID aanvragen.)

Het business model is aan herziening toe.Er werd o.a. tijdens een ronde tafeldiscussie met Wim van der Stelt en David Prosser uitgebreid geknokt over licenties, big deals, Open Access, author fees en APC’s. Interessant in dit opzicht was de aanwezigheid van Laura Czerniewicz en Eve Gray, die vanuit hun (Zuid-Afrikaans) perspectief de zaak nog eens even op scherp hebben gezet. Afrikaanse universiteiten belonen wetenschappers met een geldbedrag als ze in bepaalde tijdschriften publiceren, en dat bedrag geldt eigenlijk als aanvulling op een vrij karig salaris. Voor hen is Open Access echt geen aantrekkelijk vooruitzicht.

Iedereen zit met data in z’n maag. Een van de sprekers schatte dat 90% van de onderzoeken “irreproducible” is. De inmiddels bekende Dataverse en Dryad zijn de meest genoemde tools als het om opslag van data gaat. Wat mij verraste, is dat veel onderzoekers oprecht van mening waren dat een groot deel van de geproduceerde data niet opgeslagen hoeft te worden, omdat het onderzoek toch niet reproduceerbaar is. Als bibliotheekmedewerker werd ik toch zenuwachtig van die uitspraak, maar misschien onterecht.
• Merce Crosas van Dataverse heeft ter plekke met een groep gewerkt aan een manifest met uitgangspunten voor datacitatie (voorlopig alleen hier te lezen http://arilab.wordpress.com/2013/03/22/the-amsterdam-manifesto-on-data-citation-principles/)
• Ik was ook erg gecharmeerd van http://metajnl.com/ (samen te vatten als tijdschriften om datasets te publiceren)

Maar wat zijn nou de relevante vragen voor ons als bibliotheek?
• Ten eerste vraag ik me af hoe we willen omgaan met al die nieuwe tools. Willen we leidend zijn of volgend? Verdiepen we ons alleen in dat wat onze klanten interessant vinden, of willen wij de klant kunnen adviseren over nieuwe ontwikkelingen? Voor een overzicht van tools, zie http://www.force11.org/toolsearch en ook DiRT (http://im2punt0.wordpress.com/2012/07/20/dirt/) Er werden overigens veel vragen gesteld over “sustainability”; veel tools worden ontwikkeld met subsidiegeld. Ligt daar een rol voor de bibliotheek? Moeten wij tools met een toekomst misschien adopteren?
• Ten tweede vraag ik me af hoe al die nieuwe publicatievormen gearchiveerd en ontsloten kunnen worden. Ik denk dat we daar echt iets toe te voegen hebben.
• Een derde vraag heeft te maken met “advocacy”. We bieden bijvoorbeeld Dataverse als tool aan, maar we doen nog niets om hergebruik van data actief te stimuleren. Als het gaat om Open Access publiceren, hebben we een duidelijker standpunt. Hoe zien anderen dat?

Disclaimer: dit is een selectie uit mijn aantekeningen. Ik heb impact, altmetrics en nieuwe evaluatietools (zoals Acumen http://research-acumen.eu/) buiten beschouwing gelaten, maar op verzoek vertel ik daar ook nog over.

10 reacties to “Congresverslag Beyond the PDF”

  1. Jeroen Bosman

    Dit is een heel mooi overzicht! Ik heb zelf vrijwel het hele congres vanuit huis gevolgd. Nog een paar toevoegingen:

    1) Er is een oproep gedaan voor het streven naar het maken van een open Google Scholar, een beetje zoals Open Streetmap zich verhoudt tot Google Maps: https://docs.google.com/document/d/1EBKkhzrBPO39NWO71423f9TLU5oiwOkNb_z5ULfomjI/edit
    2) Veel deelnemers waren ongeduldig en vonden dat “schiolarly communication is broken”. Zij wilden graag minder praten en meer actie om de wetenschapplijke communicatie grondig te verbeteren en versnellen: een #scholrev, of wel een Scholarly Revolution: http://blogs.ch.cam.ac.uk/pmr/2013/03/20/btpdf2-scholrev-planning-the-scholarly-revolution/

    Ik vond het de meest inspirerende conferentie die ik het afgelopen jaar heb meegemaakt en ben het met Lukas Koster eens dat deze veel meer aandacht uit de top van wetenschappelijke bibliotheken had verdient. Voor mijn gevoel kun je op dit soort conferenties zien wat er de komende jaren gaat gebeuren. Niet voor niets waren er meer dan 20 Elsevier mensen in de zaal!

    En wie het hele congres nog eens in de vorm van ruim 3500 tweets wil analyseren kan zie hier downloaden: http://glimmer.rstudio.com/bodong/btpdf/

    Beantwoorden
  2. Inge

    Hee Daf, dit klinkt echt alsof ‘wij van publishing’ het heel erg gemist hebben! Daar had iemand van ons bij moeten zijn. Dank voor de uitgebreide update, gaan we ons alsnog uitgebreid informeren.

    Beantwoorden
  3. Huib Verhoeff

    In schril contrast met “90% van de onderzoeken “irreproducible” is” is het nieuws dat DANS de twee miljoenste datafile heeft geteld binnen 25.000 datasets. Daar hoor je ook heel andere geluiden.
    Zie: http://www.dans.knaw.nl/content/categorieen/nieuws/dans-verwelkomt-25-duizendste-dataset-en-2-miljoenste-datafile
    Inmiddels is het Manifesto on Data Citation Principles met reacties ook op GoogleDocs te vinden.
    Zie: https://docs.google.com/document/d/1ON0yy2_jT2VxL_Cdm03HgMSNnN1A6VzvDQrTi577-ig/edit
    Dafne, Bedankt voor het uitgebreide en informatieve verslag.

    Beantwoorden

Geef een reactie

Het e-mailadres wordt niet gepubliceerd. Vereiste velden zijn gemarkeerd met *