Library Blog

Blog

Congresverslag Open Archives Initiative 8 (OAI-8)

OAI8

Met, maar liefst, een delegatie van vier medewerkers van de Universiteitsbibliotheek Utrecht (Saskia Franken, Erika Manten, Marina Muilwijk en Martin Slabbertje)  zijn we half juni naar Genève afgereisd om OAI-8 bij te wonen. Onderstaand verslag is een combinatie van de afzonderlijke verslagen waarin we allen twee of drie onderwerpen onder de loupe nemen.

Deze onderwerpen zijn:

  • Research Data (Saskia)
  • Open Access Policy Developments (Saskia)
  • Open Access in the Humanties (Saskia)
  • Zenodo (Saskia)
  • Open Journal Systems (Erika)
  • Golden Open Access Infrastructure (Erika)
  • DSpace User Group session (Marina)
  • Metrics tutorial (Marina)
  • Naming on the web (Marina)
  • Open Annotation (Martin)
  • ResourceSync (Martin)

Research data

Wolfgang Horstmann, Associate Director van  the Bodleian Libraries at the University of Oxford, legt uit waarom beleid t.a.v. onderzoeksdata volgens hem iets toevoegt.

Op allerlei niveau’s zijn er data policies. Financiers als DFG en NIH spraken zich resp.  in 1998 en 2002 al uit over het belang van (het bewaren en delen) van data. Meer recent is de National Science Foundation NSF in the US begonnen om ontvangers van subsidie te  verplichten om data management plannen op te stellen. De EPSRC (Engineering and Physical Sciences Research Council, een subsidiegever in de UK) vraagt universiteiten om voor 2015 een data roadmap op te stellen. De University of Edinburgh publiceerde in 2011 een data policy. Er zijn ook uitgevers die een data policy hebben: bij submission van publicaties verzoeken zij om ook om de onderliggende data te leveren (en die de uitgevers soms ook toegankelijk maken). Maar de praktijk is weerbarstig en er zijn grote verschillen per discipline. Hebben deze policies nu echt effect? Wolfram concludeert dat het een proces in 2 stappen betreft:

  1. Eerst moet je de geesten rijp maken (aspirational policies, Zeitgeist)  Daar zijn deze policies uitstekend voor.
  2. Een volgende stap is operationaliseren (Practical Policies > implementing “Seachange”)

Dat wil zeggen: blijf dicht bij het onderzoeksproces, zorg voor een infrastructuur, zorg voor advies aan en ondersteuning van onderzoekers en zorg (zo mogelijk) ook voor financiële ondersteuning.

Het grappige is dat we op de UBU begonnen zijn met een infrastructuur (Dataverse), dat we bezig zijn onderzoeksondersteuning op te zetten (data management plannen maken met en voor onderzoekers), maar dat op gebied van beleid, ook op UU niveau, nog het één en ander te doen is….

Donatella Castelli (Italian National Research Council (CNR-ISTI) schenkt aandacht aan het complexe probleem van de interoperabiliteit van onderzoeksdata. Projecten leveren allerlei data op, die op allerlei plekken, duurzaam en minder duurzaam, op verschillende manieren worden opgeslagen. Lastig voor gebruikers die één en ander willen combineren. Echte oplossingen bood ze echter niet behalve dat ze wees op een best practice van data-infrastructures zoals iMarine dat standaarden, vocabulaires, generieke plug-ins etc. biedt.

In de 2 volgende presentaties komen 2 andere zaken rondom onderzoeksdata aan de orde. Kevin Ashley (Digital Curation Center UK) wijst op het belang van goede metadata bij onderzoeksdata om toekomstig hergebruik te bevorderen. Lijkt me nogal voor de hand te  liggen, maar ik begrijp ook dat het nog niet zo eenvoudig is, gezien de grote diversiteit in projecten.

Tim Smith (CERN) gaat in op het beheer van grote hoeveelheden data. CERN verzamelde 100 petabytes aan onderzoeksdata en koos als oplossing voor distributed data management: opslag en toegang verspreid over verschillende plekken.

Kortom: interoperabiliteit, curation, big data: nog veel  te doen op gebied van onderzoeksdata!

Open Access Policy Developments

In de breakout session gaven verschillende sprekers een beeld van  de ontwikkelingen in Europa, in de UK, in Canada, in de USA en in de ontwikkelingslanden. Overal zie je officiële voornemens, statements, wetsvoorstellen en soms zelfs uitgewerkt beleid. Bijvoorbeeld in de UK, waar de Research Councils hebben bepaald dat alle onderzoeksresultaten geheel of gedeeltelijk gefinancierd door RCUK gepubliceerd moeten worden in tijdschriften die:

– Provide Gold OA (CC-BY) for paper and research data

– Allow release of archived copy within 6 months (12 months in humanities & social  sciences)

Qua beleid is dat  een heuglijke ontwikkeling.

Wat mij echter opvalt, en dat heb ik ook in deze sessie gezegd, is dat er wel veel beleid “uitgevaardigd” wordt, maar dat uitvoeringsplannen, laat staan maatregelen om dat beleid te handhaven, vaak nog ontbreken. De meeste aanwezigen vallen mij bij, en we concluderen samen dat dat een noodzakelijke volgende stap is. Verder wordt over de  aspecten van de verschillende policies gediscussieerd. Ook het voorkomen van double dipping krijgt aandacht. Leslie Chan (Canada, oprichter van Bioline International, een Open Access platform) vindt dat  bibliotheken eigenlijk niet uit hun budget OA fees moeten gaan betalen. Daar zouden de financiers van onderzoek in moeten voorzien. Waar ik het eigenlijk wel mee eens ben, alhoewel ik nog steeds achter ons eigen Open Access fonds sta, omdat we daarmee toch een signaal afgeven dat we OA belangrijk vinden. En ons geld komt rechtstreeks van het College van Bestuur!

Open Access in the Humanities

In deze sessie wordt aandacht gegeven aan de Geesteswetenschappen en Open Access. Geesteswetenschappen kent veel individueel onderzoek en kleine onderzoeksgroepen, er zijn minder mogelijkheden voor subsidiëring en wordt nog veel in boekvorm gepubliceerd.

Een mooi initiatief op gebied van Open Access monografieën in de Geesteswetenschappen en in de Sociale Wetenschappen is Open Book publishers

Open Book publishers is opgericht door een aantal wetenschappers Ze publiceren op papier, maar voorzien daarnaast in een gratis online versie, en alle boeken worden gepubliceerd onder een CC-licensie, wat zoals we weten, hergebruik garandeert. Verder publiceren ze ook “beyond the PDF”: er zijn multimedia publicaties, online wordt aanvullend materiaal, reviews, links gepubliceerd etc.

Open Book Publishers draait redelijk goed en heeft zelfs een kleine winstmarge. Rupert Gatti (Trinity College, Cambridge) noemt als speciale uitdaging het opnemen van de titels in de bibliotheekcatalogi. Die weten vaak nog niet zo goed raad met Open Access publicaties. Sic!

Open Book publishers

Gatti onderstreept dat Open Access zo mogelijkheden biedt voor de humanities: een groter lezerspubliek, meer interactie met lezers, een publicatie kan in een bredere context geplaatst worden en breder hergebruik is mogelijk. Dus “Open Access is a saviour – not a threat – for HSS” Echter, de wetenschappers moeten hier nog meer van doordrongen raken. Zodat dit beeld  straks algemeen gedeeld wordt: “research dissemination is a public good, like street lighting”

Een interessante tip voor diegenen die meer willen weten over de kansen van digitalisering en Open Access voor de humanities is het boek Planned Obsolescence: Publishing, Technology, and the Future of the Academy van Kathleen Fitzpatrick, zie ook haar blog

Ik citeer:  Planned Obsolescence enthuses about digital technology’s potential to reconnect humanities research with broader social debates, policymakers and general readers. But it also carries a stark warning: do nothing and our disciplines will cease to be relevant.”

Zeker verplichte kost voor I&M-ers in de GW, zou ik zeggen!

De Humanities session wordt afgesloten door een lezing van Carlos Rossel van de Wereldbank. Tot mijn verrassing (en ik was daar niet alleen in), is de World Bank ook een uitgever en, belangrijk, de World Bank blijkt een Open Agenda te hebben, die rust op 3 pijlers

1. Access to Information

2. Open Data

3. Open Access

De World Bank heeft een eigen repository: Open Knowledge Repository. Weer iets nieuws geleerd!

Zenodo

Als laatste nog iets over Zenodo. Zenodo? Zenodo!

Zenodo is een nieuwe dienst, opgezet door CERN met geld van het EU  FP7 project OpenAIREplus. Het biedt  wetenschappers, EU projecten en instellingen de mogelijkheid om onderzoeksresultaten te laten zien en te delen, voor zover zij nog niet kunnen beschikken over een een eigen instellings- of subjectrepository. Iedere wetenschapper kan daar dus vrijelijk in uploaden! Martin Slabbertje en ik spraken kort met Lars Holm Nielsen, die de poster presenteerde. Wat ons aantrok is de moderne, multidisciplinaire aanpak van Zenodo, en de integratie van nieuwe snufjes. Hierbij lijken Eprints en DSpace haast roestige, ouderwetse vehikels!

Open Journal System (OJS)

Het was mijn eerste bezoek aan de OAI8 conferentie en na een enerverende start (het hotel was een verhaal apart) begon mijn conferentie met een tutorial over ‘OJS, beyond editorial tradition’. We moesten allemaal OJS op onze laptop installeren, wat bij mij een nog groter groeiende waardering voor onze ICT en I&O mensen teweeg bracht. Daarna kregen we nog wat informatie over hoe OJS dan wel werkt. Geen geheimen voor mij, maar wel leuk. Wat citaten van de bevlogen tutorial-leider Nicolaie Constantinescu: ‘OJS is not a journal management system, OJS is a content management system’. En deze: ‘Publishing in PDF is very old fashioned. We need to tell our journal editors to publish in Open Document Format’. Daarna was het mijn beurt om voor de groep een verhaal te houden over hoe het is om meerdere (OJS) tijdschriften te beheren. Mij was gevraagd vooral de menselijke en organisatorische aspecten hiervan wat nader toe te lichten. Gelukkig verliep alles goed en kon ik me daarna met opgelucht gemoed in de rest van de conferentievreugde storten.

Golden Open Access Infrastructure

Na diverse plenaire sessies te hebben ondergaan, heb ik deelgenomen aan de break-out sessie over Gold Open Access Infrastructure. Van tevoren was ik nogal benauwd aangezien ik niet precies wist wat dat nu inhoudt, maar gelukkig kwam ik er al snel achter dat de rest dat eigenlijk ook niet wist.

Er werd gesproken over de ‘money flow’ (o.a. over APC’s, en het Freemium model), over ‘Policy compliance’, ‘machine readable metadata’ en allerlei standaarden voor allerlei processen.

Interessant was vooral de discussie over ‘quality and sustainability’.  Mensen moeten vertrouwen hebben cq krijgen in OA publishing, daarvoor zijn  ‘transparency’ en ‘business ethics’ van groot belang. Dit sloot ook aan bij de lezing  de dag ervoor van Jelte Wicherts (van de Universiteit van Tilburg) over het belang van openheid over en kwaliteit van de peer review procedure en de plannen van de DOAJ (Database of Open Access Journals) om hun kwaliteitseisen aan te scherpen.

De mooiste definitie van OA infrastucture kwam van  Geoffrey Bilder van Cross Ref: it’s the stuff you ideally do, but do not see. Geconcludeerd werd dat men in Golden OA land allemaal  zijn/haar eigen gang gaat en dat, om iedereen samen op weg te krijgen, er 3 dingen nodig zijn: 1. beleid, 2. geld en 3. noodzaak. Daar zal, vermoed ik, nog veel over ‘gesproken’ gaan worden…!

DSpace User Group

De dag voor het eigenlijke congres was er een bijeenkomst voor gebruikers van DSpace.
Niet alles ging daar overigens alleen maar over DSpace. De eerste presentatie ging over ORCID.
Het doel van ORCID is om een wereldwijd register te zijn van onderzoekers en onderzoeksorganisaties. Zo kan elke onderzoeker een eigen identifier krijgen bij ORCID (zoals nu Nederlandse onderzoekers nu al een DAI kunnen krijgen). Ook werkt ORCID aan manieren om zoveel mogelijk automatische koppelingen tussen hun register en andere systemen, zoals CRISsen en repositories. Hoe minder handmatige links tussen onderzoekers, onderzoek en publicaties, hoe beter.

Andere presentaties gingen over technieken die in de nieuwste DSpace versie zijn ingebouwd of die binnenkort komen, zoals ResourceSync, SWORD2 en een REST API. Het gaat te ver hier nu uit te leggen wat die technieken precies inhouden (Martin gat straks wel in op ResourceSync), maar ze zijn allemaal zeer interessant voor de Universiteitsbibliotheek.

Er waren een aantal voorbeelden van waar bibliotheken momenteel mee bezig zijn (Ik heb iets verteld over de vernieuwing van onze DSpace) en een bespiegeling over de ontwikkelingen van DSpace zelf op de middellange termijn. De makers van DSpace denken er over om DSpace zo te maken dat er meer configuratie en aanpassingen via de site gedaan kan worden, zodat er minder ontwikkeltijd nodig is.

Metrics Tutorial

Managers en onderzoekers willen graag weten of publicaties enige invloed hebben. Er zijn diverse manieren om te meten of mensen iets met een publicatie doen. Je kunt citaties, page views, downlaods of bookmarks tellen of kijken of een publicatie genoemd wordt op social media.
Elke methode heeft voor- en nadelen.
Citaties tellen is de oudste en bekendste methode. Toch zijn de cijfers niet zo eenduidig als je zou denken, want elke leverancier van cijfers heeft een eigen manier van tellen.
Via sites van uitgevers en tools als Google Analytics kun je zien hoe vaak een pagina is bekeken en hoevaak een bestand is gedownload. Ook hier geldt dat elke provider weer een andere manier van tellen heeft. En zeker bij het bekijken van een pagina heb je meestal geen idee of iemand er een paar seconden naar heeft gekeken (“waar gaat dit over”) of dat ze de hele pagina gelezen heeft.
Services als Mendeley maken het mogelijk om te zien hoeveel mensen een bookmarks naar een publicatie hebben opgeslagen. Het is alleen niet zeker of dat in de toekomst ook zo zal blijven.
Tenslotte is er de analyse van welke dingen mensen delen of becommentariëren in sociale media. Dat werkt eigenlijk alleen als er een DOI of andere identifier in de post/tweet/status staat. En het gebruik van sociale media verschilt erg per vakgebied.

Verschillende soorten cijfers vertellen je verschillende dingen.
Artikelen over methodologie worden bijvoorbeeld weinig geciteerd, maar wel veel gelezen. Vaak zullen de beschreven methodes wel worden gebruikt in het onderzoek, maar zonder dat de onderzoeker het artikel ergens noemt. Als je enkel naar citaties kijkt scoort zo’n artikel dus slecht, terwijl de invloed best groot kan zijn.
Om echt te begrijpen wat de invloed van een publicatie is moet je dus eigenlijk naar alle cijfers kijken. Helaas is er nog geen geautomatiseerde manier om dat te doen.

Naming on the Web

Hoe verwijs je naar precies het juiste ding op het web, op een manier die blijft werken? Iedereen kent het probleem van een link die niet meer werkt. Wat ook kan gebeuren is een link die wel werkt, maar die niet meer wijst naar de zelfde inhoud als in het verleden. De spreker had een mooi voorbeeld waar een domeinnaam een nieuwe eigenaar had gekregen, met als gevolg dat er opeens een heel ander soort site stond op de oude URL.
De oplossing moet vooral komen van afspraken. Het zou bijvoorbeeld al een stuk schelen als iedereen zou zorgen dat z’n URI naar (min of meer) hetzelfde blijft wijzen. De techniek kan hierbij wel helpen, maar techniek alleen is niet genoeg om het probleem op te lossen.

Open Annotation

Ik heb been break-out sessie gevolgd over Open Annotation. Uiteindelijk was het meer een tutorial dan een break-out sessie, maar dat kwam mij wel goed uit, aangezien ik nog weinig wist over Open Annotation.

Eerste logische vraag die beantwoord werd, was wat een annotatie nu (in de optiek van Open Annotation) eigenlijk is: An Annotation is considered to be a set of connected resources, typically including a body and a target, where the body is related to the target. Een abstracte omschrijving om aan te geven dat een annotatie in de optiek van Open Annotation dus niet alleen de annotatie bevat zoals wij het bv. gebruiken in bibliografische termen (zoals commentaar in een annotatie-veld) maar ook de bron die geannoteerd wordt. Dit pas natuurlijk geheel in LinkedData terminologie waarbij het geen zin heeft om een commentaar, opmerking, ranking etc. op zichzelf te zien maar alleen nuttig wordt in relatie tot de bron hiervan.

Waarom gebruiken mensen eigenlijk annotaties? Het blijkt dat er nogal wat redenen zijn. De belangrijkste redenen kun je onderverdelen in 6 categorieën:

  • Als geheugensteuntje
  • Om te delen en te informeren
  • Om vindbaarheid te bevorderen
  • Om te organiseren en in te delen
  • Om met anderen te interacteren
  • Om zowel te kunnen creëren als te consumeren

Het doel van het Open Annotation model is om te voorzien in een raamwerk  waardoor “the set of connected resources” gemakkelijk uitgewisseld kan worden tussen platforms en systemen waarbij het raamwerk voorziet in genoeg rijkheid om complexe expressies te kunnen uitdrukken zonder dat het te complex wordt om ook zeer eenvoudige uitdrukkingen te kunnen ondersteunen. Het model past goed in de hele WWW-architectuur en volgt Linked Data principes en is daarom zeer gericht op de toekomst van het semantisch web.

Waarom is dit initiatief interessant voor ons? De meest voor de hand liggende toepassingen zijn stukken tekst in gedigitaliseerde (oude) boeken die geannoteerd worden (zie Annotated Books). Mogelijk kan ook annotatie-functionaliteit toegevoegd worden bronnen uit ons repository. Ik heb hier zelf nog geen goed beeld van, maar misschien komt dit als we (met input van onze eindgebruikers) gaan nadenken hoe we de landingspagina’s uit ons repository van meerwaarde kunnen voorzien. In ieder geval voorziet het model in verschillende niveaus van annotatie (bv. target kan een heel boek zijn, een paragraaf of een enkel woord) en meervoudige annotaties (bv. verschillende bodies bij één target).

Wie meer in detail wil zien hoe het model eruit ziet en hoe er wordt omgegaan met de relaties tussen body (de annotatie in enge zin) en target (het geannoteerde object) kan de presentatie bekijken op  of de documentatie op Open Annotation site  bekijken.


ResourceSync

De eerste tutorial van OAI8 was voor mij meteen het hoogtepunt van het hele congres: een tutorial van Herbert van de Sompel, Robert Sanderson en Richard Jones over ResourceSync.

ResourceSync is een initiatief van NISO en OAI, gestart eind 2011, om een standaardoplossing te bieden voor organisatie, projecten en services die data willen synchroniseren. Dit kan zowel gaan om kleine websites als om grote repositories. Het richt zich specifiek op de onderzoeksgemeenschap en de cultureel erfgoed gemeenschap, maar moet ook voor andere communities bruikbaar zijn.

In ons repository worstelen we al jaren met de behoefte om metadata én data uit te wisselen. Het blijkt dat OAI-PMH hiervoor geen goed mechanisme blijkt te zijn. Vaak gaat het hierbij om uitwisseling van data voor digital humanities en/of cultureel erfgoed: grote hoeveelheden objecten (bv. scans van pagina’s uit oude boeken).

De service-providers die hier “iets” mee willen hebben (zoals Europeana, Open Cultuur Data, CLARIN) hebben vaak allemaal hun eigen specifieke wensen over welk materiaal zij willen ontvangen en welke metadata zij hierbij willen hebben. Met work arounds lukt het soms wel en soms niet om via OAI-PMH te voldoen aan hun eisen. Het zou fijn zijn als ResourceSync hier een goede oplossing voor zou bieden!

Omdat ik me in de praktijk dus erg bewust ben van de beperkingen van OAI-PMH (en omdat de makers van OAI-PMH ook achter het nieuwe initiatief van ResourceSync zitten), was ik vooral erg benieuwd of ResourceSync inderdaad een alternatief voor OAI-PMH zou kunnen worden en welke OAI-PMH problemen ResourceSync nu eigenlijk oplost. In de tutorial werden als belangrijkste meerwaarden van ResourceSync ten opzichte van OAI-PMH genoemd:

  • OAI-PMH richt zich alleen op metadata in XML-format en is hierdoor te beperkt;
  • Het uitwisselen van data via OAI-PMH is niet handig;
  • Het OAI-PMH protocol is al meer dan 10 jaar oud en ongewijzigd, sindsdien is er veel veranderd in de web-technologie.

Bovendien werd de hoop uitgesproken dat ResourceSync in de toekomst wel eens OAI-PMH zou kunnen vervangen als de de facto standaard voor repositories. Kortom: een standaard-in-wording die wel eens voor wat veranderingen in de repository-wereld zou kunnen zorgen!

En voor de technisch geïnteresseerden in het kort nog even wat ResourceSync nu eigenlijk is/doet. Kort gezegd heb je in ResourceSync te maken met twee partijen/servers:

  • een Source (een server die objecten heeft die veranderen gedurende de tijd: objecten komen erbij, worden gewijzigd of worden verwijderd);
  • een Destination (een server die “iets” doet met (een aantal van) de Source-objecten)

Wat je wilt is (dus) dat de Destination in de pas blijven lopen met de objecten in de Source: ResourceSync!

ResourceSync kent hierbij een drietal verschillende behoeften bij synchronisatie:

  • Baseline synchronisation: een initiële synchronisatie,
  • Incremental synchronisation: een synchronisatie om up-to-date te blijven,
  • Audit: een test om vast te kunnen stellen of er correct wordt gesynchroniseerd

Om bekendheid te geven aan de bronnen die een Source heeft, publiceert de Source verschillende informatie online (een ResourceSync Description en één of meerdere Capability Lists en Resource Lists). Het model staat het toe dat de Destination te allen tijde  kan “instappen” om de objecten van een Source op te halen. Het Sitemap-protocol wordt als overall-protocol gebruikt waarin ResourceSync een plaats krijgt (door middel van extensions).

Richard Jones, een echte DSpace-expert, mag als derde presenteren en vertelt over zijn onderzoekje naar de comptabiliteit van DSpace met betrekking tot ResourceSync. Zijn conclusie is dat DSpace op dit moment een aantal hiaten heeft waardoor het model niet goed kan worden toegepast. Deze hiaten zijn:

  • Er zijn geen stabiele URLs voor de verschillende metadata-manifestaties van een item;
  • Er wordt geen geschiedenis geregistreerd van de veranderingen in metadata en bitstreams van de items;
  • Er wordt alleen bijgehouden wanneer items  op withdrawn worden gezet, maar niet wanneer zij daadwerkelijk deleted worden.

Wie de diepte in wil: bekijk de Beta Draft van het ResourceSync-model en de slides van de ResourceSync-tutorial op OAI8

Een reactie to “Congresverslag Open Archives Initiative 8 (OAI-8)”

  1. Jeroen Bosman

    Interessante bijeenkomsten! Een paar punten:

    Van het boek Planned obsolescence is ook een gratis versie beschikbaar, dus je hoeft niet naar Amazon, Bol, Polare of een andere boekwinkel: http://mediacommons.futureofthebook.org/mcpress/plannedobsolescence/

    Het OA mandaat van RCUK in het Verenigd Koninkrijk stelt weliswaar 6 (STEM) of 12 (social science, A&H) maanden als maximum embargo, maar dat geldt alleen als er geen Gold OA optie is. Is die er wel, maar heb je geen funding voor de APC dan gelden daar embargo’s van respectievelijk 12 en 24 maanden. Bij steeds meer uitgevers zijn journals hybride, dus deels gesloten, deels gold OA (als je maar betaalt). Maar omdat veel onderzoeksfunding geen publicatiebudget bevat zullen dus die langere perioden gelden. Ik vind dat erg lang. Nog belangrijker is de uitkomst strijd in de VS over de implementatie van (delayed) green OA. Het OSTP (White House Office of Science and Technology Policy) eist van funders dat ze publieke toegang garanderen. Deze kunnen nu kiezen tussen CHORUS (van de uitgevers met een embargo van 12 maanden en zonder re-use / CC-BY garantie maar wel de publishers version in de journal context, zie: http://www.publishers.org/press/107/) en SHARE (van de bibliotheken, zie: http://www.arl.org/storage/documents/publications/share-proposal-07june13.pdf). Welke van deze twee implementaties van green OA zullen de Amerikaanse funders gaan steunen? Als ze voor het uitgeversaanbod kiezen kan dat een groot probleem zijn voor bv. PubMed Central. Ik ben er niet gerust op. De uitkomst van de strijd in de VS zal ook wereldwijd de weg die OA opgaat en op kan gaan sterk beïnvloeden.

    Beantwoorden

Geef een reactie

Het e-mailadres wordt niet gepubliceerd. Vereiste velden zijn gemarkeerd met *