Transcript
Politique documentaire et ressources électroniques
Typologie des ressources électroniques :
-les ressources payantes distantes : offre des « grands éditeurs » commerciaux : Science Direct d’Elsevier – Academic Search Premier d’Ebsco
La bibliothèque paie un abonnement et met ces ressources à disposition de la communauté universitaire. Le prix de ces abonnements est calculé en fonction de l’importance de cette communauté (à Rennes 2, environ 16000 inscrits) et du nombre d’années de souscription (Science Direct à Rennes 2 : numéros accessibles à partir de 2001…)
Pb : Que se passe t-il si à cause de coupures budgétaires, la bibliothèque se désabonne.
Les contrats prévoient l’envoi de fichiers pour les numéros parus pendant la durée de l’abonnement, mais comment donner à lire ces fichiers sans l’interface, l’index et le moteur de recherche d’Elsevier ?
-Ressources hébergées sur des serveurs académiques notamment pour la « littérature grise » (production scientifique)
Par exemple, rapports de recherche, articles, mémoires :
Cf. l’offre de Hal (Hyper Article on Line)
pour les Sciences humaines : Hal-SHS
pour les mémoires en Sciences de l’Information : MemSic
Ces plateformes peuvent être rattachées à des instituts (cf. exemples précédents soutenus grâce au CNRS) ou bien à des universités ou des grandes écoles (ex. Infoscience de l’EPFL de Lausanne)
Le point commun de ces ressources mises en ligne selon le modèle des « Archives Ouvertes » (déclaration de Budapest de 2002 encourageant la mise en ligne de ressources accessibles gratuitement) est le format utilisé pour leur description : les métadonnées sont conformes au protocole OAI-PMH (Open Archive Initiative-Protocol Metadata-Harvesting : protocole qui permet de déposer sur un serveur dédié un ensemble de documents interrogeables par un moissonneur (Oaister, par exemple)
-Produit de la numérisation (pour le fonds patrimonial, les thèses en ligne)
+ bases produites par l’université, livres électroniques (tantôt acquis par le Service Commun de Documentation à titre définitif, tantôt accessibles pendant la durée de l’abonnement), bases de connaissance produites localement et hébergées sur le serveur de la bibliothèque (ex. base Questions /réponses de l’Enssib), ressources pédagogiques en ligne (Cursus), etc.
Quels changements induits dans nos métiers ?
De moins en moins la Bibliothèque possède les ressources auxquelles elle donne accès. Les bouquets de revues auxquels la Bibliothèque souscrit se trouvent sur des serveurs en Angleterre ou aux Etats-Unis.
Les serveurs des éditeurs commerciaux constituent les nouvelles « bibliothèques » au sens originel du terme (bibliothèkè : dépôt de livres). Dans cette perspective, les bibliothécaires deviennent des fournisseurs d’accès.
Le bibliothécaire délègue son rôle traditionnel de conservation aux éditeurs (même le marché des archives est repris par des éditeurs privés comme Jstor). Il est de fait amené à se concentrer sur des tâches de médiation (formation aux bases et information sur les accès) et à des tâches de gestion (gestion de licences très hétérogènes)
Ces collections satisfont-elles les besoins ?
Selon la définition que nous avons donnée de la collection, celle-ci ne se distingue pas des besoins qu’elle est censée satisfaire (besoins que le responsable d’une politique documentaire a la charge d’analyser en amont)
Actuellement, dans ce domaine, c’est plutôt une logique de l’offre qu’une logique de la demande qui l’emporte.
D’un côté, les grands éditeurs obligent les bibliothèques à souscrire des abonnements à des packages (alors que parfois, dans ces bouquets, une minorité de titres rencontrent réellement les besoins locaux)
D’un autre côté, une grande partie des besoins ne sont pas satisfaits.
Le marché se porte plutôt sur l’offre de bases de données anglophones de niveau recherche.
Par conséquent, les besoins des étudiants de Licence qui se portent surtout sur des manuels sont loin d’être sastisfaits.
Pour le niveau Licence, l’offre la plus convaincante ne porte pas encore sur les manuels ni sur les bases de données, mais sur des portails de revues en ligne (CAIRN pour l’Europe (PUF, Erès, De Boek, La découverte), Erudit pour le Québec.
Pour couvrir les besoins locaux, les bibliothèques sont incitées à produire leurs propres bases de données, par exemple, la base Mémorable, qui signale les mémoires de master de Rennes 2
La base bibliomer produite par l’Ifremer à destination de ses chercheurs.
L’unité documentaire considérée n’est pas non plus la même, du côté de l’offre et du côté de la demande.
Du côté de l’offre, les éditeurs proposent des bouquets de revues qui déséquilibrent souvent les collections déjà constituées.
Du côté de la demande, ce qui intéresse les chercheurs, c’est de trouver les articles de leurs collègues qui officient dans leurs disciplines.
C’est à la bibliothèque de mettre cette offre en rapport avec cette demande.
Des solutions techniques existent ; le résolveur de liens permet d’interroger directement à partir de Google Scholar ou à partir du portail sur les termes de l’article (titre, auteur, éditeur, année, etc.) sans avoir au préliminaire à envoyer une requête sur une base de donnée particulière. Le résolveur de liens permet de rassembler dans l’intérêt du chercheur l’information utile pour ses recherche et qui se trouve disséminée dans plusieurs bases.
Différents moyens de cibler des ressources pertinentes aux usages
Le moyen le plus évident est d’interroger ces usages : a priori (avant abonnement), en demandant aux éditeurs des tests en ligne d’un ou plusieurs mois. (cf. test des Que-sais-je ? en ligne demandé à Cairn par le SCD de Rennes 2. Les Que-sais-je sont disponibles en ligne aux étudiants à titre de test jusqu’à fin mai.)
En aval (après un an d’abonnement) en demandant à l’éditeur la fourniture des statistiques de l’année. Mais comme les stats fournies par chaque éditeur sont différents (nbre de sessions, de téléchargements, temps passés à la lecture d’un article, nbre de requêtes, nbre de comptes ouverts, d’alertes paramétrées par l’utilisateur, etc.) il est difficile de construire des indicateurs valables pour tous les corpus de ressources électroniques, sauf à utiliser des logiciels, comme Counter qui permettent d’harmoniser ces statistiques (mais il faut s’assurer que les bases auxquelles nous sommes abonnés sont bien compatibles avec ces logiciels.)
Des enquêtes globales sur l’usage des ressources électroniques peuvent être mises en place (Digiqual) ou bien des sondages ponctuels liés à la consultation de telle ou telle base de données (modèle : on se rend sur une bdd et avec la liste des résultats est fourni un sondage de satisfaction minimal)
Un autre moyen de s’assurer que la bibliothèque ne paiera que des documents réellement lus –ou tout au moins « accédés » est le pay per view. La bibliothèque négocie avec un éditeur pour que celui-ci lui ouvre une partie ou la totalité de son catalogue et en fin d’année, elle reçoit une facture qui correspond à l’ensemble des documents qui ont été téléchargés ou ouverts.
Ce modèle est proposé par certains agrégateurs de revues mais aussi par des éditeurs de livres électroniques comme OCLC (éditeur du catalogue Netlibrary). C’est le type même de la patron driven acquisition (acquisitions pilotées par l’usager). Dans ce modèle, le bibliothécaire transfère une partie de ses choix documentaires sur l’usager ; il ne fait que circonscrire l’offre de documents dans laquelle l’usager va piocher ce qu’il va faire acheter.
Comment évaluer la qualité de l’offre des ressources électroniques
Le choix d’un abonnement électronique porte sur des unités sensiblement plus importantes en termes budgétaires que celui d’une monographie. D’où la nécessité accrue de mesurer la qualité de ce à quoi on va souscrire.
Cette qualité n’est pas mesurée selon des critères disciplinaires (commissions d’experts chargés d’orienter la poldoc de la bibliothèque, par ex.) mais selon des critères comptables ou arithmétiques.
Selon ce paradigme comptable, un bon article est un article qui a été cité un grand nombre de fois. Tel est le grand principe de la Bibliométrie évaluative.
Comme chaque indicateur bibliométrique –s’appuyant sur un nombre toujours trop restreint de paramètres- présente des défauts qui finissent toujours par être relevés par la communauté scientifique, on invente un autre indicateur qui essaie d’être moins partiel.
Ainsi après le facteur d’impact (nombre de citations en 2008 d’un article paru en 2007) on a inventé le facteur H (nombre n d’articles écrits par un auteur qui sont tous cités au moins n fois, ce facteur a sur le précédent l’avantage de corréler le nombre d’articles produits par un chercheur à leur impact en terme de nombres de citations.)
La succession de ces indicateurs rend difficile d’ailleurs une évaluation sur le long terme des produits de la recherche.
La bibliométrie autrefois utilisée à des fins de politique documentaire pour mettre au point une collection de référence de revues scientifiques est aujourd’hui détournée à des fins d’évaluation. Evaluation de la production des labos et de leurs chercheurs.
Plusieurs biais viennent rendre cette évaluation incertaine.
Le plus évident est que ce type de bibliométrie dévalorise les chercheurs qui ne publient pas en anglais. Par ailleurs, les travaux de recherche qui sont très dépendants d’un terrain particulier y sont mal représentés, de même que les travaux dans le domaine de l’informatique qui ne prennent souvent pas la forme d’articles scientifiques (mais de communications plus ouvertes sur la toile : blogs, journaux en ligne, etc.)
Enfin, les indicateurs bibliométriques existants sont surtout adaptés pour les publications en STM et d’ailleurs les publi en SHS sont bien moins référencées dans les grandes bases de données bibliométriques comme Web of Science (Thomson) ou Scopus que les revues en Sciences exactes.
La bibliométrie a aussi certains effets pervers sur les stratégies des chercheurs et des éditeurs :
Convaincus que pour exister, ils doivent être visibles dans ces bases de données (publish or perish) ils ont tendance à délayer la matière d’un article en plusieurs « papiers » successifs.
Les outils bibliométriques sont donc l’un des principaux artisans de la quantification du savoir (et de sa perte de sens). A ce titre, ils donnent des arguments en faveur de la thèse de Lindsay Waters selon laquelle on observerait actuellement à une « éclipse du savoir »(Waters) due au fait que l’évaluation des chercheurs les oblige à publier toujours plus d’articles (ou de livres) et donc des articles ou des livres d’une qualité de plus en plus médiocre.
Les agences d’évaluation de la recherche utilisant ces bases, il est difficile de ne pas permettre à la communauté de ses chercheurs d’y avoir accès. Mais laquelle choisir ?
Le nombre de citations d’un article, et l’impact du travail d’un chercheur, varie beaucoup d’une base à l’autre, et de l’ensemble des bases bibliométriques sur le marché aux données fournies par Google Scholar. D’après Maya Beauvallet (Les statégies absurdes, Seuil, 2003, p127) Seules 40% des citations sont communes à Scopus, WOS et GoogleScholar.
Ce qui encourage chaque institution à faire son propre classement afin de mettre en valeur sa production scientifique. Ainsi les documentalistes et dans certains cas les bibliothécaires sont requis par leur tutelle pour calculer le facteur d’impact de la production scientifique locale.
L’Accroissement des coûts de l’Information Scientifique et Technique en ligne et comment y faire face ?
Cet accroissement est noté par tous, va bien au-delà de l’inflation et ne se justifie guère au vu du nombre de revues souscrites dans chaque bouquet ou du peu d’innovations éditoriales que comportent les produits sur le marché.
(Les dépenses consacrées aux ressources électroniques dans les établissements français (BU, BM, BnF, CNRS) ont augmenté de 287 % en 9 ans (de 1999 à 2007) pour une progression globale des dépenses documentaires de 52 % sur la même période (chiffre BnF)
L’essentiel de la montée des prix s’explique par la concentration des marchés qui met quelques éditeurs en situation d’oligopoles voire de monopoles dans certains domaines scientifiques (Elsevier-Masson pour les revues de médecine par exemple). Forts de ces positions dominantes, les quelques grands éditeurs scientifiques qui demeurent peuvent présenter des gammes de prix qui sont de moins en moins supportables pour les bibliothèques, dont les budgets stagnent et même baissent à cause de la crise.
Depuis 2001, les BU négocient à plusieurs pour tenter de peser face aux éditeurs. C’est ce à quoi sert le consortium COUPERIN (outre sa mission d’information et de veille collaborative sur les produits documentaires à destination des établissements partenaires)
En dépit de cette démarche collective, les prix continuent d’augmenter obligeant les communautés universitaires à penser à d’autres modes d’organisation pour l’accès et la diffusion de la production scientifique.
Les licences globales qui permettraient en partie d’absorber cette montée des coûts est encore à l’état de projet. Ces licences pourtant existent déjà en Allemagne, aux Pays-Bas et en Espagne.
La CPU (conférence des Présidents d'Université) est actuellement en négociation avec le ministère pour obtenir d'utiliser une partie du Grand Emprunt à la mise en oeuvre de ces licences nationales et au rachat des archives (négociation ouverte en novembre 2009).
Le consortium COUPERIN a transmis en mars 2010 un document prospectif sur le sujet listant les avantages des licences nationales :
-Egalité d'accès à l'IST sur le territoire (tous les établissements en SHS ou STM bénéficieraient de la même offre électronique)
-Economies d'échelle -Le prix d'une licence coûte moins cher que le cumul des prix d'abonnements consentis par l'ensemble des universités-
-Meilleur calcul des 'fte' (nombre d’abonnés via la bibliothèque dont découle en partie le prix de l'abonnement. Eviter de payer deux fois des ressources (éviter qu'un chercheur soit compté comme bénéficiaire d'un abonnement lié à un labo et en même temps pour la même ressource soit compté comme bénéficiaire d'un abonnement lié à un SCD)
-constitution d'une collection électronique pérenne acquise en une fois (achats de collections rétrospectives et de corpus)
-constitution d'une collection de références
Une autre réponse consisterait à changer le modèle économique de la publication des produits de la recherche.
Deux modèles peuvent être présentées comme alternatives :
La voie verte (auto-archivage)
L’Université incite le chercheur (ou l’oblige comme dans un certain nombre d’universités américaines) à déposer le dernier état de son article avant la publication dans l’archive institutionnelle. C’est donc dans ce cadre là l’université qui supporte les coûts de la publication (elle maintient l’archive sur ses serveurs et forme les chercheurs à leur utilisation)
Ces dernières années, ce mode d’édition a connu un essor considérable et on estime aujourd’hui que près de 20% de la documentation scientifique est publiée par les chercheurs sur le mode de l’auto-archivage (70% de ces dépôts se font dans des archives institutionnelles)
La voie dorée (publication dans des revues d’Open Acess)
Ce n’est plus au chercheur de payer (ou du moins à sa bibliothèque de référence) pour accéder à la littérature de ses collègues. C’est désormais à l’institution de rattachement du chercheur d’acquitter les frais d’édition, l’article une fois publié chez un éditeur en Open access est accessible gratuitement par l’ensemble de la communauté des chercheurs. La contrepartie est que ces laboratoires, ces institutions qui assument les frais d’édition sont mieux représentées que dans les bases des éditeurs traditionnels.
Dans ce modèle, les frais d’édition d’un article pour l’institution de recherche représente une dépense bien inférieure à celle que doit consentir la bibliothèque pour rendre cet article accessible à sa communauté par abonnement chez un éditeur traditionnel.
Exemple d’éditeurs en Open Access :
DOAJ (Directory Open Access Journal)
PLoS (Public Library of Science)
Le développement de ces revues en open-access, comme l’auto-archivage obligatoire des données offrent des perspectives très intéressantes pour des bibliothécaires chargés de mettre au point une politique documentaire qui satisfasse les besoins des chercheurs tout en prenant acte de la tendance à la baisse des budgets annuels de leur bibliothèque.