Catalogues de nouvelle génération

J’ai eu la chance d’animer les 8 et 9 juin, les journées d’étude organisées par MEDIAL.

Les intervenants de la première journée ont posé la problèmatique côté bibliothécaires. Des interventions très riches, très professionnelles d’Emmanuelle Bermès (BNF), Christine Fleury (ABES) et Juliette Lefèvre (BM Lille), nous ont permis de disposer de l’ensemble des éléments (formats, ergonomie, interfaces…) de la problèmatique du jour.

La seconde journée était l’occasion de balayer les diverses solutions commerciales et libres et de faire un peu de prospective avec les interventions de Philippe Bourdenet (Université du Maine), Maud Arnaud (Ex-Libris), de Marie-Eve ?? (Decitre), de Laurent Dervieu (Electre) et de Nicolas Morin (BibLibre).

En conclusion, des journées enthousiasmantes qui seront source de prochains posts…

OPAC pour CMS & Co

En ce moment, on observe une tendance forte au développement d’OPACs basés sur des CMS :

Ces solutions sont intéressantes à plusieurs titres.
Tout d’abord, celà permet de mettre en place un OPAC digne de ce nom (disons à moindre coût humain et financier…) qui ressemble aux outils habituellement utilisés par notre public potentiel. La recherche en devient intuitive, il n’y a pas à envisager la mise en place de modules à l’utilisation du catalogue (ce qui m’a toujours exaspéré !), l’utilisateur est dans son environnement habituel (ouf !).
Ensuite, l’interface est évolutive pour peu que l’on soit aidé par un informaticien sympa, ou que l’on soit soi-même pratiquant, ou que l’on fasse partie d’un réseau de collègues bienveillants et collaboratifs dans l’âme.
Enfin, ces solutions font que chaque référence bibliographique est un billet à part entière. C’est à dire que l’on va pouvoir le commenter, le tagger… Mais surtout on va pouvoir le repérer comme un post, et là c’est une grande nouveauté. Chaque référence bibliographique du catalogue est un post que les moteurs de recherche vont pouvoir indexer (très rapidement) et que les utilisateurs vont retrouver à partir d’une recherche dans Google par exemple. On donne alors aux collections une visibilité très importante, inaccessible avec le bon vieux SIGB des familles… Nous avons expérimenté celà au travers de notre blog de nouveautés bâti sur Dotclear. Eh bien, chaque référence a un référencement effectif dans les 2 jours et nous avons observé que les références apparaissaient toujours sur la première page de résultats et bien souvent classées avant les grandes librairies en ligne, extraordinaire !

Gérer des références (refs biblios ou URL)

Lorsque l’on navigue sur le Web, on est amené à sélectionner des références bibliographiques ou des sites web. Plusieurs outils existent actuellement, je me suis amusé à les tester.

Tout d’abord, il y a les outils bibliographiques bien connus tels que EndNote…qui ont pour caractéristiques principales d’être payants, de s’installer comme logiciel client, d’être performants dans la gestion d’une base bibliographique. Avec ses outils vous pouvez collecter au coup par coup ou de manière automatisée des références provenant de bases de données. La plupart de ces bases de données scientifiques proposent des exports dans les formats adhoc. je dirai que cette solution à l’inconvénient de fonctionner avec l’ordinateur sur lequel est installé le logiciel. certaines universités proposent une licence de site qui permet à tout chercheur de disposer de l’outil, mais celà reste un outil installé en local qui ne permet pas de s’affranchir de l’ordinateur de consultation.

Dans ce même ordre d’idée, il existe un add-on à Firefox qui s’appelle Zotero et qui permet d’assurer les mêmes fonctions mais gratuitement. ce produit a déjà été décrit à sa sortie en 2006 içi et . Disons qu’un an après, les qualités sont confirmées avec un nombre très impressionnants de « translators » pour la plupart des grands catalogues et fournisseurs de références bibliographiques. La nouveauté tient au fait que l’on peut « fabriquer » un translator adapté à son catalogue. Celà signifie clairement que l’utilisateur, qui recherche des références dans votre catalogue et qui dispose de Zotero, peut collecter les références qui l’intéresse d’un seul clic pour ensuite les gérer et éventuellement les rediriger sous forme de flux XML vers un blog… Un enrichissement des fonctionnalités du catalogue à étudier.

Ensuite, on aborde la catégorie des outils disponibles en ligne, toujours le même principe de collecte à la consultation , mais un stockage réalisé sur un site web. Il suffit de disposer d’une connexion web pour avoir accès à ses données et aux fonctionnalités associées (partage des données, redirection…).

C’est le cas de Refworks :
L’outil RefWorks n’est pas un logiciel qui s’installe sur un PC. C’est une application web disponible a partir de n’importe quelle machine (PC/Mac) reliée à Internet. L’utlisateur de RefWorks n’est donc ni limité par la machine de connexion ni de pouvoir s’affranchir de l’ordinateur de consultation.
Le produit propose aussi des liens avec les catalogues des Organismes, soit en recherche z3950, soit en téléchargement direct a partir de l’interface du catalogue.
(correctif Nick Barber 21/11/2007)

C’est le cas de Connotea :

La barre d’outils propose des fonctionnalités suffisantes à mon avis : dossiers, tags, import, export…

C’est le cas de CiteUlike :

C’est le cas de Diigo, qui est plus un collecteur d’URLs :

mais qui propose la même gamme de fonctionnalités que Connotea. Pour vanter tous les avantages de ce produit, je pense que MRG est le mieux placé…(en attente de ses commentaires).

Dans le cadre de leur activité, les bibliothécaires sont eux-mêmes amenés à collecter et gérer des références bibliographiques, soit dans le cadre de leur veille professionnelle, soit dans le cas de leur activité d’acquéreur. je pose la question, est-ce que des services d’acquisition utilisent ce type de produit, si oui dans quel workflow ?

LibraryFind

J’ai lu avec intérêt le post de Daniel B. sur son install de LibraryFind, ça rentre parfaitement dans la logique de recherche d’un OPAC construit spécifiquement pour cette fonction et sur lequel on peut intervenir (cf post sur Scriblio). Je précise içi ma démarche : je considère que notre SIGB assure correctement les fonctions internes (acquisitions, catalogage, indexation) et je pars dans une logique de construire un OPAC spécifique à partir de ces données. Il est devenu indispensable de s’approprier l’outil qui permet de rendre visible nos données, je ne souhaite plus déléguer cette tâche aux fournisseurs qui l’assurent mal et à des coûts prohibitifs. Cette mesquinerie, qui consiste à nous coller des coûts de maintenance sur un produit ni fait ni à faire, n’est plus supportable. Le retard accumulé sur les interfaces de consultation est devenu extrêment pénalisant pour ne pas dire handicapant. Les utilisateurs n’ont plus envie « d’apprendre » à utiliser nos OPACs, nous assurons des formations à l’utilisation de l’OPAC (?!?), alors que pour les interfaces de librairies en ligne, d’éditeurs,etc… les interfaces sont ergonomiques, intuitives et agréables à l’oeil.

Scriblio

Le constat est fait depuis un moment que les Opacs, que nous proposent les fournisseurs de SIGB, sont loin de n’apporter que des satisfactions… Or il apparait en cette période toute une série d’outils dits « web 2.0 » très attirants par leurs fonctionnalités et leur originalité. Maintenant que les données de notre catalogue sont en Unimarc, je n’ai de cesse de les transformer soit en Marc 21, soit en XML pour les réinjecter dans ces merveilleux environnements. Il est vrai que lorsque l’on utilise des blogs ou des CMS un peu récents, on dispose immédiatement de fonctionnalités ou de possibilités de mise en œuvre de fonctionnalités très intéressantes comme les fils RSS, les posts les plus récents, les plus consultés, des stats d’utilisation…

Je me suis donc intéressé à SCRIBLIO, qui en est à sa version 2.3. Il s’agit d’une interface basée sur WordPress 2.3.1 (pour l’instant) et qui semble très prometteuse si l’on s’en réfère aux bibliothèques qui l’ont installé et intégré.

En termes d’installation, c’est vraiment très simple et ça prend une petite demi-heure tout compris. L’importation des données peut s’effectuer soit à partir d’un fichier Marc 21, soit à partir d’une interface web de catalogue.

Au final, on se retrouve avec un Opac où chaque post est une notice que l’on peut commenter, tagger. Les notices sont regroupées par date d’édition, par catégories. On dispose d’une recherche sur tous les mots de la notice. On affiche les couvertures des ouvrages quand elles existent.

J’attends avec impatience la version finalisée et validée avant de vous montrer ce que j’ai réussi à en faire. Il me reste également à trouver un informaticien sympa pour améliorer l’aspect graphique de l’ensemble, mais j’ai bon espoir !

Vous avez dit SIGB ?

Pour faire suite au post de Nicolas « Situation de SirsiDynix en France« , je pense sincérement que nous avons franchi une première étape avec cette ré informatisation consistant à disposer de nos données au format Unimarc (format non international, je sais !). Je précise qu’avant cette étape nos données étaient en format propriétaire, et c’est quand même notre bien le plus précieux, non ?

Désormais, nous avons théoriquement la possibilité de transformer nos données dans d’autres formats, je pense par exemple à Marc21, USMarc ou XML. Quel avenir, pour les utilisateurs du système Horizon ?
Je vois une première solution qui consiste à dire que l’on se contente de gérer nos données et nos prêts dans le système actuel et que l »on se précipite pour réinjecter ces mêmes données dans un OPAC libre ou en développement afin d’offrir aux utilisateurs une interface-catalogue digne de ce nom. Cette opération pourrait se réaliser dans le cadre d’un regroupement des moyens des utilisateurs afin de créer une cellule de développement mutualisée au plan national. C’est peut être l’occasion pour l’association AUSIDEF de jouer un rôle incitateur et fédérateur de ce projet ?
La seconde solution consiste a réintégrer l’ensemble des données dans un nouvel SIGB libre sur lequel on a la main afin de pouvoir satisfaire nos velléités d’évolution et de réactivité.

Dans les 2 solutions envisagées, celà implique que le SCD dispose d’un ou plusieurs informaticiens à plein temps permettant d’assurer le développement et l’aboutissement du projet. Il s’agit d’une décision politique dont j’ose espérer qu’elle intervienne lors du regroupement des 3 universités nancéiennes…

Open Source

La communauté informatique parle de Free Software et d’Open Source : les deux mouvements ne se recouvrent pas totalement, mais sont proches dans leur démarche, et nous utilisons ici indifféremment les deux termes. La philosophie du Free Software est incarnée depuis 1984 par le projet GNU et la Free Software Foundation, qui vise à favoriser la création de logiciels libres : le logiciel libre le plus connu est le système d’exploitation Linux. Que faut-il pour qu’un logiciel soit « libre »? Globalement, que les utilisateurs puissent exécuter, copier, distribuer, étudier, modifier et améliorer le logiciel. Plus précisément, selon GNU, l’utilisateur doit avoir :

  • « La liberté d’exécuter le programme, pour tous les usages (liberté 0).»
  • « La liberté d’étudier le fonctionnement du programme, et de l’adapter à ses besoins (liberté 1). Pour ceci l’accès au code source est une condition requise. »
  • « La liberté de redistribuer des copies, donc d’aider son voisin, (liberté 2). »
  • « La liberté d’améliorer le programme et de publier ses améliorations, pour en faire profiter toute la communauté (liberté 3). Pour ceci l’accès au code source est une condition requise. »

Cela n’implique pas que le logiciel soit nécessairement gratuit (même s’il l’est en effet le plus souvent), mais qu’il soit « ouvert »: que vous puissiez, en tant qu’utilisateur final, voir ce qu’il contient, l’adapter à vos besoins et rendre votre version disponible, gratuitement si vous le souhaitez.

Affirmer notre adhésion à ce programme, c’est implicitement rejeter le mode de développement des ressources informatiques qui s’est imposé jusqu’ici dans les bibliothèques françaises où les logiciels, indépendamment même de leur prix, sont intégralement « fermés » : leur code source est inaccessible, l’utilisateur ne peut pas adapter le programmeà ses besoins, ni a fortiori redistribuer de copies modifiées du logiciel à destination de la communauté professionnelle.

La fermeture des logiciels que nous utilisons actuellement s’entend aussi dans un autre sens : ils sont très difficilement capables de fonctionner les uns avec les autres pour proposer un environnement de travail et de recherche homogène. Or nous avons besoin de pouvoir très facilement exporter et importer des notices, interroger plusieurs bases à la fois, intégrer nos ressources dans un environnement web : toutes choses que les systèmes que nous achetons ne font que très malaisément.

Il nous semble donc que le développement de l’Open Source en général, et celui des langages de programmation en script utilisés pour le web en particulier, permettraient aux bibliothèques de prendre en main le développement de leurs outils informatiques, développés en fonction des besoins constamment changeants des établissements et en tenant compte, au fur et à mesure, de l’évolution des technologies. Nous espérons que cette page web pourra servir de point de ralliement à ceux qui souhaitent participer au développement de ressources libres utiles aux bibliothèques.

Jean-Charles Houpier, Nicolas Morin – avril 2002
SCD – Université Henri Poincaré Nancy 1

Ejournals

Ejournals a pour origine la nécessité de disposer d’un outil spécifique pour présenter l’offre « périodiques électroniques » ; le SCD de l’Université Henri Poincaré ayant souscrit, en novembre 1999, un abonnement à Science Direct d’Elsevier (plus de 300 titres). A cette période, un rapide tour d’horizon des solutions mises en oeuvre, pour la plupart aux USA, m’a permis de mettre en évidence une solution basée sur le SGBD Access interfacé sur le web en ASP (Jackson Library). Cette solution présentait plusieurs avantages : un SGBD connu et facile à utiliser pour un coût très réduit, des compétences assez courantes à l’université. Je possédais les compétences sur le SGBD mais pas celles nécessaires à l’interfaçage. Je me suis tourné vers le Réseau de Ressources Informatiques (RRI) de l’Université Henri Poincaré qui a développé l’interface en une semaine en tenant compte des règlages et mises au point. La mise à disposition pour le public est datée du 24 janvier 2000. Les données étaient mises à jour dans la base Access et un simple transfert FTP du fichier permettait d’actualiser la base de consultation en ligne. Cette version de Ejournals donnait toute satisfaction du côté utilisateur, mais moins du côté administrateur, car c’est une solution client installé : il faut avoir une station de travail avec Access et le fichier de données. D’autre part, toute modification de la structure de la base impliquait un contact préalable avec la personne gérant l’interfaçage. En septembre 2001, nous nous sommes intéressés (Nicolas Morin et moi-même) aux logiciels « open source » et plus particulièrement au couple PHP/MySQL. Rapidement, nous avons décidé de produire un certain nombre d’outils sur cette base. Je me suis alors plus particulièrement intéressé au transfert des fonctionnalités de l’outil Ejournals. La première version Ejournals en PHP/MySQL a été mise en service le 20 mars 2002. L’intérêt de cette version réside d’une part dans la souplesse apportée au développement (les fonctionnalités sont créées au fur et à mesure des besoins) et d’autre part dans le fait que l’ensemble de l’outil (administration et consultation) est accessible à partir de n’importe quel navigateur web.