La gestion documentaire de centres d’artistes autogérés de la région montréalaise

Mots-clefs

, , , , , , , ,

Les centres d’artistes autogérés ont fleuri dans les années 70 au Canada. A Montréal, Denis Lessard, consultant en archivistique, auteur et artiste, s’est intéressé à leur gestion documentaire et a élaboré pour eux un plan de classification type.

Lire la suite

Publicités

Archives institutionnelles : quatre archétypes

Grâce à l’Open Access, un nouveau moyen de stockage, préservation et partage des productions des chercheurs, enseignants, étudiants et scientifiques a pu voir le jour : les archives institutionnelles. Ces archives ouvertes pourraient devenir indispensables à la communauté scientifique d’ici quelques années, que ce soit au niveau de la pérennisation des résultats et des données ou pour leur réutilisation par d’autres chercheurs. Dans un article, Joachim Schöpfel et Hélène Prost proposent quatre archétypes d’archives institutionnelles : quels sont-ils et quels sont les facteurs à prendre en compte pour réussir l’implémentation d’une telle plateforme? Lire la suite

« Pinning to promote »: les réseaux sociaux visuels au secours des bibliothèques ?

Mots-clefs

, , , , , ,

Avez-vous remarqué que les lecteurs désertent votre bibliothèque depuis quelques mois ? Avez-vous transpiré en analysant les statistiques de rotation de vos collections ? Vous avez en conséquence et sans aucun doute redoublé d’esprit pour essayer de ramener de la vie dans vos espaces ou pour rendre vos livres plus visibles et attirants pour vos publics… mais avez-vous pensé à des outils visuels de curation comme Pinterest, Learnist ou Pearltrees ?

Suivant la vague du numérique et du Web 2.0, les habitudes des utilisateurs se métamorphosent en même temps que la documentation alors que leur exigence ne fait qu’augmenter. Les étudiants peuvent maintenant suivre des cours en e-learning depuis leurs lits ou d’autres pays et constituer leurs bibliographies grâce aux ressources électroniques. Certains parlent de la mort du livre et des bibliothèques, d’autres décident d’affronter et de rallier la technologie à leur cause afin d’explorer de nouvelles manières de diffuser et promouvoir leurs collections. Les spécialistes de l’information se sont notamment intéressés à différents outils de curation sociaux et visuels dans deux optiques : la valorisation de l’offre de services et la formation des utilisateurs.
Lire la suite

En passant

La gestion des données de la recherche, enjeu principal des bibliothèques académiques. 5 affirmations (voire plus?) proposées par Liz Lyon

Mots-clefs

, , ,

Liz Lyon proposait dans un article paru en 2012, « The Informatics Transforms : Re-Engineering Libraries for the Data Decade », cinq affirmations comme voies possibles du changement induit par la gestion des données de la recherche pour les bibliothèques académiques. Alors que le Research Data Management (RDM) se profile comme un domaine en plein essor dans le paysage suisse (et international) des Sciences de l’information, nous sommes particulièrement curieux de connaître ces cinq pathways to change. Lire la suite

Des données brutes à la connaissance partagée : l’e-science et les bibliothèques

Quel est le nouveau paradigme qui permettra aux chercheurs de faire face au Big Data? Quelles sont les nouvelles voies de la communication scientifique ? Comment les bibliothèques académiques peuvent-elles survivre à la disparition de la publication papier ? Autant de questions actuelles que l’article de Tony et de Jessie Hey explore de façon visionnaire, proposant aux bibliothécaires un virage stratégique : mettre leurs compétences au service des nouveaux besoins des chercheurs. Si aujourd’hui, une décennie plus tard, toutes les prévisions des deux auteurs ne se sont pas (encore ? ) réalisées, un état des lieux rapide permet de comprendre que leurs recommandations n’ont rien perdu de leur pertinence… Lire la suite

Quels sont les bénéfices perçus par l’utilisation des bibliothèques publiques ?

Mots-clefs

, , , , , , ,

Etude sur des usagers de cinq pays

Contexte


L’étude de Pertti Vakkari et al. publiée en 2016 dans le Journal of documentation ; « Patterns of perceived public library outcomes in five countries » a pour but de répondre à la question : quels sont les bénéfices des usagers adultes dans les domaines de la vie en fréquentant une bibliothèque publique.

Cette étude menée sur plusieurs années, se concentre sur cinq pays : les USA, la Finlande, les Pays-bas, la Norvège et la Corée du Sud. Le choix des pays a l’avantage de collecter des données sur des contrées aux cultures très différentes mais économiquement comparable ; les pays d’Europe du Nord, les USA et la Corée du Sud.

Collecte d’information


Les données utilisées par cette étude proviennent généralement de bibliothèques publiques dans les cinq pays précités ainsi que d’informations récoltées grâce à un questionnaire envoyé à un échantillon d’usagers dans ces mêmes pays.

Le questionnaire, employé pour mener à bien cette étude, est inspiré d’une recherche précédente finlandaise, portant sur le même sujet. Ledit questionnaire comporte deux grands axes, tout d’abord les données sur les personnes qui ont répondu (âge, pays d’origine, sexe etc.) puis sur les quatre dimensions définies par l’étude finlandaise traitant des différents types d’avantages pouvant être retirés par la fréquentation d’une bibliothèque publique. Ces bénéfices sont répartis selon quatre dimensions ; le travail, l’éducation, la vie quotidienne et les hobbys.

Résultats


Pour mieux analyser les résultats de cette enquête, il est important de se pencher tout d’abord sur les statistiques des bibliothèques publiques dans les pays concernés par l’étude.

articlesj_1

 

Ce tableau permet de mettre en avant plusieurs constats, premièrement le peu de différences entre le nombre total de bibliothèques en Corée du Sud face à la Norvège qui compte presque dix fois moins d’habitants. Ce constat est à relativiser car le nombre d’heures d’ouverture des centres d’information documentaire est plus de trois fois supérieur en Corée du Sud.

On peut aussi constater que la Finlande est le pays qui possède le plus de documents par habitants. De plus, c’est le pays pour lequel le coût des opérations est le plus élevé. Ce qui suggère une offre abondante ainsi que du personnel probablement plus nombreux pour accueillir les lecteurs.

Ce graphique quant à lui permet de présenter les principaux résultats, les usagers de tous pays confondus indiquent que la lecture comme passe-temps est la plus répandue.

articlesj_2

Les cinq premiers résultats sont pour la plupart identiques dans chacun des pays même si cela n’est pas dans le même ordre.

Critique


Il est important de porter un regard critique sur les résultats de cette étude, afin de pouvoir les utiliser au mieux.

Pour commencer, le questionnaire n’a pas été transmis à tous les répondants de la même manière. En effet, en Finlande le questionnaire a été transmis par email et l’échantillonnage a été effectué via une enquête postale alors que pour les autres pays c’était à l’aide d’un panel web.

De plus, la sélection des pays n’est pas vraiment justifiée mais l’on s’imagine qu’elle est basée sur l’intérêt de chercheurs ou spécialistes pour cette thématique.

Les principaux biais à prendre en compte pour cette étude sont notamment le fait que certaines catégories de population sont plus représentées que d’autres. Les jeunes et les personnes très éduquées sont majoritaires dans la plupart des pays. La seule nation pour laquelle l’échantillon est représentatif sur tous les points est les Pays-Bas.

Conclusion


Il est important de relever le fait que cette étude est la première à utiliser un questionnaire similaire pour des usagers de bibliothèques publiques dans différents pays simultanément.

Les résultats de cette enquête sont importants pour les bibliothécaires car ils valorisent certains constats pouvant être utilisés pour leur politique documentaire. De plus ce type d’étude a toujours une pertinence d’un point de vue politique, notamment pour mettre en avant les avantages culturels d’un centre de documentation ou justifier les coûts de la culture.

Cette étude est intéressante pour le monde de la bibliothéconomie toutefois, il est nécessaire de prendre en compte les divers biais qu’elle renferme afin de pouvoir utiliser les résultats de façon réfléchie et pertinente.

Référence

VAKKARI, Pertti, AABØ, Svanhild, AUDUNSON, Ragnar, HUYSMANS, Frank, KWON, Nahyun, OOMES, Marjolein et SIN, Sei-Ching Joanna, 2016. Patterns of perceived public library outcomes in five countries. Journal of Documentation. 14 mars 2016. Vol. 72, n° 2, pp. 342‑361. DOI 10.1108/JD-08-2015-0103.

Vers une automatisation de la conception des vocabulaires contrôlés ?

Mots-clefs

, , , , ,

Depuis le début des années 2000, l’essor de la numérisation au sein des administrations ainsi que la multiplication des procédures législatives, administratives et techniques ont poussé au développement de la gestion de l’information. Cependant, les logiciels documentaires disponibles sur le marché sont extrêmement coûteux. Inaccessibles pour les petites et moyennes organisations, celles-ci se contentent, pour accéder à leurs contenus, d’une recherche full text.

Dans leur article Classification automatisée : rêve ou réalité ? Analyse critique de l’usage du text mining pour la conception de vocabulaires contrôlés, Raphaël Hubain, Seth van Hooland et Ruben Verborgh tentent de trouver une solution à ce problème par la conception et la mise en place d’un vocabulaire contrôlé. Leur objectif est de réduire les coûts non seulement en automatisant certaines procédures, mais également en utilisant des outils open source. Daté de 2016, cet article donne un bon aperçu de l’avancée actuelle des recherches sur le sujet.

Méthodologie de l’étude de cas

L’article présente une étude de cas menée par les auteurs au sein d’une organisation de taille moyenne appartenant à l’industrie bio-pharmaceutique. Afin de faciliter la reproduction de leurs recherches, les aspects méthodologiques et techniques du projet ainsi que les données d’évaluation sont mis à disposition sur le site internet LemuridaeText Mining for Information Governance .

Recherche full text versus vocabulaire contrôlé

Comme l’explique W. Bruce Croft (2015), la recherche full text connaît des limites qui sont inhérentes au langage naturel. Il s’agit du problème de la synonymie ainsi que de celui de l’homonymie. Il est alors nécessaire de mettre en place un vocabulaire contrôlé qui va permettre, au moment de l’indexation, d’insérer un calque sémantique.

Les auteurs de l’article, tout comme Peter Morville (2007), précisent qu’il est toutefois important d’effectuer un arbitrage coûts-bénéfices avant la mise en place d’une taxonomie. En effet, sa conception requiert d’importantes ressources humaines. Cependant, s’en dispenser engendre également des coûts car cela nécessite à l’usager final du système de passer plus de temps à concevoir une requête complexe afin d’obtenir des résultats pertinents.

Usage du text mining dans le domaine documentaire

Afin de faire baisser les coûts liés à la conception et à la mise en place d’un vocabulaire contrôlé, les auteurs de l’article ont essayé d’automatiser certains processus à l’aide de techniques issues du text mining.

D’une part, la conception de taxonomie peut faire appel à des méthodes d’extraction de termes et d’extraction de relations sémantiques entre les termes. D’autre part, l’analyse documentaire peut se réaliser grâce à des méthodes d’annotations sémantiques.

 

loadimg1-php

Système documentaire basé de manière semi-automatisée. Les scripts 1 à 4 utilisent des méthodes issues du text mining. Source : Raphaël Hubain et al. (2016)

L’annotation sémantique consiste en l’ajout de métadonnées à certains concepts porteurs d’une information spécifique et recherchée. L’étiquette ajoutée peut être une information, il s’agit de la reconnaissance d’entités nommées, ou un lien vers une source d’information, c’est la désambiguïsation d’entités nommées. Dans cette étude de cas, le vocabulaire contrôlé a été converti en Skos (Simple Knowledge Organization System).

 

loadimg2-php

L’annotation sémantique permet à l’usager, in fine, d’accéder à plus de documents pertinents. Source : Raphaël Hubain et al. (2016)

 

Des résultats mitigés mais des perspectives pour l’avenir

Les auteurs ont évalué leurs résultats en termes d’adéquation à l’usage et en termes d’évaluation des gains.
Afin de mesurer la performance de leur vocabulaire contrôlé, deux critères ont été utilisés : la précision et le rappel (également décrits par W. Bruce Croft, 2015).
Si les résultats se révèlent être à ce niveau-là insatisfaisants, le coût en ressources humaines a cependant largement été réduit grâce à l’automatisation de certaines procédures. Ce propos doit tout de même être nuancé, car dans cette étude le vocabulaire mis en place possède une structure peu complexe.

Malgré tout, cette recherche ouvre la voie à de nouvelles expérimentations, les logiciels open source étant nombreux et les communautés d’utilisateurs et de développeurs importantes.

Le text mining : une réelle opportunité pour l’indexation ?

Bien que l’indexation automatique soit un domaine de recherche existant depuis de très nombreuses années – citons par exemple les travaux de S.M. Humphrey et N.E. Miller (1987) –  les résultats des recherches actuelles sont encore insatisfaisants. Face à ce constat, on peut légitimement se demander si ces nouvelles technologies sont véritablement pertinentes pour la conception de vocabulaires contrôlés. Le professionnel de l’information documentaire a toujours, dans tous les cas, un rôle important à jouer. Dans l’étude présentée, en effet, sa présence est essentielle pour la conception et la validation du thésaurus créé.

Si ces avancées technologiques se confirment et s’imposent, faudra-t-il alors reconsidérer le contenu de la formation des professionnels de l’information documentaire afin de s’y adapter, comme le suggère Jean-Philippe Accart ? Ou est-ce que le véritable pari réside, comme l’explique Peter Morville (2007), dans la mise en place et le renforcement de collaborations interdisciplinaires ?

Références

ACCART, Jean-Philippe, 2016. Être documentaliste aujourd’hui. Jpaccart.ch [en ligne]. Juin 2015. [Consulté le 25.10.2016]. Disponible à l’adresse : https://www.jpaccart.ch/edito-du-mois/edito-90-juin-2015-etre-documentaliste-aujourdhui.html?highlight=YToxOntpOjA7czoxMDoib250b2xvZ2llcyI7fQ==

CROFT, W. Bruce, 2015. Search engines: information retrieval in practice [en ligne]. Boston : Pearson Addison-Wesley. [Consulté le 25.10.2016]. Disponible à l’adresse : http://ciir.cs.umass.edu/downloads/SEIRiP.pdf

HUBAIN, Raphaël, HOOLAND, Seth van et VERBORGH, Ruben, 2016. Classification automatisée : rêve ou réalité ? Analyse critique de l’usage du text mining pour la conception de vocabulaires contrôlés. I2D – Information, données & documents [en ligne]. Février 2016. [Consulté le 25.10.2016]. Disponible à l’adresse : https://www.cairn.info/revue-i2d-information-donnees-et-documents-2016-2-age-70.htm [accès par abonnement]

HUMPHREY, Susanne M. et MILLER, Nancy E., 1987. Knowledge-based indexing of the medical literature: The Indexing Aid Project. Journal of the American Society for Information Science, 1987, Vol. 38, no 3, p. 184.

MaSTIC – Université libre de Bruxelles and Ghent University – iMinds, 2015. Automated SKOS Vocabulary Design. Lemuridae – Text Mining for Information Governance [en ligne]. 2015. [Consulté le 25.10.2016]. Disponible à l’adresse : http://hubain.be/lemuridae/index.php/automated-skos-vocabulary-design/

MORVILLE, Peter, 2007. Comment définir l’architecture de l’information. In : Architecture de l’information pour le web . 3e éd.. Paris : O’Reilly. pp. 3‑16. ISBN 978-2- 84177-460-9.

 

L’architecture de l’information : comment définir une discipline en constante évolution

Mots-clefs

, , , , ,

Aujourd’hui l’architecte de l’information peut être considéré comme une figure centrale des systèmes d’information. Sa vocation est d’organiser l’information au sein des sites web afin de la rendre accessible à l’utilisateur. Son métier rappelle celui de l’architecte des bâtiments, de même que celui du bibliothécaire. Analyse d’un métier multidimensionnel à travers l’illustration des concepts clé qui le caractérisent, les disciplines qui délimitent son champ d’action à la recherche d’une définition qui évolue au fil du temps et au rythme des changements qui se produisent dans les systèmes d’information. Lire la suite

Qu’est-ce que le web 2.0 ? Histoire, caractéristiques et perspectives

Mots-clefs

, , , , , , , ,

Facebook, Twitter, Youtube, ou encore, Flickr, depuis quelques années, les sites web « sociaux » ont progressivement conquis la toile : partages de photos, de vidéos, ventes de particulier à particulier, forums, blogs, … tout internaute y trouve son compte. Véritable tournant dans l’histoire du World Wide Web, le web social, appelé web 2.0, a fait son apparition au début des années 2000 et ne cesse de se développer. 


Du web 1.0 au web 2.0

Alors que dans les années 90, le web (rétroactivement nommé web 1.0) est statique et linéaire, laissant uniquement à l’internaute la possibilité de consommer de l’information, il évolue progressivement vers une plateforme donnant davantage de possibilités de diffusion et de partage de contenus par les internautes. L’utilisateur n’est plus un simple consommateur passif mais prend part à la production d’informations et à l’évaluation de leur valeur.

Tim O’Reilly baptise cette mutation progressive du web statique vers un web participatif par l’appellation Web 2.0. Afin de clarifier le concept, il écrit en 2005 un article qui deviendra fondateur dans le milieu informatique : « What is web 2.0: design patterns and business models for the next generation of software », et dont je souhaite faire le compte-rendu.

image1Figure 1 – D’un web linéaire et statique à un web participatif et collaboratif
Source: https://charlespauze.wordpress.com


Les 7 principes du web 2.0

En comparant certains aspects d’applications récentes avec des services plus anciens, Tim O’Reilly énonce les 7 principes qui selon lui, représentent les traits les plus caractéristiques d’un service web 2.0 :

  • Le web en tant que plateforme
    Le web n’est plus un simple média entre webmaster et internaute, mais devient une plateforme participative depuis laquelle applications et services fonctionnent, touchant l’intégralité du web, jusque dans sa périphérie (le principe de la Longue traîne de Chris Anderson).
  • Tirer parti de l’intelligence collective
    L’implication de l’utilisateur est essentielle et devient l’atout majeur pour dominer le marché. L’internaute devient co-développeur et ajoute du contenu, ce qui permet au site web d’évoluer et de croître.
  • La puissance est dans les données
    Les fondements des services web 2.0 sont dans la possession de données stratégiques qui permettent aux sociétés de se positionner sur le marché. La gestion des bases de données est le cœur même de leur métier et devient un enjeu économique majeur.
  • La fin des cycles de releases (versions)
    Les logiciels ne sont plus considérés en tant que produits mais en tant que services devant être continuellement évalués et mis à jours. Les différentes versions de logiciels sont alors remplacées par de longues périodes de tests, dits bêta.
  • Des modèles de programmation légers
    Les modèles de programmation doivent être légers pour permettre la création de systèmes faiblement couplés et rendre leurs composantes réutilisables individuellement. L’idée est aussi de laisser les données à disposition et non de contrôler ce qui se passe à l’autre bout de la connexion. C’est le concept de syndication. Finalement, un des aspects du web 2.0 est la possibilité de rendre ses services remaniables. La plupart des outils utiles sont Open Source, et même quand ils ne le sont pas, ils sont peu protégés au niveau de la propriété intellectuelle.
  • Le logiciel se libère du PC
    L’utilisation des services web n’est plus seulement limitée au PC mais peut se faire via d’autres appareils : Ipod, tablette, smartphone, etc.
  • Enrichir les interfaces utilisateurs
    Les interfaces utilisateurs, grâce à différents langages de programmation, notamment la technologie AJAX, sont riches, ergonomiques et intelligentes.


Le web d’aujourd’hui

Pour rappel, l’article de Tim O’Reilly a été écrit en 2005, soit il y a maintenant plus de 10 ans. Ces dernières années, le web a encore beaucoup évolué. Il est devenu encore plus collaboratif et participatif avec le développement de nombreuses applications allant dans ce sens. On a également assisté à une nouvelle forme de web avec le phénomène de web en temps réel ou encore de réalité augmentée, ce que Tim O’Reilly et John Battelle nomme le Web² dans leur article « Web squared: web 2.0 five years on », publié en 2009. Il s’agit d’une évolution du web 2.0 mais pas encore le web 3.0. L’idée est d’étendre la portée du web 2.0 dans le monde réel, directement sur le terrain. Les nouvelles applications sur les smartphones en sont d’ailleurs la démonstration.

1476866661-4133-cardFigure 2 – Pokemon Go: une application web²
Source: http://map-concepts.com/pokemon-go-les-marques-se-lapproprient/

Le web de demain

Au vu des avancées technologiques, nombreux sont ceux à se demander ce que sera le web de demain. Plusieurs visions du web 3.0 apparaissent, dont la plus importante et celle de dire que le web 3.0 sera le web sémantique.

L’idée est de parvenir à un web intelligent, où les machines comprendraient le langage naturel et la signification de l’information sur le web. Les  pages web étant actuellement lisibles uniquement par l’Homme, le web sémantique a comme objectif de les rendre lisibles par les ordinateurs. Ils parviendraient à associer les données pour réaliser certaines tâches comme la recherche ou l’association d’informations dans le but de répondre précisément à une question d’un utilisateur et lui apporter ce qu’il cherche vraiment.

Certaines applications web allant dans ce sens existent déjà. Parmi elles, Siri, l’application d’assistant personnel disponible sur tous les iPhones. Mais ce n’est là que les prémices de ce que le web sémantique sera capable de faire pour l’Homme…

siriFigure 3 – Siri: les prémices du web 3.0
Source: http://www.presse-citron.net/siri-le-cauchemar-de-google/

Bibliographie

BOISSEAU, Jean-Baptise, 2006. Qu’est ce que le web 2.0 : Modèles de conception et d’affaires pour la prochaine génération de logiciels. Internetactu.net [en ligne]. Publié le 21 avril 2006. [Consulté le 11 novembre 2016]. Disponible à l’adresse: http://www.internetactu.net/2006/04/21/quest-ce-que-le-web-20-modeles-de-conception-et-daffaires-pour-la-prochaine-generation-de-logiciels/

GUILLAUD, Hubert, 2009. Le web à la puissance 2: le web 2.0 cinq ans plus tard. Internetactu.net [en ligne]. Publié le 1er septembre 2016. [Consulté le 11 novembre 2016]. Disponible à l’adresse: http://www.internetactu.net/2009/09/01/le-web-a-la-puissance-2-le-web-20-cinq-ans-plus-tard/

O’REILLY, Tim, 2005. What is web 2.0: Design Patterns and Business Models for the Next Generation of Software. O’Reilly [en ligne]. Publié le 30 septembre 2005. [Consulté le 11 novembre 2016]. Disponible à l’adresse: http://www.oreilly.com/pub/a/web2/archive/what-is-web-20.html

O’REILLY, Tim et BATTELLE, John, 2009. Web squared: web 2.0 five years on [en ligne]. [Consulté le 11 novembre 2016]. Disponible à l’adresse: http://assets.en.oreilly.com/1/event/28/web2009_websquared-whitepaper.pdf

PLU, Julien, 2015. Introduction au web sémantique. Développez.com [en ligne]. Publié le 21 avril 2011. Mis à jour le 29 décembre 2015. [Consulté le 21 novembre 2016]. Disponible à l’adresse: http://jplu.developpez.com/tutoriels/web-semantique/introduction/