Quels sont les bénéfices perçus par l’utilisation des bibliothèques publiques ?

Étiquettes

, , , , , , ,

Etude sur des usagers de cinq pays

Contexte


L’étude de Pertti Vakkari et al. publiée en 2016 dans le Journal of documentation ; « Patterns of perceived public library outcomes in five countries » a pour but de répondre à la question : quels sont les bénéfices des usagers adultes dans les domaines de la vie en fréquentant une bibliothèque publique.

Cette étude menée sur plusieurs années, se concentre sur cinq pays : les USA, la Finlande, les Pays-bas, la Norvège et la Corée du Sud. Le choix des pays a l’avantage de collecter des données sur des contrées aux cultures très différentes mais économiquement comparable ; les pays d’Europe du Nord, les USA et la Corée du Sud.

Collecte d’information


Les données utilisées par cette étude proviennent généralement de bibliothèques publiques dans les cinq pays précités ainsi que d’informations récoltées grâce à un questionnaire envoyé à un échantillon d’usagers dans ces mêmes pays.

Le questionnaire, employé pour mener à bien cette étude, est inspiré d’une recherche précédente finlandaise, portant sur le même sujet. Ledit questionnaire comporte deux grands axes, tout d’abord les données sur les personnes qui ont répondu (âge, pays d’origine, sexe etc.) puis sur les quatre dimensions définies par l’étude finlandaise traitant des différents types d’avantages pouvant être retirés par la fréquentation d’une bibliothèque publique. Ces bénéfices sont répartis selon quatre dimensions ; le travail, l’éducation, la vie quotidienne et les hobbys.

Résultats


Pour mieux analyser les résultats de cette enquête, il est important de se pencher tout d’abord sur les statistiques des bibliothèques publiques dans les pays concernés par l’étude.

articlesj_1

 

Ce tableau permet de mettre en avant plusieurs constats, premièrement le peu de différences entre le nombre total de bibliothèques en Corée du Sud face à la Norvège qui compte presque dix fois moins d’habitants. Ce constat est à relativiser car le nombre d’heures d’ouverture des centres d’information documentaire est plus de trois fois supérieur en Corée du Sud.

On peut aussi constater que la Finlande est le pays qui possède le plus de documents par habitants. De plus, c’est le pays pour lequel le coût des opérations est le plus élevé. Ce qui suggère une offre abondante ainsi que du personnel probablement plus nombreux pour accueillir les lecteurs.

Ce graphique quant à lui permet de présenter les principaux résultats, les usagers de tous pays confondus indiquent que la lecture comme passe-temps est la plus répandue.

articlesj_2

Les cinq premiers résultats sont pour la plupart identiques dans chacun des pays même si cela n’est pas dans le même ordre.

Critique


Il est important de porter un regard critique sur les résultats de cette étude, afin de pouvoir les utiliser au mieux.

Pour commencer, le questionnaire n’a pas été transmis à tous les répondants de la même manière. En effet, en Finlande le questionnaire a été transmis par email et l’échantillonnage a été effectué via une enquête postale alors que pour les autres pays c’était à l’aide d’un panel web.

De plus, la sélection des pays n’est pas vraiment justifiée mais l’on s’imagine qu’elle est basée sur l’intérêt de chercheurs ou spécialistes pour cette thématique.

Les principaux biais à prendre en compte pour cette étude sont notamment le fait que certaines catégories de population sont plus représentées que d’autres. Les jeunes et les personnes très éduquées sont majoritaires dans la plupart des pays. La seule nation pour laquelle l’échantillon est représentatif sur tous les points est les Pays-Bas.

Conclusion


Il est important de relever le fait que cette étude est la première à utiliser un questionnaire similaire pour des usagers de bibliothèques publiques dans différents pays simultanément.

Les résultats de cette enquête sont importants pour les bibliothécaires car ils valorisent certains constats pouvant être utilisés pour leur politique documentaire. De plus ce type d’étude a toujours une pertinence d’un point de vue politique, notamment pour mettre en avant les avantages culturels d’un centre de documentation ou justifier les coûts de la culture.

Cette étude est intéressante pour le monde de la bibliothéconomie toutefois, il est nécessaire de prendre en compte les divers biais qu’elle renferme afin de pouvoir utiliser les résultats de façon réfléchie et pertinente.

Référence

VAKKARI, Pertti, AABØ, Svanhild, AUDUNSON, Ragnar, HUYSMANS, Frank, KWON, Nahyun, OOMES, Marjolein et SIN, Sei-Ching Joanna, 2016. Patterns of perceived public library outcomes in five countries. Journal of Documentation. 14 mars 2016. Vol. 72, n° 2, pp. 342‑361. DOI 10.1108/JD-08-2015-0103.

Vers une automatisation de la conception des vocabulaires contrôlés ?

Étiquettes

, , , , ,

Depuis le début des années 2000, l’essor de la numérisation au sein des administrations ainsi que la multiplication des procédures législatives, administratives et techniques ont poussé au développement de la gestion de l’information. Cependant, les logiciels documentaires disponibles sur le marché sont extrêmement coûteux. Inaccessibles pour les petites et moyennes organisations, celles-ci se contentent, pour accéder à leurs contenus, d’une recherche full text.

Dans leur article Classification automatisée : rêve ou réalité ? Analyse critique de l’usage du text mining pour la conception de vocabulaires contrôlés, Raphaël Hubain, Seth van Hooland et Ruben Verborgh tentent de trouver une solution à ce problème par la conception et la mise en place d’un vocabulaire contrôlé. Leur objectif est de réduire les coûts non seulement en automatisant certaines procédures, mais également en utilisant des outils open source. Daté de 2016, cet article donne un bon aperçu de l’avancée actuelle des recherches sur le sujet.

Méthodologie de l’étude de cas

L’article présente une étude de cas menée par les auteurs au sein d’une organisation de taille moyenne appartenant à l’industrie bio-pharmaceutique. Afin de faciliter la reproduction de leurs recherches, les aspects méthodologiques et techniques du projet ainsi que les données d’évaluation sont mis à disposition sur le site internet LemuridaeText Mining for Information Governance .

Recherche full text versus vocabulaire contrôlé

Comme l’explique W. Bruce Croft (2015), la recherche full text connaît des limites qui sont inhérentes au langage naturel. Il s’agit du problème de la synonymie ainsi que de celui de l’homonymie. Il est alors nécessaire de mettre en place un vocabulaire contrôlé qui va permettre, au moment de l’indexation, d’insérer un calque sémantique.

Les auteurs de l’article, tout comme Peter Morville (2007), précisent qu’il est toutefois important d’effectuer un arbitrage coûts-bénéfices avant la mise en place d’une taxonomie. En effet, sa conception requiert d’importantes ressources humaines. Cependant, s’en dispenser engendre également des coûts car cela nécessite à l’usager final du système de passer plus de temps à concevoir une requête complexe afin d’obtenir des résultats pertinents.

Usage du text mining dans le domaine documentaire

Afin de faire baisser les coûts liés à la conception et à la mise en place d’un vocabulaire contrôlé, les auteurs de l’article ont essayé d’automatiser certains processus à l’aide de techniques issues du text mining.

D’une part, la conception de taxonomie peut faire appel à des méthodes d’extraction de termes et d’extraction de relations sémantiques entre les termes. D’autre part, l’analyse documentaire peut se réaliser grâce à des méthodes d’annotations sémantiques.

 

loadimg1-php

Système documentaire basé de manière semi-automatisée. Les scripts 1 à 4 utilisent des méthodes issues du text mining. Source : Raphaël Hubain et al. (2016)

L’annotation sémantique consiste en l’ajout de métadonnées à certains concepts porteurs d’une information spécifique et recherchée. L’étiquette ajoutée peut être une information, il s’agit de la reconnaissance d’entités nommées, ou un lien vers une source d’information, c’est la désambiguïsation d’entités nommées. Dans cette étude de cas, le vocabulaire contrôlé a été converti en Skos (Simple Knowledge Organization System).

 

loadimg2-php

L’annotation sémantique permet à l’usager, in fine, d’accéder à plus de documents pertinents. Source : Raphaël Hubain et al. (2016)

 

Des résultats mitigés mais des perspectives pour l’avenir

Les auteurs ont évalué leurs résultats en termes d’adéquation à l’usage et en termes d’évaluation des gains.
Afin de mesurer la performance de leur vocabulaire contrôlé, deux critères ont été utilisés : la précision et le rappel (également décrits par W. Bruce Croft, 2015).
Si les résultats se révèlent être à ce niveau-là insatisfaisants, le coût en ressources humaines a cependant largement été réduit grâce à l’automatisation de certaines procédures. Ce propos doit tout de même être nuancé, car dans cette étude le vocabulaire mis en place possède une structure peu complexe.

Malgré tout, cette recherche ouvre la voie à de nouvelles expérimentations, les logiciels open source étant nombreux et les communautés d’utilisateurs et de développeurs importantes.

Le text mining : une réelle opportunité pour l’indexation ?

Bien que l’indexation automatique soit un domaine de recherche existant depuis de très nombreuses années – citons par exemple les travaux de S.M. Humphrey et N.E. Miller (1987) –  les résultats des recherches actuelles sont encore insatisfaisants. Face à ce constat, on peut légitimement se demander si ces nouvelles technologies sont véritablement pertinentes pour la conception de vocabulaires contrôlés. Le professionnel de l’information documentaire a toujours, dans tous les cas, un rôle important à jouer. Dans l’étude présentée, en effet, sa présence est essentielle pour la conception et la validation du thésaurus créé.

Si ces avancées technologiques se confirment et s’imposent, faudra-t-il alors reconsidérer le contenu de la formation des professionnels de l’information documentaire afin de s’y adapter, comme le suggère Jean-Philippe Accart ? Ou est-ce que le véritable pari réside, comme l’explique Peter Morville (2007), dans la mise en place et le renforcement de collaborations interdisciplinaires ?

Références

ACCART, Jean-Philippe, 2016. Être documentaliste aujourd’hui. Jpaccart.ch [en ligne]. Juin 2015. [Consulté le 25.10.2016]. Disponible à l’adresse : https://www.jpaccart.ch/edito-du-mois/edito-90-juin-2015-etre-documentaliste-aujourdhui.html?highlight=YToxOntpOjA7czoxMDoib250b2xvZ2llcyI7fQ==

CROFT, W. Bruce, 2015. Search engines: information retrieval in practice [en ligne]. Boston : Pearson Addison-Wesley. [Consulté le 25.10.2016]. Disponible à l’adresse : http://ciir.cs.umass.edu/downloads/SEIRiP.pdf

HUBAIN, Raphaël, HOOLAND, Seth van et VERBORGH, Ruben, 2016. Classification automatisée : rêve ou réalité ? Analyse critique de l’usage du text mining pour la conception de vocabulaires contrôlés. I2D – Information, données & documents [en ligne]. Février 2016. [Consulté le 25.10.2016]. Disponible à l’adresse : https://www.cairn.info/revue-i2d-information-donnees-et-documents-2016-2-age-70.htm [accès par abonnement]

HUMPHREY, Susanne M. et MILLER, Nancy E., 1987. Knowledge-based indexing of the medical literature: The Indexing Aid Project. Journal of the American Society for Information Science, 1987, Vol. 38, no 3, p. 184.

MaSTIC – Université libre de Bruxelles and Ghent University – iMinds, 2015. Automated SKOS Vocabulary Design. Lemuridae – Text Mining for Information Governance [en ligne]. 2015. [Consulté le 25.10.2016]. Disponible à l’adresse : http://hubain.be/lemuridae/index.php/automated-skos-vocabulary-design/

MORVILLE, Peter, 2007. Comment définir l’architecture de l’information. In : Architecture de l’information pour le web . 3e éd.. Paris : O’Reilly. pp. 3‑16. ISBN 978-2- 84177-460-9.

 

L’architecture de l’information : comment définir une discipline en constante évolution

Étiquettes

, , , , ,

Aujourd’hui l’architecte de l’information peut être considéré comme une figure centrale des systèmes d’information. Sa vocation est d’organiser l’information au sein des sites web afin de la rendre accessible à l’utilisateur. Son métier rappelle celui de l’architecte des bâtiments, de même que celui du bibliothécaire. Analyse d’un métier multidimensionnel à travers l’illustration des concepts clé qui le caractérisent, les disciplines qui délimitent son champ d’action à la recherche d’une définition qui évolue au fil du temps et au rythme des changements qui se produisent dans les systèmes d’information. Lire la suite

Qu’est-ce que le web 2.0 ? Histoire, caractéristiques et perspectives

Étiquettes

, , , , , , , ,

Facebook, Twitter, Youtube, ou encore, Flickr, depuis quelques années, les sites web « sociaux » ont progressivement conquis la toile : partages de photos, de vidéos, ventes de particulier à particulier, forums, blogs, … tout internaute y trouve son compte. Véritable tournant dans l’histoire du World Wide Web, le web social, appelé web 2.0, a fait son apparition au début des années 2000 et ne cesse de se développer. 


Du web 1.0 au web 2.0

Alors que dans les années 90, le web (rétroactivement nommé web 1.0) est statique et linéaire, laissant uniquement à l’internaute la possibilité de consommer de l’information, il évolue progressivement vers une plateforme donnant davantage de possibilités de diffusion et de partage de contenus par les internautes. L’utilisateur n’est plus un simple consommateur passif mais prend part à la production d’informations et à l’évaluation de leur valeur.

Tim O’Reilly baptise cette mutation progressive du web statique vers un web participatif par l’appellation Web 2.0. Afin de clarifier le concept, il écrit en 2005 un article qui deviendra fondateur dans le milieu informatique : « What is web 2.0: design patterns and business models for the next generation of software », et dont je souhaite faire le compte-rendu.

image1Figure 1 – D’un web linéaire et statique à un web participatif et collaboratif
Source: https://charlespauze.wordpress.com


Les 7 principes du web 2.0

En comparant certains aspects d’applications récentes avec des services plus anciens, Tim O’Reilly énonce les 7 principes qui selon lui, représentent les traits les plus caractéristiques d’un service web 2.0 :

  • Le web en tant que plateforme
    Le web n’est plus un simple média entre webmaster et internaute, mais devient une plateforme participative depuis laquelle applications et services fonctionnent, touchant l’intégralité du web, jusque dans sa périphérie (le principe de la Longue traîne de Chris Anderson).
  • Tirer parti de l’intelligence collective
    L’implication de l’utilisateur est essentielle et devient l’atout majeur pour dominer le marché. L’internaute devient co-développeur et ajoute du contenu, ce qui permet au site web d’évoluer et de croître.
  • La puissance est dans les données
    Les fondements des services web 2.0 sont dans la possession de données stratégiques qui permettent aux sociétés de se positionner sur le marché. La gestion des bases de données est le cœur même de leur métier et devient un enjeu économique majeur.
  • La fin des cycles de releases (versions)
    Les logiciels ne sont plus considérés en tant que produits mais en tant que services devant être continuellement évalués et mis à jours. Les différentes versions de logiciels sont alors remplacées par de longues périodes de tests, dits bêta.
  • Des modèles de programmation légers
    Les modèles de programmation doivent être légers pour permettre la création de systèmes faiblement couplés et rendre leurs composantes réutilisables individuellement. L’idée est aussi de laisser les données à disposition et non de contrôler ce qui se passe à l’autre bout de la connexion. C’est le concept de syndication. Finalement, un des aspects du web 2.0 est la possibilité de rendre ses services remaniables. La plupart des outils utiles sont Open Source, et même quand ils ne le sont pas, ils sont peu protégés au niveau de la propriété intellectuelle.
  • Le logiciel se libère du PC
    L’utilisation des services web n’est plus seulement limitée au PC mais peut se faire via d’autres appareils : Ipod, tablette, smartphone, etc.
  • Enrichir les interfaces utilisateurs
    Les interfaces utilisateurs, grâce à différents langages de programmation, notamment la technologie AJAX, sont riches, ergonomiques et intelligentes.


Le web d’aujourd’hui

Pour rappel, l’article de Tim O’Reilly a été écrit en 2005, soit il y a maintenant plus de 10 ans. Ces dernières années, le web a encore beaucoup évolué. Il est devenu encore plus collaboratif et participatif avec le développement de nombreuses applications allant dans ce sens. On a également assisté à une nouvelle forme de web avec le phénomène de web en temps réel ou encore de réalité augmentée, ce que Tim O’Reilly et John Battelle nomme le Web² dans leur article « Web squared: web 2.0 five years on », publié en 2009. Il s’agit d’une évolution du web 2.0 mais pas encore le web 3.0. L’idée est d’étendre la portée du web 2.0 dans le monde réel, directement sur le terrain. Les nouvelles applications sur les smartphones en sont d’ailleurs la démonstration.

1476866661-4133-cardFigure 2 – Pokemon Go: une application web²
Source: http://map-concepts.com/pokemon-go-les-marques-se-lapproprient/

Le web de demain

Au vu des avancées technologiques, nombreux sont ceux à se demander ce que sera le web de demain. Plusieurs visions du web 3.0 apparaissent, dont la plus importante et celle de dire que le web 3.0 sera le web sémantique.

L’idée est de parvenir à un web intelligent, où les machines comprendraient le langage naturel et la signification de l’information sur le web. Les  pages web étant actuellement lisibles uniquement par l’Homme, le web sémantique a comme objectif de les rendre lisibles par les ordinateurs. Ils parviendraient à associer les données pour réaliser certaines tâches comme la recherche ou l’association d’informations dans le but de répondre précisément à une question d’un utilisateur et lui apporter ce qu’il cherche vraiment.

Certaines applications web allant dans ce sens existent déjà. Parmi elles, Siri, l’application d’assistant personnel disponible sur tous les iPhones. Mais ce n’est là que les prémices de ce que le web sémantique sera capable de faire pour l’Homme…

siriFigure 3 – Siri: les prémices du web 3.0
Source: http://www.presse-citron.net/siri-le-cauchemar-de-google/

Bibliographie

BOISSEAU, Jean-Baptise, 2006. Qu’est ce que le web 2.0 : Modèles de conception et d’affaires pour la prochaine génération de logiciels. Internetactu.net [en ligne]. Publié le 21 avril 2006. [Consulté le 11 novembre 2016]. Disponible à l’adresse: http://www.internetactu.net/2006/04/21/quest-ce-que-le-web-20-modeles-de-conception-et-daffaires-pour-la-prochaine-generation-de-logiciels/

GUILLAUD, Hubert, 2009. Le web à la puissance 2: le web 2.0 cinq ans plus tard. Internetactu.net [en ligne]. Publié le 1er septembre 2016. [Consulté le 11 novembre 2016]. Disponible à l’adresse: http://www.internetactu.net/2009/09/01/le-web-a-la-puissance-2-le-web-20-cinq-ans-plus-tard/

O’REILLY, Tim, 2005. What is web 2.0: Design Patterns and Business Models for the Next Generation of Software. O’Reilly [en ligne]. Publié le 30 septembre 2005. [Consulté le 11 novembre 2016]. Disponible à l’adresse: http://www.oreilly.com/pub/a/web2/archive/what-is-web-20.html

O’REILLY, Tim et BATTELLE, John, 2009. Web squared: web 2.0 five years on [en ligne]. [Consulté le 11 novembre 2016]. Disponible à l’adresse: http://assets.en.oreilly.com/1/event/28/web2009_websquared-whitepaper.pdf

PLU, Julien, 2015. Introduction au web sémantique. Développez.com [en ligne]. Publié le 21 avril 2011. Mis à jour le 29 décembre 2015. [Consulté le 21 novembre 2016]. Disponible à l’adresse: http://jplu.developpez.com/tutoriels/web-semantique/introduction/

Revues médicales : la collaboration scientifique et la citation des articles, quelle pratique ?

Étiquettes

, , , , , , , ,

La collaboration scientifique est un phénomène complexe et hétérogène. La meilleure façon pour la caractériser est  l’étude des co-signatures. Deux indicateurs sont intéressants : le nombre d’auteurs et son caractère international. Nos auteurs, Pascal Bador et Thierry Lafouge se sont demandé s’il existe une corrélation entre ces indicateurs et le nombre de citations dans les revues médicales. Pour répondre à cette interrogation, deux journaux de pharmacie et de médecine ont été sélectionnés et étudiés. Qu’en est-il ?

Lire la suite

La recherche d’information à l’aune de la psychologie

Étiquettes

, , , , , ,

Selon la chercheuse finlandaise Jannica Heinström, notre comportement en matière de recherche d’information serait intimement lié aux traits de notre personnalité et à nos approches d’apprentissage. Le monde des chercheurs d’information dans un contexte académique se diviserait alors en trois grandes catégories: les fast surfers, les broad scanners et les deep divers. Alors, qui êtes-vous?

Introduction

Dans un article paru en 2005 dans le Journal of Documentation, et maintes fois cité depuis, Jannica Heinström présente les principales conclusions de sa thèse sur le comportement des étudiants en matière de recherche d’information à travers une approche psychologique qui s’appuie sur une solide analyse statistique. Trois modèles émergent de ses recherches – le fast surfing, le broad scanning et le deep diving, susceptibles d’intéresser les chercheurs et les professionnels des Sciences de l’information soucieux des problématiques liées aux mécanismes d’acquisition de l’information.

Question de recherche

A travers l’analyse statistique de trois questionnaires auxquels ont répondu 305 étudiants de l’Université d’Åbo, l’auteure cherche à clarifier le rôle et l’importance des traits de la personnalité et des approches d’apprentissage sur le comportement informationnel, et plus particulièrement sur la recherche d’information dans un contexte spécifique, celui du processus de rédaction d’un travail de maîtrise. L’auteure ne vise pas seulement à catégoriser les variables mais à en déterminer l’influence et l’interaction.

Méthode

La question de recherche comprend trois concepts différents qu’il est utile de décrire brièvement.

Celui de la personnalité tout d’abord, qu’elle examine sous l’angle du modèle des Five-Factor, largement reconnu dans le champ de la psychologie (Costa et McCrae, 1992). Ce modèle présuppose qu’il y a cinq traits centraux qui forment les bases de notre personnalité: le névrosisme, l’extraversion, l’ouverture à l’expérience, l’agréabilité et la conscienciosité. Chaque trait décrit un continuum entre deux pôles selon le schéma ci-dessous. Ces dimensions sont mesurées par un test de personnalité appelé the NEO Five-Factor Inventory (NEO FFI).

five-factor

Celui des approches d’apprentissage ensuite, qu’elle examine sous l’angle du modèle des approches d’apprentissage, bien reconnu lui aussi dans le milieu de l’éducation, qui prend en compte les intentions et les stratégies déployées. Il distingue trois polarités – l’approche profonde, l’approche de surface et l’approche stratégique – mesurées par un test appelé ASSIST.

Celui du comportement informationnel enfin, qu’elle examine sous l’angle d’un questionnaire spécialement conçu pour son étude. Il comprend 70 questions axées sur la pertinence des jugements, les critères de sélection de l’information, la profondeur de la recherche, les sources utilisées, l’investissement, etc.

Découvertes

Cette étude met en évidence trois modèles bien différents en matière de recherche d’information que l’auteure qualifie par une habile métaphore de fast surfing, de broad scanning et de deep diving.

Les fast surfers écument la surface de l’information. Ils recherchent des informations disponibles rapidement et facilement, ne se préoccupent pas de la profondeur ni de la qualité des données, peinent à évaluer la pertinence d’un document ou à émettre un jugement critique sur celui-ci et, partant, s’en tiennent à un niveau très superficiel. Jannica Heinström relie ce modèle à une approche de surface qui traduit un manque de motivation ou d’intérêt; au névrosisme qui caractérise des individus vulnérables à la pression extérieure; à la négligence (conscienciosité négative); et à un caractère conservateur (ouverture négative).

Les broad scanners recherchent des informations de manière approfondie, flexible et exhaustive à travers une grande variété de sources. Ils développent leurs recherches de manière graduelle (vs planifiée), telles des abeilles qui butinent de fleur en fleur, et découvrent souvent les informations par hasard. L’auteure relie ce modèle à l’ouverture à l’expérience, à l’extraversion et à la compétitivité (agréabilité négative) qui les poussent à adopter une attitude évaluative et leur permettent de faire un bon usage de l’information trouvée.

Les deep divers constituent le pendant opposé des fast surfers. Ils plongent bien au-delà de la surface de l’information. Ils sont consciencieux, se préoccupent avant tout de la qualité et non de la quantité, travaillent dur pour obtenir de l’information à haute valeur ajoutée, se fient aux auteurs respectés et aux sources reconnues et font preuve d’un comportement informationnel contrôlé et structuré. L’auteure relie ce modèle à l’ouverture à l’expérience, à une approche profonde (pensée analytique et indépendante) et à une approche stratégique (recherche du succès).

Limites

En dépit de l’intérêt de ses découvertes et comme le reconnaît l’auteure, la portée de cette étude est limitée aux variables mesurées. Aussi, beaucoup de traits et de facteurs explicatifs qui influencent la recherche d’information tombent en dehors du champ de cette analyse. En outre, ses résultats, basés sur des descriptions et non des observations, datent de l’an 2000, alors que le web n’avait pas encore une place aussi prépondérante dans nos études. Ils mériteraient par conséquent d’être actualisés et testés dans d’autres contextes et/ou publics pour que leur portée puisse être généralisée.

Conclusion

Le travail de Jannica Heinström sur la personnalité et le comportement informationnel individuel dans un contexte académique est solide. Il s’inscrit dans la lignée des travaux récents en Sciences de l’information, centrés non plus sur les systèmes d’information mais sur les utilisateurs et leurs habitudes. A travers ses recherches, elle a contribué à forger une compréhension plus fine des dimensions personnelles et psychologiques qui sous-tendent le processus de recherche d’information chez des étudiants. Cette étude, qui contraste avec les recherches antérieures par sa démarche empirique, est audacieuse et inspirante. Son travail a été salué par la critique et maintes fois cité depuis. Au-delà de son intérêt pour qui se reconnaîtrait dans ces modèles, il devrait être lu et utilisé par les professionnels des Sciences de l’Information pour, peut-être, adapter leurs services en fonction de ces différents profils.

Références

HEINSTRÖM, Jannica, 2005. Fast surfing, broad scanning and deep diving. The influence of personality and study approach on students’ information-seeking behaviour. Journal of Documentation. 2005. Vol. 61, n° 2, pp. 228-247.

HEINSTRÖM, Jannica, 2002. Fast surfers, Broad scanners and Deep divers. Personality and information-seeking behaviour. Åbo: Åbo Akademi University Press, 2002. [Consulté le 20.11.2016]. Disponible à l’adresse: http://www.abo.fi/fakultet/media/21373/thesis_heinstrom.pdf

HÖGLUND, Lars, 2003. Review of: Heinström, Jannica. Fast surfers, broad scanners and deep divers. Personality and information-seeking behaviour. Information Research [en ligne]. Janvier 2003. Vol. 8, n° 2, review n° 079. [Consulté le 20.11.2016]. Disponible à l’adresse: http://www.informationr.net/ir/reviews/revs079.html

HYLDEGÅRD, Jette, 2009. Personality traits and group-based information behaviour: an exploratory study. Information Research [en ligne]. Juin 2009. Vol. 14, n° 2, paper n° 402. [Consulté le 20.11.2016]. Disponible à l’adresse: http://www.informationr.net/ir/14-2/paper402.html

Les moteurs de recherche et la recherche d’information

La recherche d’information occupe une place importante aujourd’hui et l’article « Search engines and information retrieval » qui provient du livre « Search Engines, Information retrieval in practice » examine l’aspect lié aux moteurs de recherche. Cet article oriente le lecteur tout en reprenant les bases de la recherche d’information et le guide vers le cœur du sujet : comment évaluer et comparer les moteurs de recherche.

La recherche d’information ?


La recherche d’information est un domaine avec des bases solides, provenant notamment des écrits de Gérald Salton, un pionnier dans le domaine, qui l’évoque ainsi :

« Structurer, analyser, organiser, stocker, rechercher et récupérer l’information »

Elle se pratique sur les documents de toute nature détenant une structure identifiée à travers des éléments et elle est basée sur des modèles et des algorithmes pour extraire le document recherché.

Les utilisateurs et les professionnels forment les deux grands groupes de personnes liées à la recherche d’information.

Pour les utilisateurs, la recherche d’information devient une activité journalière. Pour la plupart, ce sont des recherches sur le web qui se font de manière intuitive et à l’aide d’appareils électroniques. C’est justement cela et l’utilisation généralisée des moteurs qui incitent les professionnels à trouver des améliorations et à faire évoluer la recherche d’information.

Pour les professionnels, la recherche d’information est beaucoup plus complexe que des simples recherches web. Il y a un travail continu pour améliorer l’utilisation des moteurs afin de rendre l’information retournée plus pertinente et accessible plus rapidement.

Les dimensions des moteurs de recherche

La recherche d’information est riche en contenus, applications et tâches comme l’indique ce tableau :

Les types de recherches ne se font pas seulement sur le web (outil le plus commun), mais à travers diverses applications, telles que :

  • Web : Google, etc.
  • Vertical : web avec des restrictions sur le sujet
  • Entreprise : dossiers ordinateurs
  • Desktop : barre de recherche Windows
  • Peer-to-peer : réseaux externes

L’article fait également référence aux tâches qui se font sur les résultats obtenus après avoir effectué la recherche, sur les données organisées et recherchées par le système :

  • Ad hoc : trouver des documents pertinents sur des requêtes usagers qui peuvent être très vagues
  • Filtrer : détecter des points d’intérêt
  • Classifier : catégoriser en utilisant des éléments
  • Questions : retourner une réponse spécifique

La recherche d’information : les problématiques

Quelques grandes problématiques surviennent avec la recherche d’information :

Pertinence : l’information que la personne recherche au moment de faire la requête, qui est influencée par plusieurs facteurs. On développe des modèles de recherche et des algorithmes pour palier à ce point.

Evaluation : dépend des attentes des usagers. On utilise des mesures que l’on compare aux algorithmes afin d’évaluer le nombre de documents pertinents et retournés.

Besoin d’information : centré sur les utilisateurs, qui sont les juges de la qualité de l’information. On propose comment remplir et compléter la requête.

Les moteurs de recherche


Les moteurs de recherche représentent la mise en pratique de la recherche d’information. Ils sont présents depuis longtemps : le terme « Search Engine » devient répandu après quelques années seulement et remplace « Information Retrieval System ».

Pour récupérer les données, des méthodes variées peuvent être utilisées. Avec les moteurs web, le « Crawling » est souvent utilisé afin de capturer des quantités énormes de données en vue de les exploiter. Dans les entreprises, le « Datamining » aide dans le traitement de grandes quantités de données pour trouver des informations pertinentes.

Parallèlement, les moteurs Open Source deviennent aussi plus convoités avec l’augmentation de leur performance.

Les moteurs de recherche : les problématiques

En plus des problématiques apportées par la recherche d’information, il existe quelques fonctionnalités essentielles aux moteurs de recherche.

  • La Performance du moteur est jugée en fonction du temps de réponse, le débit de résultats (Throughput ) et de la rapidité de l’indexation.
  • La rapidité d’intégration de l’information dans l’index, le degré d’indexation et stockage (Coverage) et pour déterminer l’âge de cette information (Recency)
  • L’évolutivité (Scalability) : Évaluation de l’adaptabilité du moteur, même en cas de changements ou d’augmentations des données et des utilisateurs (Adaptable).
  • La pratique : il y a également des problèmes, comme avec le Spam et une pratique s’intitulant le Spamdexing qui est l’ajout de mots dans un document pour le faire ressortir lors d’une requête.

Mais alors, qui s’occupe de faire fonctionner tout cela ?


Dans le cadre de la recherche d’information, ce sont plutôt des universitaires et des personnes travaillant en laboratoire qui se concentrent sur le développement de modèles mathématiques (algorithmes), les tests et l’écriture de papiers scientifiques.

Concernant les moteurs de recherche, qui représentent l’aspect le plus pratique, ce sont souvent des informaticiens de systèmes et de bases de données, qu’on appelle des ingénieurs de moteurs de recherche, qui se chargent de modifier, améliorer, optimiser et gérer les outils existants.

Comme les apports et améliorations proviennent d’acteurs de domaines différents, cela constitue une richesse indéniable.

La philosophie des sciences de l’information

Étiquettes

, , ,

Dans son article paru en 2015 dans la revue « Rue Descartes », Luciano Floridi professeur de philosophie à l’université d’Oxford, évoque les débuts et la nécessité d’une Philosophie de l’Information. Pour ce faire, il s’appuie sur les travaux du célèbre mathématicien anglais Alan Turing et en tire trois leçons fondatrices pour la Philosophie de l’Information (PI).

Luciano Floridi en appelle à la pleine inscription des sciences de l’information dans le champ de la philosophie et à l’édification des sciences de l’information.
Pourquoi Turing ?

Turing possède à lui seul une aura très importante au sein de la communauté scientifique et historique pour ses travaux. Il fait l’objet de films et de fictions et a inspiré un grand nombre d’auteurs de science fiction. Alan Turing s’est rendu célèbre pour trois réalisations importantes au cours de sa vie :

1) Sa contribution au décodage des codes de l’armée allemande durant la seconde guerre mondiale.
2) Ses travaux sur l’intelligence artificielle.
3) La conception d’une calculabilité qui rendra possible, entre autres, la création des ordinateurs que nous utilisons tous aujourd’hui.

Les trois leçons :

Première leçon

Pour commencer, l’information est un composé : une variable à laquelle s’ajoute un type de variable. Par exemple « 23 » n’est pas une information, en revanche « 23C° » en est une.

La première leçon philosophique que Luciano Floridi tire du travail de Turing, est le niveau correct d’abstraction. Le niveau d’abstraction est un exercice que notre cerveau effectue tous les jours très naturellement. Pour reprendre l’exemple ci-dessus, on peut aisément comprendre la phrase suivante : « Il fait bon dehors, il fait 23 ». La juste compréhension de cette phrase dépend du contexte. La simple phrase « il fait 23 » ne signifie rien.

Voilà précisément le problème que rencontre Turing dans ses travaux sur l’intelligence artificielle. Car s’il est une chose facile de comprendre des notions de températures, il est plus difficile de manipuler des variables telles que la « machine » et la « pensée » : qu’est-ce que l’intelligence et la pensée ?

Pour résoudre ce problème, Turing fixe un niveau correct d’abstraction et s’affranchit de devoir définir l’intelligence d’une machine : si on confond le comportement d’une machine avec celui d’un être humain, alors cette machine est intelligente. Le niveau d’abstraction de Turing est alors l’intelligence humaine. Il s’agit du test de Turing.
Le bénéfice de cette méthode qui a servi le domaine de l’intelligence artificielle peut également servir au philosophe qui tente perpétuellement de répondre à des questions dont les variables sont difficilement définissables. La méthode de Turing est également une aide à la réflexion du philosophe.

Le test de Turing pose d’autres questions philosophiques : l’intelligence humaine n’est-elle alors qu’une imitation. Suis-je humainement intelligent ou ne suis-je qu’une machine biologique qui imite un comportement ?

Deuxième leçon

Grâce à ses travaux sur la calculabilité, Turing démontre que tous les problèmes algorithmiques sont modélisables et solubles avec une machine. Sans avoir besoin de plus en dire, il s’agit d’une grande leçon pour le philosophe à qui l’on prouve qu’il est possible de résoudre tous problèmes pour autant qu’ils soient correctement modélisés.

Floridi nous rappelle également que derrière tous les problèmes importants de notre époque se cache une machine de Turing qu’il est possible d’utiliser philosophiquement pour aider à la résolution des problèmes. Enfin, c’est tout du moins la responsabilité du philosophe que de prendre en compte les sciences de l’information pour alimenter sa propre réflexion.

En effet, le philosophe n’est-il pas la barrière contre les préjugés et l’obscurantisme dans le contexte de surinformation de notre société ?

Troisième leçon

Pour terminer, Floridi évoque le concept de quatrième révolution anthropologique. Initialement, dans sa conception originale, l’homme est au centre de l’univers cosmique et spirituel. Or trois courants de pensée viennent bousculer ces croyances :

1) L’helio-centrisme : depuis Copernic, l’homme n’est pas le centre de son environnement cosmique.
2) L’évolutionnisme : depuis Darwin, l’homme n’est pas le résultat d’une création divine mais d’une longue évolution biologique hasardeuse.
3) La psychologie : depuis Freud, notre esprit n’est pas totalement transparent à nous même.

Voilà de quoi faire descendre l’homme de son piédestal. Or pour Floridi s’amorce aujourd’hui une quatrième révolution :

4) Informatique : depuis les travaux de Turing qui ont permis de créer l’outil informatique, nous sommes devenus des agents d’information incarnés, connectés et incorporés dans cette infosphère. Le fait d’être connecté perpétuellement, d’être confronté à ces flux d’informations continues, entraîne un bouleversement en profondeur de la condition humaine.

Que se passerait-il pour une personne coupée d’information et isolée ? Sera-t-elle toujours un agent informationnel faisant partie d’un tout ? Toutefois, elle demeurera toujours loin du centre de l’univers cosmique, biologique et psychologique.

Et après ?

Floridi insiste donc sur la nécessité de la philosophie dans ce contexte de société de l’information et alimente sa réflexion avec les travaux de Turing. Pour une meilleure compréhension de ses théories je ne peux que vous conseiller les lectures suivantes :

– The philosophy of information, Luciano Floridi, Oxford : Oxford University Press, 2011
– The Fourth Revolution – How the infosphere is reshaping human reality, Luciano Floridi, Oxford : Oxford University Press, 2014
– The Ethics of Information, Luciano Floridi, Oxford : Oxford University Press, 2014
– Alan Turing : le génie qui a décrypté les codes secrets nazis et inventé l’ordinateur , Andrew Hodges, Neuilly-sur-Seine : M. Lafon, 2015
– Alan M. Turing , Sara Turing, Cambridge : Cambridge Univ. Press, 2014
– Du zéro à l’ordinateur : une brève histoire du calcul, Christian Piguet, Heinz Hügli, Lausanne : Presses polytechniques et universitaires romandes, 2004
– Alan Turing’s ‘‘Computing Machinery and Intelligence’’, Cristiano Castelfranchi, Topoi. 2013, v.32, I.2, pp. 293-299, ISSN: 0167-7411 (Print) 1572-8749 (Online)

Sciences de l’information, sciences de l’artificiel ?

Analyse de l’article What Kind of Science Can Information Science Be ? de Michael Buckland

Dans son article, paru en 2012 dans JASIST, Michael Buckland s’attaque à la tâche ardue maintes fois tentée et très polémique de poser le cadre de ce qu’est et de ce que pourrait être les sciences de l’information. Au travers de l’analyse de plusieurs mots-clés relatifs au domaine des sciences de l’information, il va déterminer ce qui n’entre pas dans le périmètre de la discipline.

Mettant en exergue les nombreuses contradictions de la terminologie lexicale des SI, il définit les fondements des sciences de l’information comme intrinsèquement culturels et exclut ainsi l’appartenance de la discipline à une science dite formelle ou naturelle. Arrivant donc à la conclusion que les sciences de l’information sont avant tout une science de l’artificiel, en opposition aux sciences formelles et naturelles. Lire la suite