L’information et les hommes : de l’acte inquisitorial à la quête du Vrai. PARTIE 2

PARTIE 2 : L’Information de nos jour

Source : http://undercovermuslimah.com/

L’observation des systèmes de connaissance médiévaux est essentielle pour comprendre l’organisation des savoirs de nos jours : au XXIème siècle, avec l’essor du Web, l’homme prend conscience que l’information qu’il produit doit répondre à une structuration méthodique. La gestion de cette information, amassée et très abondante, passe donc par une mise en place de langages contrôlés, de langages documentaires, de systèmes d’indexation. La configuration de l’information actuelle et de sa gestion est  complexe à saisir car elle met en jeu des facteurs tels que la surabondance informationnelle, les productions surtout hétérogènes des internautes sur le web, leurs motivations, leurs objectifs, et les réseaux sociaux comme facebook ou twitter.

Cependant, une analogie peut être faite…En effet, entre le contexte médiéval et actuel, entre la méthode inquisitoriale basée sur la recherche de personnes et les sociétés policières, entre la logique d’Ockham et les principes d’indexation qui structurent nos réseaux de connaissance, la gestion de l’information par l’homme suit finalement les même desseins que ceux du passé. Ainsi, l’action se déroule cette fois-ci non plus dans l’enceinte d’une abbaye bénédictine du XIVème siècle, mais dans un univers tout aussi insondable : le Web.  Nous vérifierons ce fait à travers deux exemples : les services de renseignement tels que la NSA d’une part, et les langages contrôlés tels que les moteurs de recherche d’autre part.

La NSA – Evolution de la méthode Bernard Gui

La NSA, la « National Security Agency » est un organisme gouvernemental de cryptologie du département de la Défense des Etats-Unis. Cette agence a deux objectifs : « créer des systèmes de chiffrement destinés à protéger l’intégrité des informations du gouvernement, et rechercher les faiblesses des codes utilisés par leurs adversaires.»* Les adversaires sont des organismes externes aux USA pouvant représenter une menace pour le pays ; aussi, l’agence s’occupe de la collecte de diverses formes de communications qu’elles soient militaires, économiques ou privées, diffusées par n’importe quel mode de transmission (internet, radio, téléphone) et bien sûr, sur une échelle mondiale…

*Source : Cryptage (cf bibliographie)

Comme nous le montre la vidéo réalisée par Le Monde, la NSA emploie des outils avancés pour effectuer une veille documentaire de grande ampleur et sur tous les fronts : Upstream (intercepte les communications qui transitent par les infrastructures d’internet) et Prism (fruit d’un partenariat avec des Géants du web).

Vidéo – « Comment la NSA vous surveille expliqué…en patates ».

Le rapport avec une logique d’Inquisition est que l’agence américaine est dans une optique de ciblage des personnes et surtout dans le principe d’une « traque » de l’erreur. L’erreur pour une entreprise étrangère, par exemple, serait de laisser filtrer une information liée à son activité, ce qui lui porterait préjudice si effectivement elle est surveillée par les services de renseignement. Le fait est que pour identifier une activité suspecte, la NSA concentre son attention sur un individu et sur ses contacts, amassant ainsi des liens de communication dont on ignore dans un premier temps la nature. Ce n’est pas tant le phénomène d’espionnage portant atteinte à la vie privée qui interpelle le plus, c’est le regard inquisiteur, accusateur, intransigeant, frénétiquement soupçonneux de l’agence gouvernementale.

Tout est à prendre, rien n’est laissé au hasard, dans une ère de la suspicion et de la chasse à l’information intéressée : « Toi, tu connais cette personne, alors on va te surveiller », et Bernard Gui : « Toi : hérétique ! ». Les agissements de la NSA sont principalement motivés par des intérêts économiques, où surveiller la concurrence devient capital pour le développement du marché américain, alors que l’Inquisition agissait au nom du dogme religieux. Dans tous les cas, une idée est à retenir : deux systèmes anachroniques à l’affût d’une faille chez l’adversaire.

 Les langages contrôlés – Evolution de la méthode Guillaume de Baskerville

Ancêtre des documentalistes et des bibliothécaires modernes au regard des classifications inventées au cours du 19ème siècle, Baskerville est le précepteur du contrôle de l’information dans la continuité de la logique d’Ockham : « Il ne faut pas multiplier les concepts plus que de raison ». Personnage complexe, voire parfois indéchiffrable par sa passion marginale du Christ et de la Raison, nous savons seulement qu’il s’emploi à la lutte contre la synonymie des concepts pour ne pas que l’homme s’égare dans une densité informationnelle. Il nomme les choses « cela existe,  cela porte un nom et cela doit être transmis à autrui dans un but d’instruction ».

D’une part, il abolit la rupture d’une connaissance profane et sacrée, et prône ainsi l’expansion d’un savoir égalitaire. Pour lui, aucun savoir ne doit être tenu secret du moment qu’on en a spécifié l’existence. Ainsi, on aurait tendance à penser que les structures actuelles de l’information qui correspondent à la pensée de Guillaume sont assurément les langages contrôlés s’opposant aux langages naturels. En effet, sachant pertinemment qu’une chose n’est communicable (écrit et oral) qu’à partir du moment où son code linguistique est nommé et normalisé, le contrôle d’un langage s’annonce essentiel pour rappeler l’existence de termes fiables, adéquats, spécifiques et accessibles d’un point de vue universel.

La définition que Jacques Maniez donne du langage documentaire d’adapte étonnement bien à la vision de Guillaume :

« Codes sémantiques de représentation des sujets permettent à un système documentaire de repérer les documents par une formulation rigoureuse de leur contenu, et aux utilisateurs d’ajuster leurs formulations ».

Cette définition s’attache d’une part à l’importance d’une sémantique rigoureuse appliquée à un terme et s’attache d’autre part à l’usager et à sa demande. Ainsi, le moine fait preuve d’une volonté d’orienter l’utilisateur sans pour autant souhaiter réduire le sens terminologique d’un concept par l’administration d’un langage contrôlé.

Parmi ces langages contrôlés, nous avons les moteurs de recherche, les thesaurus, les langages d’indexation (RAMEAU), les classifications (les plus connues : Dewey et CDU). Le principe est d’organiser les connaissances selon des critères classificatoires officialisés pour la mise en place d’un accès optimal à l’information. Une logique clé : « Comment nommer les choses pour que tout le monde comprenne ?». Connaissant à présent le principe essentiel de ces langages documentaires, il est nécessaire de s’intéresser à présent à un phénomène évolutif et actuel : l’annotation sémantique et les contenus.

L’annotation sémantique

Proche des traitements automatiques du langage naturel, l’annotation sémantique est « le processus qui consiste à attacher des informations descriptives au contenu textuel d’un document en reliant ces contenus à des étiquettes de données sémantiques précises (parfois appelées métadonnées). » L’environnement pour lequel a été créée l’annotation est le web sémantique et le web de données (Linked Data). Cette application joue un rôle prédominant dans la désambiguïsation, c’est à dire le processus de réduction des signifiés d’un concept en ne retenant qu’un sens unique.

Désambiguïser l’information, orienter la connaissance, préférer l’identification sémantique exacte d’un concept (dont l’origine est forcément rigoureuse car déclinante au fil du temps) à sa diversité interprétative…Mais ne pas seulement s’en tenir au contrôle absolu du langage et développer un système d’annotation sémantique dans le but d’atteindre une exhaustivité descriptive et objective des savoirs de l’homme et par extansion d’enrichir les connaissances par l’ontologie…Telles pourraient être en effet les préoccupations d’un Baskerville en 2013.

L’enjeu reste toutefois  de séparer l’annotation du contenu ; c’est ce à quoi tendent les outils applicatifs d’aujourd’hui. Parmi eux, le Wikiméta, Yahoo, DBpedia Spotlight. Dans un conteste de web sémantique, leur tâche est d’établir un lien entre un mot ou une séquence textuelle et sa représentation sur le réseau Linked Data. Il s’agit de mettre en place des « entity linking » basées sur l’élaboration d’une ontologie, autrement dit la mise en place d’un ensemble structuré de concepts représentant la définition d’un champ d’information, par le biais d’un étiquetage d’entités nommées.

…Quel avenir, quelle information, quels hommes pour demain ?

Avec le web, sommes-nous dans une ère de contrôle de l’information avec la double dimension des traitements tels que les annotations d’un côté et l’Upstream de la NSA de l’autre? Où au contraire, sommes-nous en train de nous diriger fatalement vers une dissémination sémantique et vers un dogme de l’identification des personnes, quand on prend conscience des réseaux sociaux d’une part et des effets du web participatif d’autre part avec ces quelques 1000 milliards de documents en ligne ? Enfin, doit-on continuer à exploiter le réseau Linked Data (« Intelligence collective ») de type Google ou doit-on plutôt s’orienter vers des moteurs de connaissances informatiques basés sur la recherche sémantique tels que le système récent WolframAlpha ?

Richard Long
A consulter : le billet de blog de Fabrice Hardy sur WolframAlpha. 
Bibliographie
CRYPTAGE. Les services de renseignement. [en ligne]. Disponible sur < http://www.cryptage.org/services-secrets.html> (Article consulté le 16/11/2013)
LE MONDE. Comment la nsa vous espionne-expliqué en patates. In Youtube. [en ligne]. Disponible sur <http://www.youtube.com/watch?v=16gD1k48GPY> (Vidéo consultée le 16/11/2013)  
Lina Magnan

Une réflexion au sujet de « L’information et les hommes : de l’acte inquisitorial à la quête du Vrai. PARTIE 2 »

  1. Ping : L’information et les hommes : de l’acte inquisitorial à la quête du Vrai. PARTIE 1 | DUT INFONUM Bordeaux/GIDO

Les commentaires sont fermés.