Rens sur le web initial

Rens sur le web initial

Au début du web, l’information y était statique, il n’y avait pas de possibilité d’interaction et surtout elle était gardée dans des silos isolés les uns des autres.

L’accès à ces silos dépendait de la capacité des moteurs à les identifier et de la capacité du chercheur à correctement interroger les index des moteurs. Pour pallier en partie ce manque de connaissance, l’OTAN, dès 2001, édite une série de trois manuels portant sur l’exploitation de l’internet à des fins de renseignement. Ces manuels ont fait la promotion de l’utilisation du web comme source d’information, essentiellement par la description des informations qu’il était possible d’y trouver et par celle des différents vecteurs faisant circuler l’information : mailing-list, newsgroup, chat, etc. autant de vecteur oubliés des masses utilisant l’internet aujourd’hui.

Les manuels s’attachent à décrire les intérêts spécifiques des informations trouvées sur internet par rapport à celles obtenues par des capteurs confidentiels comme les écoutes, l’imagerie spatiale ou encore le renseignement d’origine humaine. La première spécificité de l’information d’origine sources ouvertes est qu’elle n’est pas protégée, elle peut donc être partagée à la fois au sein d’une coalition disparate en opération extérieure, mais aussi avec des pays aspirant à rejoindre l’OTAN (NATO Osint Handbook, 2001). La deuxième particularité mise en avant est la disponibilité de l’information. Internet étant accessible à tous, une majorité des besoins en information pourra être traitée directement par le demandeur sur internet plutôt que par l’adressage d’une demande à un service de renseignement, permettant ainsi d’alléger la charge de travail de ces derniers qui peuvent ainsi se concentrer sur les informations qu’il est impossible de se procurer sur internet. Enfin, le renseignement de source ouverte est vu comme un complément idéal aux autres méthodes d’acquisition d’information, par exemple pour identifier des sources humaines d’intérêt qui seront ultérieurement traitées sur le terrain par des agents dans le cadre du renseignement humain (ROHUM).

Les manuels recommandaient de suivre strictement le cycle du renseignement sur les sources disponibles sur internet en y apportant quelques spécificités :

  • recherche de sources
  • identification et la caractérisation des sources : qui dit quoi, pourquoi, et où.
  • cotation de l’information

Les nouveaux risques liés à ce nouveau vecteur qu’est le web sont clairement identifiés dès le début.

Partant du principe que tant que l’adresse HTTP d’un silo n’est pas identifiée il ne sera pas accessible, les manuels multiplient les conseils sur l’utilisation des fonctions avancées des moteurs et des annuaires.

En second lieu, la pratique du pseudonyme et de l’avatar, immédiatement employée sur les silos précurseurs qu’étaient les newsgroups, au moment où le web était encore une sous-culture, rendait particulièrement complexe l’identification de la source de l’information (NATO Intelligence exploitation of the Internet, 2002). Distinguer la source primaire d’une source secondaire était particulièrement complexe et dans le cas d’une source anonyme, la raison de son manque de transparence devait être déterminée. L’effort initial portait sur la localisation des serveurs grâce à une recherche sur les Domain Name Server au moyen des Whois et Traceroute puis à la manière d’une évaluation de livre, l’effort portait sur l’identification de l’auteur, l’éditeur, et le vecteur de transmission.

Enfin, la cotation de l’information était basée à la fois sur les éléments d’identification et sur des éléments de contexte et de contenu : légitimité, autorité, précision, objectivité, actualité, couverture. La capacité de manipulation et d’intoxication des sources non identifiées et la saturation d’information sont affichées comme les plus grandes restrictions dans l’emploi de l’internet en tant que source d’information (NATO Osint Reader, 2002).

Ces pratiques, notamment l’emphase sur la localisation des serveurs et la recherche de sources (silos) sont à remettre dans le contexte du web initial où les moteurs n’indexaient que 16% d’un web estimé à 6 téraoctets (Lawrence, Giles, 1999) contre 5 millions de téraoctets en 2004 (Schmidt, 2005). Les sites étaient isolés les uns des autres, difficilement accessibles et peu nombreux, d’où un objectif d’exhaustivité de recueil du web utile. Le développement exponentiel du web a rendu d’autant plus complexe la réponse aux problématiques initiales, a apporté son lot

de problèmes nouveaux, mais a également contribué à doter les services de renseignement de nouvelles capacités.

Le web est devenu un grand égalisateur de moyens, comme l’illustre le fait que les trois manuels de référence de l’OTAN sur l’OSINT ont été largement diffusés sur le web donnant ainsi à tout adversaire potentiel une formation dans l’exploitation d’internet à des fins de renseignement. Depuis les moyens de communication du web initial (forum, newsgroup, mail) au moyen de coordination collective du web social, chaque conflit des 10 dernières années s’est déroulé en partie sur les webs. Les technologies des webs depuis l’émergence du web social marquent un point de rupture significatif dans le déséquilibre de moyens jusque là à l’avantage des services et forces armées étatiques. Elles mettent à disposition de toute organisation des capacités essentielles à la conduite d’opérations de grande envergure (tant géographique que temporelle), capacités connues par les militaires occidentaux sous l’acronyme C4ISR.

Les services de renseignement s’adaptent au comportement des auteurs, ainsi au recueil passif du web initial s’ajoute désormais une interaction avec les sources du web social que cela soit pour orienter un débat d’experts sur un forum ou pour se faire intégrer à un cercle d’amis dans un réseau. Cette pratique relève pourtant d’un autre type de renseignement, le renseignement d’origine humaine, défini comme du renseignement recueilli et fourni par une source humaine (OTAN, 2009) qui nécessite des compétences spécifiques au traitement de sources humaines afin de l’orienter de façon consciente ou inconsciente. Exemple de cette évolution de l’open source intelligence, l’Open Source Center créé en 2005 au sein de la CIA. En 2006, ce centre avait pour mission de recueillir, traduire, condenser afin de le rendre exploitable tout élément de sources ouvertes susceptible d’intéresser le gouvernement américain (Minas, 2010), de l’OSINT « pur » censé ne recueillir sur les webs que des informations libres d’accès, celles-ci pouvant être de deux natures : une minorité d’informations fournies par des personnes inconscientes de leurs valeurs et une multitude d’informations de faible valeur individuellement, mais de grand intérêt collectivement (principe de la longue traîne). Aujourd’hui ses prérogatives vont bien au-delà, ce centre a pour nouvelles attributions d’étudier, par exemple, le niveau de pénétration de l’internet dans les pays émergents, ou encore les pratiques dans l’utilisation des médias sociaux pays par pays (U.S. State Department Social Media Landscape : France, 2011).

A propos de Fanch FRANCIS

Doctorant en Sciences de l'information et de la communication appliquées, Mr FRANCIS Fanch est le fondateur de OAK Branch.

Partager cet article