Algorithme, hyperliens, intention et liberté d'usage : quelle éducation ?

Print Friendly, PDF & Email

Le numéro de la revue Réseaux n°177 – 2013/1 coordonné par Dominique Cardon qui a pour titre : « Politique des algorithmes, Les métriques du web » et publié il y a quelques mois ainsi qu’un atelier animé par Alexandra Saemmer, enseignant-chercheur à l’Université Paris 8 sur la formation à l’écriture hypertextuelle, sur l’interprétation de tels textes, ont apporté au cours de cette année un éclairage particulièrement intéressant sur les intentions sous jacentes au web. D’une part il s’agit des intentions contenues dans les algorithmes et en particulier ceux des moteurs de recherche, d’autre part il s’agit des intentions contenues (perçues ?) dans les liens hypertextes contenus dans un texte mis en ligne, par des médias traditionnels par exemple.
Ce qui mérite particulièrement notre attention relève de plusieurs questions qui doivent interroger tout éducateur qui tend à permettre à des jeunes ou des adultes d’acquérir une certaine « maîtrise » de ce qu’ils ou elles font lorsqu’ils ou elles utilisent Internet. La première question concerne les hyperliens, leur sens et leur rôle dans la compréhension des documents proposés en ligne. La deuxième question concerne la pertinence de moteurs de recherche en regard des choix de tri qui sont contenus dans leurs algorithmes. La troisième question concerne l’intention des auteurs de pages web aussi bien que celle des concepteurs d’algorithmes. La quatrième question concerne la liberté supposée laissée à l’usager dans sa navigation sur Internet. La cinquième question concerne la possibilité de « découvrir quelque chose de différent » de ce que l’on connait déjà dans le contexte d’hyper-information (infobésité diront certains utilisant un terme à la connotation que je réprouve).
Mettre un lien dans une page web n’est jamais neutre. Alexandra Saemmer fait une intéressante démonstration en demandant à ses étudiants de nommer le sens du lien contenu du texte en leur faisant exprimer ce vers quoi pointe le lien. D’une part les propositions sont variées d’autre part la réalité que l’on confronte ensuite avec les propositions montre souvent un écart assez significatif. Autrement dit, mettre un hyperlien repose d’une logique d’auteur et constitue ce que les chercheurs appellent dans un domaine proche l’intertextualité, sauf que dans le cas des liens hypertexte, elle est explicitable. Il suffit donc de cliquer pour découvrir au moins une partie de cette intertextualité. On peut aussi penser que l’absence de lien ne vaut pas absence d’intertextualité mais aussi que le document mis en lien fait lui-même partie du texte, dès lors que l’on va considérer l’ensemble des documents auxquels j’accède comme un « tout », un « construit »; un « fini ». Cependant à partir de certains documents le suivi des liens peut s’avérer « infini » si l’on va au bout de tous les liens seconds, troisièmes etc… Autant mettre une note de bas de page, qui ne soit pas une simple référence est une indication du texte, autant renvoyer à un autre auteur peut inclure quasiment le second texte dans le premier. On peut aisément en faire l’expérience avec une page wikipédia un peu sérieuse. Dans la relation entre le lecteur et l’auteur, les liens sont une sorte de signal de confrontation, de tension, de négociation de sens. Dans le « roman dont nous sommes le héros », l’univers est fini et donc les liens sont contenus par l’auteur dans un espace de liberté qu’il propose au lecteur. Dans une page Internet, l’univers est fini, mais si l’auteur souhaite encadrer la lecture il ne peut empêcher le lecteur « d’aller voir ailleurs ce qui se passe, ce qui se dit ». Parfois mettre un lien peut aussi se faire de façon « automatique ». Ainsi dans notre blog, nous utilisons l’algorithme YARPP pour associer à la lecture d’un article la possibilité d’aller lire dix autres articles associés selon un algorithme de sens que je peux légèrement paramétrer. Quand je mets des mots clefs (vieille technique qui devient en partie inefficace) ou des catégories, j’oriente le classement des billets, et donc l’association des documents entre eux dans le moteur interne de recherche. En d’autres termes les liens contenus dans une page web, outre qu’ils sont de nature différente (quand ce n’est pas en plus de la publicité), mais ils sont aussi de sens très variable. Reste donc au lecteur la responsabilité de l’exploration….
Avec l’utilisation des moteurs de recherche nous assistons depuis vingt ans à une course effrénée à la performance qui se traduit par une somme de plus en plus grande de contreperformances. En fait les concepteurs d’algorithmes de moteurs de recherche sont confrontés à un monde mouvant (le web), sur lequel ils n’ont quasiment aucune prise et ils sont donc condamnés à suivre… Or ils suivent de moins en moins bien, ou, en tout cas d’une possibilité large de recherche, ils en viennent à restreindre la recherche en faisant très vite des propositions à l’usager en utilisant ses recherches précédentes. En d’autres termes on analyse l’usager pour lui suggérer plus vite ce qu’il cherche. Cela repose sur l’idée que nous allons le plus souvent vers les mêmes objets de recherche et non pas vers de nouveaux. Si vous vous identifiez ou pas  avant de faire votre recherche, les résultats peuvent être très différents selon que vous aurez ou non « un passé » de recherche.  Dominique Cardon expose dans son article sur la Pagerank, dans la revue Réseaux, de manière particulièrement précise et argumentée cette manière de faire qu’ont les concepteurs de moteurs de recherche, confrontés à des auteurs qui essaient « d’arriver en premier », quitte à tricher pour mieux se faire voir. Basé sur l’analyse des liens hypertexte, l’algorithme de Google s’avère très pertinent au début du web, mais très vite il s’est trouvé contré par des auteurs de site qui cherchent à se faire « référencer ». Ce fameux référencement dont on sait qu’il est, dans le commerce et en particulier la grande distribution, apporteur d’affaire a migré sur Internet, mais en agissant parfois à l’insu des moteurs de recherche qui en perdent alors leur efficacité. On a pu observer le « déréférencement » douloureux de certains sites par tel ou tel moteur de recherche qui n’en pouvait plus de tels contournements. Cette recherche effrénée de la popularité ou plutôt de la visibilité amène à des excès que les usagers ont bien du mal à repérer, sauf pour les publicités qui ne s’embarrassent pas trop et qui s’imposent parfois violemment à l’usager… Chercher de l’information sur Internet n’est pas seulement affaire de technique, cela devient aussi affaire de stratégie, voire de philosophie…
Les intentions que chacun de nous a sont un moteur essentiel de l’action. Il n’est donc pas étonnant que les concepteurs de technologie tentent de faire passer leur intention dans les objets techniques qu’ils inventent. Dans le cas du numérique, la science des algorithmes est bien celle qui permet à un humain de transférer une intention dans une machine. Cela suppose bien évidemment que cette intention soit adaptable au format numérique. On le voit dans le cas de la reconnaissance vocale ou de caractères, l’intention de traduction se heurte aux limites techniques. Dans le cas des liens hypertextes les choses sont plus simples sur la forme : mettre un lien c’est traduire l’intention de faire lien. Mais c’est bien pauvre car rien ne qualifie le lien entre les entités reliées entre elles. Dominique Cardon montre bien la limite qu’impose le fait qu’un lien soit « froid » c’est à dire n’a aucune épaisseur humaine, c’est à dire une qualité. C’est pourquoi il explique que les concepteurs des algorithmes des moteurs de recherche ont cherché à trouver un peu de qualité : tous les sites, toutes les pages ne se valent pas, mais comment hiérarchiser. On le sent bien la traduction numérique d’une intention humaine a pour conséquence une réduction notable de cette intention. Entre deux pages les liens qui les relient peuvent être de nature très différente : exemple, extension, contradiction etc… Rien n’indique, a priori, dans la page d’origine la qualité du lien proposé, sauf si dans le texte cela est explicité par un « comme par exemple sur cette page, suivi de l’URL ». De plus rien ne permet de le vérifier. En d’autres termes les liens compliquent la lecture et la validation de l’information contenue et obligent à une stratégie en amont relativement complexe qui demande du temps et surtout une attitude particulière dans la gestion de l’environnement informationnel personnel de chacun de nous.
Le mythe de la liberté et celui de la démocratie traversent l’imaginaire d’Internet depuis ses débuts. Si de fait il y a une liberté théorique, inscrite même dans les fondements techniques du web, il y a en réalité une liberté « orientée ». Ce qui est caractéristique, symbolique de la liberté, c’est la possibilité pour chacun de s’exprimer et donc la liberté de s’exprimer. Mais est-ce parce que l’on s’exprime que l’on est lu ? Cette liberté de s’exprimer est-elle enrichie par la possibilité de l’anonymat comme me le rétorquait il y a plusieurs années un journaliste de Télérama à propos des forums qui autorisaient l’anonymat ? En fait nombreux sont ceux qui luttent contre cette liberté en cherchant à orienter les lectures que nous pouvons faire. Même limitée on nous dira que cette liberté existe. Outre que l’on sait bien maintenant que certaines institutions s’autorisent à limiter cette liberté, on sait aussi que cette liberté quand elle est accordée est en fait la base d’une surveillance qui elle même pourrait permettre de « contrôler » cette liberté. Entre surveillance/contrôle, filtrage et orientation, la liberté de l’utilisateur est bien plus restreinte qu’on ne le pense. L’orientation de l’usager à partir de l’analyse de son profil est la pratique la plus répandue actuellement et elle reçoit souvent l’assentiment positif du lecteur qui se voit conforté dans ce qu’il est par l’image en miroir que ces outils proposent (cf. les conseils de lecture ou d’achat de sites comme Amazon ou la Fnac. Apprendre à des jeunes la place de la liberté sur la toile et plus généralement dans l’usage des technologies et plus largement de la technique est un vrai défi, voire une impossibilité. La complication extrême des techniques entre elles et à l’intérieur d’elles-mêmes est devenue telle que l’usager risque fort une forme de dépendance à son insu. Rappelons que pendant longtemps les postes de télévision s’allumaient par défaut sur la première chaîne. Par la suite ils s’allumaient sur la dernière chaine vue (renforçant l’habituation).
Devant de telles contraintes, est-il encore possible de trouver de l’inattendu dans nos usages du web ? Oui, mais cela dépend de la variété des chemins que nous utilisons. La centralité de notre rapport au web a longtemps été la messagerie électronique. Petit à petit cela se déplace vers les réseaux sociaux d’une part et vers les environnements numériques professionnels proposés par les lieux de travail (ENT en milieu scolaire). Ces environnements ont comme caractéristique de contraindre l’utilisateur à utiliser un monde fini et prescrit. Les DSI sont amenés, sous diverses formes, à faire respecter ces choix. Dans le monde scolaire les interdictions de certains sites ont cet objectif. Autrement dit, comme le montre Bernard Collot dans son livre « la pédagogie de la mouche » (éditions Instant Présent 2013), tout dans l’école doit être scolaire : avec le numérique, les ENT semblent n’avoir d’autre but. Du coup l’inattendu ne risque pas de faire surface dans l’école. Fort heureusement les smartphone et les liaisons 3G vont donner du fil à retordre aux contrôleurs de toutes origines. Est-ce pour autant que les jeunes pourront trouver de l’inattendu ? Pour l’instant les pratiques personnelles des jeunes (et des adultes) vont plutôt vers la confortation des choses connues et parfois leur enrichissement, plutôt vers le repli communautaire que l’ouverture aux autres. Le risque de l’inattendu est surtout médiatisé par les « mauvaises surprises » comme celle très médiatisée en ce moment d’un site basé en Lettonie qui est à l’origine d’échanges anonymes qui ont poussé des jeunes à des drames (je ne le cite pas pour ne pas augmenter sa popularité interne). Or l’inattendu, c’est aussi la bonne surprise, l’ouverture vers un monde différent, vers des façons de voir autres, bref vers les possibilités d’échange, de partage et de métissage. L’histoire des peuples humains, les ethnologues l’ont montré, est faite de ce mouvement entre repli communautaire, et échanges mais aussi conflit avec les autres que l’on découvre. Ce n’est pas simple de sortir de son cocon communautaire pour affronter le non connu. Dans l’apprentissage il en est de même. De nombreux travaux ont montré combien les pré-représentations du savoir (BM Barth, A Giordan, etc… et plus récemment E Ander) sont un obstacle à prendre en compte dans l’apprentissage de savoirs nouveaux ou étrangers. La structuration actuelle du web ne favorise pas plus qu’avant son arrivée l’accès à l’inattendu, par contre il rend notoirement possible l’exploration de territoires inconnus qui jusqu’à présent étaient inaccessible (allez écouter les conférences du collège de France en vidéo et vous comprendrez l’étendue de ces territoires).
Eduquer dans un contexte d’omniprésence du web est une tâche qui se complexifie. Le déplacement des sources d’information et de leur support technique d’un espace local et contrôlable à un espace global aux multiples contrôles explicites ou non, de même que l’éclatement de l’espace temps de la communication interpersonnelle rendent les contextes d’apprentissage beaucoup plus ouverts. Autrement dit, parler de l’espace d’apprentissage comme un espace fermé et contrôlé est de plus en plus une illusion. Certes on peut tenter de garder cela sous contrôle mais c’est nier le potentiel du sujet qui apprend, du rôle structurant de l’adulte et des pairs, et surtout s’interdire une pédagogie de l’inattendu. Si finalement Internet à un intérêt, c’est bien celui-là autoriser l’inattendu… Encore faut-il savoir en profiter…
A suivre et à débattre
BD

3 pings

  1. […] Algorithme, hyperliens, intention et liberté d’usage : quelle éducation ? « Veille et Analyse T… […]

  2. […] Le numéro de la revue Réseaux n°177 – 2013/1 coordonné par Dominique Cardon qui a pour titre : "Politique des algorithmes, Les métriques du web" et publié il y a quelques mois ainsi qu'un atelier a…  […]

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée.