Sciences sociales

Les algorithmes ont-ils pris le pouvoir ?

Marie Deshayes

Mis à jour le 13/01/2015

Inscription newsletter Sciences Humaines
 
Envoyer à un ami Version imprimable Augmenter la taille de la police Diminuer la taille de la police
Article issu du numéro
Consultez le sommaire du magazine Les grandes questions de notre temps

>> Consulter le sommaire

Mensuel N° 266 - janvier 2015
Les grandes questions de notre temps - 6€90

  >> Voir tous les articles du dossier

Ils classent, recommandent, façonnent
 nos réseaux, régulent les marchés, 
détectent les criminels… Les algorithmes ont 
nos vies à l’œil, pour le meilleur et pour le pire.

David est un ado qui aime bidouiller des programmations informatiques sans autorisation. En pleine guerre froide, il réussit à entrer sans le savoir dans le système informatique du réseau de défense militaire américain. Ce qu’il prend pour un jeu est en réalité un programme de simulation de réponses à des attaques nucléaires. La machine s’emballe et manque de déclencher une troisième guerre mondiale… Ce scénario de science-fiction est celui du film Wargames sorti en 1983. En trente ans, la réalité a rattrapé la fiction. 


Les algorithmes sont entrés 
dans nos vies


Les algorithmes désignent une suite d’opérations permettant de transformer des données multiples en un résultat précis. Une recette de cuisine est, si l’on veut, un algorithme. « Initialement utilisé par les mathématiciens pour décrire une série de calculs, le terme s’est généralisé pour désigner les tâches automatisées de la programmation informatique », résume le sociologue Dominique Cardon (1). La naissance de Google, en 1998, est le symbole de l’algorithmisation du monde, tout comme le système qu’il utilise : PageRank. Pour trier et faire remonter les pages Internet par ordre d’importance, les concepteurs ne voulaient pas se contenter d’une analyse sémantique du contenu de ces pages. Ils ont voulu prendre en compte les relations entre les documents. « De façon intuitive, un document doit être important (sans considération pour son contenu) s’il est beaucoup cité par d’autres documents », dit Larry Page, le cofondateur de Google. La qualité devient une construction sociale.


Pour Alain Lelu (2), spécialiste des sciences de l’information, « PageRank et Wikipedia remplissent honnêtement et efficacement leur rôle modeste, mais basique : celui d’informer l’internaute de “ce qui se dit”, de ce qui est socialement reconnu dans le milieu sur lequel porte sa requête, fût-il aussi limité que celui des collectionneurs de porte-clés. »

Google n’hésite pas à proclamer son algorithme comme le code source de la démocratie, souligne D. Cardon. Chaque lien entrant et sortant est considéré comme un « vote ». Mais tous les votants n’ont pas le même poids. Les pages les plus vues sont celles qui ont le plus de pouvoir : si elles pointent vers une autre page, celle-ci aura plus de chances de remonter que si elles sont recommandées par un « petit » site. C’est donc une « méritocratie censitaire » plus qu’une démocratie. On en arrive à un effet de renforcement, où les sites les plus importants raflent toujours la mise. 90 % du PageRank du Web est possédé par 10 % des sites (3).


De l’IP tracking aux cookies

C’est pourquoi, pour les journalistes Web par exemple, il est devenu indispensable de maîtriser les codes du référencement pour que leur article ait une chance d’exister : ne pas négliger le titre (avec des mots-clés), les expressions en gras, les liens… Ces efforts ne suffisent d’ailleurs pas à déjouer les techniques de référencement et à apprivoiser Google. L’algorithme se complexifie pour donner sa vision d’un site de qualité : des articles ayant une vraie valeur ajoutée (plutôt que des dépêches AFP reprises par des centaines de rédactions), sur lesquels les lecteurs passeront plus de temps, auront plus de chance de remonter, car ils seront recherchés et rares. Au final, des conseils journalistiques de bon sens… Pour justifier sa méthode de référencement, Google se défend d’intervenir « à la main » dans ce qui n’est que le résultat d’algorithmes. Il sépare clairement les résultats de la recherche « organique » et ceux de la recherche « stratégique », pour les publicités. Dans la première, la réputation se crée via les internautes puisque ce sont eux qui font ce travail de recommandation récupéré par Google. De l’autre, la réputation s’obtient en payant des mots-clés.


Dès lors que l’internaute clique sur une publicité, par exemple pour réserver un billet d’avion, il va falloir qu’il prenne conscience des algorithmes qui sont à l’œuvre pour ne pas se faire berner. Certaines compagnies aériennes pratiquent en effet l’IP tracking* : l’adresse IP de l’utilisateur est enregistrée, et puisqu’elle est liée à différentes recherches sur un voyage, le prix va monter progressivement. Le but est de déclencher l’acte d’achat de la part de l’internaute, pressé par cette montée des prix.


Dans un récent rapport, la Commission nationale de l’informatique et des libertés (Cnil) et la Direction générale de la concurrence, de la consommation et de la répression des fraudes (4) pointent d’autres pratiques tendancieuses, comme l’utilisation des cookies, ces indications sur la navigation de l’internaute, pour en arriver exactement au même point : repérer les goûts et les pratiques de chacun, pour proposer au consommateur des publicités « ciblées » et le faire payer au maximum.


Une « gouvernementalité algorithmique »


Le journaliste et ingénieur américain Christopher Steiner a alerté récemment l’opinion sur notre dépendance croissante aux algorithmes. Dans son dernier ouvrage, Automate this. How algorithms came to rule our world (2012), best-seller aux États-Unis, il prend l’exemple de la firme Music Xray. Grâce à des algorithmes, cet outil est capable de classer les créations musicales en fonction de rythmes ou de tempos qui ont déjà connu du succès. Les créations qui ne collent pas au « hit appeal » auront moins de chances d’être commercialisées, d’où une tendance à l’homogénéisation musicale.


C’est au fond le principal reproche adressé aux algorithmes : en classant les informations qui nous arrivent, ils orientent notre action à notre insu. Ils nous font des recommandations sur les musiques à écouter, les objets à acheter, les gens à rencontrer, les pays à visiter. Mais ils peuvent aussi cibler les individus, décider de la visibilité de certaines idées, personnes et produits au détriment d’autres, engager des transactions financières…


Tout l’enjeu est de savoir comment rester maître de ces algorithmes. Le philosophe Bernard Stiegler (5) y voit une nouvelle forme de prolétarisation : « La prolétarisation, affirme-t-il, c’est historiquement la perte du savoir du travailleur face à la machine qui a absorbé ce savoir. » Selon lui, nous aurions atteint un nouveau stade : les machines, que nous nous contentons de paramétrer sans les maîtriser, nous dépossèdent de l’information, et surtout de l’information nous concernant. Car même s’il existe des garde-fous, comme la désactivation des cookies ou l’utilisation de moteurs de recherche qui ne pratiquent aucun traçage, les règles sont opaques et l’internaute n’en a pas forcément conscience.


Ce type d’argument ranime la flamme technophobe : serions-nous entrés dans un monde surveillé, paramétré, décrypté, où nos libertés civiles disparaissent, de facto, dans les serveurs des datacenters ? C’est la thèse défendue par certains sociologues et politistes, qui voient dans la puissance des machines la défaite de nos libertés. Deux chercheurs belges, Thomas Berns et Antoinette Rouvroy (6), avancent que nous entrerions dans une « nouvelle gouvernementalité algorithmique » : l’individu s’efface au profit de son double statistique qu’il ne maîtrise pas vraiment. Dans le même ordre d’idée, Evgeny Morozov (7) affirme que la montée en puissance des données (big data) mine les fondements du politique : si la technologie fournit les réponses aux problèmes de la société, à quoi sert la politique ? L’affaire Prism a révélé que la NSA, l’agence américaine de renseignement, repérait les profils « à risque » grâce à ce genre d’algorithme : si une personne a fait telle recherche ou qu’elle est en contact avec tel individu par courriel, alors elle est à risque. Sinon l’individu n’est pas à risque… Dans le même ordre d’idée, le programme Predpol utilisé dans certaines villes aux États-Unis utilise un algorithme prédictif pour empêcher les crimes avant qu’ils se produisent.


Faut-il alors lutter contre les algorithmes ? Ce serait vain, voire absurde. Aussi puissants soient-ils, les algorithmes ne sont pas doués de raison. D’ailleurs, même un auteur aussi critique que C. Steiner reconnaît qu’ils permettent de nombreuses avancées : ils stimulent la productivité, diffusent de la connaissance ou améliorent la fiabilité des opérations lors de tâches répétées comme l’analyse de tests médicaux.


Tout l’enjeu pour l’homme consiste à (ré)apprendre à les maîtriser. Dans Boston College Law Review, Kate Crawford, chercheuse au laboratoire Social Media Collective de Microsoft Research, et Jason Schultz de l’école de droit de l’université de New York, avancent quelques propositions. Il faudrait que soit notifié aux citoyens, par exemple, quand sont collectées leurs données personnelles, quel traitement va en être fait, et à quelles fins. Ou encore qu’ils puissent contester la prédiction qui est faite de leur comportement (scoring) lors d’une demande de crédit.


Les algorithmes prendront donc la direction que l’homme leur laissera prendre. Dans le film Wargames, c’est bien parce que l’homme a réussi à dialoguer avec la machine qu’une nouvelle guerre a pu être évitée…

Partager :

Le trading à haute fréquence, maître de la finance

Exit les salles où les traders criaient leurs ordres pour acheter et vendre au plus vite. Les transactions financières sont maintenant réglées par des algorithmes, dans des immenses data centers, et s’effectuent en quelques dizaines de microsecondes. Les bénéfices sont minimes à chaque fois, mais représentent au total des sommes conséquentes. Apparu il y a moins de dix ans, le trading à haute fréquence représenterait deux tiers des volumes d’actions échangés en Amérique et 40 % en Europe.


Le volume d’informations échangées est tel que la régulation n’en est pas facilitée. Le gendarme boursier américain, la SEC (Securities and Exchange Commission), a sanctionné en octobre dernier un courtier à haute fréquence pour avoir manipulé les cours de plusieurs actions à Wall Street… en 2009. Cependant, le trading à haute fréquence pourrait bientôt atteindre ses limites. La vitesse des échanges ne pourra pas être beaucoup améliorée. C’est la loi de la relativité d’Einstein qui le dit : on ne peut pas aller plus vite que la vitesse de la lumière dans le vide. « Les gros opérateurs (fonds d’investissements, banques, traders propriétaires, etc.) sont désormais tous à peu près équipés de la même manière – ils vont tous aussi vite que les autres », explique le chercheur en anthropologie Alexandre Laumonier (8). Ils « vont donc être obligés de réfléchir davantage à leurs activités fondamentales (…) plutôt que de tenter d’obtenir un avantage technologique leur permettant de gagner quelques millionièmes de seconde. » 

Marie Deshayes

Mots-clés

IP tracking : suivi de l’adresse IP, qui est le point de connexion d’un terminal à un réseau, par exemple un ordinateur à Internet. Il serait utilisé dans le yield management, qui consiste à personnaliser les tarifs à partir de toutes sortes de paramètres comme le taux de remplissage de l’avion ou de l’hôtel.



Référencement : aussi appelé search engine optimization (SEO). Ensemble des techniques permettant d’améliorer la place d’une page ou d’un site Internet dans un moteur de recherche. Il se divise en « white hat SEO » (créer des URL pertinentes, utiliser le gras, les intertitres…) et « black hat SEO » (se rendre visible, obtenir que les autres parlent de nous).



Datamining : exploration de données. Des conclusions sont dégagées à partir de l’exploration d’un grand nombre de données. Une entreprise peut ainsi élaborer un profil du consommateur pour personnaliser au maximum ses offres.

NOTES

1.

Dominique Cardon, « Dans l’esprit du PageRank. Une enquête sur l’algorithme de Google », Réseaux, n° 177, 2013/1.


2.

Alain Lelu, « Un demi-siècle au cœur du numérique : itinéraire d’un data geek », Hermès, n° 68, 2014/1.


3.

Gopal Pandurangan et al., « Using PageRank to characterize Web structure », Internet Mathematics, vol. III, n° 1, 2006.


4.

Cnil/DGCCRF, « IP Tracking », 27 janvier 2014. www.vieprivee.com/spip.php?article180


5.

Bernard Stiegler, « Le grand désenchantement », Le Monde, 21 février 2011.


6.

Antoinette Rouvroy et Thomas Berns, « Gouvernementalité algorithmique et perspectives d’émancipation », Réseaux, n° 177, 2013/1.


7.

Evgeny Morozov, Pour tout résoudre, cliquez ici ! L’aberration du solutionnisme technologique, Fyp, 2014.


8.

Alexandre Laumonier, « L’accélération de la finance », Mouvements, n° 79, 2014/3. A. Laumonier a publié le livre 6 sous le pseudonyme de Sniper, nom d'un algorithme de trading, Zones sensibles, 2012.


Commentaires

commentaires Il y a actuellement 1 commentaire, réagissez à cet article

pas très rassurant tout ça
nickybn
-
le 18/12/2014
pas très rassurant tout ça; homo-sapiens devient homo-data ?

Proposer un commentaire
(En savoir plus sur les commentaires)


* Champs à renseigner obligatoirement

En kiosque
Abonnements groupés lycées prépas
Abonnements groupés personnel en formation / étudiants
je commande
  • Abonnement Sciences Humaines
  • Achat livres
  • Achat de numeros
  • Inscription newsletter
  • Espace abonné
Consulter les sommaires
  • les mensuels
  • les trimestriels
  • les numeros speciaux
  • les livres
  • la revue d'Histoire des sciences humaines
  • les collections annuelles et reliures
Le Cercle Psy, magazine de psychologie en kiosque et abonnement
nouveautés livres
découvrir

Changer le travail -  20 pistes pour améliorer la qualité de vie au travail
Découvrir Commander
Psychothérapies, mode d'emploi
Découvrir Commander
Les clés du langage
Découvrir Commander
L'entreprise
Découvrir Commander
Le pouvoir
Découvrir Commander
La psychologie. Histoire, concepts, méthodes, expériences
Découvrir Commander