Les algorithmes sont-ils vraiment tout-puissants ?

Aucun de nos clics, de nos tweets ou de nos « like » n'y échappe : les algorithmes recoupent toutes nos données pour mieux nous cerner. Mais pour le sociologue Dominique Cardon, ces espions ne sont pas forcément nos ennemis...

Par Propos recueillis par Olivier Tesquet

Publié le 02 novembre 2015 à 07h00

Mis à jour le 08 décembre 2020 à 05h58

Qu'est-ce qu'un algorithme ? A peine a-t-on formulé cette question que les algorithmes nous mesurent déjà sur Facebook, nous talonnent sur Amazon, nous conseillent sur Netflix. Et nous submergeront bientôt dans nos voitures intelligentes et nos domiciles remplis de capteurs ? Omniprésentes, ces instructions informatiques invisibles charpentent de plus en plus nos existences, sans qu'on parvienne à les réduire à leur condition mortelle (ils sont fabriqués de la main de l'homme). « Un algorithme fonctionne comme une suite d'ingrédients qu'il faut ajouter dans le bon ordre si on ne veut pas rater le plat », résume le sociologue Dominique Cardon, pour nous rassurer un peu. Dans son dernier ouvrage, A quoi rêvent les algorithmes, il entreprend un combat salutaire : ramener ces nouveaux totems dans le champ politique. Pour ne pas laisser ceux qui les élaborent dicter leur loi.

 

Existe-t-il de bons et de mauvais algorithmes ?

Un algorithme en lui-même n'est ni bon ni mauvais, c'est le dispositif dans lequel on l'installe qui va produire des effets désirables ou indésirables. Plus qu'un débat pour ou contre les algorithmes, il faut porter un regard politique sur les effets qu'ils cherchent à produire. La question politique qu'ils nous adressent est la suivante : comment voulons-nous être calculés ? Et, est-ce aux plateformes de décider pour nous des calculs qu'elles nous imposent ? On devrait par exemple débattre dans l'espace public pour savoir si l'on veut qu'un moteur de recherche nous montre à tous les mêmes résultats, si la recommandation musicale doit nous faire écouter ce qu'on aime déjà ou ce que l'on ne connaît pas, etc. Les algorithmes produisent des mondes, mais si on les fait fonctionner autrement, ils peuvent dessiner d'autres mondes.

En vingt ans, expliquez-vous, les méthodes pour mesurer nos comportements numériques n'ont cessé d'évoluer. Mais sommes-nous devenus plus faciles à cerner pour autant ?

Il existe différentes familles d'algorithmes, et elles ne mesurent pas toutes la même chose. On peut mettre en avant la popularité avec les chiffres d'audience, le nombre de pages vues sur un site, par exemple ; l'autorité des informations, en fonction de leur place dans les moteurs de recherche ; la réputation, avec les compteurs des réseaux sociaux... Et, de plus en plus, les calculateurs du Web proposent une prédiction personnalisée à travers les techniques de machine learning, soit « l'apprentissage automatique », une expression qui tend à remplacer celle d'« intelligence artificielle ». Nous livrons toujours plus d'informations aux calculateurs à travers nos clics, nos « like », nos tweets et beaucoup d'autres traces inaperçues. Mais ces traces ne donnent de nous qu'une image partielle, incertaine et discontinue. Contrairement au discours en vogue, avoir beaucoup de données ne veut pas dire que les algorithmes nous « comprennent » bien. Ils sont souvent très approximatifs.

Est-ce devenu impossible de critiquer les algorithmes ?

Les algorithmes entrent dans le débat public, ils fascinent autant qu'ils effraient. Mais disserter sur la supériorité ontologique des humains ou des machines est vain. Si la situation est aussi grave que ce qu'on entend parfois, si nous vivons sous le règne de calculateurs qui rationalisent nos désirs et ont pris le pouvoir sur nos existences, alors oui, il faut s'armer contre les machines. Mais la vision d'une emprise totalitaire des calculs sur nos vies est un diagnostic erroné. Leur manière de nous gouverner est plus subtile. Ils construisent un environnement qui oriente sans contraindre, qui guide sans obliger. En fait, comme le disait Michel Foucault du néolibéralisme, ils ont besoin que nous prenions la liberté de faire des choix.

Nous sommes entrés dans une société des calculs. Pourtant, la mesure statistique a accompagné de longue date la croissance de nos sociétés libérales. Qu'est-ce qui a changé ?

Ces nouvelles techniques de calcul fabriquent des représentations de la société. Et inversement, la transformation qui s'opère actuellement dans la manière de calculer les données épouse les mutations sociopolitiques de nos sociétés. La statistique sociale a longtemps représenté la société « par le haut » à travers des catégories et des conventions qui permettaient de décrire les univers sociaux sans pénétrer dans l'intimité des individus. Le refus actuel d'appartenir à une catégorie, la diversification des trajectoires de vie, l'éclectisme des goûts et des consommations, tout se passe comme si les nouveaux calculateurs numériques avaient entendu ces nouvelles attentes et proposaient leur solution : calculer la société « par le bas », depuis les comportements individuels. La limite est que ces nouveaux algorithmes prédisent des phénomènes sans en comprendre les causes. On ne cherche pas à expliquer pourquoi les enfants issus de familles aisées ont plus de chance de réussir leurs études, par exemple. On passe de l'explication à la prédiction, d'une société qui cherche à se comprendre comme un système à une société en quête d'efficacité.

Nous produisons de plus en plus de données, notamment sur les réseaux sociaux. Qu'est-ce que cela change à la construction des algorithmes ?

Les mesures d'audience, de popularité et d'autorité représentent la société dans son ensemble. Le Web social, lui, a fait éclater ces mesures pour offrir une vision décentralisée qui correspond à nos cercles d'affinité. Les réseaux sociaux ont mis fin à l'idée selon laquelle la représentation de l'information devrait être la même pour tous. Au final, ce n'est pas Facebook qui nous enferme dans une bulle algorithmique, comme on peut souvent le lire : c'est notre réseau d'amis. S'ils se ressemblent, les informations qui nous parviennent se ressemblent aussi. En individualisant la hiérarchie des informations, l'algorithme renvoie la responsabilité vers les choix de l'internaute. Il lui dit : « Si tu es curieux, je te rendrai encore plus curieux. Si tu ne l'es pas, tant pis pour toi. »

On parle beaucoup de « big data », de « mégadonnées ». Y a-t-il aujourd'hui une sorte de religion du calcul, voire un nouveau scientisme ?

Il faut nous désenvoûter de cette vision, sortir de l'opposition complice entre les enthousiastes et les effrayés. Les algorithmes ne doivent pas nous intimider et il ne faut pas renoncer à les comprendre et à les critiquer. Le mythe scientiste de la Silicon Valley est une rêverie qui semble dire : « La nature va parler, on va l'enregistrer et, même si on n'y comprend rien, les algorithmes vont décoder les lois de la nature pour faire des prédictions efficaces. » Il se dit que, si l'on observe de très bas, on verra une société non déformée par les ambitions des politiques, la subjectivité des humains et le poids des institutions. Les zélotes des algorithmes rêvent d'une représentation exacte du monde, à l'instar de Google par exemple. En réalité, ça ne marche pas si bien que ça : Google Flu Trends, l'outil qui voudrait prédire les épidémies de grippe, se trompe régulièrement, alors qu'il s'appuie sur la corrélation entre des mots-clés et la géolocalisation, relativement simple.

Pourtant, les géants du Net ont bâti leur modèle économique sur les algorithmes.

Les bons calculateurs opèrent dans un espace où ils peuvent parfaire leurs calculs avec des traces très simples : Amazon sait qui achète ; Google sait qui clique ; Facebook sait combien de temps on passe sur une page. L'exploitation de ces « traces de comportements » est essentielle à l'économie de ces plateformes, mais elle devient l'instrument de leur hégémonie. Ces traces fouillent dans la vie privée, et cette architecture rend les données captives des grandes plateformes.

Quel danger cela présente-t-il pour la société ?

Les différentes familles de calcul produisent des effets différents et parfois contradictoires. Les compteurs de popularité encouragent la concentration mondiale de l'attention. Les mesures méritocratiques de l'autorité contribuent à séparer 1 % d'« excellents » des 99 % de « médiocres » en créant des phénomènes d'inégalités au profit d'un tout petit nombre d'élus ; les mesures de réputation, comme sur Facebook, contribuent à livrer les individus à eux-mêmes — c'est-à-dire, à leur capital social et culturel — pour découvrir de nouveaux horizons. L'algorithme laisse les inégalités sociales et culturelles se reproduire d'elles-mêmes. Et peut-être même, les renforce-t-il. Enfin, les techniques de recommandation prédictive se glissent dans nos comportements pour nous surveiller et nous guider. Cela fait beaucoup de risques.

Mais lorsqu'on sait en user de façon adroite et stratège, ces outils offrent aussi des opportunités inédites. Par exemple, à la différence des formes statistiques traditionnelles, ils ne sont pas obsédés par la moyenne et ne cherchent pas à toujours ramener nos comportements vers le centre. Pour toutes les curiosités minoritaires et périphériques, ils offrent un moyen d'explorer des espaces d'information originaux, sous le radar des conformismes majoritaires. Si vous écoutez beaucoup de rock indépendant sur Spotify ou Deezer, l'algorithme vous offrira des suggestions bien plus fines que si vous vous cantonnez au Top 50.

Comment reprendre le contrôle des algorithmes ?

Nous devons mettre au point des curseurs pour pouvoir les régler, être acteurs du couple que nous formons avec eux. Il faut aussi être vigilant sur la question de la « loyauté » des calculs car on ne sait pas s'ils font ce qu'ils prétendent faire. Ils peuvent par exemple produire de la discrimination parce qu'ils n'en connaissent pas les critères. Il est important que chercheurs, associations et société civile développent des outils pour « auditer » les algorithmes, les mettre en débat, questionner leur fonctionnement, opposer aux calculs d'autres calculs. Quand l'Europe essaie de faire un procès à Google — en l'accusant d'abuser de sa position dominante sur les moteurs de recherche —, elle veut le prouver avec des captures d'écran des services concernés. Elle devrait user d'autres moyens, des machines virtuelles et des statistiques. Mais surtout, il faut encourager une formation critique aux calculs algorithmiques : cela devrait faire partie de l'éducation numérique, cette nouvelle culture du code qui doit nous accompagner dans nos usages.

 

 

Dominique Cardon en dates

1965 
Naissance
2010 Publications de La Démocratie Internet et de Médiactivistes
2015 Publication d'A quoi rêvent les algorithmes

 

 

A lire

A quoi rêvent les algorithmes. Nos vies à l'heure des big data, de Dominique Cardon, éd. Seuil, 112 p, 11,80 €.

Sur le même thème

Cher lecteur, chère lectrice, Nous travaillons sur une nouvelle interface de commentaires afin de vous offrir le plus grand confort pour dialoguer. Merci de votre patience.

Le magazine en format numérique

Lire le magazine

Les plus lus