Logo image
Logo image

Bienvenue dans l'algocratie : le pouvoir du biais algorithmique

6 minutes
Une grande partie des changements qui s'opèrent dans le monde sont produits par des algorithmes. À tel point qu'à l'avenir, ils pourraient tirer les ficelles de la politique...
Bienvenue dans l'algocratie : le pouvoir du biais algorithmique
Valeria Sabater

Rédigé et vérifié par Psychologue Valeria Sabater

Dernière mise à jour : 04 mars, 2023

Rechercher une offre d’emploi. Déposer une réclamation auprès du service client. S’informer d’un prêt ou d’un autre produit bancaire. Réserver un billet d’avion ou d’hôtel. Les actualités, informations et publicités que l’on voit en entrant sur nos réseaux sociaux… Les algorithmes sont à l’origine de tâches quotidiennes infinies et dans plus de secteurs qu’on ne l’imagine.

Ce sont ces mécanismes silencieux qui, de plus en plus, font bouger le monde sans qu’on s’en aperçoive à peine. Et le plus frappant : ils apprennent avec les données que nous leur fournissons pour être de plus en plus efficaces. Ils s’adaptent à l’être humain – ceux qui sont codés comme “utilisateurs” -, essayant d’offrir une expérience de plus en plus personnalisée, rapide et satisfaisante pour que l’effort soit minimal.

Ses tentacules atteignent les applications de rencontres, où il peut même arbitrer notre choix de partenaire en nous présentant une série de candidats très spécifiques. Basé, soi-disant, sur nos préférences. Son incursion dans le quotidien numérique est telle qu’on estime même qu’il peut arbitrer nos décisions politiques

Les algorithmes cherchent à nous faciliter la vie, mais en réalité ils décident pour nous.

Some figure
Les algorithmes peuvent nous garder captifs dans une bulle d’information.

Qu’est-ce que le biais algorithmique ?

Les algorithmes peuvent nous faciliter la vie. Si nous sommes amoureux de la nature et défenseurs de l’environnement, par exemple, il est très probable que dans nos réseaux sociaux nous trouverons de plus en plus d’informations liées à ce sujet. Cependant, les choses changent lorsque nos préoccupations ne sont pas exactement saines.

Rappelons-nous le terrible cas de Molly Russell. Cet adolescent cherchait des sujets liés au suicide. Il est arrivé un moment où tous ses réseaux sociaux lui ont montré et proposé du contenu lié à ce thème. Presque sans s’en rendre compte, on peut rester captif dans une bulle d’information au sein de laquelle les autres tendances et l’oxygène des autres contenus ne filtrent plus.

Le biais algorithmique fait référence à notre fausse sensation de contrôle sur les informations que nous recevons et les décisions que nous prenons. Car il y a un code inquiétant qui s’infiltre dans notre quotidien, nous offrant constamment des données presque jamais impartiales. Mais rappelons-le, il y a presque toujours un intérêt derrière…

Vous ne décidez pas, ils décident pour vous

Il y a un phénomène que l’on observe de plus en plus fréquemment dans la normalisation de l’intelligence artificielle. L’IA nous donne un faux sentiment de contrôle et d’auto-efficacité. Ce sentiment augmentera beaucoup plus lorsque l’utilisation de ChatGPT sera normalisée et cela nous aidera dans nos thèses, notre travail à l’université et dans les tâches quotidiennes sans fin.

Nous nous sentirons plus efficaces, mais en réalité, ce sera ce chatbot qui réalisera pour nous une tâche qui nous appartient. Cela ne doit pas nécessairement être négatif, mais cela augmente le biais algorithmique susmentionné. C’est-à-dire la perception que nous décidons et agissons sans aucune ingérence, alors que ce n’est pas le cas…

Les algorithmes ne sont pas justes

Cathy O’Neil est une mathématicienne qui a écrit un livre très populaire, Weapons of Mathematical Destruction (2016). Dans cet article, il décrit les algorithmes comme des “armes de destruction massive”. Pour commencer, ces valeurs computationnelles ne sont pas exemptes de biais moraux et culturels, sans parler des intérêts qui les sous-tendent.

Dans le livre, elle évoque le cas d’une enseignante qui a été licenciée à la suite d’une évaluation négative effectuée par un algorithme sur elle. Dans ce document, les données des messages personnels aux rapports médicaux ont été analysées. Il en va de même lors de l’évaluation de la cession d’hypothèques ou d’aides. Certains groupes ethniques, par exemple, seront toujours désavantagés.

Cependant, la plupart des entreprises et organisations valident ces analyses rapides. Le biais de l’algorithme les amène à conclure que ce qu’un algorithme analyse sera toujours valide. Même si ce n’est pas juste et souvent ces données ne sont même pas rassemblées personnellement.

La technologie avec les chatbots et les algorithmes est là pour rester et va moduler une grande partie de nos tâches et décisions.

Algocratie, des algorithmes au service du politique

On dit souvent que les politiciens sont loin des vrais problèmes du peuple. Nous remettons en question leurs idées car elles ne répondent pas aux besoins du citoyen. Une autre critique est ses dépenses excessives en conseillers, sa mauvaise gestion, et même ses erreurs au moment de décider et même de légiférer.

Récemment, une enquête publiée par le cabinet de conseil Deloitte nous a révélé quelque chose de frappant. Il pourrait y avoir un avenir dans lequel les algorithmes et l’intelligence artificielle prendraient en charge une bonne partie des tâches des politiciens. Il suffirait d’analyser les données que les grandes entreprises technologiques collectent sur nous avec nos mobiles. De cette façon, ils connaîtraient nos besoins pour apporter des réponses sociales plus adaptées.

De même, l’intelligence artificielle peut être formée pour que toute gestion politique ne soit pas frauduleuse. Sa capacité d’analyse remplacerait une multitude de conseillers et épargnerait une infinité de travail aux organismes publics. L’algocratie, comprise comme le pouvoir des algorithmes de remplacer le travail des politiciens, peut nous sembler des plus dystopiques, mais c’est une possibilité réelle.

Donnez juste un détail. L’Université d’Utrecht a mené une étude dans laquelle elle a montré que laisser les algorithmes remplacer tout l’aspect bureaucratique des organisations gouvernementales pourrait être bénéfique. La raison ? Les citoyens ont tendance à accorder une plus grande confiance à la gestion que peut faire une machine qu’à celle effectuée par un homme politique (autre parti pris évident).

Some figure
Les grandes entreprises qui programment les algorithmes ne sont jamais transparentes avec leurs objectifs et leurs mécanismes.

Conclusion

Le biais algorithmique est là pour rester, et il ne fait que se renforcer. Nous continuerons à penser que bon nombre des achats que nous effectuons, des personnes auxquelles nous prêtons attention sur les réseaux sociaux ou des idées auxquelles nous donnons vérité sont le produit de notre volonté. Nous continuerons à nous percevoir comme des esprits libres, alors qu’en réalité, nous serons silencieusement plus conditionnés.

On le voit chez les jeunes. De plus en plus mécontents car ils vivent dans un univers numérique basé sur la comparaison sociale. Il faut bien comprendre que les algorithmes ne sont pas des entités qui surgissent d’elles-mêmes, il y a derrière eux de grandes entreprises qui les programment. Et une telle programmation a toujours un but.

Si nous nous dirigeons vers un avenir dans lequel les gens et l’intelligence artificielle travaillent ensemble, il est nécessaire que ceux qui forment et programment l’IA soient transparents et partent de valeurs plus éthiques, justes, morales et saines. Il faut réguler ces mécanismes qui, de plus en plus, modifient le comportement des utilisateurs. C’est-à-dire de chacun de nous.


Toutes les sources citées ont été examinées en profondeur par notre équipe pour garantir leur qualité, leur fiabilité, leur actualité et leur validité. La bibliographie de cet article a été considérée comme fiable et précise sur le plan académique ou scientifique


  • Lorenz, Lukas & Meijer, Albert & Schuppan, Tino. (2020). The Algocracy as a new ideal type for government organizations: Predictive olicing in Berlin as an empirical case. Information Polity. 26. 1-16. 10.3233/IP-200279.
  • Informe Deloitte: How artificial intelligence could transform government: https://www2.deloitte.com/us/en/insights/focus/cognitive-technologies/artificial-intelligence-government-summary.html

Ce texte est fourni à des fins d'information uniquement et ne remplace pas la consultation d'un professionnel. En cas de doute, consultez votre spécialiste.