Algorithmes, intelligence artificielle et ententes anticoncurrentielles

Frédéric Marty
15 min readMar 2

--

Les algorithmes, notamment lorsqu’ils reposent sur l’IA, peuvent-ils susciter des ententes anticoncurrentielles ? Un débat d’ampleur sur la question a été initié il y a de cela maintenant sept ans par Ariel Ezrachi et Maurice Stucke dans leur (brillant) ouvrage Virtual Competition. De nombreux travaux théoriques montrent que sous certaines conditions ce scenario est possible. Cependant est-il pour autant le plus plausible? Les algorithmes peuvent aisément être les supports d’ententes déjà existantes ou jouer comme des facilitateurs de mise en œuvre de schémas collusifs.

Ces questions ont été abordées le mois dernier dans un entretien pour le site Uplawder.

Les notes préparatoires à cet entretien, qui reprennent les références de la littérature académique qui y sont citées, est depuis aujourd’hui mis en ligne sur les pages de la Chaire DL4T.

Voici les notes préparatoires qu’il est possible de retrouver sur le site de DL4T.

Les algorithmes ou les blockchains peuvent-ils faciliter voire créer des ententes anticoncurrentielles ?

Le terme de facilitation me paraît le plus important. Ces technologies peuvent plus certainement augmenter la capacité de mettre en œuvre des ententes que susciter d’elles-mêmes des ententes.

Pourquoi cette nuance est-elle importante ? Tout simplement parce qu’une littérature s’est développée en droit et en économie de la concurrence sur les ententes spontanément générées par des algorithmes d’IA reposant sur un apprentissage autonome auto-renforçant. Des algorithmes mis en œuvre par des firmes concurrentes, même s’ils sont initialement différents, apprendraient à identifier, au fil de leurs interactions, une stratégie mutuellement profitable, qui ne serait pas celle d’une guerre des prix mais au contraire d’un parallélisme de comportement pouvant conduire à un équilibre de collusion tacite.

C’est le sens du scenario de la bot-led collusion ou plutôt de la bot-initiated collusion qui a été popularisé par Erzachi et Stucke en 2016 dans leur ouvrage Virtual Competition.

L’entente ne se créée plus dans ce cadre dans un salon feutré et enfumé d’un grand hôtel en marge d’un congrès d’une association professionnelle mais furtivement au fil des décisions d’exploration et d’exploitation prises par des algorithmes d’IA de firmes concurrentes. Ces ententes seraient d’autant plus efficaces que l’analyse du code — même si elle était possible — ne révèlerait rien sur une quelconque intention collusive. Il n’y aurait pas plus, dans le cadre de ce scenario, de pratiques facilitatrices, comme l’échange d’informations ou une transparence artificielle, qui seraient nécessaires pour rendre possible l’ententes. Sans pouvoir caractériser une intention, sans pouvoir nécessairement mettre au jour des pratiques facilitatrices, il n’y aurait plus de smoking gun permettant de dirimer entre un simple parallélisme de comportement et une pratique collusive (voir notre synthèse dans la Revue Internationale de Droit Economique en 2017).

Ce scénario a été vivement contesté dans la littérature et le demeure d’ailleurs. Quelle est en effet la capacité des algorithmes actuels d’identifier dans le cadre de leurs interactions de tels équilibres mutuellement profitables, de les atteindre rapidement et d’y demeurer de façon stable ? Les travaux majeurs publiés sur la question ont été réalisé par l’équipe constituée autour de Calvano, Calzolari, Denicolo, Harrington et Pastorello. Ces derniers ont publié en 2020 un fantastique article dans l’American Economic Review. Ils montrent que non seulement des algorithmes simples (Q-learning) peuvent converger au travers de leurs interactions vers un équilibre mutuellement profitable mais qu’ils ont la capacité d’y revenir en cas de choc extérieur. Ces travaux ont notamment été prolongé par des contributions d’Assad, Clark, Ershov et Xu au travers d’une analyse empirique du cas des stations-services d’autoroute en Allemagne, dans un document de travail publié en 2020. Une excellente synthèse de tous ces travaux a été publiée par les membres de ces différentes équipes dans l’Oxford Review of Economic Policy en 2021.

Cependant, même si ce scenario a été étayé dans la littérature économique, il n’en demeure pas moins contesté. Par exemple, des travaux d’une équipe d’économistes de l’Université d’Amsterdam den Boer, Meylahn et Schinkel ont montré, dans un document de travail publié en 2022, que la convergence mise en lumière par Calvano ne peut être observée qu’après un nombre extrêmement important d’interactions, ce qui réduit les possibilités de réplication dans la vraie vie et que l’équilibre peut ne pas être spécifique à une situation de collusion.

Ainsi malgré la séduction intellectuelle que ce scenario exerce sur les économistes et les juristes, il n’est peut-être pas le plus probable… Le risque n’est pas nul mais il n’est peut-être pas suffisamment élevé pour mériter qu’on y accorde autant d’attention.

Cela me conduit à revenir au cœur de notre question : la facilitation de l’entente par les algorithmes. C’est à mon sens un risque bien plus significatif. Les algorithmes peuvent favoriser la mise en œuvre d’ententes même s’ils n’ont qu’une faible chance de les susciter. Ils peuvent être plus aisément utilisés en tant qu’outils de surveillance et d’ajustement en temps réel d’un accord collusif. En d’autres termes, les algorithmes peuvent être utilisés à deux fins principales. La première est la surveillance du respect d’accords collusifs entre concurrents ou partenaires commerciaux. La seconde est l’ajustement en temps réel des prix et des offres pour rétablir l’équilibre entre les cartellistes ou sanctionner une déviation.

Quitte à refaire un peu d’économie, il faut insister sur le fait que s’il est de l’intérêt de certaines firmes de colluder, dans la mesure où elles accroissent dans ces conditions leurs profits, une fois la collusion faite la stratégie optimale pour chacune est de dévier. C’est la solution de Nash du jeu… l’entente est intrinsèquement instable et c’est d’ailleurs sur ce levier que jouent traditionnellement les programme de clémence. Quels seraient les rôles des algorithmes comme aide au bon fonctionnement d’une entente si on compare celle-ci à une organisation mafieuse ? Ils seraient respectivement ceux du comptable et du tueur à gage.

Qu’il s’agisse d’entente par les prix entre concurrents sur le même marché pertinent ou d’accords verticaux de type prix de revente imposés (Resale Price Maintenance (RPM)), les algorithmes peuvent permettre de surveiller en temps réel le respect de l’accord collusif malgré le foisonnement des prix en ligne. Ils peuvent également permettre d’ajuster automatiquement les offres et les prix pour sanctionner une déviation ou encore rétablir un équilibre perturbé par des aléas extérieurs. Ils ne font rien qui était précédemment impossible mais ils le font plus rapidement, avec un moindre risque d’erreur et plus efficacement. Nulle science-fiction ici, de algorithmes simples peuvent suffire… par contre la « furtivité » propre aux scenarii basés sur l’IA ne saurait prévaloir. Il est possible d’interpréter aisément le code et de revenir ex post sur les décisions prises par les firmes. C’est d’ailleurs dans ce seul domaine qu’il est possible de trouver de la pratique décisionnelle avec l’affaire Topkins aux Etats-Unis et au Royaume-Uni pour les ententes horizontales et les affaires Phillips, Denon & Marantz, Asus etc… pour les ententes verticales au niveau européen (voir Marty, 2022 pour une présentation des cas).

Les algorithmes peuvent être un outil de pilotage d’une entente, certaines blockchains peuvent également l’être. Il est possible ici de renvoyer aux travaux de Thibault Schrepel (2019). Une BC privée peut être un moyen de coordination entre les cartellistes. Elle peut tout d’abord présenter la précieuse caractéristique d’être opaque pour l’extérieur mais transparente de l’intérieur. Elle permet donc une surveillance mutuelle entre les cartellistes. Elle peut ensuite permettre via l’exécution de contrats automatiques (smart contracts) réajuster les positions de chacun si l’équilibre venait à être rompu, par exemple si l’un des complices venait à s’engager dans un programme de clémence. Mais ici encore, les risques ne sont que théoriques. Nous n’avons pas de pratique décisionnelle.

La réglementation actuelle permet-elle d’appréhender de telles pratiques ?

En grande partie, oui. Les pratiques décrites correspondent à des pratiques anticoncurrentielles bien connues. Il suffit de remplacer le mot algorithme par « a guy nammed Bob » comme le suggérait dès 2017 Maureen Ohlhausen, alors commissaire à la FTC. Superviser le bon respect de prix de collusion pouvait se faire par des observations sur site par les firmes ou par les clients (« nous vous remboursons x fois la concurrence si vous trouvez moins cher »)… Sanctionner était également possible. Cependant, tout cela était coûteux, peu fiable et surtout prenait du temps. Tous ces frottements rendaient la déviation possible et profitable. En ce sens les algorithmes augmentent la portée des pratiques collusives mais n’en changent pas la substance. Ils ne modifient pas plus la qualification juridique qu’il est possible de donner aux pratiques en cause.

Donnons un second exemple, pour illustrer notre propos : la collusion par signal. Des algorithmes peuvent être utilisés à des fins d’échanges d’information. Nous avons des cas aux Etats-Unis et au Brésil dans le domaine du transport aérien de passagers avec les deux affaires Air Tariffs Publishing Co. Les compagnies aériennes au travers d’une application destinée aux agences de voyage mais à laquelle tous les concurrents accédaient, pouvaient « annoncer » des prévisions quant à leur politique pour des période futures non encore ouvertes à la réservation. Ces annonces étaient unilatérales et non engageantes. Cependant, elles rendaient le comportement futur de la firme lisible pour les concurrents. Mieux, en fonction des annonces similaires que faisaient ex post les concurrents, il était possible d’ajuster ses propres annonces et donc d’arriver à un processus de tâtonnement vers un équilibre mutuellement profitable… et collusif. Il s’agit ici d’exploiter les défauts de conception d’un algorithme « anticompetitive by design ». On pourrait imaginer des signaux algorithmiques plus fins, plus difficilement décelables comme cela existe dans le domaine financier avec certaines stratégies « non coopératives » pour le coup dans les transactions à haute fréquence (induire en erreur ses contrepartie en passant des ordres scintillants).

Il n’en demeure pas moins que dans les deux cas nous sommes dans des cas pour lesquelles le monde « low tech » nous donne déjà une bonne base. Les cas d’échanges d’informations, de signaux par déclarations unilatérales ou de transparence artificielle sont connus. On pourrait citer l’affaire des tracteurs anglais, celle des Gary Diners aux Etats-Unis dans les années 1920 ou encore des containers maritimes. Les outils sont plus sophistiqués mais les méthodes sont les mêmes.

Il pourrait même en être ainsi des collusions en étoile (hub-and-spoke conspiracies). Le rôle que pourrait jouer une plateforme d’intermédiation est somme toute celui que jouèrent dans certains cas des associations professionnelles ou des bureaux statistiques. Prenons un exemple simple : un site de VTC a été accusé aux Etats-Unis puis en Inde de supprimer la concurrence en prix entre les chauffeurs, d’empêcher par son système de paiement toute ristourne, de répartir les courses (i.e. les marchés) et enfin de sanctionner d’éventuels comportements de déviation. Le mécanisme en étoile fonctionnerait alors d’autant plus efficacement en termes de management du risque de sanction concurrentielle qu’il n’y a pas d’échanges bilatéraux entre les chauffeurs. Dans les deux cas, il y a eu un non-lieu sur la base des mérites. Cependant, nous pouvons considérer que quand bien même le degré de sophistication n’a rien à voir avec celui des données diffusées par des bureaux statistiques professionnels ou des barèmes établis par tel ou tel ordre, le mécanisme économique est le même, la base juridique est la même.

Même le scénario le plus « innovant », celui de la collusion autonome, peut être rattaché aux problèmes bien connus de la collusion tacite ou de la position dominante collective. Comment distinguer celles-ci du simple parallélisme de comportement ?

Les outils changent, se sophistiquent, la nature des pratiques reste.

Comment les autorités de concurrence se sont-elles organisées pour les détecter et les sanctionner ?

C’est tout l’enjeu du computational antitrust. Les mêmes outils qui peuvent être utilisés par les firmes pour superviser le bon fonctionnement de leurs ententes peut l’être par les autorités de concurrence pour surveiller le fonctionnement des marchés. Un exemple caractéristique de cette approche est celui de l’Autorité de la concurrence française et de son service d’économie numérique. De nombreux travaux portent actuellement sur ces questions dans la sphère académique. Il est possible de renvoyer aux travaux de l’équipe animant le projet Codex à la Law School de l’Université de Stanford ou plus modestement à une contribution réalisée en 2021 avec Nathalie de Marcellis Warin et Thierry Warin (CIRANO Montréal) dans Ethique Publique. Mais la meilleure clef d’entrée tient à un récent document de travail (décembre 2022) publié par une équipe d’économistes et de juristes de l’Université de Graz (Amthauer, Fleiss, Guggi et Robertson).

Des pratiques de collusion comme les offres de couverture dans les marchés publics, les ententes verticales de type RPM ou encore les ententes en matière de prix font depuis de longue années l’objet de stratégies de détection sur la base de tests et de modèles économétriques. Le cas des offres de couverture est topique. La distribution des prix a dans le cas de ces ententes une forme très particulière. Au-delà du roulement être les vainqueurs, la moyenne est élevée et les écarts types sont spécifiques : l’écart entre la « meilleure » offre et la seconde doit être fort, celui entre la seconde et les offres suivantes ne compte que peu pour les cartellistes. Si on suspecte une entente sur une série de marchés, appliquer ces tests peut étayer une suspicion et donner lieu à des enquêtes approfondies. Cela permet d’affecter au mieux des ressources internes rares à des cas particulièrement suspects. Pour autant, cela ne donne aucune preuve de la commission d’une pratique anticoncurrentielle.

Le recours à des modèles d’apprentissage machine est bien plus intéressant en ce qu’il augmente le superviseur dans ses tâches de détection de comportements « anormaux ». Il est possible de traiter des données bien plus massives, dans des domaines où il n’existe pas encore de suspicions. Deuxième avantage et non des moindres : il n’est pas besoin d’interroger les données à partir d’un modèle prédéterminé. L’IA peut faire ressortir d’elle-même des configurations anormales. Elle met en évidence des patterns de prix qui a priori ne font pas sens économiquement ou qui ressemblent à ce qui peut être observé dans des cas passés où une collusion a été caractérisée.

Ces méthodes ont été utilisées dans de nombreux domaines, notamment en matière de marchés publics. Nous pouvons citer des études reposant sur des politiques d’open data en matière de marchés publics qui ont permis comme en Colombie de « détecter » des cas soulevant des soupçons de favoritisme (Gallego et al., 2021) ou encore la mise au point d’algorithmes de détection très performants des offres de roulement à partir de données recueillies par la Commission de la concurrence de la République helvétique sur le cas d’un cartel dans le canton du Tessin. L’algorithme de détection construit sur cette base par Huber et Imhof (2018) a une performance sans commune mesure avec ceux des modèles économétriques qui n’utilisent pas d’intelligence artificielle.

Qu’en est-il de la charge de la preuve d’ententes anticoncurrentielles commises par le biais de programmes informatiques (IA, smart-contract…) ?

C’est toute la question de l’après détection d’un pattern anormal qui est ici posée. Il n’y a pas de preuve économique d’une pratique anticoncurrentielle. Ce n’est pas parce que la situation « ressemble » à celle qui prévaudrait en cas d’entente, que nous sommes effectivement face à une entente. Il faut prouver qu’il y a effectivement une rencontre de volontés. Un comportement parallèle lié à une adaptation rationnelle à une configuration spécifique d’un marché ou de la même adaptation de signaux de prix ne signifie pas qu’il y a une entente. Si des firmes concurrentes ont des fonctions de coûts comparables, un choc de prix sur leurs intrants qui serait symétrique, peut rationnellement conduire à une hausse parallèle des prix. Les firmes peuvent réagir différemment en fonction de leurs stratégies, par exemple en réduisant leurs marges, mais cela n’est en rien obligatoire. Ce qui est problématique c’est quand des chocs asymétriques conduisent à des ajustements symétriques. Mais même dans ce cas, cela peut résulter de décisions indépendantes et avisées en économie de marché : par exemple accroître sa marge. En concurrence, les firmes ne sont pas obligées d’établir leurs prix au coût marginal ou encore s’engager dans une guerre des prix. La relation entre les prix et les coûts est bien plus complexe que ce que présente un modèle de concurrence parfaite.

Tout cela pour dire que ce n’est pas parce que des entreprises ont des comportements « jugés » anormaux par rapport à un canon théorique. Il n’est pas indifférent de remarquer que les cartels sont le plus souvent démantelés par l’intermédiaire de demandes de clémence … dans lesquelles les entreprises fournissent des preuves matérielles.

Au moins la détection permet de cibler des investigations et donc d’améliorer l’efficience procédurale de l’autorité chargée de l’application des règles de concurrence. Cependant, le fait que la charge de la preuve pèse sur elle peut parfois être de nature à lui confier une mission impossible. C’est le cas dans les pratiques algorithmiques relevant de l’article 101, cela l’est encore plus pour celles relevant de l’article 102 (manipulations algorithmiques, discriminations tarifaires etc…). La solution telle que proposée dans le rapport Crémer, de Montjoye et Schweitzer en 2019 d’une inversion de la charge de la preuve peut être intéressante à considérer — du point de vue d’un économiste. En effet les firmes sont les mieux placées pour justifier de leurs choix. Elles ont un avantage informationnel en la matière. Cependant, cela ne va pas de soi et doit être discuté : ne transfère-t-on pas une charge excessive aux entreprises (prouver son innocence), est-ce conforme aux droits fondamentaux etc… ?

Pour autant, dès lors que l’on met en œuvre un algorithme dont le comportement peut générer des risques, il convient de mettre en œuvre des mesures ex ante d’évaluation des risques, et de surveiller leurs effets pour les corriger. Les initiatives de la Commission autour de la régulation de l’IA et de la responsabilité quant aux dommages que les algorithmes pourraient générer sont à considérer en ce sens. Il ne s’agit pas d’interdire tout système porteur de risques mais de conduire à la mise en œuvre d’un standard de précaution voire de dispositifs de conformité par conception. L’outil de la compliance est un candidat évident pour la gestion de ces questions.

Qui est responsable ? L’entreprise utilisatrice du programme ou le concepteur du programme ?

A nouveau, les textes de la Commission relatif à la responsabilité des dommages causés par les systèmes d’IA sont à considérer. D’un point de vue d’économiste, l’entreprise qui met en œuvre un algorithme est la mieux placée pour en mesurer les risques, prévenir leur matérialisation ou en limiter les conséquences dans les meilleurs délais. Si une faute est commise par un développeur, c’est à elle de se retourner contre ce dernier. En l’espèce, les fautes pourraient être liée à la fourniture d’algorithmes entraînés sur des jeux de données en provenance d’entreprises concurrentes. Il n’est pas évident que le fait de confier le développement d’un algorithme au même développeur que celui choisi par une entreprise concurrente suffise à caractériser une pratique de nature à faciliter une collusion. Il est normal que plusieurs concurrents fassent le choix d’un même développeur s’il apparaît comme le meilleur. En revanche, il appartient à ce développeur d’adopter une démarche de conformité en établissant des silos de données et en ne répliquant pas les algorithmes d’un client à l’autre.

Est-ce que l’équilibre des prix atteint par des intelligences artificielles concurrentes, ne serait pas — dans les faits — une réaction normale aux prix pratiqués par des concurrents ?

C’est tout le problème de la preuve économique : un comportement ou une situation de marché qui pourrait être comparable à celui ou à celle qui prévaudrait en cas de collusion ne peut être assimilée à la preuve qu’une collusion est bien à l’œuvre. C’est l’une des conclusions de den Boer, Meylahn et Schinkel dans leur discussion des résultats de Calvano. Un équilibre donné peut trouver plusieurs explications. Un parallélisme de comportements ou des mark-ups ne sont pas en eux-mêmes des preuves de pratiques anticoncurrentielles. Il est nécessaire de caractériser une stratégie qui ne correspond pas à celle qui devrait prévaloir dans le cadre d’une concurrence par les mérites. C’est in fine le rôle du contradictoire dans le cadre d’une approche par les effets en concurrence : l’entreprise doit discuter la théorie du dommage établie par l’autorité chargée de l’application des règles de concurrence. Le critère de l’intention collusive est important mais est à l’inverse particulièrement difficile à manier, surtout dans le cadre de décisions algorithmiques.

Références

Amthauer J., Fleiss J., Guggi F. and Robertson V., (2022), “Ready or Not? A Systematic Review of Case Studies Using Data-Driven Approaches to Detect Real-World Antitrust Violation”, Graz Law Working Paper Series, n°19–2022.

Assad S., Calavano E., Calzolari G., Clark R., Denicolo V., Ershov D., Johnson J., Pastorello S., Rodhes A., Xu L. and Wildenbeest M. (2021), “Autonomous algorithmic collusion: economic research and policy implication”, Oxford Review of Economic Policy, 37(3), pp.459–478.

Assad S., Clark R., Ershov D., and Xu L. (2020), “Algorithmic Pricing and Competition: Empirical Evidence from the German Retail Gasoline Market”, CESifo Munich Working Paper

Calvano, E, Calzolari G., Denicolo V., and Pastorello S., (2020), “Artificial Intelligence, Algorithmic Pricing, and Collusion”, American Economic Review, 110 (10), pp. 3267–97.

Crémer, J., de Montjoye P.-A. and Schweitzer H. (2019), Competition Policy for the Digital Era. Direction générale de la concurrence. Publications de l’UE.

De Marcellis-Warin N., Marty F. et Warin T., (2021), « Vers un virage algorithmique de la lutte anticartels ? Explicabilité et redevabilité à l’aube des algorithmes de surveillance », Ethique Publique, 23, 2–2021.

Den Boer A.V., Meylahn J.M., and Schinkel M.P., (2022), “Artificial Collusion; Examining Supracompetitive Pricing by Q-Learning Algorithms”, Amsterdam Center for Law and Economics Working Paper n°2002–06.

Ezrachi A. and Stucke M.E., (2016), Virtual Competition — The Promise and Perils of the Algorithm-driven Economy, Harvard University Press.

Gallego, J., Rivero, G., and Martínez, J., (2021), “Preventing rather than punishing: An early warning model of malfeasance in public procurement”, International journal of forecasting, 37(1), pp.360–377.

Huber M. and Imhof D., (2018), “Machine Learning with Screen for Detecting Bid-rigging Cartels”, International Journal of Industrial Organization, 65, pp.277–301.

Marty F, (2017), « Algorithmes de prix, intelligence artificielle et équilibres collusifs », Revue Internationale de Droit Economique, 2017–2, tome XXXI, pp.83–116

Marty F., (2022), “From economic evidence to algorithmic evidence: Artificial Intelligence and Blockchain — an application to anticompetitive agreements”, GREDEG Working Paper, n° 2022–32, September.

Ohlhausen M., (2017), “Should We Fear things that Go Beep in the Night? Some Initial Thoughts on the Intersection of Antitrust Law and Algorithmic Pricing”, Federal Trade Commission, 23 May.

Schrepel T., (2019), “Collusion by Blockchain and Smart Contracts”, Harvard Journal of Law and Technology, 33(1), pp.117–165

--

--

Frédéric Marty

Chercheur en économie au CNRS : Droit et économie de la concurrence / CNRS Research Fellow - Competition Law and Economics