Publicité numérique et encadrement des algorithmes

Romain Gola, Télécom École de Management – Institut Mines-Télécom

En 2016, le montant de l’investissement publicitaire sur Internet a dépassé, pour la première fois en France, celui de l’investissement publicitaire à la télévision. Or les algorithmes occupent une place de plus en plus importante dans les achats d’espace sur le Web, ce qui pose de nombreuses questions éthiques et législatives.

Montée en puissance des algorithmes

Le marché de la publicité numérique avoisine aujourd’hui les 3,5 milliards d’euros. Alors que jusqu’ici la publicité concernait principalement l’affichage sur les sites web (display) et l’achat de mots-clefs (Google AdWords), l’achat d’espace publicitaire automatisé (qualifié « d’achat programmatique ») a fait son apparition. Le profilage de l’internaute s’effectue grâce ses traces de navigation et permet de prédire, à chaque instant, son intérêt pour une annonce. Il est donc possible de calculer en temps réel, grâce à des algorithmes, une valeur pour l’espace publicitaire présent sur la page qu’il en train de consulter.

L’usage d’algorithmes a pour avantage d’afficher des bannières correspondant à nos intérêts, mais leurs utilisations non contrôlées comportent des risques. En effet, l’opacité de leur fonctionnement impacte les comportements des internautes sans qu’ils n’en aient conscience. Qui plus est, les algorithmes bénéficient parfois d’une confiance exagérée, alors que leurs résultats peuvent être discriminatoires. Se pose ainsi la question de la neutralité et de l’éthique des algorithmes. Cette dernière doit reposer sur la compréhension de la manière dont nous sommes reliés à ces nouvelles technologies. Elle implique de s’intéresser d’une part à l’appréhension des algorithmes par le droit, et d’autre part à l’évolution de l’écosystème de la publicité numérique.

Face à ces nouveaux défis, il serait judicieux de se concentrer non pas sur les données traitées, mais sur les algorithmes eux-mêmes, en mettant en place des systèmes capables de les tester et les contrôler afin d’en prévenir les conséquences dommageables.

Droit et algorithmes : l’Europe réforme

Une nouvelle révolution est en marche, reposant sur la collecte et le traitement de données à une échelle sans précédent, lesquels favorisent l’apparition de nouveaux produits et services. Cette augmentation de la masse et de la diversité des données s’explique notamment par le développement des objets connectés et la montée en puissance des consommateurs (« empowerment »). Leur capacité d’agir s’est en effet accrue avec l’évolution des technologies : les entreprises deviennent de plus en plus dépendantes non seulement des données produites par les consommateurs, mais aussi de leurs avis, et doivent par conséquent veiller constamment à préserver une bonne e-réputation.

Face à cette situation, les institutions européennes ont entamé un processus de réforme de la législation sur les données personnelles. Le nouveau règlement européen relatif à la protection des données (RGPD) entrera en application en mai 2018, dans tous les États membres. Il impose un accroissement de la transparence et la responsabilisation des acteurs traitant des données, selon une logique de conformité à la loi, et prévoit de lourdes sanctions. De même, un droit à la portabilité des données est affirmé, et les responsables de traitements des données à caractère personnel devront assurer des opérations respectant la protection des données personnelles, à la fois dès la conception du produit ou du service (« privacy by design »).

Le RGPD s’efforce d’encadrer implicitement le traitement algorithmique des données. On retrouve cette tendance dans le secteur de la publicité : de manière générale, tous les sites, services et produits utilisant des algorithmes prennent soin de ne pas les nommer et de cacher leur rôle déterminant, préférant utiliser le terme de personnalisation. Or dès qu’il y a de la « personnalisation », il y a le plus souvent de « l’algorithmisation ».

Une législation peu adaptée à la publicité numérique

Le droit de la publicité « classique », repose sur le principe du consentement préalable de la personne au traitement de ses données. Or cette conception de la protection des données devient moins pertinente avec la publicité numérique. En effet, les données recueillies dans le cadre du marketing traditionnel correspondent souvent à des éléments objectifs et relativement stables comme le nom, l’âge, le sexe, l’adresse ou la situation familiale. Or la notion de « donnée » change radicalement en marketing numérique. Sur les réseaux sociaux, il ne s’agit plus seulement de données de qualifications (âge, sexe, adresse), mais aussi de données de la vie quotidienne : ce que j’ai fait, ce que j’écoute…

 

publicité numérique
Les traces de navigation et les comportements des individus sur les réseaux sociaux permettent de déterminer leurs profils. VisualHunt

 

Cette nouvelle situation pose la question de la pertinence de la distinction entre données personnelles/non personnelles. Elle interroge aussi sur la pertinence du principe de consentement préalable. Il est en effet souvent quasiment impossible d’utiliser une application sans accepter d’être tracé. Le consentement devient obligatoire à l’usage de la technologie, et l’exploitation réelle qui sera faite des données par le responsable du traitement est totalement opaque. Le problème ne repose donc plus sur la question du consentement préalable au traitement des données mais sur les déductions automatiques et prédictives que font les entreprises ayant capturé ces données.

Les algorithmes accentuent cette tendance en permettant de multiplier la captation et l’exploitation de données triviales, décontextualisées mais susceptibles de contribuer à un profilage précis des individus, et de produire à leur égard un « savoir » fondé sur des probabilités plutôt que sur des certitudes concernant leurs propensions personnelles et intimes. Dans cette situation, ne serait-il pas plus pertinent d’examiner non pas les données qui alimentent les algorithmes, mais plutôt les algorithmes qui les traitent et engendrent de nouvelles données ?

Défis juridiques et éthiques de la publicité en ligne

Orientation des choix des consommateurs, influence subliminale, voire soumission de nature à changer la perception de la réalité : le ciblage comportemental comporte des risques non négligeables. Des exigences de responsabilisation, de transparence et de vérifiabilité des actions résultant des algorithmes deviennent donc essentielles pour prévenir d’éventuelles dérives.

Cette situation interroge la relation entre le droit et l’éthique, malheureusement souvent confuse. Le droit renvoie en effet à la régulation des comportements par la loi – à ce qui est permis, interdit ou exigé d’un point de vue légal – alors que l’éthique renvoie plus largement à la distinction entre le bien et le mal, indépendamment ou au-delà de nos obligations strictement légales. Une éthique appliquée aux traitements algorithmiques devra s’articuler autour de deux grands principes : la transparence, et la mise en place de tests destinés à contrôler les résultats des algorithmes afin de prévenir d’éventuels dommages.

Transparence et responsabilité des algorithmes

Les activités des plates-formes en ligne reposent essentiellement sur la sélection et le classement des informations ainsi que sur des offres de biens ou services. Elles conçoivent et activent divers algorithmes qui orientent les comportements de consommation et les modes de réflexion des utilisateurs. Cette personnalisation est parfois trompeuse, car elle est basée sur la conception que la machine se fait de notre façon de penser. Or cette conception ne repose pas sur ce que l’on est, mais sur ce que l’on a fait, sur ce que l’on a consulté. Ce constat implique une nécessaire transparence : les personnes impactées par un algorithme devraient être informées d’abord de l’existence d’un traitement algorithmique, de ce qu’il implique, du type de données qu’il utilise et à quelles fins, afin de pouvoir, le cas échéant, porter d’éventuelles réclamations.

Vers des tests d’algorithmes ?

Dans le domaine de la publicité, les algorithmes peuvent conduire à différencier les prix d’un produit ou d’un service, voire à établir des typologies d’assurés à risque pour le calcul de la prime d’assurance en fonction de critères parfois illicites, en recoupant des informations « sensibles ». Non seulement la collecte et le traitement de ces données (origines raciales ethniques, opinions politiques, religieuses) sont-ils en principe interdits, mais de plus les résultats de ces manipulations algorithmiques peuvent s’avérer discriminatoires. Les résultats du premier concours de beauté international reposant entièrement sur des algorithmes ont ainsi abouti à la sélection de candidates uniquement blanches.

Pour éviter ce type de dérives, il est urgent de mettre en place des tests de résultats des algorithmes. En complément de la législation et du rôle exercé par les autorités de protection (CNIL), des codes de bonne conduite font également leur apparition : les professionnels de la publicité, regroupés au sein de la Digital Advertising Alliance (DAA), ont ainsi adopté un protocole matérialisé par une icône visible à côté de la publicité ciblée, afin d’en expliquer le fonctionnement.

Les entreprises ont tout intérêt à adopter un comportement plus éthique afin de préserver leur bonne réputation, et donc un avantage concurrentiel. On note en effet une lassitude des internautes vis-à-vis de la publicité jugée trop intrusive. Si le but ultime de la publicité est d’anticiper au mieux nos besoins pour « mieux consommer », elle doit s’inscrire dans un environnement respectueux de la législation et surtout se conformer à une innovation responsable et éthique. Celle-ci peut être le vecteur d’une nouvelle révolution industrielle, soucieuse des droits et libertés fondamentaux, où le citoyen est appelé à prendre toute sa place en lui redonnant le pouvoir sur ses données.

Romain Gola, Professeur de droit des affaires, Télécom École de Management – Institut Mines-Télécom

La version originale de cet article a été publiée sur The Conversation.

 

À lire également sur I’MTech

Données personnelles : comment le GDPR rebat les cartes en Europe

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *