Pas de solution parfaite au profilage des plateformes en vertu de la loi sur les services numériques

Blog

MaisonMaison / Blog / Pas de solution parfaite au profilage des plateformes en vertu de la loi sur les services numériques

Jun 29, 2023

Pas de solution parfaite au profilage des plateformes en vertu de la loi sur les services numériques

Jesse McCrosky est responsable de la technologie responsable chez Thoughtworks pour la Finlande et principal scientifique des données. Claire Pershan est responsable du plaidoyer européen pour la Fondation Mozilla. Les régulateurs européens exigent

Jesse McCrosky est responsable de la technologie responsable chez Thoughtworks pour la Finlande et principal scientifique des données. Claire Pershan est responsable du plaidoyer européen pour la Fondation Mozilla.

Les régulateurs européens exigent que les plateformes offrent une plus grande transparence et un plus grand contrôle des utilisateurs sur le profilage des systèmes de recommandation, y compris ceux ciblant la publicité. La loi européenne sur les services numériques (DSA) définit des règles visant à accroître la transparence de la publicité et à donner aux utilisateurs plus d'informations et de contrôle sur leurs recommandations de contenu. De nombreuses exigences du DSA pour les plus grandes plateformes en ligne et moteurs de recherche entrent en vigueur le 25 août, et les annonces liées à la conformité des services désignés arrivent déjà. Par exemple :

Ces exigences ont été durement combattues par les experts en matière de responsabilité et de confidentialité des plateformes lors des négociations sur le DSA. Le prochain défi consiste désormais à une mise en œuvre significative par les plateformes. Cependant, cela n'est peut-être pas simple, car derrière les recommandations ciblées se cachent des modèles d'apprentissage automatique qui s'appuient sur le « profilage ». Ces systèmes sont conçus pour établir une discrimination entre les utilisateurs et peuvent en fait produire des « inférences involontaires » difficiles à atténuer, ce qui rend la conformité difficile.

Pour comprendre ces exigences, nous devons mieux comprendre les nuances de la manière dont le contenu est ciblé ; le ciblage publicitaire est un exemple illustratif qui nous aidera également à comprendre le contenu organique. Nous pouvons généralement imaginer que les publicités sont ciblées à deux niveaux (voir La discrimination inhérente au microciblage) :

Cette première couche de ciblage peut être limitée à des paramètres de ciblage assez grossiers. Cependant, la deuxième couche utilisera généralement toutes les données dont dispose la plateforme – un profil détaillé de chaque utilisateur – basée sur les likes, l’historique de navigation et toute autre donnée que la plateforme a réussi à capturer.

Cette deuxième couche est appelée microciblage. Le contenu non publicitaire (ou « contenu organique ») est également généralement micro-ciblé : par exemple, Facebook peut faire apparaître les publications de vos amis que vous êtes le plus susceptible d'« aimer », et YouTube peut recommander les vidéos qu'il prédit que vous êtes susceptible de passer. la plupart du temps à regarder.

Pour assurer la transparence du ciblage publicitaire, comme l'exige le DSA, il est assez simple de fournir des informations sur la première couche : cela revient probablement aux caractéristiques que l'annonceur a choisi de cibler. Cependant, comme nous le voyons ci-dessous, la deuxième couche influence également les types d'utilisateurs qui verront une publicité. Même à l'insu de l'annonceur ou de la plateforme, certaines déductions involontaires peuvent se produire, produisant une sorte de discrimination automatisée. Pour cette raison, il est également très difficile d’empêcher le ciblage en fonction de caractéristiques particulières.

Cela a des implications sur les obligations DSA liées à la personnalisation, en particulier l'article 26 exigeant des explications destinées aux utilisateurs sur leur ciblage publicitaire et interdisant le ciblage basé sur des données personnelles sensibles. Il existe toute une gamme d'interprétations, mais il semble raisonnable de s'attendre à ce que si une publicité est diffusée principalement auprès d'utilisateurs d'un certain sexe, d'une certaine origine ethnique ou d'une certaine orientation politique, ces caractéristiques constituent des « paramètres principaux » et devraient donc être divulguées, même si ni l'annonceur ni la plateforme n'ont l'intention de prendre cette décision de ciblage.

En effet, il est possible qu'une publicité soit involontairement diffusée en ciblant les utilisateurs en fonction de leurs caractéristiques personnelles. Ceci est possible grâce àdéductions involontaires.

Une inférence involontaire est un cas dans lequel un système de recommandation peut recommander différents contenus à différents groupes sociodémographiques ou autrement définis. Pour simplifier, nous appellerons cela discrimination et utiliserons le sexe comme exemple de regroupement. Ces déductions involontaires se produisent sans que la plateforme ne dispose d'aucune donnée sur le sexe de ses utilisateurs et, surtout, sans aucun moyen de savoir que la discrimination a lieu. Le système peut faire une discrimination fondée sur le sexe sans connaître le sexe d’un seul utilisateur.