LÉGISLATURE 15 - VOTE n° 2035

L'amendement n° 90 de M. Mélenchon à l'article 3 de la proposition de loi visant à lutter contre la haine sur internet (première lecture).

REJETÉ
POUR 3
ABSTENTION 2
CONTRE 29

Résultat du vote

Les députés ont rejeté le 04 juillet 2019 l'amendement n° 90 de M. Mélenchon à l'article 3 de la proposition de loi visant à lutter contre la haine sur internet (première lecture).

Au total, 34 députés ont pris part au vote : 85 % ont voté contre, 9 % ont voté en faveur, et 6 % se sont abstenus.

Infos

Date 04 juillet 2019
Type de vote Amendement
Dossier Lutte contre la haine sur internet

La position des groupes

POUR
Libertés et Territoires
Socialistes et apparentés
La France insoumise
CONTRE
UDI et Indépendants
Les Républicains
Mouvement Démocrate et apparentés
La République en Marche

Infos

Date 04 juillet 2019
Type de vote Amendement
Dossier Lutte contre la haine sur internet

En savoir plus

L'auteur de l'amendement

Un amendement est un texte, déposé par un ou plusieurs députés, qui vise à modifier un projet ou une proposition de loi. Il y a un auteur principal, mais un amendement peut être cosigné par plusieurs députés.

Jean-Luc Mélenchon

Jean-Luc Mélenchon

Bouches-du-Rhône (13)

Les votes des députés et des groupes

Exposé des motifs de l'amendement

L'objectif d'un amendement est de modifier ou d'ajouter une mesure d'un projet ou d'une proposition de loi. Le ou les députés qui rédigent l'amendement écrivent également un exposé des motifs.

Cet amendement a pour objectif que les algorithmes utilisés par les plateformes n’aient pas pour conséquence de perpétuer, de produire ou de renforcer des préjugés justifiant et instituant des discriminations entre les personnes en raison de ce qu’elles sont.
Plusieurs études l’ont montré, les grosses plateformes, dont nous avons souvent un usage quotidien, ne sont pas exemptes des structures de discriminations existant historiquement et socialement dans notre société.
C’est ce qu’a analysé l’ancienne analyste de Wall Street, Cathy O’Neil, dans son ouvrage « Weapons of Math destruction » , préfacé dans sa version française par le député et mathématicien Cédric Villani, qui a souligné la justesse de ses analyses. Elle y démontre notamment que derrière l’objectivité et la neutralité proclamée des algorithmes du fait de leur fonctionnement mathématique se cache en réalité les opinions et intérêts subjectifs des personnes les créant ou les utilisant.
De même, dans « Algorithms of Oppression : How Search Engines Reinforce Racism », Safiya Umoja Noble démontre en quoi les algorithmes des moteurs de recherches renforcent les stéréotypes.
Par exemple : cherchez « jeune noire », « jeune asiatique » « jeune fille arabe » sur Google, Qwant ou sur Yahoo les premières propositions sont des sites pornographiques, cherchez « jeune blanche » est le résultat sont les pages blanches en premier lieu sur Qwant, puis une adaptation cinématographique de « Blanche-neige » et un site d’agence matrimoniale liant des femmes ukrainiennes avec des hommes sur Yahoo. Sur google, de nouveau les recherches proposent en revanche des sites pornographiques. De même lorsque l’on cherche « lesbienne », l’intégralité des résultats des deux premières pages, à l’exception de la proposition wikipédia, sont des sites porgnographiques.
Ces associations nourrissent l’hypersexualisation des jeunes femmes et particulièrement de celles subissant également le racisme. Elles perpétuent donc stéréotypes à la croisée du racisme et de sexisme.
Pour désigner ce phénomène, on parle de « biais algorithmique ».
Comme le souligne la CNIL dans son rapport « Tout algorithme est […] en un sens, biaisé, dans la mesure où il est toujours le reflet – à travers son paramétrage et ses critères de fonctionnement, ou à travers les données d’apprentissage qui lui ont été fournies – d’un système de valeurs et de choix de société. Le débat autour des biais et des discriminations qu’ils peuvent générer n’est donc qu’un miroir grossissant mettant en valeur cette caractéristique essentielle dans ce qu’elle a de plus problématique ».

Ces biais sont produits de deux manières. D’un côté, il y a les biais par apprentissage (opération d’entraînement des algorithmes) : les algorithmes traitent les informations par association et reproduisent les associations racistes, sexistes, homophobes, validisme, xénophobie qui leur sont soumises. D’autre part, il existe les « biais dans la formule » : les algorithmes sont, dans leur configuration, soit non pensés afin de corriger les biais dans la société en créant des paramètres correctifs, soit sont pensés par des personnes qui elles-mêmes défendent des positions discriminantes ou ont un intérêt économique à la discrimination (intégration plus ou moins consciente).
Ces deux aspects sont cumulatifs et peuvent se renforcer.

Cela a des conséquences concrètes sur le quotidien. Dans la recherche d’emploi : il a été révélé par exemple qu’un système de tri de CV au profit d’entreprises proposé par AMAZON pénalisait les CVS contenant le mot « femme » soit en les mettant de côté, soit en proposant des salaires plus bas pour elles. Il s’appuyait sur les données des entreprises en terme de recrutement sur 10 ans.
De même pour Linkedin, Indeed ou Monster qui, selon Anja Lambretch et Catherine Tucker, deux chercheuses du MIT et de la London Business School, proposent plus d’annonces (notamment dans les métiers de l’ingénieurie, des mathématiques etc.) aux hommes qu’aux femmes. A cela s’ajoute les associations négatives liées au lieu de domiciliation qui peuvent croisées elles-aussi d’autres discriminations liées au racisme, au validisme etc.
Ces biais algorithmiques peuvent également créer des difficultés lorsqu’une personne souhaite contracter un prêt, louer ou acheter un logement et que les entreprises utilisent un système de traitement automatisé de données afin de classifier et hiérarchiser les demandes.
De même, pour l’estime de soi : il n’est pas tolérable que des personnes faisant une recherche anodine sur internet se voient associer en premier lieu ou comme unique résultat un site pornographique.

Ainsi les discriminations sur internet et la haine qui les produisent ou en découlent sont également produits par les algorithmes de grandes plateformes de mises en réseaux ou de recherches et impactent la vie quotidienne réelle des gens qui en sont victimes. En cela, les biais algorithmiques renforcent et perpétuent les discriminations systémiques de la société, et sont d’autant plus problématiques qu’ils ont un impact massif : google, linkedin, amazon font partie de quotidien de la majorité des gens.

Or ils sont difficilement identifiables pour les personnes victimes, celles-ci ne voyant qu’un résultat final sans connaître les opérations y ayant menées. Elles sont également difficiles à identifier pour les personnes produisant les algorithmes si une réflexion sur ceux-ci n’est pas systématiquement intégrée au processus de création et de correction des algorithmes : nous ignorons en effet souvent la plupart des préjugés qui nous habitent.
Cet amendement vise ainsi à créer une obligation pour les plateformes de rendre publics les moyens mis en œuvre pour que leurs algorithmes ne discriminent pas. Il est un outil pour, à la fois forcer les plateformes à se confronter à ce phénomène massif, et pour les personnes utilisatrices de contrôler que les outils internet qu’elles utilisent ne sont pas des instruments perpétuant des idées déshumanisantes contre elles. La haine sur internet ne se concrétise pas uniquement dans les attaques violentes et facilement identifiables mais également dans des structures permettant, sans que cela soit visible et facilement identifiable et donc dénoncçble, de discriminer des personnes en raison de ce qu’elles sont ou plutôt, de ce qu’on croit savoir qu’elles sont.

Source : Amendement sur le site de l'Assemblée nationale

En savoir plus