| | Radar

Les algorithmes d'Instagram montrent plus souvent une photo lorsqu'elle est dénudée

Domaine public

Les réseaux sociaux tels que Twitter, Instagram ou Facebook ont acquis en quelques années un poids considérable. Mais la façon dont leurs algorithmes hiérarchisent les contenus montrés aux utilisateurs reste opaque: on ne sait exactement comment sont pondérés les différents éléments décidant de la position d’un élément sur le fil. Dans une enquête conjointe, le European Data Journalism Network et AlgorithmWatch suggèrent que les contenus présentant davantage de peau (par exemple sous-vêtements ou maillots de bain) sont plus souvent affichés par Instagram sur les fils des abonnés.

Le contexte. Facebook, qui est désormais le propriétaire d’Instagram, analyse les photos mise en ligne par les usagers à l’aide d’algorithmes de vision artificielle, qui permettent d’identifier un animal, une voiture, voire le genre ou l’origine des personnes qui y figurent. L’enjeu est de filtrer les contenus jugés inappropriés. Le problème, c’est que ces algorithmes sont sujets à de nombreux biais, selon les données utilisées pour leur entraînement. Et qu’ils semblent considérer plus souvent comme problématique une photographie représentant une personne noire ou asiatique, raconte AlgorithmWatch, exemples malheureux à l’appui. Que ce soit pour les artistes ou les entrepreneurs, les réseaux sociaux sont devenus un levier pour faire connaître leurs activités. Ces derniers craignent le «shadowban», une pratique où à cause de l’interprétation d’une image par l’algorithme, le compte n’est quasiment plus montré à ses «followers», sans que son propriétaire ne soit mis au courant.

link

Lire l'analyse sur AlgorithmWatch

newsletter_point-du-jour

Recevez chaque matin un résumé de l'actualité envoyé d'une ville différente du monde.

Lire aussi