Revue de presse La Faute à l'algo
18 Apr 2016On n’a pas compris. #algorithms est passé trending topic sur Twitter, et tous les articles semblent avoir quelque chose à voir avec les épisodes de l’émission La Faute à l’algo.
Apparemment, c’est à cause d’une note d’Instagram où ils ont annoncé qu’eux non plus ne proposeraient plus un bête ordre chronologique (comme Facebook et Twitter). Pour rassurer les utilisateurs, ils ont dit :
All the posts will still be there, just in a different order.
J’aime beaucoup.
À propos de la transparence des algorithmes
Dans l’épisode 12, nous vous parlions du fait que l’algorithme de Facebook triant notre flux d’actualités était secret, heurtant par là la sensibilité des plus naïfs d’entre nous, croyant en la neutralité de la plateforme et à un simple ordre chronologique.
HubSpot a écrit un article intitulé How the News Feed Algorithms Work on Facebook, Twitter & Instagram (14 avril 2016) où ils révèlent des critères sur lesquels les algorithmes des réseaux sociaux s’appuient pour « améliorer » leur flux d’actualités.
Encore une fois, une note qui nous a amusés :
(Note: Keep in mind that the algorithms are constantly changing. We’ll continue to write about major social algorithm changes as they happen.)
Eh bien les mecs, on vous souhaite bon courage !
-
D’après cet article et des sources plus officielles, Facebook vous présente les posts et pubs les plus susceptibles de vous faire réagir en tête de votre flux d’actualités.
-
Mais afin de donner un peu plus de contrôle à l’utilisateur, depuis avril 2015, Facebook a une option « See First » qui permet de prioriser sa liste d’amis.
-
Notez que le temps que vous passez sur un post sans bouger sans influe également sur le calcul de la pertinence. Ainsi que le fait de mettre le son ou pas sur une vidéo, ou de la mettre en plein écran.
À propos de l’argent et la valeur
Dans l’épisode 4, nous mentionnions la pratique de yield management qui consiste à adapter les prix afin d’« améliorer » le service et par là même augmenter le chiffre d’affaires.
C’est également l’objet de cet article de l’India Times : Dynamic pricing: How consumer internet companies change prices in real time with sophisticated algorithms (15 avril 2016).
-
Par exemple sur Uber, la hausse de prix permet de faire patienter ceux qui ne sont pas pressés (ou plus radins) tout en incitant les conducteurs à se rapprocher de la zone de forte demande, moyennant une prime.
-
Mais certains fournisseurs abusent de cette pratique, et font par exemple payer plus cher des produits achetés depuis des appareils chers (tels que des iPhones), ou font des réductions à ceux qui font des achats supplémentaires depuis leur application (cf. encart de l’article).
À propos des algorithmes fermés d’évaluation de risque
Un super article de CJR intitulé Investigating the algorithms that govern our lives (14 avril 2016) donne de nombreux exemples. Tiens, ça tombe bien, c’est aussi notre mission.
- Un programme appelé Beware crawle Twitter pour affecter aux habitants de Fresno (Californie) un score de menace. Le souci, c’est que la police ne sait pas vraiment sur quels critères repose l’algorithme.
- Abel Assessment : un test censé diagnostiquer les personnes à risque inculpées dans des affaires de viol d’enfants. Mais comme d’habitude, son fonctionnement est secret. Le souci est qu’il a parfois parmi de trancher certains verdicts. Heureusement, tous les juges ne sont pas dupes :
As judges in the nation’s courts of appeals have been asked to vet the assessment’s credibility, they have come to widely varied conclusions. Since 2000, they have condoned usage of the Abel Assessment in at least 30 instances and have challenged its credibility roughly a third as often. Though infrequent, some of these challenges have been scathing. In 2002, Texas appellate judge Brian Quinn overthrew a jury’s decision to terminate the parental rights of a father after hearing that he had scored on the Abel Assessment as having a “deviant sexual interest” that would make him a risk to his children. Quinn wrote that since Abel’s scoring methods are not public, they “could be mathematically based, founded upon indisputable empirical research, or simply the magic of young Harry Potter’s mixing potions at the Hogwarts School of Witchcraft and Wizardry.”
À propos de la responsabilité des algorithmes : effets indésirables
Une doctrine bien connue des juristes, l’impact disparate, consiste à déterminer la discrimination involontaire des décisions. Par exemple, depuis 1971 il est illégal aux États-Unis de recruter sur scores de type QI ou diplômes de lycée, cela désavantageant les personnes de couleur.
Deux excellents exemples sont dans le rapport Big Data de la Maison-Blanche (s’il vous plaît !).
- Une étude avait remarqué que les recherches sur le Web contenant des noms habituellement portés par des gens de couleur (« Jermaine ») étaient plus susceptibles d’afficher des publicités liées à des arrestations que des recherches liées à d’autres noms (« Geoffrey »).
- Street Bump est une application qui utilise l’accéléromètre et le GPS des smartphones pour signaler via crowdsourcing les nids-de-poules aux services publics locaux. C’est fantastique, mais son utilisation par le grand public risquait de systématiquement réparer les voies où il y a beaucoup de smartphones, au détriment des quartiers pauvres ou ceux recensant des personnes âgées. (Pour info, Boston et les développeurs s’en sont aperçus, et ont prioritairement déployé l’application sur des inspecteurs employés par la ville, en les distinguant du grand public. HAPPY END.)
Méta : quand les journalistes s’y mettent
Du coup, quand on se met à dépister les effets indésirables des algorithmes, on arrive à des titres d’articles comme ça :
- The Tiger Mom Tax: Asians Are Nearly Twice as Likely to Get a Higher Price from Princeton Review
- Uber seems to offer better service in areas with more white people. That raises some tough questions
C’est comme si on était arrivé à la confusion corrélation VS causalité, mais version XXIe siècle. Le super article de CJR met les journalistes en garde, et suggère deux pistes :
- demander l’accès à l’algorithme : Par exemple, HunchLab est une version open source de l’outil de prédiction de crime PredPol. Now we’re talking.
- augmenter la culture en informatique des journalistes, afin j’imagine d’éviter des gros titres comme cela :
Pour aller plus loin techniquement
J’ai vu quelques noms de chercheurs qui profitent de l’engouement général pour tirer les projecteurs vers eux :
- Suresh Venkatasubramanian : chercheur sur le buzzword algorithmic fairness à l’université de l’Utah, et auteur de l’article Certifying and removing disparate impact publié à ACM SIGKDD 2015 (Conference on Knowledge Discovery and Data Mining).
- Moritz Hardt : auteur du post sur Medium How big data is unfair, organisateur du workshop à NIPS & ICML Fairness, Accountability and Transparency in Machine Learning et (tiens !) chercheur senior à Google.
- Nick Diakopoulos : journaliste spécialiste du buzzword algorithmic accountability, ayant publié dans Washington Post et Slate, ce qui en dit long sur le caractère scientifique de ses analyses. (Zut, jusque-là j’avais pourtant réussi à rester neutre.)