EP 9 : la surveillance prédictive

Tous les épisodes

Aperçu EP 9 : la surveillance prédictive Cet épisode a été diffusé le vendredi 4 mars 2016 et sera bientôt rediffusé sur la page Vimeo de l'ATNL, merci à eux.

Techno-utopianism

Nous faisons tellement confiance aux technologies pour nous protéger que nous blâmons trop facilement les services de renseignement.

(cf. Prévention du terrorisme, plus bas)

Profilage géographique

Identification de Banksy

Le profilage géographique (introduction sur OpenClassRooms) a gagné en popularité tout récemment, car des chercheurs de Queen Mary University of London l’ont utilisé pour tenter d’identifier Banksy.

Ce qui est assez surprenant, c’est qu’ils aient réussi à identifier des points d’intérêt (un pub, l’adresse personnelle de Banksy), à partir d’un faible échantillon des positions des œuvres de Banksy (seulement 140).

Prévention de la délinquance

Prévention du terrorisme

A lawyer representing Aqsa Mahmood – a woman believed to be in Syria at the moment – criticised the security services for not having spotted online activity of the three young teenage girls from London who are believed to be en route to Syria via Turkey.

After a long investigation, the Committee stated that Michael Adebowale, one of Lee Rigby’s two killers, had communicated his desire to murder a soldier via a social network platform (later revealed to be Facebook). Facebook had failed to spot this message, so the security services were not alerted. In response to this revelation, the Prime Minister told Parliament that companies such as Facebook need to “have systems in place to spot key words, key phrases and other key things that could be part of terrorist plotting”.

Notre citation favorite :

It is so much easier to ‘predict’ something after the event, to find the key clue, and so incredibly hard to do it beforehand. So when they don’t succeed (and they can’t all the time) we’ll consider them useless. And when they do succeed, we don’t see or hear of it anyway. The result is an intelligence agency that is seen as both omnipresent and incompetent, one that lacks broad public support and can’t do its job.

Maintenant, admettons qu’il existe un super algorithme qui fonctionne vraiment très bien, qui donne le bon résultat dans 99.5% des cas (c’est déjà totalement fantaisiste). Imaginons que sur 65 millions de français il y ait 1000 terroristes. L’algorithme va détecter 1000 × 99.5% = 995 terroristes sur les 1000, mais aussi (65000000 - 1000) × 0.5% = 324995 faux positifs ! Bien sûr, pour chaque détection, il faudra nécessairement mener une enquête – coûteuse en moyens humains et financiers – pour être sûr que la détection correspond à un vrai terroriste. Sinon, après un attentat, comment expliquer que le terroriste a fait sonner des alarmes mais n’a pas été l’objet d’une surveillance plus poussée ? Les ressources seront donc massivement utilisées pour des faux positifs, ce qui est profondément contre-productif. En plus de cela, il serait gênant d’ignorer le petit nombre de faux négatifs : 5 terroristes non détectés sur 1000, c’est déjà beaucoup !

2098. Les Algorithmes ont pris le contrôle de notre société. Mais comment en sommes-nous arrivés là ? Voici quelques vidéos du futur pour prendre conscience du rôle grandissant des algorithmes dans nos vies, à l'origine de notre déchéance.