De la reconnaissance faciale de masse avec une IA qui s’entraîne sur des données publiques.
Nous avions envie de vous parler d’un projet très controversé dans cet article. Ce projet suscite énormément de réactions ces derniers mois et le moins que l’on puisse dire c’est que tout le monde ne s’accorde pas.
La société américaine Clearview AI, développe des intelligence artificielle. Elle est spécialisée en reconnaissance faciale.Dans son dernier rapport de décembre 2021, la firme a annoncé son intention de collecter 100 milliards de photos de visages humains. Ces données seront stockées dans une base de données, pour lui permettre de reconnaître tous les individus de la planète. Vous et moi compris, oui.
Clearview, le système déjà le plus élaboré du genre.
Clearview AI a déclaré aux investisseurs que la société allait collecter 100 milliards de photos de visages humains d’ici fin 2022 dans une base de données dédiée à la surveillance.
Oui, parce qu’il faut que nous vous parlions de Clearview AI. Cette entreprise se vend comme le “plus large réseau de photos au monde”. Leur promesse ?
Vu d’ici, cette plateforme est un outil supplémentaire pour permettre aux forces de l’ordre de maintenir la paix dans les rues du monde. En tout cas, c’est comme ça que le projet est commercialisé. Nous sommes en France et je sais déjà que cette intention fait grincer des dents (on pourrait faire un parallèle avec le cas des différents fichiers centralisés de la police nationale française).
Clearview AI a déclaré que son « index de visages » est passé de 3 milliards d’images à plus de 10 milliards depuis début 2020. La firme a aussi déclaré que son système de collecte de données ingère désormais 1,5 milliard d’images par mois…. Voici la vitesse à laquelle va cet aspirateur du web.
La donnée publique au coeur du projet
L’entreprise compte exploiter l’internet mondial pour atteindre son objectif. C’est-à-dire que Clearview AI va fonctionner comme un aspirateur à miettes et récupérer toutes les données issues de médias sociaux et d’autres sources. Dès le moment où ces données ont été enregistrées comme “publiques”. Par vous, quand vous acceptez les conditions générales d’utilisation des services du web. En ajoutant cette information, on pousse la polémique d’un cran.
Ce ne sera pas 1 mais 14 images par personne, en moyenne, qui seront collectées. Nous sommes plus de 7 milliards sur la planète.
- Je vous laisse faire le calcul du nombre d’images que cela représente…
- Je vous laisse imaginer la quantité de données publiques qui peut traîner sur nous tous après presque 20 ans d’internet.
Avec ce genre d’annonces, la protection de la donnée devient vraiment centrale. Et non, la loi française sur la protection de la donnée n’est pas un dispositif suffisant. La raison est simple, internet ne s’arrête pas aux frontières de la France. En utilisant des services américains, vos données sont hébergées en dehors de France et libre à ces pays de respecter l’accord ou pas. Rien ne les y oblige.
Comment fonctionne la reconnaissance faciale ?
La reconnaissance faciale est un sous-domaine de la vision par ordinateur qui est une branche scientifique de l’intelligence artificielle (IA – vous suivez ?). La reconnaissance faciale, consiste à lier l’identité d’une personne à partir de l’image de son visage de façon automatique.
En gros, c’est l’équivalent en intelligence artificielle de l’œil l’humain et de la capacité du cerveau à traiter et analyser l’image perçue.
Globalement on reproduit le mécanisme qui entre en jeu quand vous croisez votre ami Michel au coin de la rue. Vous voyez Michel, vous analysez que c’est le visage de Michel, vous avez enregistré les infos liées à Michel, vous dites : “Salut Michel !”. Le match se fait tout seul.

Avec cet algorithme, le logiciel mesure la géométrie faciale d’une personne comme la distance entre son nez, sa bouche, ses oreilles et sa mâchoire. Ces valeurs servent à comparer des images d’un même individu et à enregistrer sa géométrie particulière. Mais pas que, le système fait aussi des rapprochements par “groupes démographiques”.
Plus on fournit des images à l’algorithme, plus celui-ci devient performant.

Un projet aux deux visages.
Nous l’avons dit plus haut, Clearview AI construit sa base de données en prenant des images des réseaux sociaux. C’est la première phase. Constituer une base importante d’images (sans le consentement à cet usage des sites Web ou des personnes photographiées). Et sur cette étape, il y a eu une première tentative de blocage de la part des GAFAs.
Facebook, Google, Twitter et YouTube ont demandé à l’entreprise de cesser de prendre des photos de leurs sites et de supprimer celles qui avaient été prises précédemment.
Clearview a été accusé d’avoir violé la Biometric Information Privacy Act, en Illinois. Cette loi d’état, interdit la capture de données biométriques d’un individu. La réponse de l’entreprise est des plus surprenantes. Clearview, a habilement contré la demande en faisant appel au premier amendement des États-Unis.
Pour rappel, le premier amendement interdit au : “Congrès des États–Unis d’adopter des lois limitant la liberté de religion et d’expression,…”.
Selon Clearview, le moteur de recherche des visages ne serait que le fruit de compilation de données publiques récoltées sur internet et les résultats analysés et proposés par l’IA ne seraient que l’opinion de Clearview à propos des individus dont il s’agirait.
Cette manœuvre, comme le rappelle l’ACLU,( L’association de l’Union américaine pour les libertés civiles) est très dangereuse parce qu’elle détourne le sens du texte initial. Si ce plaidoyer est accepté par les magistrats, cela prononcerait la fin de la sécurité de l’information et de l’intimité.
Clearview, un service qui trouve déjà des clients.
A ce jour, Clearview AI compte plus de 3.100 clients principalement pour les différentes agences du gouvernement américains, comme :
- le FBI,
- l’armée
- ou la sécurité intérieure.

En plus du problème de la collecte de données (sauvage) mais légale (la faille juridique), aucune loi ne réglemente la manière dont la reconnaissance faciale.
Aucun texte de loi ne pose d’intentions claires sur les limites d’un tel système.
Certaines villes et États ont mis en place des interdictions ou des restrictions. Même les géants de la technologie, dont Amazon, Google, IBM et Microsoft, ont limité, freiné ou arrêté les ventes de cette technologie. Même les géants américain des internets s’inquiètent des risques qu’une telle technologie pourrait poser. Pour une fois, les GAFAs posent un consensus : pas de vente au public avant que le Congrès n’ait établi de règles. SUPER.
Et vous les géants ? Pas d’usages ou d’essais à des fins commerciales avant que les Nations ne vous aient contenus dans votre course aux dollars ou pas ?
Clearview contre presque tous.
Aujourd’hui Clearview lutte contre une vague d’actions en justice devant les tribunaux américains, Canadien, Suedois et Anglais. On décompte de nombreuses plaintes de groupes de protection de la vie privée en France, en Grèce, en Italie et au Royaume-Uni.
Les gouvernements australien et français ont ordonné à Clearview de supprimer les données de leurs citoyens. Les deux pays accusent l’entreprise d’avoir secrètement vendu les photos et données personnelles dans un but « hors des attentes raisonnables ». Accusation qui ne nous paraît pas bien claire d’ici (Cloudview du coup ?).
Ce à quoi le CEO contre avec toujours le même argument :
On est bien démunis devant une si simple, sinon si imparable défense. Là où le cauchemar continue c’est que l’incontrôlable Clearview ne compte pas s’arrêter là. L’entreprise envisage (sans mauvais jeu de mot) déjà d’étendre son service à de nouveaux secteurs. Celui de la “gig economy” (l’économie des petits boulots).
Les équipes de scientifiques sont d’ores et déjà en train d’envisager un certain nombre de technologies qui permettraient d’identifier quelqu’un en fonction de sa façon de marcher, de détecter sa position à partir d’une photo ou de scanner une empreinte digitale à distance. Comme dans les experts Miami quand l’opérateur image peut faire une Zoom de + 4000% sur une image de caméra de surveillance en obtenant une résolution impeccable.
Le mot du Lab 303.
Au Lab 303 on aime vraiment la technologie et on constate qu’on a atteint la limite de ce qu’on peut entendre. Notre warning éthique est en marche.
Les cas d’usage de dérive nous paraissent si énormes qu’on se demande vraiment si le CEO de Cloudview est un lézard (comme dans la série V, où tous les méchants du monde sont une race reptilienne extraterrestre déguisés en humains) ou un Troll qui tente de montrer les failles du système des Hommes.
Imaginez atteindre un moment de l’histoire où, il n’y aurait plus de droit à l’oubli, plus de pardon et une mutation de la justice. On serait perpétuellement punis. On serait perpétuellement traçables et tracés. Par n’importe qui, qu’il s’agisse d’un individu ou d’une organisation. En d’autres termes, ce serait la fin de la vie privée telle que nous la connaissons.
Est-ce que les avantages d’une telle technologie sont suffisamment intéressants pour justifier toutes les dérives qu’elle pourrait entraîner ? Qui va la réglementer, la réguler, la vérifier ? Quand ? Sachant que cette entreprise exploite déjà une faille que d’autres fournisseurs de services ont contribué à créer ?
Parce que bon on en a lu et vu des histoires de ce genre et elles finissent invariablement très très mal. Il y a même un genre littéraire pour ça : la dystopie.
Bon et sinon, pour finir sur une note positive. Voici une belle utilisation du computer vision. En utilisant Tensorflow (la plateforme de google dédié au machine learning) et son API de détection d’objet, Priyanjali Gupta une étudiante en troisième année d’informatique à l’Institut de technologie de Vellore (Inde), a éduqué une IA pour reconnaitre 6 signes ASL (le langues des signes américain).
Plus d’articles ?