Skip to main content

Les migrants et leurs données sont les premiers visés par cette IA pour l'utilisation qui en est faite outre-atlantique.

Bienvenue chez LexisNexis, référence en matière de courtage en données juridiques et d’archives publiques. Derrière ce titre un peu fumeux se cache une société tout à fait légale qui fait son beurre en fournissant aux douanes, aux services de l’immigration mais aussi à la NSA (États-Unis) les informations sur les particuliers dont celles-ci pourraient avoir besoin…

Il y a un petit air de Minority Report –la nouvelle de Philip K. Dick  et film de Steven Spielberg– dans ce fonctionnement-là, car l’idée est en fait de fournir à ces services des outils permettant d’identifier les personnes susceptibles de commettre un crime. L’action de LexisNexis ne s’arrête pas là, elle aide notamment l’agence gouvernementale américaine chargée de l’immigration et des frontières (ICE), à pister ceux qui sont considérés comme des criminels potentiels.

Surveillance de masse et automatisation

Avocate et cofondatrice de Just Futures Law, service juridictionnel qui travaille avec les associations de protection des droits humains, Julie Mao est à l’origine d’une plainte en justice contre LexisNexis. Après lecture du contrat fourni par The Intercept, elle le décrit comme la preuve que «ICE a pour objectif de surveiller les individus, là où aucun crime n’a été commis et où il n’y a aucun mandat»«La surveillance de masse est au cœur même de ce programme», ajoute-t-elle.

Pour l’heure, LexisNexis n’a pas explicité la nature des données qu’elle vendait à ICE, et n’a pas rendu officiels les objectifs précis de ces transactions. Mais le contrat signé est très clair sur ses intentions, et sur le fait qu’elle a développé «une machine d’analyse sophistiquée qui vise à détecter les activités suspicieuses et à scruter les migrants –y compris leur localisation».

La machine décide

Une notion est particulièrement inquiétante dans ce fameux contrat: il s’agit de l’automatisation du suivi des personnes jugées dangereuses. Cela semble en effet indiquer que des outils informatiques ont été développés de façon à ce que la surveillance de ces individus soit pratiquée de façon automatisée, par des machines. L’interprétation que celles-ci pourront faire de certaines images risque d’avoir des conséquences désastreuses, surtout en cas d’erreur d’analyse…

Source : Korii