
Le NYPD a dépensé des millions de dollars pour acheter des produits et services pour étendre ses capacités de suivi et d'analyse des publications sur les réseaux sociaux , y compris des systèmes d'intelligence artificielle pour analyser le comportement humain en ligne et détecter et prédire les fraudes et les crimes .
Cela a été révélé par des documents divulgués par le Surveillance Technology Oversight Project (Stop) , une organisation à but non lucratif dédiée à la lutte contre la surveillance de masse et à la protection de la vie privée ; qui a publié ce qui serait des contrats du NYPD avec Voyager Labs , qui s'élèveraient à près de 9 millions de dollars .
Il s'agit d'une entreprise technologique qui prétend produire des « solutions d'enquête basées sur l'IA » et vend des produits dans plusieurs secteurs, notamment les forces de l'ordre, le secteur public américain et la sécurité des entreprises, selon son site Internet.
Pour l'instant, la police de New York a confirmé que le département utilise ce type de technologie pour surveiller les suspects de divers crimes tels que la violence armée, le terrorisme et la traite des êtres humains ; mais il a clairement indiqué qu'il n'utilisait pas les outils prédictifs proposés par Voyager Labs.
Dont le vice-président du marketing mondial, William Colston , déclare que l'entreprise utilise uniquement des données accessibles au public et que son logiciel "n'est pas destiné à se substituer à la surveillance et à l'analyse rigoureuse" qu'un spécialiste humain peut effectuer.
Outils basés sur le profilage

« Voyager Discover va encore plus loin dans les capacités de Voyager Analytics , en analysant non seulement qui est le plus influent, mais aussi qui est le plus investi dans une position donnée : émotionnel « idéologiquement et personnellement », indique l'argumentaire de vente de l'entreprise. au département de police de Los Angeles.
Ce qui a été obtenu par le Brennan Center for Justice , un institut de droit et de politique publique, qui prévient que l'entreprise prétend que ses produits peuvent prédire de futurs crimes tandis que son IA attribue des scores de risque aux utilisateurs des réseaux en fonction de leurs « liens ou affinités avec l'islam » . fondamentalisme ou extrémisme.
En fait, le service appelé VoyagerCheck « fournit une indication automatisée des personnes susceptibles de présenter un risque », selon le site Web de Voyager Labs.
Et bien que l'utilisation de l'analyse des médias sociaux par les forces de sécurité ne soit pas nouvelle, les experts avertissent que cette pratique peut franchir les limites éthiques et juridiques, en particulier lorsqu'elle est utilisée pour accéder à des informations privées , faire des déductions ou prédire de futurs crimes sur la base de contenus publiés sur les réseaux sociaux.
Voyager Labs, une société poursuivie par Meta

Meta , la société mère de Facebook et Instagram , a poursuivi Voyager Labs en janvier dernier, alléguant que l'entreprise technologique avait créé plus de 38 000 faux comptes pour extraire les données de plus de 600 000 utilisateurs .
Selon l'entreprise technologique de Mark Zuckerberg , l'objectif de la société britannique était de vendre ces informations à des clients intéressés à effectuer une surveillance sur les sites de réseaux sociaux sans être détecté. Et il aurait vendu cette information à celui qui lui offrait le plus d’argent.
Meta a demandé au tribunal que l'entreprise ne puisse plus accéder à ses applications, avertissant que "des entreprises comme Voyager font partie d'une industrie qui fournit des services d'extraction de données à n'importe qui, quels que soient les utilisateurs qu'elles ciblent" et dans quel but.
Il maintient en outre que « cette industrie collecte secrètement des informations que les gens partagent avec leur communauté sans surveillance ni responsabilité, et d'une manière qui peut affecter les droits civils des gens », tout en avertissant que les cibles étaient des employés d'organisations à but non lucratif, de sociétés de médias, d'universités et l'armée américaine.