Techonologie

Surveillance de masse, reconnaissance des émotions, notation sociale… Ces 8 usages de l’IA désormais interdits en Europe

La Commission européenne a précisé mardi quels systèmes d’intelligence artificielle, jugés trop dangereux, étaient désormais interdits au sein de l’UE.

Surveillance de masse, reconnaissance des émotions, notation sociale… La Commission européenne a précisé mardi quels systèmes d’intelligence artificielle (IA), jugés trop dangereux, étaient désormais interdits au sein de l’UE dans le cadre de sa législation pionnière adoptée l’an dernier. Huit cas d’interdictions ont été identifiés par la Commission.

1. Identification en temps réel de personnes à l’aide de caméras dans des lieux publics

L’UE interdit l’utilisation de caméras équipées de technologies de reconnaissance faciale en temps réel dans une rue commerçante pour identifier des individus recherchés. La notion de «temps réel» est ici cruciale. L’UE veut éviter une intervention immédiate contre un individu, sans vérification préalable avec d’autres informations issues du monde réel. Des exemptions sont toutefois prévues pour certaines missions des forces de l’ordre comme la lutte contre le terrorisme.

2. Notation sociale à partir de données personnelles sans lien avec le risque évalué

Un organisme ne peut pas avoir recours à une application d’IA pour classer les personnes en fonction de leur probabilité de commettre une fraude aux aides sociales, en utilisant des données personnelles n’ayant rien à voir avec le contexte comme l’origine, la couleur de peau ou bien le comportement sur les réseaux sociaux. Ainsi, pour évaluer le risque de défaut sur un crédit, seules des données financières pourraient être prises en compte.

3. Évaluation du risque criminel d’un individu sur la base de données biométriques

La police ne peut utiliser une IA pour prédire le risque de comportement criminel d’un individu, comme la probabilité de participer à des émeutes ou de commettre un attentat, en se basant uniquement sur des caractéristiques personnelles, comme des traits du visage, sans prise en compte de faits objectifs et vérifiables directement liés à ses actes.

4. Créer des bases de données de visages pour des systèmes de reconnaissance faciale en récupérant des images sur internet

Sont interdits les outils pour ratisser l’internet et extraire des photos de visages de façon indifférenciée afin de constituer des bases de données à grande échelle de plusieurs milliards d’images. Cela s’apparenterait à de la surveillance d’État.

5. Reconnaissance des émotions sur le lieu de travail ou dans les institutions éducatives

Une organisation ne peut utiliser des webcams ou des systèmes de reconnaissance vocale pour détecter les émotions de ses employés.

6. Manipuler le comportement des individus à l’aide de l’IA

Il est interdit d’intégrer dans le design d’une interface des systèmes d’IA trompeurs ou subliminaux pour pousser les utilisateurs à réaliser un achat.

Source : lefigaro.fr