Techonologie

Sur Facebook, les spammeurs ont la belle vie grâce à l’IA générative

Si les bons cotés de l’intelligence artificielle sont souvent évoqués, les mauvais doivent tout autant être mis en avant. Dans un article de synthèse paru sur le site de l’Université de Stanford, deux chercheurs examinent la manière dont certains spammeurs sur Facebook utilisent des modèles d’IA générative pour créer des images surréalistes qui passent outre les algorithmes de modération et sont même recommandés aux utilisateurs.

C’est l’image parfaite du serpent qui se mord la queue. Des systèmes de modération tellement automatisés qu’ils ne sont plus capables de différencier de vrais contenus de ceux qui sont artificiels. C’est ce qui ressort d’un article de synthèse publié par des chercheurs de l’Observatoire de l’Internet, rattaché à l’Université de Stanford.

Avec pour titre « Comment les spammeurs, les escrocs et les créateurs exploitent les images générées par l’IA sur Facebook pour accroître leur audience », l’article s’attèle à expliquer quels sont les risques liés aux générateurs d’images d’IA, tels que DALL-E et Midjourney.

Les spammeurs prennent le pouvoir sur les réseaux sociaux

Nous avions déjà écrit sur les risques de désinformation dans le discours politique. De fausses informations étaient en effet injectées via ces outils, perturbant les utilisateurs et trompant les plus sensibles. Dans le cas présent, il s’agit de montrer comment les spammeurs et les escrocs – apparemment motivés par le profit ou l’influence, et non par l’idéologie – utilisent déjà des images générées par l’IA pour gagner du terrain sur Facebook.

Les posts contenant des images générées par IA sont parmi les plus consultés

Les outils d’IA générative se multiplient, à tort comme à raison. En résultent des images générées par l’IA, non étiquetées, qui pullulent et que nombre d’utilisateurs croisent en parcourant un réseau social. Seul hic : ces derniers ne sont pas capables de distinguer de vraies images de celles qui sont générées par l’IA. Un rappel qu’il est nécessaire d’améliorer la transparence et les normes de provenance à mesure que les modèles d’IA prolifèrent.

Dans le détail, 120 pages Facebook qui ont posté au moins 50 images générées par l’IA chacune ont été étudiées, en classant les pages dans les catégories spam, scam et « autre créateur ». Certaines étaient des regroupements coordonnés de pages gérées par les mêmes administrateurs, précisent les chercheurs. Et le moins que l’on puisse dire c’est que les premiers résultats de ces recherches lèvent le voile sur l’étendue des risques.

Un mode opératoire simple : se servir de contenus générés par l’IA pour tromper les utilisateurs

Au 5 mars 2024, les « Pages » avaient un nombre moyen de followers de 128 877 et un nombre médian de followers de 71 000. Les chercheurs expliquent plus loin que ces images ont reçu collectivement des centaines de millions d’engagements et d’expositions. Un post incluant une image générée par l’IA a été l’un des 20 contenus les plus consultés sur Facebook au troisième trimestre 2023 (avec 40 millions de vues et plus de 1,9 million d’interactions).

Les pages de spam utilisaient quant à elles des tactiques d’appât à clics et tentaient de diriger les utilisateurs vers des fermes de contenu hors plateforme et des domaines de faible qualité. Les pages d’escroquerie tentaient de vendre des produits qui n’existent pas ou d’amener les utilisateurs à divulguer des informations personnelles ; certains publiaient les images générées par l’IA sur des pages volées.

L’importance de l’étiquetage pour guider les utilisateurs

En conséquence, nombre d’utilisateurs tombent dans le piège, confondant les images générées par l’IA avec des images vérifiées, et ce malgré l’alerte donnée parfois par des utilisateurs consciencieux mettant en garde les plus vulnérables. Il est donc, plus que jamais, important d’étiqueter au mieux les images et de prendre toutes les mesures nécessaires pour aider à la transparence.

Source : usine-digitale.fr