Attentat de Sydney : Grok, l’IA d’Elon Musk, s’embourbe dans la désinformation
Le chatbot de X a multiplié les erreurs factuelles sur la fusillade de Bondi, confondant un «héros» avec un otage du Hamas et qualifiant l’événement de «mise en scène».
Un héros transformé en otage, des images d’attentat confondues avec une tempête, un survivant présenté comme un comédien de crise… Mardi, l’AFP et plusieurs experts ont épinglé Grok, l’intelligence artificielle développée par Elon Musk, pour avoir diffusé une cascade de fausses informations sur l’attentat de Sydney, survenu dimanche soir sur la plage de Bondi lors de la fête juive de Hanouka. L’attaque, perpétrée par un père et son fils qui ont ouvert le feu sur la foule, a fait au moins 15 morts et 42 blessés. Les autorités australiennes l’ont qualifiée d’acte «antisémite» et «terroriste».
Le cas d’Ahmed al Ahmed illustre l’ampleur du fiasco. Cet homme d’origine syrienne, célébré en «héros» dans toute l’Australie après qu’une vidéo l’a montré en train d’arracher le fusil d’un des assaillants. Alors que l’homme -grièvement blessé – est toujours hospitalisé, Grok, lui, a affirmé que ces images correspondaient à «une vieille vidéo virale montrant un homme grimpant à un palmier dans un parking», suggérant ici une «mise en scène». Pire : le chatbot a identifié Ahmed al Ahmed comme un otage israélien détenu par le Hamas.
«Mise en scène»
L’IA ne s’est pas arrêtée là. Interrogée sur une autre scène de l’attaque, elle a assuré qu’il s’agissait d’images de la tempête Alfred, qui a frappé l’est de l’Australie au début de l’année. Sur l’insistance d’un utilisateur, le chatbot a fait marche arrière et reconnu que les images provenaient de l’attaque.
Autre dérapage : après l’attaque de Sydney, des internautes ont diffusé une image de l’un des survivants, affirmant à tort qu’il s’agissait d’un «plastron», selon l’organisme de surveillance de la désinformation NewsGuard. Or, un «plastron» (en anglais «crisis actor») est un terme que les complotistes emploient pour mettre en doute l’authenticité de crimes de masse et des victimes qu’ils font. Au sujet de la photo du survivant de Sydney, Grok parle d’une «mise en scène».
Les experts estiment que l’IA peut être utile, pour géolocaliser des images par exemple, mais jugent pour l’heure impossible de remplacer les humains pour vérifier les faits et expliquer le contexte. Contacté par l’AFP, xAI, le développeur de Grok, a répondu par un message automatique : «Les médias traditionnels mentent».
Source : lefigaro.fr
