Techonologie

Trois mois après sa sortie, le Rabbit R1 présente déjà des failles de sécurité

La start-up américaine Rabbit a dévoilé en début d’année son « assistant intelligent » R1, qui se présente sous la forme d’un petit boîtier dont l’interface est basée sur des conversations en langage naturel. S’il a connu un système d’estime, la sécurité du gadget est à revoir : des chercheurs ont réussi à accéder aux clés API et consulter toutes les réponses qu’un R1 peut fournir, y compris des données personnelles.

La start-up californienne Rabbit avait créé une petite sensation en janvier dernier à Las Vegas, lors du Consumer Electronics Show (CES). Elle y avait présenté son petit boîtier R1, doté d’un système d’exploitation conçu autour d’une interface en langage naturel. De la taille d’une pile de Post-it et au poids ultra-léger (115 grammes), ce petit appareil était présenté par ses développeurs comme s’orientant vers une “expérience intuitive sans application grâce à la puissance de l’intelligence artificielle”. Plus besoin, donc, de télécharger et d’utiliser des applications : Rabbit OS s’en charge.

Lecture et modification des réponses, remplacement de voix…

Proposé à 200 dollars, le boîtier s’est vendu à plus de 10 000 unités en l’espace de quelques jours. Rabbit a envoyé son premier lot de précommandes du R1 fin mars pour des livraisons fin avril. Or déjà, des failles de sécurité apparaissent : le 16 mai, une équipe de chercheurs et développeurs, nommée Rabbitude, a eu accès à la base de code du boîtier et mis la main sur plusieurs clés API critiques codées en dur.

Il s’agit ici d’une faille de taille, car l’accès à ces clés API permet à n’importe qui de lire toutes les réponses données par R1, y compris celles contenant des données personnelles, de modifier les réponses de tous les boîtiers, voire même de remplacer leurs voix. Dans son rapport publié le 25 juin, Rabbitude précise que ces clés API concernent les outils développés par ElevenLabs pour sa technologie de synthèse vocale, Azure pour son ancien système de synthèse vocale, Yelp pour la recherche d’avis et Google Maps pour la recherche de lieux.

La clé d’ElevenLabs donne accès à des privilèges administrateur

Fin mars, Rabbit avait effectivement annoncé son partenariat avec la start-up new-yorkaise ElevenLabs. Le but était de construire des outils audio d’IA, avec une voix alimentée par ElevenLabs répondant aux commandes vocales exécutées par les utilisateurs. Problème : la clé API d’ElevenLabs donne des privilèges entiers aux personnes y ayant accès. Il serait alors possible pour tout un chacun d’obtenir l’historique de tous les messages de synthèse vocale, de changer des voix, de remplacer du texte par un autre si les mots ou phrases ont la même prononciation… et même de supprimer des voix, ce qui rendrait le système d’exploitation hors-service.

Le groupe de chercheurs et développeurs affirme que la plupart des clés ont été révoquées, mais pas l’intégralité : dans un article publié le 26 juin, Rabbitude a révélé l’existence d’une cinquième clé API codée en dur toujours active, concernant SendGrid. Cette clé donne accès à un historique complet des e-mails envoyés pour les fonctions d’édition de feuilles de calcul du R1, dont des données utilisateur. Elle permet aussi d’envoyer des courriels à partir d’adresses e-mail “rabbit.tech”.

Pas de données client pour l’heure dérobées, selon Rabbit

La start-up a de son côté affirmé sur son site qu’elle avait effectué un inventaire de tous les “secrets” actuellement exploités, et qu’elle avait commencé à les retirer. “Nous examinons les journaux d’audit de nos plateformes SaaS pour vérifier tout vol de données clients, explique la société basée à Los Angeles. Au moment de la publication de cette mise à jour [le 28 juin à 3 h du matin], nous n’avons constaté aucune compromission sur nos systèmes critiques ou sur la sécurité des données clients.”

Source : usine-digitale.fr