Techonologie

IA générative : Les petits secrets d’OpenAI dérobés

Le New York Times vient de révéler qu’un cybercriminel s’est introduit dans les systèmes de messagerie interne d’OpenAI l’année dernière, dérobant des informations sensibles sur la technologie qu’elle développe. Seul hic : l’événement n’a été signalé ni au public ni aux autorités compétentes. Face à ces révélations, les craintes se multiplient : et si la Chine avait récupéré la sauce secrète d’OpenAI ? Pourquoi n’avoir rien dit ? A quel point la sécurité est-elle prise au sérieux ? Le créateur de ChatGPT va certainement devoir répondre de ses choix.

En début d’année dernière, OpenAI a été victime d’une intrusion au sein de ses systèmes de messagerie interne. Le hacker a dérobé aux employés des informations sur le fonctionnement des technologies de la start-up, mais n’a pas eu accès aux systèmes hébergeant les technologies d’IA. Le New York Times rapporte que l’incident a soulevé d’importantes inquiétudes en matière de sécurité au sein de l’entreprise. En outre, il a même suscité des inquiétudes quant à la sécurité nationale des États-Unis.

La faille s’est produite dans un forum en ligne où les employés discutaient des développements d’OpenAI. Ainsi, certaines informations sensibles ont été exposées. En avril 2023, les dirigeants d’OpenAI ont révélé l’incident aux employés et au conseil d’administration, mais ont choisi de ne pas le rendre public. Ils ont estimé qu’aucune donnée client ou partenaire n’avait été volée et que le pirate était probablement un individu sans lien avec le gouvernement. L’entreprise n’a donc informé ni le FBI ni aucun autre organisme chargé de l’application de la loi.

Et si les secrets de la start-up tombaient entre les mains de la Chine ?

Pour certains employés d’OpenAI, cette nouvelle a fait craindre que des adversaires étrangers comme la Chine puissent voler cette technologie, précise le quotidien new-yorkais. Le parti pris des dirigeants de la start-up de ne pas divulguer cette information suscite plusieurs questions : bien que ses avancées technologiques soient aujourd’hui principalement destinées au travail et à la recherche, cette fuite pourrait à terme mettre en danger la sécurité nationale des États-Unis.

Le quotidien rapporte par ailleurs qu’après la violation, Leopold Aschenbrenner, responsable de l’équipe technique d’OpenAI « Superalignment » chargée de garantir que les technologies d’IA ne causent pas de dommages graves, a envoyé une note au conseil d’administration d’OpenAI. Il affirmait alors que l’entreprise ne faisait pas assez pour empêcher le gouvernement chinois et d’autres adversaires étrangers de voler ses secrets. Mal lui en a pris puisqu’il a, dans la foulée, été licencié dans la foulée de cette déclaration pour avoir prétendument divulgué des informations sensibles, tout comme Pavel Izmailov, également membre de l’équipe.

La sécurité ne pèse pas lourd chez OpenAI

Autre interrogation restée en suspens après la découverte de ce fuite de données : quelle est la place de la sécurité au sein d’OpenAI ? Cette question revient régulièrement sur le tapis. Pas plus tard que la semaine dernière, l’entreprise a corrigé une faille majeure dans son l’application ChatGPT pour macOS. Un développeur avait ainsi découvert une vulnérabilité permettant à quiconque d’accéder aux conversations de tous les utilisateurs stockées sur l’ordinateur et non chiffrées. OpenAI affirme avoir remédié à cette vulnérabilité depuis par le biais d’une mise à jour.

Rappelons que l’entreprise a été, à plusieurs reprises, pointée du doigt pour son manque de transparence et d’engagement envers la sécurité de ses utilisateurs. Après le départ de plusieurs membres clés en charge de la sécurité menant à la dissolution de l’équipe Superalignment, la start-up d’IA a, fin mai, tenté de sauver les apparences. Elle a fait part de la création d’un comité de sûreté et de sécurité. Cependant, ce dernier ne brille pas par son éthique et son indépendance puisqu’il est constitué des membres du conseil d’administration de la société.

Source : usine-digitale.fr