((Traduction automatisée par Reuters, veuillez consulter la clause de non-responsabilité https://bit.ly/rtrsauto))
Un pirate informatique a accédé aux systèmes de messagerie interne d'OpenAI l'année dernière et a volé des détails sur la conception des technologies d'intelligence artificielle de l'entreprise, a rapporté jeudi le New York Times ().
Le pirate a obtenu des détails à partir de discussions dans un forum en ligne où les employés discutaient des dernières technologies d'OpenAI, a déclaré le rapport, citant deux personnes familières avec l'incident.
Cependant, ils n'ont pas pénétré dans les systèmes où OpenAI, l'entreprise à l'origine du chatbot sensationnel ChatGPT, héberge et construit son IA, a ajouté le rapport.
OpenAI, soutenu par Microsoft Corp MSFT.O , n'a pas immédiatement répondu à une demande de commentaire de Reuters.
Les dirigeants d'OpenAI ont informé les employés lors d'une réunion générale en avril de l'année dernière et le conseil d'administration de l'entreprise de la violation, selon le rapport, mais les dirigeants ont décidé de ne pas partager la nouvelle publiquement car aucune information sur les clients ou les partenaires n'a été volée.
Les dirigeants d'OpenAI n'ont pas considéré l'incident comme une menace pour la sécurité nationale, estimant que le pirate était une personne privée sans lien connu avec un gouvernement étranger, selon le rapport. La société basée à San Francisco n'a pas informé les autorités fédérales chargées de l'application de la loi de l'existence de cette violation, ajoute le rapport.
En mai, OpenAI a déclaré à l'adresse qu'elle avait interrompu cinq opérations d'influence secrètes qui cherchaient à utiliser ses modèles d'IA pour des "activités trompeuses" sur l'internet, la dernière en date suscitant des inquiétudes quant à l'utilisation potentiellement abusive de la technologie.
L'administration Biden était sur le point d'ouvrir un nouveau front dans ses efforts pour protéger la technologie américaine d'IA de la Chine et de la Russie, avec des plans préliminaires pour placer des garde-fous autour des modèles d'IA les plus avancés, y compris le ChatGPT, a rapporté Reuters , citant des sources.
En mai, 16 entreprises développant l'IA se sont engagées sur lors d'une réunion mondiale à développer la technologie en toute sécurité, à un moment où les régulateurs s'efforcent de suivre l'innovation rapide et les risques émergents.
0 commentaire
Vous devez être membre pour ajouter un commentaire.
Vous êtes déjà membre ? Connectez-vous
Pas encore membre ? Devenez membre gratuitement
Signaler le commentaire
Fermer