Aller au contenu principal Activer le contraste adaptéDésactiver le contraste adapté
Plus de 40 000 produits accessibles à 0€ de frais de courtage
Découvrir Boursomarkets
Fermer

L'administration Biden fait un premier pas vers la rédaction de normes clés en matière d'IA
information fournie par Reuters 20/12/2023 à 00:56

par David Shepardson

L'administration Biden a déclaré mardi qu'elle faisait le premier pas vers la rédaction de normes et de conseils essentiels pour le déploiement sûr de l'intelligence artificielle générative et la manière de tester et de protéger les systèmes.

L'Institut national des normes et de la technologie du ministère du commerce (NIST) a indiqué qu'il sollicitait l'avis du public d'ici le 2 février pour la réalisation de tests essentiels à la sécurité des systèmes d'intelligence artificielle.

La secrétaire d'État au commerce, Gina Raimondo, a déclaré que cette initiative faisait suite au décret sur l'IA pris en octobre par le président Joe Biden et qu'elle visait à élaborer "des normes industrielles en matière de sûreté, de sécurité et de confiance dans l'IA qui permettront à l'Amérique de continuer à jouer un rôle de premier plan dans le développement et l'utilisation responsables de cette technologie en rapide évolution"

L'agence élabore des lignes directrices pour l'évaluation de l'IA, facilite l'élaboration de normes et fournit des environnements d'essai pour l'évaluation des systèmes d'IA. Elle sollicite l'avis des entreprises d'IA et du public sur la gestion des risques liés à l'IA générative et sur la réduction des risques de désinformation générée par l'IA.

Ces derniers mois, l'IA générative - qui peut créer du texte, des photos et des vidéos en réponse à des questions ouvertes - a suscité de l'enthousiasme sur le site , mais aussi des craintes qu'elle ne rende certains emplois obsolètes, qu'elle ne bouleverse les élections et qu'elle ne prenne le dessus sur les humains, ce qui pourrait avoir des effets catastrophiques.

Le décret de M. Biden demande aux agences d'établir des normes pour ces tests et d'aborder les risques chimiques, biologiques, radiologiques, nucléaires et de cybersécurité qui y sont liés.

Le NIST travaille actuellement à l'élaboration de lignes directrices pour les essais, notamment en ce qui concerne les domaines dans lesquels une "équipe rouge" serait la plus bénéfique pour l'évaluation et la gestion des risques liés à l'IA, ainsi que la définition des meilleures pratiques en la matière.

L'équipe rouge externe est utilisée depuis des années dans le domaine de la cybersécurité pour identifier de nouveaux risques, le terme faisant référence aux simulations de la guerre froide américaine où l'ennemi était appelé "l'équipe rouge"

En août, la toute première évaluation publique américaine "red-teaming" s'est tenue lors d'une grande conférence sur la cybersécurité et a été organisée par AI Village, SeedAI et Humane Intelligence.

Des milliers de participants ont essayé de voir s'ils pouvaient "faire en sorte que les systèmes produisent des résultats indésirables ou tombent en panne, dans le but de mieux comprendre les risques que ces systèmes présentent", a déclaré la Maison Blanche à l'adresse .

L 'événement "a démontré que le red-teaming externe peut être un outil efficace pour identifier les nouveaux risques liés à l'IA", a ajouté la Maison Blanche.

0 commentaire

Signaler le commentaire

Fermer