Aller au contenu principal Activer le contraste adaptéDésactiver le contraste adapté
Plus de 40 000 produits accessibles à 0€ de frais de courtage
Découvrir Boursomarkets
Fermer

Seize entreprises d'intelligence artificielle prennent de nouveaux engagements pour la sécurité
information fournie par AFP 21/05/2024 à 17:57

Photo diffusée le 21 mai 2024 par le bureau présidentiel sud-coréen montrant le président sud-coréen Yoon Suk Yeol (d) lors du sommet sur l'Intelligence artificielle organisé conjointement par la Corée du Sud et la Grande-Bretagne, à Séoul ( Bureau de la présidence sud-coréenne / Handout )

Photo diffusée le 21 mai 2024 par le bureau présidentiel sud-coréen montrant le président sud-coréen Yoon Suk Yeol (d) lors du sommet sur l'Intelligence artificielle organisé conjointement par la Corée du Sud et la Grande-Bretagne, à Séoul ( Bureau de la présidence sud-coréenne / Handout )

Seize des principales entreprises mondiales d'intelligence artificielle (IA), dont les représentants sont réunis mardi à Séoul, ont pris de nouveaux engagements pour assurer le développement en toute sécurité de cette science, a annoncé le gouvernement britannique.

"Ces engagements garantissent que les principales entreprises d'IA du monde feront preuve de transparence et de responsabilité quant à leurs projets de développement d'une IA sûre", a déclaré le Premier ministre britannique, Rishi Sunak, dans un communiqué publié par le ministère britannique de la Science, de l'Innovation et de la Technologie.

L'accord, signé notamment par OpenAI (ChatGPT), Google DeepMind et Anthropic, s'appuie sur les consensus atteint lors du premier "sommet" mondial sur la sécurité de l'IA, l'an dernier à Bletchley Park, au Royaume-Uni.

Ce second "sommet" à Séoul est organisé conjointement par les gouvernements sud-coréen et britannique.

Les entreprises d'IA qui n'ont pas encore rendu publique la façon dont elles évaluent la sécurité des technologies qu'elles développent s'engagent à le faire.

- Risques "intolérables" -

Il s'agit notamment de déterminer quels sont les risques "jugés intolérables" et ce que les entreprises feront pour s'assurer que ces seuils ne sont pas franchis, explique le communiqué.

Photo diffusée le 21 mai 2024 par le bureau présidentiel sud-coréen montrant le président sud-coréen Yoon Suk Yeol (d) lors du sommet sur l'Intelligence artificielle organisé conjointement par la Corée du Sud et la Grande-Bretagne, à Séoul ( Bureau de la présidence sud-coréenne / Handout )

Photo diffusée le 21 mai 2024 par le bureau présidentiel sud-coréen montrant le président sud-coréen Yoon Suk Yeol (d) lors du sommet sur l'Intelligence artificielle organisé conjointement par la Corée du Sud et la Grande-Bretagne, à Séoul ( Bureau de la présidence sud-coréenne / Handout )

Dans les circonstances les plus extrêmes, les entreprises s'engagent également à "ne pas développer ou déployer un modèle ou un système" si les mesures d'atténuation ne permettent pas de maintenir les risques en deçà des seuils fixés". Ces seuils seront définis avant le prochain "sommet" sur l'IA, en 2025 en France.

Parmi les entreprises qui acceptent ces règles de sécurité figurent également les géants américains de la technologie Microsoft, Amazon, IBM et Meta, le français Mistral AI et le chinois Zhipu.ai.

Ces annonces tombent alors que les 27 pays membres de l'Union européenne ont définitivement approuvé mardi une législation inédite au niveau mondial pour réguler les systèmes d'intelligence artificielle (IA) afin de favoriser l'innovation en Europe tout en limitant les possibles dérives.

Cette législation qui s'appliquera pour l'essentiel à partir de 2026, adopte une approche "fondée sur le risque" et impose aux différents systèmes d'intelligence artificielle des contraintes proportionnées aux dangers qu'ils représentent pour la société.

Schéma explicatif de la phase d'entraînement du robot conversationnel ChatGPT ( AFP /  )

Schéma explicatif de la phase d'entraînement du robot conversationnel ChatGPT ( AFP / )

Le succès fulgurant de ChatGPT peu après sa sortie en 2022 a déclenché une ruée dans le domaine de l'IA générative, les entreprises technologiques du monde entier investissant des milliards de dollars dans le développement de leurs propres modèles.

Les modèles d'IA générative peuvent produire du texte, des photos, du son et même des vidéos à partir de simples invites. Leurs partisans les présentent comme une percée qui améliorera la vie des citoyens et des entreprises dans le monde entier.

Mais les défenseurs des droits humains et les gouvernements craignent aussi leur utilisation à mauvais escient dans un grand nombre de situations, notamment pour manipuler les électeurs par le biais de fausses nouvelles ou de photos et de vidéos "deepfake" de dirigeants politiques.

Photo diffusée le 21 mai 2024 par le bureau présidentiel sud-coréen montrant le président sud-coréen Yoon Suk Yeol (d) lors du sommet sur l'Intelligence artificielle organisé conjointement par la Corée du Sud et la Grande-Bretagne, à Séoul ( Bureau de la présidence sud-coréenne / Handout )

Photo diffusée le 21 mai 2024 par le bureau présidentiel sud-coréen montrant le président sud-coréen Yoon Suk Yeol (d) lors du sommet sur l'Intelligence artificielle organisé conjointement par la Corée du Sud et la Grande-Bretagne, à Séoul ( Bureau de la présidence sud-coréenne / Handout )

Beaucoup exigent que des normes internationales soient instituées pour encadrer le développement et l'utilisation de l'IA.

"Le domaine de la sécurité de l'intelligence artificielle évolue rapidement et nous sommes particulièrement contents de soutenir les engagements" pris à l'occasion de ce sommet dans ce domaine, a déclaré Anna Makanju, vice-président d'OpenAI pour les affaires globales, dans un communiqué annonçant les nouveaux engagements mardi.

Accusée par l'actrice Scarlett Johansson d'avoir volontairement et à son insu copié sa voix, l'entreprise avait annoncé peu avant qu'elle allait en changer la tonalité, quelques jours seulement après la dissolution de son équipe en charge d'atténuer les éventuels dangers à long terme d'une IA trop intelligente.

L'actrice Scarlett Johansson au dîner des correspondants de la Maison Blanche, à Washington, le 27 avril 2024 ( AFP / Brendan Smialowski )

L'actrice Scarlett Johansson au dîner des correspondants de la Maison Blanche, à Washington, le 27 avril 2024 ( AFP / Brendan Smialowski )

L'annonce avait été marquée par le départ d'un des cofondateurs de l'entreprise, Ilya Sutskever, ainsi que du responsable de l'équipe, Jan Leike.

Outre la sécurité, le "sommet" de Séoul examinera comment les gouvernements peuvent contribuer à stimuler l'innovation (notamment la recherche sur l'IA dans les universités) et comment la technologie pourrait contribuer à résoudre des problèmes tels que le changement climatique et la pauvreté.

La réunion de Séoul, qui dure deux jours, se tient partiellement de façon virtuelle, certaines séances se déroulant à huis clos tandis que d'autres sont ouvertes au public dans la capitale sud-coréenne.

Plus tard dans la journée, le président coréen Yoon Suk Yeol et Rishi Sunak doivent coprésider une session virtuelle.

Valeurs associées

176.44 USD NASDAQ 0.00%
IBM
166.87 USD NYSE 0.00%
466.83 USD NASDAQ 0.00%
415.13 USD NASDAQ 0.00%

0 commentaire

Signaler le commentaire

Fermer

Mes listes

Cette liste ne contient aucune valeur.