4 juillet 2024

Krusell France

Ta dose d'actu digital !

Tech leaders make historic AI safety pledges at Seoul summit

gettyimages-1533515114
Rate this post

Les gouvernements du monde entier et les principales entreprises technologiques ont pris une série d’engagements lors d’un sommet à Séoul, en Corée du Sud, axé sur l’intelligence artificielle, promettant des investissements dans la recherche, les tests et la sécurité. Amazon, Google, Meta, Microsoft, OpenAI et Samsung figurent parmi les entreprises ayant pris des engagements volontaires et non contraignants pour orienter l’IA loin des armes biologiques, de la désinformation ou des cyberattaques automatisées, selon les déclarations du sommet et les reportages de Reuters et AP. Les entreprises se sont également engagées à intégrer un “interrupteur d’arrêt” dans leurs IA, leur permettant ainsi d’éteindre leurs systèmes en cas de catastrophe.

Les engagements pour une IA sécurisée

“Nous ne pouvons pas marcher les yeux fermés vers un avenir dystopique où le pouvoir de l’IA est contrôlé par quelques personnes”, a déclaré le Secrétaire général de l’ONU, Antonio Guterres, dans un communiqué. “La façon dont nous agissons maintenant définira notre époque.” Les promesses faites par les gouvernements et les principales entreprises technologiques marquent les derniers efforts en matière de règles et de garde-fous alors que l’utilisation de l’IA continue de croître. Au cours de l’année et demie écoulée depuis la sortie du chatbot IA génératif ChatGPT par OpenAI, les entreprises se sont tournées vers cette technologie pour aider à l’automatisation et les communications. Les entreprises utilisent l’IA pour aider à surveiller la sécurité des infrastructures, identifier le cancer dans les analyses de patients et aider les enfants à faire leurs devoirs de mathématiques.

Les risques associés au développement de l’IA

Le sommet de Séoul s’est tenu alors que Microsoft, de l’autre côté de l’océan Pacifique, dévoilait ses derniers outils d’IA lors de sa conférence Build destinée aux développeurs et ingénieurs, et une semaine après la conférence des développeurs de Google I/O où le géant de la recherche a présenté les progrès de ses systèmes d’IA Gemini et a également mentionné ses efforts en matière de sécurité de l’IA. Cependant, les experts en IA lancent également des alertes selon lesquelles malgré les promesses de sécurité, le développement de l’IA comporte des risques extrêmes.

Un groupe de 15 experts, dont le pionnier de l’IA Geoffrey Hinton, a écrit dans la revue Science plus tôt cette semaine : “La réponse de la société, malgré des premiers pas prometteurs, est incommensurable avec la possibilité de progrès rapides et transformateurs qui est attendue par de nombreux experts”. “Il existe un chemin responsable – si nous avons la sagesse de l’emprunter.” L’accord de mardi entre les gouvernements et les principales entreprises d’IA fait suite à un précédent ensemble d’engagements pris par les entreprises en novembre dernier, lorsque des délégués de 28 pays ont accepté de contenir les risques potentiellement “catastrophiques” posés par l’IA, notamment par le biais de la législation.

Source : www.cnet.com

  • Mia Dufresne

    Mia est une rédactrice spécialisée dans les produits tech et l'IA, avec une formation en data science et une passion pour l'innovation. Elle explore les dernières avancées en IA, leurs applications pratiques et leurs implications éthiques.

    Voir toutes les publications