Les États mènent des enquêtes sur l’IA : Nvidia, Microsoft, OpenAI.
Introduction :
Les avancées récentes dans le domaine de l’intelligence artificielle (IA) suscitent de plus en plus d’intérêt et soulèvent des questions essentielles concernant la régulation et l’utilisation de cette technologie. Dans cet article, nous aborderons les récentes initiatives de régulation de l’IA prises par différents États, ainsi que les défis rencontrés par les entreprises et organismes travaillant dans ce domaine. Nous examinerons également les implications de l’utilisation de l’IA dans des secteurs aussi variés que la justice, la photographie et le transport autonome.
États américains en avance sur la régulation de l’IA :
Les législateurs de Californie proposent de nouvelles réglementations visant à encadrer l’utilisation de l’intelligence artificielle afin de protéger les consommateurs et les emplois. Ces mesures, qui comprennent des règles pour éviter la discrimination dans le secteur du logement et de la santé, pourraient servir de modèle pour l’ensemble du pays.
Apparition du “slop” généré par l’IA :
Le terme “slop” désigne les contenus de qualité médiocre ou non désirés générés par des systèmes d’IA, et pose des défis en termes de pertinence et de précision des résultats. Cette problématique a pris de l’ampleur avec l’introduction de Gemini par Google dans ses résultats de recherche aux États-Unis.
Investigations antitrust sur Nvidia, Microsoft et OpenAI :
Le département de la Justice et la Commission fédérale du commerce aux États-Unis ont annoncé des enquêtes antitrust sur les rôles dominants de Microsoft, OpenAI et Nvidia dans l’industrie de l’IA. Cette démarche reflète une tendance croissante à réguler les technologies d’IA et à surveiller leur impact sur l’emploi et la société.
Outils d’expérimentation de l’IA dans les forces aériennes :
Les forces aériennes américaines ont lancé un outil d’IA générateur appelé Non-classified Internet Protocol Generative Pre-training Transformer (NIPRGPT) pour encourager les soldats à expérimenter cette technologie. L’objectif est d’améliorer l’accès à l’information et d’évaluer la demande pour les capacités d’IA au sein de l’armée.
Révision des conditions d’utilisation d’Adobe concernant l’IA :
Adobe a mis à jour ses conditions d’utilisation pour répondre aux préoccupations des clients concernant l’utilisation de leurs contenus pour l’entraînement des IA. Les nouvelles conditions clarifient que Adobe ne formera pas ses modèles génératifs sur le contenu des clients sans autorisation préalable.
Projets d’entrainement des modèles d’IA par Meta en Europe :
Meta prévoit d’utiliser les données des utilisateurs en Europe pour entraîner ses modèles d’IA et améliorer leur précision. Toutefois, l’entreprise est confrontée à des défis liés aux lois strictes de protection des données de l’Union européenne et aux inquiétudes concernant la confidentialité des utilisateurs.
Collaboration entre le Brésil et OpenAI pour moderniser le système judiciaire :
Le Brésil s’est associé à OpenAI pour améliorer son système judiciaire et réduire les coûts. L’utilisation de l’IA générative vise à rationaliser l’analyse des cas judiciaires, à identifier les tendances et à éviter les erreurs coûteuses.
Recall des robotaxis de Waymo suite à un accident :
Waymo a rappelé volontairement l’ensemble de ses robotaxis Jaguar I-Pace après une collision avec un poteau téléphonique. Cela représente le deuxième rappel de l’entreprise, faisant suite à des enquêtes en cours sur son logiciel de véhicules autonomes par l’administration nationale de la sécurité routière.
Approche d’Apple en matière d’IA générale :
Apple adopte une approche différente de l’IA générative en privilégiant des modèles plus petits et plus adaptés à ses systèmes d’exploitation. L’entreprise met l’accent sur l’expérience utilisateur sans compromettre la transparence du processus décisionnel des modèles.
Disqualification d’un photographe d’un concours d’images générées par l’IA :
Un photographe a été disqualifié d’un concours de photographie après que son image réelle a remporté le prix de la catégorie des images générées par l’IA. Ce cas souligne les défis liés à la détection et à la vérification des contenus générés par l’IA.
Défis des détecteurs d’IA pour la détection de la contrefaçon :
Les détecteurs d’IA utilisés pour repérer les textes générés par l’IA et déceler la contrefaçon font souvent des erreurs, entraînant des licenciements injustifiés d’écrivains. Ces outils suscitent des préoccupations en termes de fiabilité et soulignent la nécessité de pouvoir distinguer les contenus originaux des contenus générés par l’IA.
Mise en garde des insiders d’OpenAI sur la course à la domination :
Un groupe d’employés actuels et anciens d’OpenAI alerte sur la culture de l’entreprise, mettant en avant des préoccupations concernant la priorisation des profits et de la croissance au détriment de la sécurité des systèmes d’IA. Ces révélations soulignent les dangers d’une course à la domination dans le développement de l’IA.
Conclusion :
Les avancées rapides dans le domaine de l’intelligence artificielle soulèvent des défis juridiques, éthiques et pratiques qui nécessitent une réglementation et une supervision adéquates pour assurer un développement responsable de cette technologie. Il est indispensable de trouver un équilibre entre l’innovation et la sécurité, tout en garantissant la protection des droits des individus et la transparence des décisions prises par les systèmes d’IA.
Source : thegradientpub.substack.com