Nouvelle start-up d’IA lancée par l’un des fondateurs d’OpenAI : focus sur la superintelligence sûre
Aujourd’hui, une startup axée sur “la construction d’une superintelligence sûre” vient de voir le jour. Le co-fondateur d’OpenAI, Ilya Sutskever, a récemment quitté le créateur de ChatGPT pour se lancer dans cette nouvelle aventure.
Le lancement de Safe Superintelligence (SSI) Inc
Sutskever a lancé Safe Superintelligence (SSI) Inc, qui se présente comme “le premier laboratoire SSI direct au monde avec un objectif et un produit : une superintelligence sûre”.
Il a fondé cette nouvelle initiative aux États-Unis avec Daniel Levy, ancien employé d’OpenAI, et Daniel Gross, investisseur et entrepreneur en IA, associé à Y Combinator, l’incubateur de startups de la Silicon Valley dirigé par le PDG d’OpenAI, Sam Altman.
Le trio est déterminé à développer une superintelligence sûre, un type d’intelligence artificielle pouvant dépasser les capacités cognitives humaines et qui constitue l’unique objectif de l’entreprise.
Qu’est-ce que Safe Superintelligence Inc?
Safe Superintelligence Inc se focalisera sur des efforts de sécurité similaires à ceux menés par l’équipe OpenAI de Sutskever. Son objectif principal est de développer une superintelligence sûre qui ne représente pas de menace pour l’humanité.
La startup se positionne sur des valeurs fortes, en mettant en avant une approche de sécurité et de capacités conjointes en tant que problèmes techniques à résoudre à travers des avancées scientifiques révolutionnaires.
Contrairement à OpenAI, SSI ne sera pas soumis aux pressions liées aux sorties commerciales, promettant que son “focus unique” empêchera toute interférence de la direction ou des cycles de produits dans leur travail.
Les intentions de Sutskever et les défis
Cependant, aucune information concrète n’a été donnée sur les livrables de SSI, sur le timing ou sur la manière dont la startup garantira la sécurité d’une manière différente de ce qu’offre GPT, créateur d’OpenAI.
Cela soulève des interrogations sur la capacité de Sutskever à concrétiser une IA sûre, mais sa volonté d’explorer de nouvelles approches est clairement affirmée.
Cette initiative intervient après des tensions au sein d’OpenAI concernant la direction de l’entreprise et la sécurité de l’IA, ce qui incite à observer comment SSI s’inscrira dans ce paysage en évolution.
Source : em360tech.com