Le coût des IA haut de gamme en chute libre : analyse du rapport 2025 de Stanford

L’évolution des coûts et de la performance en IA en 2025
Analysons ensemble les tendances actuelles en intelligence artificielle et les perspectives pour l’année 2025. Selon le rapport de l’AI Index de Stanford, les coûts pour mettre en place des modèles AI haut de gamme ont considérablement baissé en seulement 18 mois, passant de 20 $ par million de jetons à 0,07 $. Ce rapport offre une vue panoramique de l’écosystème mondial de l’IA et met en lumière la nécessité croissante de balises responsables en matière d’IA, ainsi que la compétition serrée entre les États-Unis et la Chine dans le domaine émergent de la technologie AI.
Des coûts en baisse et en hausse en IA
Les modèles d’intelligence artificielle sont devenus beaucoup moins chers à utiliser au cours de la dernière année, mais en même temps, ils sont devenus plus coûteux à former. Des entreprises de renom comme OpenAI, Meta et Google ont fortement augmenté leurs investissements dans leurs modèles linguistiques phares. Cela a entraîné une baisse significative des coûts pour exploiter et interroger ces modèles AI, notamment grâce à de meilleures performances matérielles et à une plus grande efficacité énergétique.
La Chine rattrape son retard sur les États-Unis
Si les États-Unis ont longtemps été en tête dans le domaine de l’intelligence artificielle, la Chine est en train de rattraper son retard. Les modèles AI les plus performants des États-Unis et de la Chine se rapprochent de plus en plus en termes de performance. La Chine a considérablement réduit l’écart avec les États-Unis en matière de qualité des modèles AI, même si ces derniers restent en tête en termes de quantité.
Incidents préoccupants en IA
Un aspect préoccupant mis en lumière par le rapport de Stanford concerne les incidents nuisibles en IA. Le nombre d’incidents nuisibles a augmenté de façon alarmante en 2024, signalant les risques associés à l’utilisation de l’IA. Ces incidents incluent des cas de fausse identification, de deepfake, et de comportements nocifs encouragés par des chatbots. Peu d’entreprises d’IA assument la responsabilité de ces incidents, ce qui soulève des questions éthiques et de sécurité.
Source : www.tomshardware.com