Ad image

Les événements qui ont marqué l’actualité en 2025

Service Com'
Lu il y a 14 minutes



Les investissements sont colossaux, les projets tout aussi fous les uns que les autres. Derrière ces annonces : les Big Tech. Retour sur une année haute en couleurs (et en dollars).

Des projets d’infrastructures équivalents à la taille de Manhattan aux mille milliards de dollars investis, en passant par les avancées remarquables en puissance de calcul et en efficacité énergétique, 2025 a été une année de flux ininterrompus d’actualités dans le monde de l’intelligence artificielle.

Voici notre récapitulatif (en toute subjectivité) de quelques-unes des annonces les plus marquantes qui ont façonné l’industrie au cours de l’année écoulée.

Janvier :

Retour sur le “moment DeepSeek”. La sortie des modèles de raisonnement de première génération, DeepSeek-R1-Zero et DeepSeek-R1, par l’entreprise chinoise a littéralement ébranlé les marchés financiers et l’écosystème, provoquant une perte de 600 milliards de dollars pour Nvidia en une seule séance. Le chiffre à retenir ? Le coût d’entraînement pour la famille R1 a été de moins de 6 millions de dollars, d’après ses responsables. Le coup de grâce ? L’API de DeepSeek était à l’époque de sa sortie 96,4% moins chère que l’API d’OpenAI.

L’autre annonce phare du mois nous vient des Etats-Unis. Le projet Stargate, initié en janvier par OpenAI, SoftBank et Oracle, avec la bénédiction de Donald Trump, réélu à la tête du pays, prévoit de construire des infrastructures adaptées à l’ère de l’IA pour un montant – disons-le, exorbitant – de 500 milliards de dollars. L’argent semble couler à flot puisque l’initiative approche désormais 1 400 milliards de dollars d’engagements cumulés.

Février :

Amazon frappe fort ce 26 février avec la nouvelle version de fils assistant vocal Alexadont il donne enfin un aperçu après des mois de spéculations. “Alexa+ n’est pas qu’un énième chatbot. Elle est plus conversationnelle, plus intelligente, plus personnalisée et vous aide à accomplir vos tâches”, promet l’entreprise. Pour sortir du lot, cette version “+” s’appuie sur plusieurs modèles disponibles sur le service cloud Bedrock, comme le modèle interne Nova et celui d’Anthropic, Claude. De quoi faire correspondre instantanément chaque demande avec le modèle le plus adapté pour la tâche à accomplir.

Alexa+ n’a d’ailleurs plus besoin de vous pour accomplir des tâches ! Avec ses fonctions agentiques, l’assistant peut naviguer sur Internet par lui-même pour accomplir des actions en votre nom. Il est même possible de contrôler plusieurs appareils connectés en une seule demande ou de créer des routines pour Alexa entièrement par la voix. Amazon promet que son assistant en déduira ce que l’utilisateur veut dire sans expliciter les tâches à effectuer, par exemple en ajustant la température d’un thermostat connecté lorsque quelqu’un dit avoir froid.

Flippant ? Un peu. Cool ? Un peu aussi. Le fait est que le marché est conséquent : Amazon a déjà vendu plus de 600 millions d’appareils (à date) compatibles avec Alexa, et ils profiteront tous de ce nouveau système… pour 19,99 dollars, soit le prix d’un abonnement Plus pour ChatGPT. Simple hasard, à n’en pas douter.

Mars :

Nvidia règne en maître sur le marché des data centers pour l’IA. Il ne se réduit pas seulement à la fabrication de GPU, et sa domination sur le marché de l’intelligence artificielle n’est pas uniquement grâce à CUDA. Architectures, conception des racks, mise en réseau, frameworks et solutions logicielles… Il est partout, en avance sur tous les plans, et ne relâche pas la pression.

Pour garder cette avance, la firme de Jensen Huang fait des acquisitions plus fréquentes, cherche à élargir sa cible – séduisant aussi chercheurs et étudiants avec les stations de travail DGX Spark et DGX Station – et s’impliquant dans la mise en place de sites pour accueillir les prochains centres de calcul taillés pour l’IA.

Avril :

Google vit son “AI momentum”. A l’occasion de sa conférence annuelle Cloud Next ’25 à Las Vegas, le géant a dévoilé sa dernière génération de TPU qui promet de révolutionner la phase d’inférence des modèles d’IA. “Des modèles de référence comme Gemini 2.5 ou AlphaFold, lauréat du prix Nobel, tournent déjà sur nos TPU”, entendait-on alors.

Un chiffre peut résumer à lui seul la puissance de ce TPU 7e génération : en configuration maximale (9 216 puces/pod), Ironwood délivre 42,5 exaflops. Soit plus de 24 fois la capacité de calcul du superordinateur le plus puissant au monde, El Capitan, qui plafonne à 1,7 exaflops/pod.

En parallèle, Google multiplie les innovations dans sa plateforme Agentspace pour offrir aux entreprises toutes les clés pour développer des agents, connectés à différentes sources de données, de façon sécurisée, et capables d’exécuter des workflows complexes. Bientôt, des agents pourront même se parler entre eux et définir qui fait quoi, exit l’humain.

Juin :

La guerre des talents est à son plus haut. Mark Zuckerberg a mené une véritable razzia de recrutements qui s’inscrit dans la création d’une organisation baptisée sobrement Meta Superintelligence Labs (MSL) et qui doit regrouper toutes les équipes travaillant sur l’IA chez Meta. Ils viennent pour la plupart de chez OpenAI, Google DeepMind, Amazon ou encore Apple, le tout grâce à des packages de rémunération massifs.

Ainsi, en sept semaines, Meta a aspiré 13 cerveaux de l’IA tandis que Google DeepMind en perdait 8 et OpenAI 7. La période de juin à juillet 2025 est un espace-temps que l’on pourrait qualifier d’“à part”.

Juillet :

Suite logique à l’amas de capital et à cette phase de recrutement intense, Meta déroule doucement son plan avec l’étape suivante qui n’est autre que le développement de clusters de data centers pour atteindre ce qu’il nomme la “superintelligence”.

Le mastodonte des réseaux sociaux a annoncé cet été qu’un premier site d’un gigawatt était en cours de construction, tandis qu’un autre de 5 GW est prévu dans les années à venir. D’autres clusters “titanesques” sont également en préparation. Chacun de ces sites couvre à lui seul une surface comparable à une bonne partie de Manhattan. Oui, vous avez bien lu, Manhattan.

Août :

OpenAI a lancé la tendance “Ghibli” avec gpt-image-1, mais Nano Banana de Google marque l’entrée dans une ère de l’édition d’images et de la cohérence visuelle bien plus sérieuse. Les équipes de Google DeepMind ont en effet réussi à s’emparer de la place du podium du benchmark d’édition d’images LMArena.

Le modèle Gemini-2.5-flash-image-preview, également appelé Nano-banana, est considéré comme le mieux noté au monde alors qu’il vient à peine de sortir. Intégré à l’application Gemini, il s’attache, lors de la modification de photos de personnes, à garder tous les détails et à rester fidèle à l’image originale. Avec l’outil, les utilisateurs peuvent demander à changer n’importe quoi, combiner plusieurs photos, ajouter des éléments, etc.

Septembre :

Septembre est synonyme de rentrée, de nouveautés… et de percées de la vidéo IA. OpenAI crée un “TikTok de l’IA” avec Sora 2, la seconde génération de son modèle de génération vidéo Sora, accessible via une application iOS dédiée (appelée Sora). Il faut dire que les vidéos générées par intelligence artificielle sont la nouvelle coqueluche des Big Tech qui disent vouloir “maximiser la création” de la part des utilisateurs. Mais en vérité, que gagnent vraiment ces derniers, si ce n’est scroller infiniment ?

Sur le vieux Continent, c’est notre pépite française qui fait parler d’elle. Après un milliard levé en décembre, Mistral AI revient avec une levée de fonds de 1,7 milliard d’euros, faisant grimper sa valorisation à 11,7 milliards d’euros. Singularité de ce tour de table, il est mené par le groupe néerlandais ASML, fournisseur clé d’équipements pour la fabrication de puces électroniques. Ce dernier bénéficiera en retour des produits et services de la start-up. Parmi les participants figurent également des investisseurs historiques, dont Bpifrance et Nvidia.

Octobre :

L’ogre OpenAI est insatiable. Sa soif d’énergie est sans nom. Le créateur de ChatGPT multiplie les contrats faramineux pour son projet Stargate. Le dernier en date, passé avec l’Argentin Sur Energy, pourrait atteindre jusqu’à 25 milliards de dollars et comprendrait une installation d’une capacité maximale de 500 mégawatts destinée à fournir la puissance de calcul nécessaire pour faire tourner ses futurs systèmes d’IA.

OpenAI a également fait part de la signature d’un autre partenariat clé avec Broadcom. Dans le cadre de ce contrat pluriannuel, concevoir les accélérateurs et les systèmes (notamment des solutions Ethernet) destinés aux clusters d’IA de dernière génération. Le deal porte sur l’équivalent de 10 GW d’accélérateurs IA. Le déploiement doit débuter au second semestre 2026 pour une finalisation d’ici fin 2029.

Et les accords conclus cette année ne s’arrêtent pas là puisque Sam Altman a récemment indiqué qu’OpenAI vise 250 GW de capacité énergétique d’ici à 2033, soit environ 20% de la capacité actuelle des États-Unis. Pour y parvenir, l’entreprise pourrait envisager des partenariats avec des acteurs phares du secteur : les fournisseurs de turbines à gaz Siemens Energy, GE Vernova et Mitsubishi Heavy Industries. Combinés à des investissements dans des infrastructures énergétiques diversifiées, cela lui permettrait d’atteindre ces objectifs pour le moins ambitieux.

Novembre:

Google met une raclée à ses concurrents. Retour sur un match gagné en deux sets. La sortie de Gémeaux 3 Proson tout dernier modèle d’IA de référence a créé l’effervescence : il bat tous les scores, que ce soit sur LMArena, HLE, MMMU-Pro, SWE-Bench Verified, etc. Il est aussi d’ores et déjà disponible dans tous ses services et promet un vrai changement dans les usages, aussi bien pour la recherche sur le web que l’apprentissage ou le développement informatique.

Quelques jours plus tard, Google assène le coup fatal avec la sortie de Nano Banana Pro. Meilleure gestion du texte dans les images, meilleure constance entre les images générées et leurs modèles, plus de contrôle sur le format des images et leur traitement (couleur, luminosité, mise au point)… Un (vrai) grand pas en avant pour ce modèle qui était déjà considéré comme le meilleur du marché. Cerise sur le gâteau : la traçabilité des images est assurée depuis l’application Gemini. Trois ans après la sortie de ChatGPT, c’est Google qui domine désormais l’industrie de l’IA.

Décembre :

Amazon Web Services a la mainmise sur ce dernier mois de l’année. Sa conférence annuelle re:Invent fait office de vitrine de ses capacités. Cette année n’a pas manqué à l’appel, AWS se livrant à une kyrielle d’annonces autour de l’IA. En haut de l’affiche : la disponibilité générale de ses nouveaux accélérateurs Trainium3qui sont quatre fois plus performants que leurs prédécesseurs et viennent compléter son offre de GPU Nvidia. Ils seront au cœur des AI Factories qu’AWS va construire partout dans le mondenotamment en transformant ses vieux data centers.

L’hyperscaler n’est pas en reste sur le plan des modèles d’IA, avec la seconde génération de ses modèles de fondation Novaà la fois plus puissants et conçus pour fournir le meilleur rapport qualité/prix. Vous voulez les utiliser avec vos données d’entreprise ? Pas de souci, AWS vous facilite la tâche avec Nova Forge.

Quid des agents ? AWS fait le buzz avec un trio de “frontier agents” pour le développement informatique, la sécurité et les DevOps. Ils sont à la pointe (d’après Amazon) car ils sont complètement autonomes, peuvent accomplir un très grand nombre de tâches et fonctionner durant plusieurs jours.

Pour le numéro un du cloud aux quelque 924 data centers répartis dans une cinquantaine de pays, tout roule.



Source link

Share This Article
Laisser un commentaire