Un autre modèle, un autre mystère.
Gemini 2.5 Pro est sorti le 25 mars 2025 et nous l'avons présenté dans Frozen Light comme le nouveau « modèle de raisonnement » de Google.
Mais alors que le billet de blog de sortie parlait de performances, d’architecture et de plans de déploiement, il y avait un écart flagrant :
Où sont les résultats des tests de sécurité ?
Ils n'étaient pas là . Et ce n'est pas normal.
L'article de blog omettait complètement les tests de sécurité, et ce n'est que quelques semaines plus tard que quelqu'un s'en est rendu compte. C'est alors que des experts et des journalistes extérieurs ont commencé à se poser les vraies questions : où est le red-teaming ? Où est l'analyse des risques ?
Â
🧠Ce que Google nous a donné
Le 25 mars 2025, Google a officiellement lancé Gemini 2.5 Pro. L'article de blog mettait l'accent sur :
Meilleur raisonnement et meilleures performances dans toutes les tâches
Force de codage et polyvalence du langage
Flexibilité multimodale
Disponibilité dans le cloud et sur l'appareil
L’ambiance était : « Faites-nous confiance. C’est plus intelligent. »
Mais la confiance exige des preuves. Et ces preuves – autrement dit, des tests de sécurité – n'existaient pas.
Â
🤔 Ce qui manquait
La version originale a ignoré le récapitulatif de sécurité habituel :
Aucun résultat de red-teaming
Pas de repères d'hallucination
Aucun résumé d'atténuation des risques
Pas d'audits de biais précis
Ceci n'est pas une note de bas de page. Il s'agit de la section qui indique : « Voici ce qui pourrait mal se passer et ce que nous avons fait pour y remédier. »
Google n'a pas inclus ça. Pas au lancement.
Â
🧊 Attendez, y a-t-il déjà eu un rapport de sécurité ?
Quelques semaines plus tard, Google a discrètement dévoilé une courte « carte modèle ». Mais selon les experts en IA :
« C'est maigre. C'est vague. Ce n'est pas suffisant. »
Et nous sommes d'accord. Lorsqu'une entreprise de la taille de Google publie un LLM de cette envergure et omet de mentionner la manière dont elle gère les contenus préjudiciables, biaisés ou trompeurs, ce n'est pas une omission mineure.
C'est un angle mort. Et ça aurait dû faire la une.
Â
🕵️ Qui a levé le drapeau rouge ?
Ce n'était pas Google. Ce n'était pas dans la presse de lancement.
Il s'agissait d'experts en gouvernance de l'IA, de chercheurs en sécurité et de journalistes d'endroits comme :
TechCrunch
Fortune
Le Verge
Ils ont commencé à creuser. Ils ont réalisé que l'article contenait des graphiques de performance, mais aucun test de sécurité. Et ils ont réagi.
Nous pensons qu’ils méritent plus d’attention.
Â
💰 En résumé : quand, où et ce que vous devez savoir
Gemini 2.5 Pro lancé le 25 mars 2025
Initialement destiné aux utilisateurs Gemini Advanced, puis ouvert à un public plus large
Disponible via Google AI Studio et bientĂ´t sur Vertex AI
Informations de sécurité ? Toujours aussi mince.
Vous souhaitez comparer cela avec notre article original sur Gemini 2.5 ? Consultez-le ici : Frozen Light News – Gemini 2.5 Pro est arrivé.
đź”— Vous voulez en savoir plus ?
Publication officielle de lancement de Google :
http://blog.google/technology/google-deepmind/gemini-model-thinking-updates-march-2025
Couverture de TechCrunch :
http://techcrunch.com/2025/04/17/googles-latest-ai-model-report-lacks-key-safety-details-experts-say
Commentaire de Fortune :
🧊 Perspective de lumière gelée
Vous pouvez qualifier un modèle d'intelligent. Vous pouvez afficher des graphiques. Vous pouvez publier un article de blog percutant.
Mais si tu veux qu'on lui fasse confiance, tu dois nous montrer ce qui ne marche pas.
Pour l'instant, Google joue la carte de la sécurité en matière de relations publiques, mais pas là où ça compte. Et dans un monde qui s'empresse d'adopter l'IA dans les domaines de la santé, de l'éducation et du droit, ce silence représente un risque.
Il ne s'agit pas d'effrayer les gens, mais de rappeler aux plus grands acteurs : si vous sautez la section sur la sécurité, quelqu'un d'autre l'écrira à votre place.
Et devinez quoi ? On vient de le faire.