Un autre modèle, un autre mystère.
Gemini 2.5 Pro est sorti le 25 mars 2025 et nous l'avons présenté dans Frozen Light comme le nouveau « modèle de raisonnement » de Google.

Mais alors que le billet de blog de sortie parlait de performances, d’architecture et de plans de déploiement, il y avait un écart flagrant :

Où sont les résultats des tests de sécurité ?

Ils n'étaient pas là. Et ce n'est pas normal.

L'article de blog omettait complètement les tests de sécurité, et ce n'est que quelques semaines plus tard que quelqu'un s'en est rendu compte. C'est alors que des experts et des journalistes extérieurs ont commencé à se poser les vraies questions : où est le red-teaming ? Où est l'analyse des risques ?

 

🧠 Ce que Google nous a donné

Le 25 mars 2025, Google a officiellement lancé Gemini 2.5 Pro. L'article de blog mettait l'accent sur :

  • Meilleur raisonnement et meilleures performances dans toutes les tâches

  • Force de codage et polyvalence du langage

  • FlexibilitĂ© multimodale

  • DisponibilitĂ© dans le cloud et sur l'appareil

L’ambiance était : « Faites-nous confiance. C’est plus intelligent. »
Mais la confiance exige des preuves. Et ces preuves – autrement dit, des tests de sécurité – n'existaient pas.

 

🤔 Ce qui manquait

La version originale a ignoré le récapitulatif de sécurité habituel :

  • Aucun rĂ©sultat de red-teaming

  • Pas de repères d'hallucination

  • Aucun rĂ©sumĂ© d'attĂ©nuation des risques

  • Pas d'audits de biais prĂ©cis

Ceci n'est pas une note de bas de page. Il s'agit de la section qui indique : « Voici ce qui pourrait mal se passer et ce que nous avons fait pour y remédier. »
Google n'a pas inclus ça. Pas au lancement.

 

🧊 Attendez, y a-t-il déjà eu un rapport de sécurité ?

Quelques semaines plus tard, Google a discrètement dévoilé une courte « carte modèle ». Mais selon les experts en IA :

« C'est maigre. C'est vague. Ce n'est pas suffisant. »

Et nous sommes d'accord. Lorsqu'une entreprise de la taille de Google publie un LLM de cette envergure et omet de mentionner la manière dont elle gère les contenus préjudiciables, biaisés ou trompeurs, ce n'est pas une omission mineure.

C'est un angle mort. Et ça aurait dû faire la une.

 

🕵️ Qui a levé le drapeau rouge ?

Ce n'était pas Google. Ce n'était pas dans la presse de lancement.
Il s'agissait d'experts en gouvernance de l'IA, de chercheurs en sécurité et de journalistes d'endroits comme :

  • TechCrunch

  • Fortune

  • Le Verge

Ils ont commencé à creuser. Ils ont réalisé que l'article contenait des graphiques de performance, mais aucun test de sécurité. Et ils ont réagi.

Nous pensons qu’ils méritent plus d’attention.

 

💰 En résumé : quand, où et ce que vous devez savoir

  • Gemini 2.5 Pro lancĂ© le 25 mars 2025

  • Initialement destinĂ© aux utilisateurs Gemini Advanced, puis ouvert Ă  un public plus large

  • Disponible via Google AI Studio et bientĂ´t sur Vertex AI

  • Informations de sĂ©curité ? Toujours aussi mince.

Vous souhaitez comparer cela avec notre article original sur Gemini 2.5 ? Consultez-le ici : Frozen Light News – Gemini 2.5 Pro est arrivé.

đź”— Vous voulez en savoir plus ?

Publication officielle de lancement de Google :

http://blog.google/technology/google-deepmind/gemini-model-thinking-updates-march-2025

Couverture de TechCrunch :

http://techcrunch.com/2025/04/17/googles-latest-ai-model-report-lacks-key-safety-details-experts-say

Commentaire de Fortune :

http://fortune.com/article/google-gemini-2-5-pro-model-card-published-ai-governance-expert-criticizes-it-as-meager-and-worrisome

🧊 Perspective de lumière gelée

Vous pouvez qualifier un modèle d'intelligent. Vous pouvez afficher des graphiques. Vous pouvez publier un article de blog percutant.

Mais si tu veux qu'on lui fasse confiance, tu dois nous montrer ce qui ne marche pas.

Pour l'instant, Google joue la carte de la sécurité en matière de relations publiques, mais pas là où ça compte. Et dans un monde qui s'empresse d'adopter l'IA dans les domaines de la santé, de l'éducation et du droit, ce silence représente un risque.

Il ne s'agit pas d'effrayer les gens, mais de rappeler aux plus grands acteurs : si vous sautez la section sur la sécurité, quelqu'un d'autre l'écrira à votre place.

Et devinez quoi ? On vient de le faire.

Share Article

Get stories direct to your inbox

We’ll never share your details. View our Privacy Policy for more info.