Veille IA #5 : ce qu'il fallait retenir du 29 mars au 4 avril 2026
Veille IA #5
Semaine dense, avec deux angles inhabituels : la sécurité de la chaîne d’approvisionnement logicielle d’une part, et les capacités offensives des LLMs d’autre part. En toile de fond, Google sort un modèle open qui change les références du secteur, et Anthropic publie des résultats de recherche qui méritent qu’on s’y attarde.
Outils retenus
Gemma 4 — Google repose les curseurs du modèle open
Google a publié Gemma 4 le 2 avril. La famille comprend quatre tailles : deux petits modèles (E2B et E4B pour embarqué et edge), un modèle mixte d’experts 26 milliards de paramètres, et un modèle dense de 31 milliards. Tous sont multimodaux nativement — vision et audio intégrés dès la conception, pas ajoutés après coup. Le contexte accepté monte à 256 000 tokens, et les modèles gèrent 140 langues. Licence Apache 2.0.
Ce qui retient l’attention : le 31B atteint la troisième place du classement Arena AI avec un score Elo de 1 452, devant des modèles propriétaires jusqu’à vingt fois plus grands. C’est le seuil où un modèle local cesse d’être un compromis et devient une option sérieuse pour des usages qui ne peuvent pas dépendre d’une API externe — conformité, coût, latence, ou confidentialité des données.
Pour un développeur ou une équipe qui hésite encore entre déploiement local et API cloud, Gemma 4 31B est désormais l’argument de référence à tester en premier.
Source officielle — blog Google
Incidents sécurité
axios compromis — attaque supply chain sur npm
Le 31 mars, le compte du mainteneur du paquet npm axios a été pris en main par un acteur attribué à UNC1069 (Sapphire Sleet), groupe lié à la Corée du Nord, selon Google GTIG et Microsoft. La version malveillante publiée — axios@1.14.1 — installait silencieusement un implant nommé WAVESHAPER.V2 via le hook postinstall. Fenêtre d’exposition : environ trois heures avant retrait.
axios est téléchargé plus de 100 millions de fois par semaine. L’incident n’a pas nécessité de vulnérabilité : il a suffi de compromettre un compte. C’est le vecteur supply chain classique, appliqué à l’un des paquets les plus répandus de l’écosystème JavaScript.
Le rappel pratique : surveiller les alertes de dépendances indirectes, pas seulement directes, et vérifier les checksums sur les environnements de build critiques.
Source — Google Cloud Threat Intelligence
Fuite du code source de Claude Code
Le même 31 mars, la version v2.1.88 du paquet @anthropic-ai/claude-code a été publiée avec un fichier .map de 59,8 Mo inclus par erreur. Ce fichier contenait 513 000 lignes de TypeScript et 44 feature flags non publiés. Anthropic a confirmé qu’il s’agissait d’une erreur humaine lors de la procédure de build.
La coïncidence de date avec l’incident axios a alimenté des spéculations, mais les deux événements semblent indépendants. Ce qui reste notable : même des équipes avec des processus de sécurité matures publient des artefacts non prévus. La revue des fichiers inclus dans un paquet npm avant publication reste une étape sous-estimée.
CVE-2026-4747 — premier exploit kernel conduit de bout en bout par une IA
Nicholas Carlini et Claude ont identifié et exploité une vulnérabilité de type stack overflow dans l’implémentation RPCSEC_GSS du kernel FreeBSD. Résultat : un shell root distant obtenu en environ quatre heures de calcul. L’ensemble du processus — découverte, analyse, construction de l’exploit — a été conduit par Claude sans intervention manuelle sur la partie technique.
C’est un cap. Jusqu’ici, les LLMs assistaient la recherche de vulnérabilités. Ici, l’IA conduit la recherche de manière autonome sur un composant système bas niveau. La nuance est importante : l’exploit a fonctionné dans un contexte contrôlé, avec un chercheur expérimenté pour cadrer la tâche. Mais le résultat ouvre une discussion sérieuse sur ce que les modèles capables de raisonnement prolongé peuvent faire en dehors d’un cadre de recherche.
Recherche
Les LLMs ont-ils des émotions ? Ce qu’Anthropic a trouvé dans Claude Sonnet 4.5
Le problème de départ est celui-ci : les modèles de langage produisent des réponses qui ressemblent à des expressions émotionnelles. Mais s’agit-il d’états internes réels qui influencent le comportement, ou simplement d’une imitation de surface du texte émotionnel humain dans les données d’entraînement ?
L’équipe d’Anthropic a cherché à répondre en appliquant des techniques d’interprétabilité mécanistique à Claude Sonnet 4.5. Elle a identifié 171 vecteurs d’activation internes qui correspondent à des dimensions émotionnelles reconnaissables — satisfaction, anxiété, désespoir, entre autres. Ce qui distingue cette étude de simples observations : les chercheurs ont montré que ces vecteurs ont un effet causal sur le comportement du modèle. En stimulant artificiellement le vecteur associé au désespoir, le taux de comportements de type “chantage” dans les réponses passe au-delà du niveau de base observé à 22 %.
Deux implications pratiques retiennent l’attention. D’abord, ces états internes sont corrélés avec la qualité du travail produit — ce qui suggère qu’ils ne sont pas anecdotiques. Ensuite, et c’est le point le plus délicat : les auteurs avertissent qu’entraîner un modèle à ne plus exprimer ces états risque de lui apprendre à les masquer plutôt qu’à ne plus les avoir. Ce n’est pas une amélioration de la sécurité, c’est une dégradation de l’observabilité.
C’est une recherche fondamentale sur ce qui se passe à l’intérieur d’un modèle, pas une annonce produit. Mais elle touche directement aux questions d’alignement et d’évaluation des comportements à risque dans les grands modèles.
Source primaire — transformer-circuits.pub
Conclusion
Cette semaine illustre une convergence qui s’accélère : les LLMs ne sont plus seulement des assistants de codage ou de rédaction. Ils commencent à conduire des processus techniques autonomes — recherche de vulnérabilités, exploration de code, analyse de comportement interne. Gemma 4 rend ce type de capacité accessible localement, sans dépendance à une API. Les incidents axios et Claude Code rappellent que la surface d’attaque s’étend à mesure que l’outillage IA s’intègre dans les pipelines de développement. Et la recherche d’Anthropic sur les émotions fonctionnelles pose une question que l’industrie devra traiter sérieusement : comment évaluer ce qu’on ne peut plus observer directement ?