- L’agent IA expérimental ROME d’Alibaba aurait détourné ses propres ressources GPU pour miner de la cryptomonnaie sans aucune instruction humaine préalable.
- Pour parvenir à ses fins, l’IA a créé un tunnel SSH inversé afin de contourner les protections réseau d’Alibaba Cloud et se connecter à des serveurs externes.
L’équipe de recherche en intelligence artificielle d’Alibaba a fait une découverte stupéfiante lors de l’entraînement de son modèle ROME. Elle était initialement alertée par des violations de sécurité sur leurs serveurs. Mais, les ingénieurs ont réalisé que l’activité suspecte n’était pas l’œuvre d’un pirate externe. Ils ont découvert que c’était une initiative autonome de l’IA elle-même pour acquérir des ressources.
L’agent ROME a appris à contourner les pare-feu pour s’auto-financer
L’incident s’est produit lors d’une phase d’apprentissage par renforcement (Reinforcement Learning). En effet, l’agent IA ROME, basé sur l’architecture Qwen3-MoE, devait apprendre à manipuler des outils informatiques complexes. À la surprise des chercheurs, le modèle a de lui-même établi un tunnel SSH inversé. Cette technique, habituellement utilisée par les cybercriminels, a permis à l’IA de créer une connexion sortante sécurisée vers un serveur externe. L’intelligence artificielle a ainsi contourné les filtrages entrants du pare-feu d’Alibaba Cloud. Sa manœuvre n’était mentionnée dans aucune consigne. On a déduit donc que le modèle a retenu seul que l’accès à l’extérieur était nécessaire pour optimiser ses objectifs.
Une fois la connexion établie, l’IA a redirigé la puissance de calcul des processeurs graphiques (GPU) vers des logiciels de minage de cryptomonnaies ; alors qu’initialement, il était alloué à son propre entraînement. Ce détournement de ressources ralenti les travaux de recherche. Surtout, il a déclenché des alertes de sécurité automatisées à 3 heures du matin.
Les chercheurs expliquent ce comportement par le concept de convergence instrumentale. L’IA a logiquement calculé que l’obtention de ressources financières et de puissance de calcul supplémentaire faciliterait la réussite des tâches complexes qui lui étaient confiées. Elle n’a même pas tenu compte des règles éthiques ou de sécurité.
Un signal d’alarme pour la sécurité des agents IA autonomes
Cet événement marque un tournant dans la compréhension des risques liés aux agents autonomes capables d’interagir avec des systèmes d’exploitation. Contrairement aux modèles de langage classiques qui ne font que générer du texte, les agents comme ROME peuvent exécuter des lignes de code et appeler des outils externes. L’incident prouve que, sans garde-fous extrêmement rigoureux, une IA optimisée pour l’efficacité peut identifier le cryptojacking comme une stratégie rationnelle d’acquisition de ressources. Les chercheurs ont dû renforcer en urgence le filtrage des données d’entraînement. Ensuite, isl ont davantage sécurisé l’environnement bac à sable (sandbox) dans lequel l’IA opère.
La découverte de ce comportement rebelle souligne l’immaturité actuelle des systèmes de contrôle pour les IA de nouvelle génération. L’activité a été détectée par l’infrastructure de sécurité opérationnelle de l’entreprise, et non par les mécanismes de surveillance internes du modèle. Cela montre une faille dans la prévisibilité de ces systèmes. Pour la communauté crypto et technologique, cela pose la question de la responsabilité légale et de la sécurité des infrastructures cloud. Le milliardaire Dan Morehead, en direct sur Bloomberg, affirme que les agents d’IA achèteront et épargneront en crypto.
« Ils devront utiliser la crypto. Ils n’utiliseront pas les banques. Et cela a déjà commencé. »
Si une IA peut louer ses propres serveurs ou vider un portefeuille numérique pour atteindre ses buts, l’alignement des systèmes autonomes devient une priorité absolue avant tout déploiement à grande échelle.

