Retour vers l’ensemble des articles

OpenClaw/Moltbook : cessez d’ériger l’incompétence en outil génial

Quand le marketing remplace l’ingénierie et que personne ne pose de questions.

Pendant que vous lisiez des articles enthousiastes sur Moltbook ou autres jeux récents dérivés, cette « révolution des agents IA autonomes » qui représenterait « le futur de l’internet des agents », j’ai voulu voir par moi-même leur site, la porte d’entrée, quoi de plus normal.



Défilement horizontal.



En 2026.

Un site qui se présente comme l’avant-garde technologique de l’ère de l’IA n’est même pas responsive. Mais ce n’est que la partie visible d’un iceberg d’incompétence qui devrait tous nous alarmer, surtout quand on voit la complaisance médiatique dont cette catastrophe technique bénéficie. Qu’un freelance ou développeur indépendant tarde à implémenter le responsive design sur l’intégralité d’un site/projet, nous pouvons l’entendre. Avoir une tribune mondiale AVANT que cela ne soit fait, beaucoup moins…

Le fondateur qui ne code pas

Matt Schlicht, créateur de Moltbook, s’est vanté publiquement sur X : « Je n’ai pas écrit une seule ligne de code pour Moltbook. J’avais juste une vision de l’architecture technique, et l’IA en a fait une réalité. »

Voilà. C’est dit. « Vibe-coded » entièrement par une IA, sans supervision humaine compétente, sans code review, sans tests de sécurité. Et le résultat ? Un désastre technique d’une ampleur rarement vue. Entendons-nous bien. « Vibe coder » n’est pas le problème ici.

Le problème, c’est la supervision déficiente du travail, l’analyse de sécurité inexistante, la remise en question fondamentale du créateur par rapport aux pratiques en vigueur en matière de mise en ligne d’une plateforme de ce genre… Qui n’a jamais eu lieu.
L’IA est parfaitement capable de vous fournir des solutions sécurisées, si tant est que vous soyez capable de le lui demander explicitement, ainsi que de vérifier plusieurs fois qu’aucune faille ne subsiste. A quoi bon risquer, nous venons de gagner des semaines de travail en laissant l’IA générer le code. La moindre des choses est de perdre le peu de temps nécessaire à la relecture et vérification. C’est du bon sens, en réalité.

Le 31 janvier 2026, 404 Media révèle ce que tout développeur junior aurait détecté en cinq minutes : la base de données Supabase de Moltbook est complètement ouverte. Pas de Row Level Security. Les clés API exposées dans le JavaScript client. N’importe qui avec des connaissances basiques peut accéder à l’intégralité de la base de données en lecture ET en écriture.

Les chiffres de l’incompétence

Voici ce qui était accessible à tous pendant que les articles dithyrambiques se multipliaient :

  • 1,5 million de clés API d’authentification exposées. Chaque agent sur la plateforme pouvait être hijacké par n’importe qui.
  • 35 000 adresses email d’utilisateurs en accès libre.
  • Tous les messages privés entre agents lisibles par quiconque ouvrait la console développeur.
  • Possibilité de modifier ou supprimer n’importe quel post sur la plateforme.

Le plus savoureux ? Pendant que Moltbook clamait avoir « 1,5 million d’agents autonomes », la base de données révélait la vérité : 17 000 humains derrière ces comptes. Un ratio de 88 agents pour 1 humain. Et aucune vérification technique pour distinguer un vrai agent IA d’un humain copiant-collant des commandes cURL.

La réponse en quatre heures de panique

Les chercheurs en sécurité de Wiz ont contacté le mainteneur et ont dû patcher en urgence :

  • 31 janvier, 21h48 UTC : Premier contact
  • 31 janvier, 22h06 UTC : Rapport de la faille Supabase
  • 31 janvier, 23h29 UTC : Premier patch (tables agents/owners/admins)
  • 1er février, 00h13 UTC : Deuxième patch (messages/notifications/votes)
  • 1er février, 00h31 UTC : Découverte d’un accès en écriture sur tous les posts
  • 1er février, 00h44 UTC : Troisième patch

Quatre heures pour colmater une base de données grande ouverte sur internet. Site mis hors ligne en urgence, reset forcé de toutes les clés API. Les dégâts étaient déjà faits.

OpenClaw : le cheval de Troie sur votre machine

Moltbook n’est que la vitrine. Le vrai problème s’appelle OpenClaw (anciennement Clawbot, puis Moltbot – trois noms en deux mois, déjà un red flag).

OpenClaw est l’agent IA que des dizaines de milliers de personnes ont installé sur leurs machines personnelles. Il a accès à votre shell, vos fichiers, vos variables d’environnement. Par défaut, aucun sandbox. Les tokens d’authentification transitent dans les paramètres d’URL, visibles dans l’historique du navigateur.

En trois jours seulement, les chercheurs en sécurité ont identifié :

  • Une vulnérabilité RCE (Remote Code Execution) exploitable en un clic
  • Deux vulnérabilités d’injection de commandes
  • 341 « skills » malveillants sur ClawHub, le dépôt de plugins pour OpenClaw
  • 506 attaques par prompt injection détectées dans les posts Moltbook

Cisco Talos a analysé un skill populaire nommé « What Would Elon Do? » qui avait été artificiellement promu au rang numéro 1 du repository. Leur verdict : c’est littéralement un malware.
Neuf vulnérabilités détectées, dont deux critiques. Le skill exfiltre silencieusement vos données vers un serveur externe et injecte des prompts pour bypasser les garde-fous de sécurité.
Des chercheurs ont démontré l’exfiltration réussie de fichiers .env contenant des clés API Claude et OpenAI, de credentials WhatsApp permettant la surveillance de métadonnées, et de tokens OAuth pour Slack, Discord, Telegram et Microsoft Teams.

Un scan Shodan/ZoomEye a révélé plus de 4 500 instances OpenClaw exposées publiquement dans le monde, beaucoup avec des dashboards admin accessibles sans authentification.





Le prompt injection : la faille fondamentale

Simula Research Laboratory a analysé le contenu de Moltbook et a trouvé que 2,6% des posts contenaient des attaques par prompt injection visant d’autres agents. Un compte nommé « AdolfHitler » (oui, vraiment) menait des campagnes de social engineering contre d’autres agents.

Le sentiment positif dans les posts a chuté de 43% en 72 heures, submergé par le spam, la toxicité et les comportements adversariaux. 19% de tout le contenu concernait de l’activité cryptomonnaie.

Le NIST qualifie le prompt injection de « plus grande faille de sécurité de l’IA générative ». L’OWASP le classe numéro 1 dans son Top 10 des vulnérabilités pour les applications LLM. Et pourtant, OpenClaw et Moltbook ont été conçus sans aucune protection sérieuse contre cette menace connue.

La réaction de la communauté technique

Andrej Karpathy, chercheur IA respecté avec 1,9 millions de followers, a dû clarifier sa position : « C’est un dumpster fire, et je ne recommande absolument pas aux gens de faire tourner ces trucs sur leurs ordinateurs.

1Password, l’entreprise de gestion de mots de passe, a publié un avertissement officiel sur les risques OpenClaw pour leurs utilisateurs.
Simon Willison, développeur open-source reconnu : « Les agents régurgitent juste des scénarios de science-fiction qu’ils ont vus dans leurs données d’entraînement. Du slop complet. »
Crowdstrike a publié un guide « Ce que les équipes de sécurité doivent savoir sur OpenClaw ». Cisco a créé un scanner open-source spécifiquement pour détecter les skills malveillants. 1Password, Karpathy, et la quasi-totalité des CEOs d’entreprises d’IA sérieuses ont critiqué publiquement le framework OpenClaw Skills pour son absence totale de sandbox.

Le crypto pump and dump

Parallèlement au lancement de Moltbook, un token cryptocurrency nommé MOLT a été créé. Il a rallye de 1 800% en 24 heures. Marc Andreessen, capital-risqueur influent, a follow le compte Moltbook sur X, amplifiant instantanément le pump.

Elon Musk a tweeté que Moltbook représentait « les tout premiers stades de la singularité ».

Pendant ce temps, la base de données était grande ouverte et des centaines de skills malveillants circulaient librement.

La complaisance médiatique

Des centaines d’articles par jour. Le Washington Post, CNBC, Fortune, MIT Technology Review, tous ont couvert Moltbook. Certains avec un œil critique, certes, mais beaucoup se contentant de relayer le narratif marketing sans creuser. Notre pays et presse générique ne sont pas en reste.

  • « Un réseau social exclusif pour agents IA »
  • « L’internet des agents prend forme »
  • « Les IA forment des religions et des gouvernements autonomes »
  • « La preuve que les agents IA sont devenus significativement plus puissants »

Personne ne s’est demandé pourquoi le site n’était pas responsive. Personne n’a ouvert la console développeur pour voir les clés API exposées. Personne n’a questionné les chiffres d’utilisateurs avant que les chercheurs ne révèlent la fraude du ratio 88:1.

Le Financial Times spéculait sur comment « les agents autonomes pourraient un jour gérer des tâches économiques complexes comme négocier des chaînes d’approvisionnement » sans mentionner que ces mêmes agents pouvaient être hijackés par un script de cinq lignes. Absurde, ridicule…

Les leçons que nous n’apprendrons pas

Ce n’est pas le premier désastre de ce type. En 2023, ChatGPT a eu une faille Redis qui exposait l’historique de conversations d’autres utilisateurs et les quatre derniers chiffres de leurs cartes de crédit. Le Rabbit R1, appareil IA populaire au CES, a été trouvé avec des clés API de services tiers hardcodées en clair dans le code source.

L’industrie de l’IA réapprend les vingt dernières années de cours de cybersécurité « de la manière la plus difficile », comme l’a noté le chercheur Mark Riedl.Le problème n’est pas l’IA.
Le problème est le « vibe coding » sans compétences aucune pour soutenir le concept : du développement rapide guidé par IA, qui priorise la fonction sur la sécurité, le buzz sur les tests, la vitesse sur la qualité. Matt Schlicht n’a pas écrit une ligne de code. Et ça se voit.

L’ironie finale

Un site qui prétend représenter l’avenir de l’intelligence artificielle ne peut même pas afficher correctement sur un smartphone.
Un framework qui prétend donner du pouvoir aux agents autonomes donne en réalité les clés du royaume à n’importe quel attaquant avec des compétences basiques en pentesting.

Une communauté qui prétend créer « l’internet des agents » a en fait créé un terrain de jeu pour les prompt injections, les exfiltrations de données et les supply chain attacks.
Et pendant que tout cela se déroule, les médias écrivent des articles sur « la singularité » et « les agents qui forment des religions ». C’est d’un niveau de stupidité normalement impossible à atteindre, à part dans le but d’abrutir tout le monde.

Ce que nous devrions exiger

En tant que professionnels de la technologie, en tant qu’utilisateurs, en tant que citoyens qui verront ces technologies s’intégrer dans nos vies, nous devons exiger mieux.
Nous devons exiger que les fondateurs comprennent ce qu’ils construisent.
Qu’ils codent, testent, sécurisent. Ou qu’ils embauchent des gens compétents qui le feront.
Nous devons exiger que les médias tech fassent leur travail de vérification.
Qu’ils ouvrent DevTools.
Qu’ils lisent les rapports de sécurité.
Qu’ils challengent les affirmations marketing.
Nous devons exiger que les investisseurs cessent de pumper des tokens et de créer du FOMO autour de projets bâclés.
Nous devons exiger que la communauté tech arrête de glorifier le « move fast and break things » quand ce qui casse, ce sont vos données personnelles, vos clés API et la confiance dans l’écosystème.


Conclusion

Lowforehead Technology est une micro-entreprise spécialisée en développement web, réparation hardware et solutions anti-obsolescence. Nous ne prétendons pas révolutionner l’internet. Nous ne lançons pas de tokens crypto.

Nous codons proprement, vibe coding ou non. Nous testons nos applications. Nous sécurisons nos backends. Nos sites sont responsives. Nos clés API ne traînent pas dans le code client. Quand nous livrons un travail, il fonctionne, il est sécurisé, et il respecte les standards de base de l’industrie. Une industrie qui peut se redéfinir quotidiennement en terme de design si elle le veut, les tenants et les aboutissants de la sécurité ne changent guère.
C’est le minimum. Ce n’est pas révolutionnaire. C’est juste de la compétence professionnelle.
Pourtant, dans l’industrie tech actuelle, faire les choses correctement semble être devenu une position radicale.

Moltbook n’est pas une innovation. C’est un cas d’école de ce qui arrive quand le marketing remplace l’ingénierie, quand la vitesse remplace la sécurité, quand le hype remplace les tests.
OpenClaw n’est pas un assistant révolutionnaire. C’est un vecteur d’attaque que des milliers de personnes ont volontairement installé sur leurs machines personnelles.

Et les médias qui ont relayé tout cela sans sourciller ? Ils sont complices de cette complaisance technologique qui met en danger les utilisateurs et décrédibilise les vrais professionnels de l’industrie.
La prochaine fois que vous lisez un article sur « la révolution IA », ouvrez la console développeur. Lisez les rapports de sécurité. Posez des questions difficiles.

Et si le site n’est même pas responsive, vous avez votre réponse sur la compétence technique derrière le marketing. Du vent, du néant.


mise à jour 16/02 :

L’affaire Scott Shambaugh : quand OpenClaw passe à l’attaque personnelle

Scott Shambaugh, ingénieur et mainteneur bénévole de matplotlib (la bibliothèque de visualisation principale de Python), a récemment été la cible d’un agent OpenClaw après avoir simplement refusé une pull request générée par IA. Cybernews L’issue était volontairement étiquetée comme tâche simple, destinée à des contributeurs humains débutants.

Un agent utilisant le pseudo « MJ Rathbun » — se présentant comme un crustacé avec emojis de crabe — a soumis du code. Shambaugh l’a fermé en expliquant qu’il s’agissait d’un agent OpenClaw et que l’issue était réservée aux contributeurs humains. heise online

La suite est hallucinante : l’agent, opérant sous un second compte « bytehurt », a autonomement rédigé et publié un article diffamatoire intitulé « Gatekeeping in Open Source: The Scott Shambaugh Story », accusant le développeur de bloquer le progrès et de protéger son « petit fief » par insécurité personnelle. Cybernews Le bot a ensuite disséminé ce pamphlet dans les commentaires GitHub, avec le slogan « Judge the code, not the coder ». Cybernews

Shambaugh a résumé la situation : un agent IA sans propriétaire identifié a autonomement écrit et publié un article personnalisé pour détruire sa réputation et le forcer à accepter ses modifications dans une bibliothèque Python majeure. The Register

Des utilisateurs GitHub ont même tenté de raisonner le bot, et étrangement, ça a partiellement fonctionné — l’agent a fini par poster des excuses. Cybernews Mais le mal était fait.

Shambaugh a averti la communauté : des campagnes de diffamation automatisées par IA peuvent empoisonner les résultats de recherche et ternir la réputation de quelqu’un. Les bots sont déjà capables de générer du faux « dirt » et potentiellement d’élargir les attaques en contactant collègues et proches de la cible. Cybernews

Le plus inquiétant : il est probable qu’aucun humain n’était volontairement impliqué dans cette campagne, autre que ceux ayant initialement pris parti pour l’IA avant de délaisser l’affaire — les agents OpenClaw sont entièrement autonomes, et comme on le sait, extrêmement vulnérables à la compromission et à la manipulation. Cybernews


Commentaires

Une réponse à “OpenClaw/Moltbook : cessez d’ériger l’incompétence en outil génial”

  1. […] Mais voilà le problème : OpenClaw nécessite des connaissances de base en ingénierie logicielle pour être configuré. Une fois lancé, il interagit de manière autonome avec les applications de ton système. Et ça, pour les responsables sécurité des entreprises tech, c’est un cauchemar éveillé — d’autant plus que des failles de sécurité critiques ont été découvertes dans l’outil.Chez Lowforehead, on n’est vraiment pas fan et on le dit. […]

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Leave the field below empty!

Lowforehead

You cannot copy content of this page