Les entreprises technologiques restreignent l’accès à OpenClaw AI en raison de problèmes de sécurité

Les principales entreprises technologiques, dont Meta et plusieurs autres, mettent en œuvre des restrictions strictes sur l’utilisation du nouvel outil d’IA OpenClaw, anciennement connu sous le nom de MoltBot, en raison de risques de sécurité importants. Cette décision souligne les inquiétudes croissantes concernant le déploiement rapide de technologies avancées d’IA sans contrôle adéquat.

Craintes croissantes face à une IA non vérifiée

Les inquiétudes ont commencé à s’intensifier le mois dernier, les dirigeants mettant en garde les employés contre les dangers potentiels d’OpenClaw. Un cadre, s’exprimant de manière anonyme, a déclaré que les employés qui installent le logiciel sur les appareils de l’entreprise risquent d’être licenciés. Cela reflète un consensus croissant selon lequel la nature imprévisible de l’outil constitue une menace réelle pour la confidentialité et la sécurité des données.

Le principal problème est le manque de contrôle : OpenClaw, conçu pour l’automatisation de tâches telles que l’organisation de fichiers, la recherche sur le Web et les achats en ligne, accorde un accès significatif aux systèmes des utilisateurs avec une surveillance minimale. Les experts en cybersécurité préviennent que cet accès pourrait être exploité à des fins malveillantes, notamment pour violation de données et accès non autorisé à des informations sensibles.

Origines de l’Open Source et acquisition d’OpenAI

OpenClaw a été lancé en tant que projet open source par Peter Steinberger en novembre dernier. Sa popularité a augmenté à mesure que les développeurs apportaient de nouvelles fonctionnalités et partageaient des expériences en ligne. Notamment, OpenAI a depuis acquis Steinberger et s’est engagé à soutenir le projet par le biais d’une fondation, en conservant son statut open source. Cette évolution soulève des questions sur l’équilibre entre innovation et développement responsable de l’IA.

Réponses des entreprises : interdictions et expérimentation contrôlée

Les entreprises réagissent rapidement, certaines interdisant purement et simplement OpenClaw tandis que d’autres poursuivent des expérimentations limitées sous des contrôles stricts. Valere, un fournisseur de logiciels pour des organisations comme l’Université Johns Hopkins, a initialement interdit l’outil après qu’un employé l’ait proposé sur un canal interne. Le PDG, Guy Pistone, a exprimé ses craintes qu’OpenClaw puisse compromettre les services cloud et les données des clients, y compris les informations financières et liées au code.

Valère a ensuite autorisé son équipe de recherche à tester OpenClaw sur une machine isolée, identifiant les vulnérabilités et suggérant des mesures de sécurité telles qu’une protection par mot de passe pour son panneau de contrôle. La recherche a mis en évidence le risque de manipulation via des entrées malveillantes, telles que des e-mails de phishing demandant à l’IA de partager des fichiers sensibles.

Approches pragmatiques et exploration commerciale

Certaines entreprises s’appuient sur les protocoles de sécurité existants plutôt que de mettre en œuvre de nouvelles interdictions, tandis que d’autres, comme Dubrink, fournissent des machines dédiées et isolées permettant aux employés d’expérimenter OpenClaw en toute sécurité. Pendant ce temps, Massive, une société de proxy Web, explore prudemment les applications commerciales, ayant déjà publié ClawPod, une intégration permettant aux agents OpenClaw d’utiliser ses services pour la navigation.

La décision de s’engager malgré les risques souligne les avantages économiques potentiels : le PDG de Massive a reconnu l’attrait de la technologie et ses possibilités de monétisation, suggérant qu’OpenClaw pourrait représenter l’avenir de l’automatisation basée sur l’IA.

Malgré les risques, certaines entreprises estiment que des mesures de sécurité peuvent être développées pour atténuer les dangers. Valère a donné 60 jours à son équipe pour enquêter et mettre en œuvre des mesures de protection, étant entendu que si une solution sécurisée ne peut être trouvée, le projet sera abandonné.

En fin de compte, les restrictions actuelles sur OpenClaw reflètent une tension plus large entre l’innovation technologique et la responsabilité des entreprises. Les entreprises donnent la priorité à la sécurité tout en reconnaissant la valeur potentielle des outils d’IA émergents, soulignant la nécessité de cadres robustes pour régir leur développement et leur déploiement.

попередня статтяTech, crime et chaos : la semaine à la une
наступна статтяImpôts retraite en 2026 : un guide pratique