Empresas de tecnologia restringem o acesso à IA do OpenClaw em meio a preocupações de segurança

As principais empresas tecnológicas, incluindo a Meta e várias outras, estão a implementar restrições estritas à utilização da ferramenta emergente de IA OpenClaw, anteriormente conhecida como MoltBot, devido a riscos de segurança significativos. A medida sublinha as crescentes ansiedades sobre a rápida implantação de tecnologias avançadas de IA sem verificação adequada.

Medos crescentes sobre IA não avaliada

As preocupações começaram a aumentar no mês passado, com executivos alertando os funcionários sobre os perigos potenciais do OpenClaw. Um executivo, falando anonimamente, afirmou que os funcionários que instalam o software nos dispositivos da empresa correm o risco de demissão. Isto reflete um consenso crescente de que a natureza imprevisível da ferramenta representa uma ameaça real à privacidade e segurança dos dados.

O principal problema é a falta de controle : o OpenClaw, projetado para automação de tarefas como organização de arquivos, pesquisa na web e compras on-line, concede acesso significativo aos sistemas dos usuários com supervisão mínima. Os especialistas em cibersegurança alertam que este acesso pode ser explorado para fins maliciosos, incluindo violações de dados e acesso não autorizado a informações sensíveis.

Origens de código aberto e aquisição de OpenAI

OpenClaw foi lançado como um projeto de código aberto por Peter Steinberger em novembro passado. Sua popularidade aumentou à medida que os desenvolvedores contribuíam com novos recursos e compartilhavam experiências online. Notavelmente, a OpenAI adquiriu a Steinberger e comprometeu-se a apoiar o projeto através de uma fundação, mantendo o seu estatuto de código aberto. Este desenvolvimento levanta questões sobre o equilíbrio entre a inovação e o desenvolvimento responsável da IA.

Respostas Corporativas: Proibições e Experimentação Controlada

As empresas estão reagindo rapidamente, com algumas banindo completamente o OpenClaw, enquanto outras buscam experimentação limitada sob controles rígidos. Valere, fornecedora de software para organizações como a Universidade Johns Hopkins, inicialmente baniu a ferramenta depois que um funcionário a propôs em um canal interno. O CEO, Guy Pistone, expressou temor de que o OpenClaw possa comprometer os serviços em nuvem e os dados dos clientes, incluindo informações financeiras e relacionadas ao código.

Mais tarde, Valere permitiu que sua equipe de pesquisa testasse o OpenClaw em uma máquina isolada, identificando vulnerabilidades e sugerindo medidas de segurança, como proteção por senha para seu painel de controle. A investigação destacou o risco de manipulação através de entradas maliciosas, como e-mails de phishing que instruem a IA a partilhar ficheiros sensíveis.

Abordagens Pragmáticas e Exploração Comercial

Algumas empresas confiam nos protocolos de segurança existentes em vez de implementar novas proibições, enquanto outras, como a Dubrink, fornecem máquinas dedicadas e isoladas para os funcionários experimentarem o OpenClaw com segurança. Enquanto isso, a Massive, uma empresa de proxy web, está explorando cautelosamente aplicações comerciais, já tendo lançado o ClawPod, uma integração que permite aos agentes OpenClaw usar seus serviços para navegação.

A decisão de se envolver apesar dos riscos sublinha os potenciais benefícios económicos : O CEO da Massive reconheceu o fascínio da tecnologia e as suas possibilidades de monetização, sugerindo que o OpenClaw pode representar o futuro da automação orientada pela IA.

Apesar dos riscos, algumas empresas acreditam que podem ser desenvolvidas medidas de segurança para mitigar os perigos. A Valere deu à sua equipe 60 dias para investigar e implementar salvaguardas, entendendo que se uma solução segura não for encontrada, o projeto será abandonado.

Em última análise, as atuais restrições ao OpenClaw refletem uma tensão mais ampla entre inovação tecnológica e responsabilidade corporativa. As empresas estão a dar prioridade à segurança, ao mesmo tempo que reconhecem o valor potencial das ferramentas emergentes de IA, destacando a necessidade de estruturas robustas para governar o seu desenvolvimento e implementação.

попередня статтяTecnologia, crime e caos: a semana nas manchetes
наступна статтяImpostos sobre aposentadoria em 2026: um guia prático