Empresas tecnológicas restringen el acceso a OpenClaw AI en medio de preocupaciones de seguridad

Las principales empresas de tecnología, incluida Meta y varias otras, están implementando restricciones estrictas en el uso de la emergente herramienta de inteligencia artificial OpenClaw, anteriormente conocida como MoltBot, debido a importantes riesgos de seguridad. La medida subraya la creciente ansiedad sobre el rápido despliegue de tecnologías avanzadas de inteligencia artificial sin una investigación adecuada.

Temores crecientes sobre la IA no investigada

Las preocupaciones comenzaron a aumentar el mes pasado, cuando los ejecutivos advirtieron a los empleados sobre los peligros potenciales de OpenClaw. Un ejecutivo, que habló de forma anónima, afirmó que los empleados que instalan el software en los dispositivos de la empresa corren el riesgo de ser despedidos. Esto refleja un consenso cada vez mayor de que la naturaleza impredecible de la herramienta representa una amenaza real a la privacidad y seguridad de los datos.

El problema central es la falta de control : OpenClaw, diseñado para la automatización de tareas como la organización de archivos, la investigación web y las compras en línea, otorga un acceso significativo a los sistemas de los usuarios con una supervisión mínima. Los expertos en ciberseguridad advierten que este acceso podría explotarse con fines maliciosos, incluidas violaciones de datos y acceso no autorizado a información confidencial.

Orígenes del código abierto y adquisición de OpenAI

OpenClaw fue lanzado como un proyecto de código abierto por Peter Steinberger en noviembre pasado. Su popularidad aumentó a medida que los desarrolladores aportaron nuevas funciones y compartieron experiencias en línea. En particular, desde entonces OpenAI adquirió Steinberger y se comprometió a apoyar el proyecto a través de una fundación, manteniendo su estado de código abierto. Este desarrollo plantea interrogantes sobre el equilibrio entre la innovación y el desarrollo responsable de la IA.

Respuestas corporativas: prohibiciones y experimentación controlada

Las empresas están reaccionando rápidamente: algunas prohíben abiertamente OpenClaw, mientras que otras llevan a cabo una experimentación limitada bajo estrictos controles. Valere, un proveedor de software para organizaciones como la Universidad Johns Hopkins, inicialmente prohibió la herramienta después de que un empleado la propusiera en un canal interno. El director ejecutivo, Guy Pistone, expresó su temor de que OpenClaw pudiera comprometer los servicios en la nube y los datos de los clientes, incluida la información financiera y relacionada con el código.

Más tarde, Valere permitió que su equipo de investigación probara OpenClaw en una máquina aislada, identificando vulnerabilidades y sugiriendo medidas de seguridad como protección con contraseña para su panel de control. La investigación destacó el riesgo de manipulación a través de entradas maliciosas, como correos electrónicos de phishing que instruyen a la IA a compartir archivos confidenciales.

Enfoques pragmáticos y exploración comercial

Algunas empresas confían en los protocolos de seguridad existentes en lugar de implementar nuevas prohibiciones, mientras que otras, como Dubrink, proporcionan máquinas aisladas y dedicadas para que los empleados experimenten con OpenClaw de forma segura. Mientras tanto, Massive, una empresa de proxy web, está explorando con cautela aplicaciones comerciales y ya ha lanzado ClawPod, una integración que permite a los agentes de OpenClaw utilizar sus servicios para navegar.

La decisión de participar a pesar de los riesgos subraya los posibles beneficios económicos : el CEO de Massive reconoció el atractivo de la tecnología y sus posibilidades de monetización, sugiriendo que OpenClaw puede representar el futuro de la automatización impulsada por la IA.

A pesar de los riesgos, algunas empresas creen que se pueden desarrollar medidas de seguridad para mitigar los peligros. Valere ha dado a su equipo 60 días para investigar e implementar salvaguardas, en el entendido de que si no se puede encontrar una solución segura, el proyecto será abandonado.

En última instancia, las restricciones actuales a OpenClaw reflejan una tensión más amplia entre la innovación tecnológica y la responsabilidad corporativa. Las empresas están dando prioridad a la seguridad y al mismo tiempo reconocen el valor potencial de las herramientas de inteligencia artificial emergentes, destacando la necesidad de marcos sólidos para regir su desarrollo e implementación.

попередня статтяTecnología, crimen y caos: la semana en los titulares
наступна статтяImpuestos de jubilación en 2026: una guía práctica