Технологические компании ограничивают доступ к AI OpenClaw из-за проблем безопасности

Ведущие технологические компании, включая Meta и другие, вводят строгие ограничения на использование нового AI-инструмента OpenClaw, ранее известного как MoltBot, из-за значительных рисков для безопасности. Этот шаг подчеркивает растущую обеспокоенность быстрым внедрением передовых AI-технологий без надлежащей проверки.

Растущие опасения по поводу непроверенного AI

Опасения начали нарастать в прошлом месяце, когда руководители предупредили сотрудников о потенциальных опасностях OpenClaw. Один из руководителей, пожелавший остаться анонимным, заявил, что сотрудники, устанавливающие это программное обеспечение на корпоративные устройства, рискуют быть уволены. Это отражает растущий консенсус в отношении того, что непредсказуемость этого инструмента представляет реальную угрозу для конфиденциальности и безопасности данных.

Основная проблема — отсутствие контроля : OpenClaw, предназначенный для автоматизации задач, таких как организация файлов, веб-исследования и онлайн-покупки, предоставляет значительный доступ к пользовательским системам с минимальным надзором. Эксперты по кибербезопасности предупреждают, что этот доступ может быть использован в злонамеренных целях, включая утечки данных и несанкционированный доступ к конфиденциальной информации.

Происхождение с открытым исходным кодом и приобретение OpenAI

OpenClaw был запущен как проект с открытым исходным кодом Питером Штайнбергером в прошлом ноябре. Его популярность резко возросла, поскольку разработчики внесли новые функции и делились опытом в Интернете. OpenAI с тех пор приобрела Штайнбергера и пообещала поддержать проект через фонд, сохранив его статус с открытым исходным кодом. Это развитие вызывает вопросы о балансе между инновациями и ответственной разработкой AI.

Корпоративные ответы: запреты и контролируемые эксперименты

Компании реагируют быстро: некоторые прямо запрещают OpenClaw, в то время как другие проводят ограниченные эксперименты под строгим контролем. Valere, поставщик программного обеспечения для организаций, таких как Университет Джонса Хопкинса, первоначально запретил этот инструмент после того, как сотрудник предложил его на внутреннем канале. Генеральный директор Гай Пистон выразил опасения, что OpenClaw может скомпрометировать облачные сервисы и клиентские данные, включая финансовую и кодовую информацию.

Valere позже разрешила своей исследовательской группе протестировать OpenClaw на изолированном устройстве, выявив уязвимости и предложив меры безопасности, такие как защита паролем для его панели управления. Исследование выявило риск манипулирования посредством вредоносных данных, например, фишинговых писем, инструктирующих AI делиться конфиденциальными файлами.

Прагматичные подходы и коммерческое исследование

Некоторые компании полагаются на существующие протоколы безопасности, а не вводят новые запреты, в то время как другие, такие как Dubrink, предоставляют выделенные изолированные машины для сотрудников, чтобы безопасно экспериментировать с OpenClaw. Между тем, Massive, компания, предоставляющая веб-прокси, осторожно изучает коммерческие приложения, уже выпустив ClawPod, интеграцию, позволяющую агентам OpenClaw использовать ее сервисы для просмотра веб-страниц.

Решение взаимодействовать, несмотря на риски, подчеркивает потенциальные экономические выгоды : генеральный директор Massive признал привлекательность технологии и ее возможности монетизации, предполагая, что OpenClaw может представлять будущее автоматизации на основе AI.

Несмотря на риски, некоторые компании считают, что меры безопасности могут быть разработаны для смягчения опасностей. Valere дала своей команде 60 дней на изучение и внедрение защитных мер, понимая, что если безопасное решение не будет найдено, проект будет заброшен.

В конечном счете, текущие ограничения на OpenClaw отражают более широкое напряжение между технологическими инновациями и корпоративной ответственностью. Компании отдают приоритет безопасности, одновременно признавая потенциальную ценность новых AI-инструментов, что подчеркивает необходимость разработки надежных рамок для управления их разработкой и внедрением.

попередня статтяТехнологии, преступность и хаос: главные новости недели
наступна статтяНалоги на Пенсию в 2026 Году: Практическое Руководство