Технологічні компанії обмежують доступ до AI OpenClaw через проблеми безпеки

Провідні технологічні компанії, включаючи Meta та інші, вводять строгі обмеження на використання нового AI-інструменту OpenClaw, раніше відомого як MoltBot, через значні ризики для безпеки. Цей крок підкреслює стурбованість, що зростає, швидким впровадженням передових AI-технологій без належної перевірки.

Зростання побоювання з приводу неперевіреного AI

Побоювання почали наростати минулого місяця, коли керівники попередили співробітників про потенційні небезпеки OpenClaw. Один із керівників, який побажав залишитися анонімним, заявив, що співробітники, які встановлюють це програмне забезпечення на корпоративні пристрої, ризикують бути звільнені. Це відображає зростаючий консенсус щодо того, що непередбачуваність цього інструменту становить реальну загрозу для конфіденційності та безпеки даних.

Основна проблема — відсутність контролю : OpenClaw, призначений для автоматизації завдань, таких як організація файлів, веб-дослідження та онлайн-купівлі, надає значний доступ до систем користувача з мінімальним наглядом. Експерти з кібербезпеки попереджають, що цей доступ може бути використаний у зловмисних цілях, включаючи витоку даних та несанкціонований доступ до конфіденційної інформації.

Походження з відкритим вихідним кодом та придбання OpenAI

OpenClaw був запущений як проект із відкритим вихідним кодом Пітером Штайнбергером у минулому листопаді. Його популярність різко зросла, оскільки розробники зробили нові функції і ділилися досвідом в Інтернеті. OpenAI відтоді придбала Штайнбергера та пообіцяла підтримати проект через фонд, зберігши його статус із відкритим вихідним кодом. Цей розвиток викликає питання про баланс між інноваціями та відповідальною розробкою AI.

Корпоративні відповіді: заборони та контрольовані експерименти

Компанії реагують швидко: деякі прямо забороняють OpenClaw, тоді як інші проводять обмежені експерименти під суворим контролем. Valere, постачальник програмного забезпечення для таких організацій, як Університет Джонса Хопкінса, спочатку заборонив цей інструмент після того, як співробітник запропонував його на внутрішньому каналі. Генеральний директор Гай Пістон висловив побоювання, що OpenClaw може скомпрометувати хмарні сервіси та клієнтські дані, включаючи фінансову та кодову інформацію.

Valere пізніше дозволила своїй дослідницькій групі протестувати OpenClaw на ізольованому пристрої, виявивши вразливості та запропонувавши заходи безпеки, такі як захист паролем для панелі управління. Дослідження виявило ризик маніпулювання за допомогою шкідливих даних, наприклад, фішингових листів, що інструктують AI ділитися конфіденційними файлами.

Прагматичні підходи та комерційне дослідження

Деякі компанії покладаються на існуючі протоколи безпеки, а не вводять нові заборони, в той час як інші, такі як Dubrink, надають ізольовані машини для співробітників, щоб безпечно експериментувати з OpenClaw. Тим часом Massive, компанія, що надає веб-проксі, обережно вивчає комерційні програми, вже випустивши ClawPod, інтеграцію, що дозволяє агентам OpenClaw використовувати її сервіси для перегляду веб-сторінок.

Рішення взаємодіяти, незважаючи на ризики, наголошує на потенційних економічних вигодах : генеральний директор Massive визнав привабливість технології та її можливості монетизації, припускаючи, що OpenClaw може представляти майбутнє автоматизації на основі AI.

Незважаючи на ризики, деякі компанії вважають, що заходи безпеки можуть бути розроблені для пом’якшення небезпек. Valere дала своїй команді 60 днів на вивчення та впровадження захисних заходів, розуміючи, що якщо безпечне рішення не буде знайдено, проект буде покинутий.

Зрештою, поточні обмеження на OpenClaw відображають ширшу напругу між технологічними інноваціями та корпоративною відповідальністю. Компанії віддають пріоритет безпеки, одночасно визнаючи потенційну цінність нових AI-інструментів, що наголошує на необхідності розробки надійних рамок для управління їх розробкою та впровадженням.

попередня статтяТехнології, злочинність та хаос: головні новини тижня