Technické společnosti omezují přístup k OpenClaw AI kvůli bezpečnostním obavám

Přední technologické společnosti, včetně Meta a dalších, zavádějí přísná omezení na používání nového nástroje umělé inteligence OpenClaw, dříve známého jako MoltBot, kvůli značným bezpečnostním rizikům. Tento krok podtrhuje rostoucí obavy z rychlého přijetí pokročilých technologií umělé inteligence bez řádného prověření.

Rostoucí obavy z netestované umělé inteligence

Obavy začaly narůstat minulý měsíc, když vedoucí pracovníci varovali zaměstnance před potenciálním nebezpečím OpenClaw. Jeden vedoucí pracovník, který si přál zůstat v anonymitě, uvedl, že zaměstnancům, kteří instalují software na firemní zařízení, hrozí propuštění. To odráží rostoucí shodu, že nepředvídatelnost nástroje představuje skutečnou hrozbu pro soukromí a bezpečnost dat.

Hlavním problémem je nedostatečná kontrola : OpenClaw, navržený pro automatizaci úkolů, jako je organizace souborů, webový průzkum a online nakupování, poskytuje významný přístup k uživatelským systémům s minimálním dohledem. Odborníci na kybernetickou bezpečnost varují, že tento přístup může být zneužit ke škodlivým účelům, včetně úniku dat a neoprávněného přístupu k citlivým informacím.

Původ open source a akvizice OpenAI

OpenClaw spustil jako open source projekt Peter Steinberger loni v listopadu. Jeho popularita prudce vzrostla, když vývojáři představili nové funkce a sdíleli zážitky online. OpenAI od té doby získala Steinberger a zavázala se podporovat projekt prostřednictvím nadace a zároveň zachovat jeho status open source. Tento vývoj vyvolává otázky ohledně rovnováhy mezi inovacemi a odpovědným vývojem umělé inteligence.

Firemní reakce: zákazy a kontrolované experimenty

Společnosti reagují rychle: některé OpenClaw přímo zakazují, zatímco jiné provádějí omezené experimenty pod přísnou kontrolou. Valere, poskytovatel softwaru pro organizace, jako je Johns Hopkins University, původně tento nástroj zakázal poté, co jej jeden zaměstnanec navrhl na interním kanálu. Generální ředitel Guy Piston vyjádřil obavy, že OpenClaw by mohl ohrozit cloudové služby a zákaznická data, včetně finančních a kódovacích informací.

Společnost Valere později umožnila svému výzkumnému týmu otestovat OpenClaw na izolovaném zařízení, identifikovat zranitelnosti a navrhnout bezpečnostní opatření, jako je ochrana heslem pro jeho ovládací panel. Studie identifikovala riziko manipulace prostřednictvím škodlivých dat, jako jsou phishingové e-maily instruující AI ke sdílení citlivých souborů.

Pragmatické přístupy a komerční výzkum

Některé společnosti se spoléhají spíše na stávající bezpečnostní protokoly než na zavádění nových zákazů, zatímco jiné, jako Dubrink, poskytují zaměstnancům vyhrazené izolované stroje, aby mohli bezpečně experimentovat s OpenClaw. Mezitím společnost Massive pro web proxy opatrně zkoumá komerční aplikace a již vydala ClawPod, integraci, která agentům OpenClaw umožňuje používat její služby k procházení webu.

Rozhodnutí zapojit se navzdory rizikům zdůrazňuje potenciální ekonomické výhody : Generální ředitel společnosti Massive uznal přitažlivost této technologie a potenciál zpeněžení, což naznačuje, že OpenClaw by mohl představovat budoucnost automatizace založené na umělé inteligenci.

Navzdory rizikům se některé společnosti domnívají, že bezpečnostní opatření mohou být navržena tak, aby zmírnila nebezpečí. Valere dal svému týmu 60 dní na prostudování a implementaci ochranných opatření s tím, že pokud nebude nalezeno bezpečné řešení, bude projekt opuštěn.

V konečném důsledku současná omezení OpenClaw odrážejí širší napětí mezi technologickými inovacemi a firemní odpovědností. Společnosti upřednostňují zabezpečení a zároveň si uvědomují potenciální hodnotu nových nástrojů umělé inteligence a zdůrazňují potřebu vyvinout robustní rámce, které budou řídit jejich vývoj a implementaci.