Wiodące firmy technologiczne, w tym Meta i inne, nakładają rygorystyczne ograniczenia na korzystanie z nowego narzędzia AI OpenClaw, wcześniej znanego jako MoltBot, ze względu na znaczne zagrożenia bezpieczeństwa. Posunięcie to podkreśla rosnące obawy związane z szybkim przyjęciem zaawansowanych technologii sztucznej inteligencji bez odpowiedniej weryfikacji.
Rosnące obawy dotyczące nieprzetestowanej sztucznej inteligencji
Obawy zaczęły narastać w zeszłym miesiącu, kiedy kadra kierownicza ostrzegła pracowników o potencjalnych zagrożeniach związanych z OpenClaw. Jeden z dyrektorów, który chciał pozostać anonimowy, powiedział, że pracownikom instalującym oprogramowanie na urządzeniach firmowych grozi zwolnienie. Odzwierciedla to rosnący konsensus co do tego, że nieprzewidywalność narzędzia stwarza realne zagrożenie dla prywatności i bezpieczeństwa danych.
Głównym problemem jest brak kontroli : Zaprojektowany do automatyzacji zadań, takich jak organizacja plików, przeglądanie sieci i zakupy online, OpenClaw zapewnia znaczący dostęp do systemów użytkownika przy minimalnym nadzorze. Eksperci ds. cyberbezpieczeństwa ostrzegają, że dostęp ten może zostać wykorzystany do szkodliwych celów, w tym do wycieku danych i nieuprawnionego dostępu do wrażliwych informacji.
Pochodzenie open source i przejęcie OpenAI
OpenClaw został uruchomiony jako projekt open source przez Petera Steinbergera w listopadzie ubiegłego roku. Jego popularność gwałtownie wzrosła, gdy programiści wprowadzili nowe funkcje i udostępnili doświadczenia online. Od tego czasu OpenAI przejęło firmę Steinberger i zobowiązało się wspierać projekt poprzez fundację, zachowując jednocześnie status otwartego oprogramowania. Rozwój ten rodzi pytania o równowagę między innowacjami a odpowiedzialnym rozwojem sztucznej inteligencji.
Reakcje korporacji: zakazy i kontrolowane eksperymenty
Firmy reagują szybko: niektóre całkowicie zakazują OpenClaw, inne zaś przeprowadzają ograniczone eksperymenty pod ścisłą kontrolą. Valere, dostawca oprogramowania dla organizacji takich jak Uniwersytet Johna Hopkinsa, początkowo zablokował to narzędzie po tym, jak pracownik zasugerował je w kanale wewnętrznym. Dyrektor generalny Guy Piston wyraził obawy, że OpenClaw może zagrozić usługom w chmurze i danym klientów, w tym informacjom finansowym i kodowaniu.
Valere pozwolił później swojemu zespołowi badawczemu przetestować OpenClaw na odizolowanym urządzeniu, identyfikując luki w zabezpieczeniach i sugerując środki bezpieczeństwa, takie jak ochrona hasłem panelu sterowania. W badaniu zidentyfikowano ryzyko manipulacji za pomocą złośliwych danych, takich jak wiadomości e-mail phishingowe instruujące sztuczną inteligencję o udostępnieniu wrażliwych plików.
Podejścia pragmatyczne i badania komercyjne
Niektóre firmy polegają na istniejących protokołach bezpieczeństwa, zamiast wprowadzać nowe zakazy, podczas gdy inne, jak Dubrink, udostępniają pracownikom dedykowane, izolowane maszyny, aby mogli bezpiecznie eksperymentować z OpenClaw. Tymczasem firma Massive, firma zajmująca się proxy sieci Web, ostrożnie bada aplikacje komercyjne, wypuszczając już ClawPod, integrację, która umożliwia agentom OpenClaw korzystanie z jej usług do przeglądania Internetu.
Decyzja o zaangażowaniu pomimo ryzyka podkreśla potencjalne korzyści ekonomiczne : Dyrektor generalny Massive potwierdził atrakcyjność tej technologii i potencjał monetarny, sugerując, że OpenClaw może reprezentować przyszłość automatyzacji opartej na sztucznej inteligencji.
Pomimo ryzyka niektóre firmy uważają, że można zaprojektować środki bezpieczeństwa w celu jego złagodzenia. Valere dał swojemu zespołowi 60 dni na przestudiowanie i wdrożenie środków ochronnych, rozumiejąc, że jeśli nie zostanie znalezione bezpieczne rozwiązanie, projekt zostanie porzucony.
Ostatecznie obecne ograniczenia nałożone na OpenClaw odzwierciedlają szersze napięcie pomiędzy innowacjami technologicznymi a odpowiedzialnością korporacyjną. Firmy priorytetowo traktują bezpieczeństwo, uznając jednocześnie potencjalną wartość nowych narzędzi sztucznej inteligencji, podkreślając potrzebę opracowania solidnych ram regulujących ich rozwój i wdrażanie.















