Techbedrijven beperken de toegang tot OpenClaw AI vanwege veiligheidsproblemen

Toonaangevende technologiebedrijven, waaronder Meta en verschillende anderen, implementeren strikte beperkingen op het gebruik van de opkomende AI-tool OpenClaw, voorheen bekend als MoltBot, vanwege aanzienlijke veiligheidsrisico’s. Deze stap onderstreept de groeiende bezorgdheid over de snelle inzet van geavanceerde AI-technologieën zonder adequate screening.

Toenemende angst voor niet-doorgelichte AI

De zorgen begonnen vorige maand te escaleren, waarbij leidinggevenden werknemers waarschuwden voor de potentiële gevaren van OpenClaw. Eén leidinggevende verklaarde anoniem dat werknemers die de software op bedrijfsapparaten installeren, het risico lopen ontslagen te worden. Dit weerspiegelt een groeiende consensus dat het onvoorspelbare karakter van de tool een reële bedreiging vormt voor de privacy en beveiliging van gegevens.

Het kernprobleem is het gebrek aan controle : OpenClaw, ontworpen voor taakautomatisering zoals bestandsorganisatie, webonderzoek en online winkelen, biedt aanzienlijke toegang tot gebruikerssystemen met minimaal toezicht. Cybersecurity-experts waarschuwen dat deze toegang kan worden misbruikt voor kwaadaardige doeleinden, waaronder datalekken en ongeautoriseerde toegang tot gevoelige informatie.

Open Source Origins en OpenAI-acquisitie

OpenClaw werd afgelopen november gelanceerd als een open-sourceproject door Peter Steinberger. De populariteit ervan steeg enorm toen ontwikkelaars nieuwe functies bijdroegen en online ervaringen deelden. Met name heeft OpenAI sindsdien Steinberger overgenomen en beloofd het project te ondersteunen via een stichting, waarbij de open-sourcestatus behouden blijft. Deze ontwikkeling roept vragen op over de balans tussen innovatie en verantwoorde AI-ontwikkeling.

Reacties van bedrijven: verboden en gecontroleerde experimenten

Bedrijven reageren snel, waarbij sommigen OpenClaw volledig verbieden, terwijl anderen beperkte experimenten nastreven onder strikte controles. Valere, een softwareleverancier voor organisaties als de Johns Hopkins University, verbood de tool aanvankelijk nadat een medewerker deze via een intern kanaal had voorgesteld. De CEO, Guy Pistone, uitte de vrees dat OpenClaw clouddiensten en klantgegevens in gevaar zou kunnen brengen, inclusief financiële en codegerelateerde informatie.

Valere liet zijn onderzoeksteam later OpenClaw testen op een geïsoleerde machine, waarbij kwetsbaarheden werden geïdentificeerd en beveiligingsmaatregelen werden voorgesteld, zoals wachtwoordbeveiliging voor het configuratiescherm. Het onderzoek benadrukte het risico van manipulatie door kwaadwillige invoer, zoals phishing-e-mails waarin de AI wordt geïnstrueerd om gevoelige bestanden te delen.

Pragmatische benaderingen en commerciële verkenning

Sommige bedrijven vertrouwen op bestaande beveiligingsprotocollen in plaats van nieuwe verboden in te voeren, terwijl andere, zoals Dubrink, speciale, geïsoleerde machines leveren waarmee werknemers veilig met OpenClaw kunnen experimenteren. Ondertussen onderzoekt Massive, een webproxybedrijf, voorzichtig commerciële toepassingen en heeft ClawPod al uitgebracht, een integratie waarmee OpenClaw-agenten zijn diensten kunnen gebruiken om te browsen.

De beslissing om ondanks de risico’s deel te nemen onderstreept de potentiële economische voordelen : de CEO van Massive erkende de aantrekkingskracht van de technologie en de mogelijkheden om inkomsten te genereren, wat suggereert dat OpenClaw de toekomst van AI-gestuurde automatisering zou kunnen vertegenwoordigen.

Ondanks de risico’s zijn sommige bedrijven van mening dat er beveiligingsmaatregelen kunnen worden ontwikkeld om de gevaren te beperken. Valere heeft zijn team 60 dagen de tijd gegeven om veiligheidsmaatregelen te onderzoeken en te implementeren, met dien verstande dat als er geen veilige oplossing kan worden gevonden, het project zal worden stopgezet.

Uiteindelijk weerspiegelen de huidige beperkingen op OpenClaw een bredere spanning tussen technologische innovatie en bedrijfsverantwoordelijkheid. Bedrijven geven prioriteit aan beveiliging en erkennen tegelijkertijd de potentiële waarde van opkomende AI-tools, wat de noodzaak benadrukt van robuuste raamwerken om de ontwikkeling en inzet ervan te regelen.

попередня статтяTechnologie, misdaad en chaos: de week in de krantenkoppen
наступна статтяPensioenbelastingen in 2026: een praktische gids