Le aziende tecnologiche limitano l’accesso all’intelligenza artificiale di OpenClaw per motivi di sicurezza

Le principali aziende tecnologiche, tra cui Meta e molte altre, stanno implementando rigide restrizioni sull’uso dello strumento emergente di intelligenza artificiale OpenClaw, precedentemente noto come MoltBot, a causa dei significativi rischi per la sicurezza. La mossa sottolinea le crescenti ansie riguardo alla rapida implementazione di tecnologie avanzate di intelligenza artificiale senza un’adeguata verifica.

Aumentano i timori per l’intelligenza artificiale non controllata

Le preoccupazioni hanno iniziato ad aumentare il mese scorso, con i dirigenti che hanno avvertito i dipendenti sui potenziali pericoli di OpenClaw. Un dirigente, parlando in forma anonima, ha affermato che i dipendenti che installano il software sui dispositivi aziendali rischiano il licenziamento. Ciò riflette un crescente consenso sul fatto che la natura imprevedibile dello strumento rappresenta una vera minaccia per la privacy e la sicurezza dei dati.

Il problema principale è la mancanza di controllo : OpenClaw, progettato per l’automazione di attività come l’organizzazione di file, la ricerca sul web e lo shopping online, garantisce un accesso significativo ai sistemi utente con una supervisione minima. Gli esperti di sicurezza informatica avvertono che questo accesso potrebbe essere sfruttato per scopi dannosi, comprese violazioni dei dati e accesso non autorizzato a informazioni sensibili.

Origini Open Source e acquisizione OpenAI

OpenClaw è stato lanciato come progetto open source da Peter Steinberger lo scorso novembre. La sua popolarità è aumentata man mano che gli sviluppatori hanno contribuito con nuove funzionalità ed esperienze condivise online. In particolare, OpenAI ha acquisito Steinberger e si è impegnata a sostenere il progetto attraverso una fondazione, mantenendo il suo status open source. Questo sviluppo solleva interrogativi sull’equilibrio tra innovazione e sviluppo responsabile dell’IA.

Risposte aziendali: divieti e sperimentazione controllata

Le aziende stanno reagendo rapidamente, alcune hanno bandito apertamente OpenClaw mentre altre stanno portando avanti una sperimentazione limitata sotto severi controlli. Valere, un fornitore di software per organizzazioni come la Johns Hopkins University, inizialmente ha vietato lo strumento dopo che un dipendente lo aveva proposto su un canale interno. Il CEO, Guy Pistone, ha espresso il timore che OpenClaw possa compromettere i servizi cloud e i dati dei clienti, comprese le informazioni finanziarie e relative ai codici.

Valere ha successivamente consentito al proprio gruppo di ricerca di testare OpenClaw su una macchina isolata, identificando le vulnerabilità e suggerendo misure di sicurezza come la protezione tramite password per il suo pannello di controllo. La ricerca ha evidenziato il rischio di manipolazione attraverso input dannosi, come e-mail di phishing che ordinano all’intelligenza artificiale di condividere file sensibili.

Approcci pragmatici ed esplorazione commerciale

Alcune aziende si affidano ai protocolli di sicurezza esistenti invece di implementare nuovi divieti, mentre altre, come Dubrink, stanno fornendo macchine dedicate e isolate affinché i dipendenti possano sperimentare OpenClaw in sicurezza. Nel frattempo, Massive, una società di proxy web, sta esplorando con cautela le applicazioni commerciali, avendo già rilasciato ClawPod, un’integrazione che consente agli agenti OpenClaw di utilizzare i suoi servizi per la navigazione.

La decisione di impegnarsi nonostante i rischi sottolinea i potenziali vantaggi economici : il CEO di Massive ha riconosciuto il fascino della tecnologia e le sue possibilità di monetizzazione, suggerendo che OpenClaw potrebbe rappresentare il futuro dell’automazione basata sull’intelligenza artificiale.

Nonostante i rischi, alcune aziende ritengono che sia possibile sviluppare misure di sicurezza per mitigare i pericoli. Valere ha concesso al suo team 60 giorni per indagare e implementare misure di salvaguardia, con la consapevolezza che se non sarà possibile trovare una soluzione sicura, il progetto verrà abbandonato.

In definitiva, le attuali restrizioni su OpenClaw riflettono una tensione più ampia tra innovazione tecnologica e responsabilità aziendale. Le aziende stanno dando priorità alla sicurezza riconoscendo allo stesso tempo il potenziale valore degli strumenti emergenti di intelligenza artificiale, evidenziando la necessità di strutture solide per governarne lo sviluppo e l’implementazione.