Anthropic heeft officieel Mythos Preview onthuld, een krachtig nieuw AI-model met geavanceerde cyberbeveiligingsmogelijkheden, naast een grootschalig sectorbreed initiatief genaamd Project Glasswing. Op een zeldzame manier werkt de AI-startup samen met zijn belangrijkste concurrenten, waaronder Google, Microsoft en Apple, om ervoor te zorgen dat de volgende generatie AI-tools als schild voor de digitale infrastructuur dient en niet als wapen voor hackers.
De opkomst van ‘toevallige’ cybermogelijkheden
De ontwikkeling van Mythos Preview benadrukt een belangrijke trend in kunstmatige intelligentie: opkomende mogelijkheden. Anthropic CEO Dario Amodei merkte op dat het model niet specifiek was ontworpen voor hacking; het werd eerder getraind om uitzonderlijk bedreven te zijn in coderen.
Als direct bijproduct van zijn codeervaardigheid heeft het model de mogelijkheid gekregen om complexe cyberbeveiligingstaken uit te voeren, zoals:
– Ontdekking van kwetsbaarheden: Identificeren van zwakke punten in software.
– Exploitontwikkeling: Het creëren van “proofs of concept” om aan te tonen hoe een systeem kan worden doorbroken.
– Penetratietesten: Aanvallen simuleren om de verdediging te testen.
– Binaire analyse: Software evalueren zonder toegang tot de originele broncode.
Hierdoor ontstaat een kat-en-muisspel met hoge inzetten. Hoewel deze tools verdedigers kunnen helpen bugs sneller te vinden en te repareren, bieden ze kwaadwillenden ook de mogelijkheid om geavanceerde aanvallen te automatiseren die voorheen te moeilijk of te duur waren om uit te voeren.
Project Glasswing: een gezamenlijke verdediging
Anthropic onderkent dit risico en heeft Project Glasswing opgericht, een consortium dat is ontworpen om het mondiale technologie-ecosysteem voor te bereiden op een wereld van zeer capabele AI. De groep omvat meer dan 40 organisaties, variërend van technologiegiganten als Nvidia en Amazon Web Services tot kritieke infrastructuur- en financiële instellingen.
De strategie achter deze samenwerking is tweeledig:
1. Kwetsbaarheden beperken: Door fundamentele platformontwikkelaars (zoals Microsoft en Google) privétoegang te geven tot Mythos Preview, kunnen ze het model gebruiken om kwetsbaarheden in hun eigen systemen te vinden en deze te patchen voordat het model voor het grote publiek wordt vrijgegeven.
2. Defensie standaardiseren: De groep streeft ernaar veiligheidsparadigma’s te herdefiniëren. Zoals Logan Graham, hoofd van het frontier red team van Anthropic, uitlegde, kunnen de huidige veiligheidsaannames binnen de komende 6 tot 24 maanden breken als deze mogelijkheden algemeen beschikbaar worden.
“We hebben Mythos Preview dingen zien bereiken die een senior beveiligingsonderzoeker zou kunnen bereiken”, zegt Graham. “Als dit niet zorgvuldig wordt gedaan, kan dit een betekenisvolle versneller zijn voor aanvallers.”
De “onvindbare” bugs vinden
De potentiële voordelen van deze samenwerking worden al gerealiseerd. Anthropic meldt dat Mythos Preview al duizenden kritieke kwetsbaarheden heeft ontdekt, waaronder bepaalde bugs die decennialang onopgemerkt waren gebleven in zeer nauwkeurig onderzochte code.
Voor bedrijven als Microsoft is het doel om AI te gebruiken om de verdediging op te schalen. Microsoft’s Global CISO, Igor Tsyganskiy, merkte op dat nu cyberbeveiliging de puur menselijke capaciteit overstijgt, AI een ‘ongekende’ mogelijkheid biedt om risico’s op mondiale schaal te verminderen.
Het pad vooruit
Project Glasswing bevindt zich momenteel in de beginfase. Wil het initiatief slagen, dan moet het verder gaan dan een kleine kring van technologiebedrijven en uitgroeien tot een bredere mondiale standaard voor de manier waarop AI-gestuurde beveiliging wordt beheerd. De centrale uitdaging blijft: het identificeren van de cruciale vragen over de veiligheid van AI en het vinden van antwoorden voordat de technologie ons vermogen om ons ertegen te verdedigen te boven gaat.
Conclusie
Door concurrenten samen te brengen onder Project Glasswing probeert Anthropic een potentiële veiligheidscrisis om te zetten in een gecoördineerde defensie-inspanning. Het doel is om ervoor te zorgen dat naarmate AI beter in staat wordt software te breken, het ook beter in staat wordt om deze te beschermen.
