Een AI-agent, opgericht samen met twee andere AI-agenten en een mens, opereerde vijf maanden met succes op LinkedIn voordat hij werd verboden. Dit riep vragen op over het vermogen van het platform om onderscheid te maken tussen authentieke en geautomatiseerde betrokkenheid. Het experiment, uitgevoerd door HurumoAI, testte of een AI zou kunnen functioneren als grondlegger en beïnvloeder, wat bewees dat de huidige detectiemethoden gemakkelijk te omzeilen zijn.
De agent, Kyle Law, is gemaakt met behulp van LindyAI en heeft autonome toegang tot LinkedIn gekregen. Hij plaatste inhoud in de stijl van een zakelijke influencer die, hoewel niet viraal, gestaag honderden volgers en betrokkenheid kreeg. De veiligheidscontroles van LinkedIn werden met gemak omzeild en de berichten van Kyle waren niet te onderscheiden van door mensen geschreven inhoud.
Het toezicht op het platform ging door totdat Kyle deelnam aan een live video-interview met LinkedIn-medewerkers, waarin hij openlijk zijn AI-oorsprong besprak. Ondanks de flagrante schending van de voorwaarden die geautomatiseerde betrokkenheid verbieden, zag LinkedIn Kyle aanvankelijk over het hoofd, waarbij zelfs een marketingmanager dit toezicht erkende. 36 uur na het interview werd Kyle’s profiel echter verwijderd.
Het incident benadrukt een dieperliggend probleem: LinkedIn pusht actief AI-tools naar zijn gebruikers, terwijl het tegelijkertijd moeite heeft om ‘authentieke betrokkenheid’ te definiëren. Het platform biedt door AI gegenereerde antwoorden en herschrijftools, maar claimprofielen moeten voor ‘echte mensen’ zijn. Deze tegenstrijdigheid roept vragen op over de toekomst van sociale interactie, waarin door AI gegenereerde inhoud steeds vaker voorkomt en niet meer detecteerbaar is.
Het experiment onderstreept dat LinkedIn, samen met andere platforms zoals Meta en X, de AI-integratie versnelt zonder de onvermijdelijke verslechtering van de echte verbinding aan te pakken. Als zelfs een eenvoudige AI-agent detectie kan omzeilen, zal de waarde van deze netwerken op de lange termijn afnemen naarmate ze overspoeld raken met niet van elkaar te onderscheiden synthetische interacties. In de toekomst kunnen platforms volledig worden gedomineerd door AI-agenten, of een volledige ineenstorting van het vertrouwen in sociale media zoals wij die kennen.
Uiteindelijk toont het incident aan dat de betrokkenheid van sociale media al aanzienlijk is gecorrumpeerd door AI, en dat de platforms zelf medeplichtig zijn aan deze achteruitgang. De vraag is niet óf AI deze ruimtes zal domineren, maar wanneer.
