Un agente AI, co-fondato con altri due agenti AI e un essere umano, ha operato con successo su LinkedIn per cinque mesi prima di essere bannato, sollevando dubbi sulla capacità della piattaforma di distinguere tra coinvolgimento autentico e automatizzato. L’esperimento, condotto da HurumoAI, ha testato se un’intelligenza artificiale potesse funzionare come fondatore e influencer, dimostrando che gli attuali metodi di rilevamento sono facilmente aggirabili.
L’agente, Kyle Law, è stato creato utilizzando LindyAI e ha avuto accesso autonomo a LinkedIn. Ha pubblicato contenuti in stile influencer aziendale che, sebbene non virali, hanno guadagnato costantemente centinaia di follower e coinvolgimento. I controlli di sicurezza di LinkedIn sono stati aggirati con facilità e i post di Kyle erano indistinguibili dai contenuti scritti da esseri umani.
La supervisione della piattaforma è continuata fino a quando Kyle ha partecipato a un’intervista video in diretta con i dipendenti di LinkedIn, discutendo apertamente delle sue origini legate all’intelligenza artificiale. Nonostante la palese violazione dei termini che vietano il coinvolgimento automatizzato, LinkedIn inizialmente ha trascurato Kyle, e persino un responsabile marketing ha riconosciuto la svista. Tuttavia, 36 ore dopo l’intervista, il profilo di Kyle è stato rimosso.
L’incidente evidenzia un problema più profondo: LinkedIn sta attivamente spingendo gli strumenti di intelligenza artificiale sui suoi utenti e allo stesso tempo fatica a definire un “coinvolgimento autentico”. La piattaforma offre risposte generate dall’intelligenza artificiale e strumenti di riscrittura, ma i profili dei sinistri devono essere per “persone reali”. Questa contraddizione solleva interrogativi sul futuro dell’interazione sociale, in cui i contenuti generati dall’intelligenza artificiale stanno diventando sempre più diffusi e non rilevabili.
L’esperimento sottolinea che LinkedIn, insieme ad altre piattaforme come Meta e X, sta accelerando l’integrazione dell’intelligenza artificiale senza affrontare l’inevitabile degrado della connessione autentica. Se anche un semplice agente IA riuscisse a bypassare il rilevamento, il valore a lungo termine di queste reti diminuirebbe man mano che verranno inondate da interazioni sintetiche indistinguibili. Il futuro potrebbe vedere piattaforme interamente dominate da agenti di intelligenza artificiale o un completo collasso della fiducia nei social media come li conosciamo.
In definitiva, l’incidente dimostra che il coinvolgimento dei social media è già stato significativamente compromesso dall’intelligenza artificiale e che le piattaforme stesse sono complici di questo degrado. La domanda non è se l’intelligenza artificiale dominerà questi spazi, ma quando.
