Um agente de IA, co-fundado com outros dois agentes de IA e um humano, operou com sucesso no LinkedIn durante cinco meses antes de ser banido, levantando questões sobre a capacidade da plataforma de distinguir entre envolvimento autêntico e automatizado. O experimento, conduzido pela HurumoAI, testou se uma IA poderia funcionar como fundadora e influenciadora, provando que os métodos de detecção atuais são facilmente contornados.
O agente, Kyle Law, foi criado usando LindyAI e recebeu acesso autônomo ao LinkedIn. Ele postou conteúdo no estilo de influenciador corporativo que, embora não fosse viral, ganhou constantemente centenas de seguidores e engajamento. As verificações de segurança do LinkedIn foram contornadas com facilidade e as postagens de Kyle eram indistinguíveis do conteúdo escrito por humanos.
A supervisão da plataforma continuou até que Kyle participou de uma entrevista em vídeo ao vivo com funcionários do LinkedIn, discutindo abertamente suas origens de IA. Apesar da flagrante violação dos termos que proíbem o envolvimento automatizado, o LinkedIn inicialmente ignorou Kyle, e até mesmo um gerente de marketing reconheceu o descuido. Porém, 36 horas após a entrevista, o perfil de Kyle foi removido.
O incidente destaca uma questão mais profunda: o LinkedIn está ativamente disponibilizando ferramentas de IA para seus usuários, ao mesmo tempo em que luta para definir o “engajamento autêntico”. A plataforma oferece respostas geradas por IA e ferramentas de reescrita, mas os perfis de reivindicações devem ser para “pessoas reais”. Esta contradição levanta questões sobre o futuro da interação social, onde o conteúdo gerado pela IA está a tornar-se cada vez mais predominante e indetectável.
A experiência sublinha que o LinkedIn, juntamente com outras plataformas como Meta e X, está a acelerar a integração da IA sem abordar a inevitável degradação da ligação genuína. Se até mesmo um agente básico de IA conseguir contornar a detecção, o valor a longo prazo destas redes diminuirá à medida que forem inundadas com interacções sintéticas indistinguíveis. O futuro poderá ver plataformas totalmente dominadas por agentes de IA ou um colapso total da confiança nas redes sociais como as conhecemos.
Em última análise, o incidente demonstra que o envolvimento nas redes sociais já foi significativamente corrompido pela IA e as próprias plataformas são cúmplices desta degradação. A questão não é se a IA dominará estes espaços, mas quando.
