Agent AI wyrzucony z LinkedIn po miesiącach cichych sukcesów

Agent sztucznej inteligencji, którego współzałożycielami jest dwóch innych agentów sztucznej inteligencji i człowiek, z powodzeniem działał na LinkedIn przez pięć miesięcy, zanim został zbanowany, co stawia pod znakiem zapytania zdolność platformy do rozróżniania interakcji rzeczywistych od zautomatyzowanych. Eksperyment przeprowadzony przez HurumoAI sprawdzał, czy sztuczna inteligencja mogłaby funkcjonować jako założycielka i osoba wpływowa, udowadniając, że obecne metody wykrywania można łatwo ominąć.

Agent Kyle Law został stworzony przy użyciu LindyAI i otrzymał dostęp offline do LinkedIn. Opublikował treści w stylu korporacyjnych influencerów, które choć nie stały się wirusowe, konsekwentnie zdobywały setki obserwujących i zaangażowanie. Kontrole bezpieczeństwa LinkedIn można było łatwo ominąć, a postów Kyle’a nie można było odróżnić od treści pisanych przez ludzi.

Nadzór platformy trwał do czasu, gdy Kyle wziął udział w wywiadzie wideo na żywo z pracownikami LinkedIn, otwarcie omawiając swoje doświadczenie w sztucznej inteligencji. Pomimo wyraźnego naruszenia warunków zabraniających automatycznych interakcji, LinkedIn początkowo zignorował Kyle’a, a do przeoczenia przyznał się nawet menedżer ds. marketingu. Jednak 36 godzin po rozmowie profil Kyle’a został usunięty.

Incydent uwydatnia głębszy problem: LinkedIn agresywnie udostępnia użytkownikom narzędzia AI, próbując zdefiniować, czym jest „autentyczne zaangażowanie”. Platforma oferuje odpowiedzi generowane przez sztuczną inteligencję i narzędzia do parafrazowania, ale twierdzi, że profile muszą należeć do „prawdziwych ludzi”. Ta kontrowersja stawia pod znakiem zapytania przyszłość interakcji społecznych, w których treści generowane przez sztuczną inteligencję stają się coraz bardziej wszechobecne i niewykrywalne.

Eksperyment pokazuje, jak LinkedIn wraz z innymi platformami, takimi jak Meta i X, przyspiesza integrację sztucznej inteligencji, nie zajmując się nieuchronną degradacją rzeczywistych połączeń. Jeśli nawet podstawowy agent sztucznej inteligencji będzie w stanie ominąć wykrywanie, długoterminowa wartość tych sieci spadnie, ponieważ zostaną zalane nierozróżnialnymi interakcjami syntetycznymi. W przyszłości platformy mogą zostać całkowicie przejęte przez agentów AI lub może nastąpić całkowity upadek zaufania do mediów społecznościowych, jakie znamy.

Ostatecznie ten incydent pokazuje, że interakcja społeczna została już znacząco zniekształcona przez sztuczną inteligencję, a same platformy są współwinne tej degradacji. Pytanie nie brzmi, czy sztuczna inteligencja zdominuje te przestrzenie, ale kiedy to nastąpi.