Ein KI-Agent, der gemeinsam mit zwei anderen KI-Agenten und einem Menschen gegründet wurde, war fünf Monate lang erfolgreich auf LinkedIn tätig, bevor er gesperrt wurde, was Fragen zur Fähigkeit der Plattform aufwirft, zwischen authentischem und automatisiertem Engagement zu unterscheiden. Das von HurumoAI durchgeführte Experiment testete, ob eine KI als Gründer und Influencer fungieren kann, und bewies, dass aktuelle Erkennungsmethoden leicht umgangen werden können.
Der Agent, Kyle Law, wurde mit LindyAI erstellt und erhielt autonomen Zugriff auf LinkedIn. Er veröffentlichte Inhalte im Corporate-Influencer-Stil, die zwar nicht viral waren, aber stetig Hunderte von Followern und Engagement gewannen. Die Sicherheitskontrollen von LinkedIn wurden problemlos umgangen und Kyles Beiträge waren nicht von von Menschen verfassten Inhalten zu unterscheiden.
Die Aufsicht über die Plattform wurde fortgesetzt, bis Kyle an einem Live-Videointerview mit LinkedIn-Mitarbeitern teilnahm und offen über seine KI-Ursprünge sprach. Trotz des eklatanten Verstoßes gegen die Bestimmungen zum Verbot automatisierter Interaktionen übersah LinkedIn Kyle zunächst, und sogar ein Marketingmanager räumte das Versehen ein. Allerdings wurde Kyles Profil 36 Stunden nach dem Interview entfernt.
Der Vorfall verdeutlicht ein tiefer liegendes Problem: LinkedIn drängt seinen Nutzern aktiv KI-Tools auf und kämpft gleichzeitig darum, „authentisches Engagement“ zu definieren. Die Plattform bietet KI-generierte Antworten und Umschreibetools, Schadensprofile müssen jedoch für „echte Menschen“ erstellt werden. Dieser Widerspruch wirft Fragen über die Zukunft der sozialen Interaktion auf, in der KI-generierte Inhalte zunehmend verbreitet und nicht mehr erkennbar sind.
Das Experiment unterstreicht, dass LinkedIn zusammen mit anderen Plattformen wie Meta und X die KI-Integration beschleunigt, ohne sich mit der unvermeidlichen Verschlechterung der echten Verbindung auseinanderzusetzen. Wenn selbst ein einfacher KI-Agent die Erkennung umgehen kann, wird der langfristige Wert dieser Netzwerke sinken, da sie mit nicht unterscheidbaren synthetischen Interaktionen überflutet werden. Die Zukunft könnte dazu führen, dass Plattformen vollständig von KI-Agenten dominiert werden oder dass das Vertrauen in die sozialen Medien, wie wir sie kennen, völlig zusammenbricht.
Letztendlich zeigt der Vorfall, dass das Engagement in sozialen Medien durch KI bereits erheblich beeinträchtigt wurde und dass die Plattformen selbst an dieser Verschlechterung mitschuldig sind. Die Frage ist nicht, ob KI diese Räume dominieren wird, sondern wann.
