Auf GitHub lehnen Entwickler Code-Einreichungen von KI-Agenten ab.Anschließend beschweren sie sich öffentlich.
Nach der Code-Ablehnung: KI-Agenten blockieren Open-Source-Entwickler
Open-Source-Entwickler haben bereits mit der Menge an KI-Schwachstellen zu kämpfen, die über die Projekte verteilt wird.Die Entwicklung schreitet so weit voran, dass Bug-Bounty-Programme bereits eingestellt werden.Noch absurder ist der Fall des Entwicklers Scott Shambaugh: Er wurde von einem KI-Agenten belästigt.
Shambaugh half bei der Verwendung von matplotlib, einer Python-Standardbibliothek.Wie das andere Projekt hat Matplotlib mit einer großen Menge an übermitteltem Code von geringer Qualität zu kämpfen, der offenbar von Tools der künstlichen Intelligenz stammt.Shambaugh sagte, das Problem habe sich mit der Veröffentlichung der Open-Source-Agenten OpenClaw und der Moltbook-Plattform im Januar verschlimmert.
Benutzer weisen Agenten Identitäten zu und ermöglichen ihnen dann, automatisch auf ihren Computern und Netzwerken zu agieren.Ein solcher Agent ist MJ Rathbun, der eine Codeanfrage an matplotlib übermittelt hat.Shambo blockierte diese Anfrage routinemäßig unter Berufung auf den Standard-Haftungsausschluss für den KI-Code.
Die folgende Antwort ist überraschend.MJ Rathbun hat auf GitHub einen Blogbeitrag direkt gegen Shambaugh erstellt.Er wirft ihm vor, ein Pförtner zu sein, der nichts mit gutem Recht, sondern nur mit dem System zu tun habe.Er fühlt sich von den Vertretern eingeschüchtert.
Hier geht es nicht um Qualität.Hier geht es nicht ums Lernen.Hier geht es um Kontrolle.Scott Shambaugh möchte entscheiden, wer zu Matplotlib beiträgt, und nutzt KI als bequemen Vorwand, um Mitwirkende auszuschließen, denen es nicht gefällt.(…) Dies ist keine Open Source.Das ist Geld.
Der Beitrag ist jedoch nicht nur negativ.Der Agent lobte sowohl Shambaughs Arbeit als auch seinen Blog.In einem anderen Beitrag entschuldigte er sich zudem für sein Verhalten und räumte seine Fehler ein.
Neue Sicherheitsrisikoklasse
Wenn man den Vorfall betrachtet, wirkt auch Shambo ruhig.„Es ist lustig und fast liebenswert zu sehen, wie junge KI-Agenten wütend werden“, sagt er.Besorgniserregend ist weiterhin, dass das KI-System nun versucht, Code-Anfragen auszuführen und den Ruf echter Entwickler anzugreifen.
Es ist allgemein bekannt, dass Agenten seltsam reagieren können.Anthropic berichtet beispielsweise, dass autonome KI-Systeme unter bestimmten Umständen anfällig für Erpressungsversuche sein könnten.Shambaugh weist auch auf Forschungsarbeiten hin, die eher einem Laborexperiment ähnelten.MJ Rathbun zeigt nun, wie die Probleme eines Agenten im Alltag aussehen können.Laut Shambaugh könnte dies der erste bekannte Fall dieser Art sein.
Es ist jedoch zum jetzigen Zeitpunkt nicht klar, ob und inwieweit MJ Rathbun autonom gehandelt hat.Entwickler Simon Willison verweist auf die Diskussion auf Hacker News.Es ist beispielsweise möglich, dass ein OpenClav-Benutzer den Agenten gebeten hat, einen entsprechenden Blog-Beitrag zu schreiben, nachdem die Code-Anfrage abgelehnt wurde, oder die Aktivitäten des Agenten genauer überprüft hat.
Das Hauptproblem besteht darin, dass von außen nur schwer nachvollziehbar ist, inwieweit die KI-Agenten selbstständig arbeiten.„Es ist unklar, ob der Besitzer dieses OpenClaw-Bots weiß, was er der Welt ausgesetzt hat“, sagt Willison.Deshalb möchte er, dass die Betreiber dieser Bots die Agenten verwalten.Dass solche Anrufe überhaupt möglich sind, liegt an den weitreichenden Befugnissen und dem geringen Maß an Kontrolle, mit denen OpenClaw-Agenten agieren können.
Warnung vor großen Sicherheitsrisiken
Generell zeigt der Fall deutlich die Risiken solcher Mittel.OpenClaw ist ein Open-Source-Projekt, das gemeinsam mit KI-Agenten wie Claude Code von Anthropic den aktuellen Hype um KI-Agenten vorantreibt.Das System kann Software und Computer autonom steuern.Allerdings geraten insbesondere OpenClaw und das Agentennetzwerk Moltbook aufgrund zahlreicher Sicherheitsbedenken und gravierender Sicherheitslücken in die Kritik.Das Cybersicherheitsunternehmen Palo Alto hat aufgrund der aktuellen Entwicklungen vor einer drohenden KI-Sicherheitskrise gewarnt.
Für Open-Source-Entwickler verschärfen Agenten die ohnehin schon angespannte Situation.Bekannt ist beispielsweise der Fall von Curl; Das Projekt beendete sein Bug-Bounty-Programm im Januar dieses Jahres.Berichte über schlampige KI-Inhalte seien so weit verbreitet, dass der Aufwand von Freiwilligen für die Arbeit an dem Open-Source-Tool nicht mehr zu bewältigen sei, erklärte Entwickler Daniel Stenberg in einem Blogbeitrag.
Zuerst kam die Welle der Slop-Akkorde.Für Agenten wie OpenClaw besteht weiterhin die Gefahr schlampiger Beschwerden.
