AI-Müll wird in die Open-Source-Community eingespült! Einige Projekte haben begonnen, externe Beiträge vorübergehend auszusetzen, Shitcode wirkt wie ein DDoS-Angriff

BTC2,59%

Open-Source-Projekt Tldraw kündigt aufgrund der Überlastung durch große Mengen an AI-generiertem Müll-Code eine vorübergehende Pause bei externen Beiträgen an. Solche „AI Slop“ verbrauchen die Ressourcen der Maintainer erheblich, und die Community erwägt die Einrichtung eines Reputationssystems oder eines Sicherungsmechanismus, um dem entgegenzuwirken.

Überlastet durch AI-generierte Inhalte, pausiert das Open-Source-Projekt Tldraw die Annahme externer PR

Ein auf GitHub mit über 40.000 Sternen bewertetes Open-Source-Webdrawing-Projekt Tldraw hat kürzlich bekannt gegeben, dass es vorübergehend keine Pull Requests (PR) von externen Beitragenden mehr akzeptieren wird.

Der Entwickler steveruizok weist darauf hin, dass, wie bei vielen Open-Source-Projekten auf GitHub, das Team kürzlich eine deutliche Zunahme an Beiträgen festgestellt hat, die vollständig von AI-Tools generiert wurden. Obwohl einige Einreichungen formal korrekt sind, fehlt den meisten der Inhalte der vollständige Kontext, sie missverstehen den Code-Bestand und die Beitragenden beteiligen sich kaum an Diskussionen.

steveruizok betont, dass ein offener PR eine Verpflichtung des Maintainers darstellt, was bedeutet, dass der Beitrag sorgfältig geprüft und ernsthaft in Betracht gezogen wird. Damit diese Verpflichtung ihren Sinn behält, muss das Team strengere Filter einsetzen.

Derzeit ist die Politik von Tldraw, alle externen PR zunächst zu schließen und nur jene wieder zu öffnen, die wirklich geprüft werden. Dies dient dem besten Interesse des Projekts und der Codequalität, obwohl es bedauert wird, die öffentliche Mitwirkung zu schließen, sagt steveruizok, könne eine Rückkehr zur Offenheit erst erfolgen, wenn GitHub bessere Verwaltungswerkzeuge anbietet.

Curl und OCaml sind betroffen, AI Slop breitet sich aus

Die Entscheidung von Tldraw, Pull Requests vorübergehend zu stoppen, ist nur ein Beispiel für die jüngsten Auswirkungen von AI Slop (AI-Müll) auf die Open-Source-Community. Kürzlich haben Diskussionen auf Reddit und Hacker News diese Problematik weiter verschärft.

In einem Reddit-Thread wird erwähnt, dass der bekannte Übertragungs-Tool-Curl-Maintainer Daniel Stenberg verrät, dass das Projekt derzeit von einem „DDoS-Angriff“ durch AI-generierte Fehlermeldungen betroffen ist, bei dem etwa 20% der eingereichten Beiträge aus AI-Müll bestehen, was die freiwilligen Maintainer erheblich belastet.

Außerdem hat der OCaml-Maintainer eine Pull Request abgelehnt, die 13.000 Zeilen umfasste und von AI generiert wurde, mit der Begründung, dass die Überprüfung von AI-generiertem Code aufwändiger sei als das manuelle Schreiben, und eine Flut von minderwertigen PRs das System zum Absturz bringen könnte.

Auf Hacker News konzentrieren sich die Diskussionen auf die Mechanismen von GitHub.

Ein Nutzer meint, dass die prominente Platzierung der PR-Anzahl auf GitHub die Tendenz fördere, PRs nur zum Zweck der Datensammlung einzureichen.

Das Dilemma der generativen KI in der Open-Source-Community besteht darin, dass viele unerfahrene Entwickler AI-Tools nutzen, um wertlose Programme zu generieren, und gleichzeitig erwarten, dass Maintainer diese schnell integrieren. Dieses Verhalten zerstört das Vertrauen in die Zusammenarbeit der Open-Source-Community.

Lösungsansätze: Whitelist oder Reputationssystem

Angesichts der Belästigung durch Shitcode in der Open-Source-Community antwortete der Bitcoin-Entwickler Bryan Bishop (kanzure) auf der Tldraw-GitHub-Seite: Er habe dem Bitcoin Core-Entwicklungsteam vorgeschlagen, den Entwicklungsprozess „privatisieren“, also nur noch eingeladene Mitglieder teilnehmen zu lassen, oder eine Whitelist einzuführen, um Kommentare und PRs zu veröffentlichen.

Auch wenn dies gegen den Geist der Offenheit von Bitcoin verstoßen könnte, ist Bryan Bishop der Ansicht, dass dies effektiv den Lärm und die ineffektiven Diskussionen reduziert, die durch Nicht-Beitragende verursacht werden, sodass Entwickler sich auf die Technik konzentrieren können und wertvolle Aufmerksamkeit nicht durch böswillige oder ineffektive Interaktionen zerstreut wird.

Neben der Privatisierung schlägt der Softwareingenieur Steve Rodrigue vor, ein bereichsübergreifendes Reputationssystem für Beitragende aufzubauen, das auf Vertrauensnetzwerken basiert, um die Konten zu verifizieren.

Ein weiterer Entwickler arbeitet an einem blockchain-basierten „Stake-to-PR“-Protokoll, bei dem Beitragende eine kleine Sicherheitsleistung zahlen, die bei AI-Müll-Content eingezogen wird, bei gültigen Beiträgen aber vollständig zurückerstattet wird, um durch erhöhte Hürden AI-Missbrauch zu verhindern.

Weiterführende Literatur:
AI-Inhalte im Überfluss! Das Web-Dictionary wählt „Slop“ als das Wort des Jahres 2025, was in der Tech-Branche für Aufsehen sorgt

Original anzeigen
Disclaimer: The information on this page may come from third parties and does not represent the views or opinions of Gate. The content displayed on this page is for reference only and does not constitute any financial, investment, or legal advice. Gate does not guarantee the accuracy or completeness of the information and shall not be liable for any losses arising from the use of this information. Virtual asset investments carry high risks and are subject to significant price volatility. You may lose all of your invested principal. Please fully understand the relevant risks and make prudent decisions based on your own financial situation and risk tolerance. For details, please refer to Disclaimer.

Verwandte Artikel

Ein Benutzer wurde innerhalb von 30 Minuten nach Abschluss von zwei Überweisungen mit 89 Adress-Poisoning-Angriffen angegriffen.

Etherscan hat kürzlich eine Sicherheitswarnung ausgegeben und Benutzer vor Addressen-Poisoning-Angriffen gewarnt. Angreifer erstellen gefälschte Adressen, die denen ähneln, mit denen Benutzer zuvor interagiert haben, um Benutzer zu betrügen und falsche Überweisungen zu verursachen. Benutzern wird empfohlen, bei Überweisungen die vollständige Adresse zu bestätigen und die Adresshervorhebungsfunktion zu nutzen, um Risiken zu vermeiden.

GateNews1Std her

Ledger Donjon findet MediaTek-Sicherheitslücke, die Android-Wallet-Seeds offenlegt

_Ledger Donjon hat eine MediaTek-Sicherheitslücke enthüllt, die Seed-Phrasen von Android-Wallets in unter 45 Sekunden extrahiert und Millionen von Geräten betrifft. CVE-2025-20435._ Ledger Donjon hat eine ernsthafte MediaTek-Sicherheitslücke entdeckt. Sie ermöglicht es Angreifern, Seed-Phrasen von Wallets von Android-Telefonen in Sekunden zu extrahieren.

LiveBTCNews8Std her

Behörden frieren 3,5 Millionen Dollar an Kryptowährungen ein, während Europol und DOJ das "SocksEscort" Proxy-Netzwerk zerschlagen

Kurzfassung Europol und Partner kündigten die Unterbrechung des bösartigen Proxy-Dienstes "SocksEscort" und das Einfrieren von 3,5 Millionen US-Dollar an Kryptowährungen an, die mit dem Betrieb verbunden sind. Das Netzwerk soll mehr als 369.000 Router und IoT-Geräte kompromittiert haben und Kunden mehr als 35.000 p angeboten haben

Decrypt8Std her

CertiK-Bericht: Kryptowährungs-Geldautomaten-Betrugsverluste erreichen 2025 3,3 Milliarden US-Dollar, KI-Technologie verschärft kriminelle Eskalation

CertiK veröffentlicht Bericht, der zeigt, dass die Verluste durch Kryptowährungs-Geldautomaten-Betrug in den USA im Jahr 2025 3,3 Milliarden Dollar erreichten, ein Anstieg von 33%. Die Betrugsmethoden werden zunehmend raffinierter, ältere Menschen sind das Hauptziel, KI-gesteuerte Betrügereien sind 4,5-mal rentabler als traditionelle Methoden, und die Bedrohung durch grenzüberschreitende Verbrechersyndikate nimmt weiter zu.

GateNews13Std her

China AI Industry Development Alliance verfolgt kontinuierlich die Sicherheitsrisiken von OpenClaw und erarbeitet ein Leitlinienwerk für das Risikomanagement bei unternehmensweiter Bereitstellung.

Gate News Nachricht: Am 12. März verfolgt die chinesische KI-Industrieentwicklungsallianz kontinuierlich die Sicherheitsrisikodynamik von OpenClaw und erstellt ein Risikomanagementleitfaden für die Bereitstellung von OpenClaw auf Unternehmensebene.

GateNews13Std her

Tencent bringt OpenClaw-Sicherheitstoolkit auf den Markt, um Sicherheitsherausforderungen bei Lobster AI Agent zu bewältigen

Tencent startete am 12. März das OpenClaw Security Toolkit, das darauf abzielt, Sicherheitsherausforderungen durch AI Agents zu bewältigen und Unternehmen sowie Benutzern mehrschichtigen Schutz zu bieten. Das Toolkit umfasst Sicherheitslösungen für Cloud und persönliche Computer, unterstützt Umgebungsisolation und Erkennung anomaler Befehle.

GateNews13Std her
Kommentieren
0/400
Keine Kommentare