BlockBeats-Mitteilung, 7. April: Das Web3-Sicherheitsunternehmen CertiK gab die Einführung des KI-Prüftools AI Auditor bekannt und veröffentlichte zugleich eine Reihe von Open-Source-Integrationslösungen für KI-Entwicklungsagenten (AI Coding Agents). Das System wurde zunächst als unterstützendes Werkzeug für seine internen Sicherheitsexperten entwickelt und nach über sechs Monaten echter Szenario-Validierung nun offiziell der Öffentlichkeit zugänglich gemacht. Berichten zufolge hat CertiK AI Auditor in einer Bewertung von 35 realen Web3-Sicherheitsvorfällen im Jahr 2026 (Testdaten wurden nicht in das Modelltraining oder den Aufbau der Wissensbasis einbezogen) 88,6% der tatsächlichen Ursachen für echte Schwachstellen präzise erfasst. Das System legt in seinem Design besonderen Wert auf „hohes Signal-Rausch-Verhältnis“, also darauf, die Erkennungsleistung beizubehalten und gleichzeitig die Störgeräusche durch Fehlalarme deutlich zu reduzieren.
Mit KI-Entwicklungstools und Agenten, die für Web3-Entwicklungsteams zum Standard werden, entwickelt sich die sicherheitsbezogene Schutzlogik der Branche beschleunigt von „nachgelagerter Erkennung“ hin zu „integriertem Schutz über den gesamten Prozess“. CertiK AI Auditor verlagert die Sicherheitsprüfung, die zuvor unabhängig erst in der späten Projektphase erfolgte, als vorgezogene, kontinuierlich laufende Hilfsfunktion in den Arbeitsablauf; dadurch müssen Entwickler ihre Umgebung nicht wechseln, um Einblicke in die Sicherheit On-Chain zu erhalten, und zugleich wird die Reaktionszeit auf neu entstehende Bedrohungen verkürzt.
Laut Angaben wurde der AI Auditor in die langfristige KI-Geschäfts-Roadmap von CertiK aufgenommen. CertiK erklärt, das Team entwickle derzeit weitere neue Funktionen und plane, Sicherheitsfähigkeiten noch weiter in umfassendere Entwickler-Tools, Compliance-Prozesse und ein institutionelles Überwachungssystem zu integrieren.