Google-Suchen nach Fehlern mit Hilfe von künstlicher Intelligenz

Google hat ein neues KI-System zur Fehlererkennung namens Big Sleep eingeführt, das LLMs (große Sprachmodelle) verwendet, um Code zu analysieren. Die Sicherheits-Vizepräsidentin von Google, Heather Adkins, erklärte, dass das System bereits geholfen hat, 20 neue Schwachstellen zu identifizieren, von denen einige als kritisch eingestuft werden. Das System wurde auf Open-Source-Software angewendet, darunter cURL, FFmpeg, ImageMagick, Envoy, libjpeg, gRPC usw. KI erkannte Fehler, die Menschen nicht finden konnten, einschließlich Array-Grenzen, Use-after-free usw.
Das System wurde von DeepMind und den Projekt-Zero-Hackern entwickelt, die sich mit ihren eigenen Sicherheitsprüfungen von Google-Diensten beschäftigen (Blue Team). Google verspricht, einige der Werkzeuge der Gemeinschaft zur Verfügung zu stellen, um die Sicherheit von Open-Source-Projekten zu unterstützen.
Gleichzeitig ermutigt das Unternehmen andere Unternehmen, in ähnliche KI-Lösungen zur Fehlererkennung zu investieren.
KI-Fehlererkennungssysteme sind nicht neu. Trotz der Tatsache, dass sie derzeit "halluzinieren" können, Bugs erkennen, die in der Realität nicht reproduzierbar sind, oder kritische Schwachstellen übersehen, werden diese Systeme zweifellos in naher Zukunft populär werden.
Quelle: techcrunch.com