Google har afsløret en betydelig udvikling i sin AI-drevne cybersikkerhed, idet han tirsdag annoncerer, at dens store søvn AI-agent er kommet ud over blot blot at opdage bugs for proaktivt at neutralisere en kritisk softwaresårbarhed på randen af at blive udnyttet.
Dette markerer et stort spring fra sin første bugopdagelse i 2024, der repræsenterer, hvad Google kalder en første for AI i at folie en aktiv trussel. Nyheden, der blev frigivet foran de sorte hat og def con -konferencer, er en del af et bredere initiativ til at bevæge forsvarere med nye AI -værktøjer og styrke industriens samarbejde.
Fra bugjæger til at udnytte stopper: Big Sleep's nye milepæl
Overskriftens præstation involverer'Big Sleep,' en AI -agent udviklet af Google Deepmind og Elite -hackere på Google Project Zero. I en påstået branche siger Google Big Sleep, guidet af trusselsinformation, med succes identificeretEn kritisk SQLite-sårbarhed, CVE-2025-6965, det var ved at blive aktivt udnyttet.
Dette træk signaliserer et kritisk skift fra autonom fejlopdagelse til forebyggelse af proaktiv udnyttelse. Agentens tidligere rapporterede succes i november 2024 involverede at finde sin første fejl nogensinde i SQLite, en bemærkelsesværdig, men mindre presserende opdagelse, der beviste konceptet. Den nye præstation understreger en mere målrettet, efterretningsledet defensiv kapacitet.
Den vigtigste sondring er konteksten. Findet fra 2024 var en tidligere ukendt fejl, der blev fundet, før den blev frigivet. Sagen fra 2025 involverede en sårbarhed, der er kendt for trusselsaktører, hvilket gjorde AI's indgriben til et direkte løb mod angribere. Denne udvikling er en potentiel spiludveksler for sikkerhedsteams.
I modsætning til traditionelle metoder som fuzzing bruger Big Sleep LLMS til dyb rodårsagsanalyse,simulere en menneskelig forsker tilgang. Google udvider nu Big Sleep's brug til at sikre større open source-projekter og haroffentliggjorde en hvidbog om sine principper for opbygning af sikre AI -agenter.
Googles kommende AI Security Arsenal til sort hat og def con
Som en del af meddelelsen vil Google demonstrere nye AI -sikkerhedsværktøjer på kommende branchekonferencer. Hos Black Hat USA vil detShowcase Agentic Capacity in Timesketch, dens open source kriminaltekniske platform, nu drevet af Sec-Gemini-modellen til at automatisere undersøgelser.
Denne opgradering sigter mod at drastisk nedskære efterforskningstiden,Tillader analytikere at fokusere på trusler med højere orden. Virksomheden vil også give et bag kulisserneFacade, dets insidertrusselsdetekteringssystem, der har kørt siden 2018og bruger en unik kontrastiv læringsmetode.
På Def Con 33 vil et partnerskab med Airbus endvidere indeholde en Capture the FLAG (CTF) -begivenhed, hvor deltagerne bruger en AI -assistent til at finpudse deres færdigheder,Demonstration af AI's potentiale som et samarbejdsværktøj for fagfolk i cybersikkerhed.
En samarbejdsfront mod AI-drevne trusler
Den underliggende strategi ser ud til at være en af brede industri- og offentlige samarbejdssamarbejde. Google donerer data fra densSikker AI Framework (SAIF)tilKoalition til Secure AI (COSAI)tilAdvance Delt forskning på Agentisk AI og Supply Chain Security.
Relateret:
Disse initiativer er indrammet som et nødvendigt svar på den stigende tidevand af sofistikerede, AI-drevne cyberattacks. I et klart svar på denne tendens har firmaer som NTT Data og Palo Alto Networks også lanceret AI-drevne forsvarsplatforme. Som Sheetal Mehta af NTT -data bemærkede, "Fragmenterede sikkerhedsværktøjer kan ikke følge med dagens automatiserede angreb."
Den DARPA-ledede AI Cyber Challenge (AIXCC) er også indstillet til at afslutte på DEF CON 33, hvilket fremhæver presset for offentlig-private partnerskaber i AI-forsvaret. Dette afspejler en voksende enighed om behovet for at udnytte AI til forsvar, mens det mindsker sit potentiale for misbrug.












