Grėsmių duomenų bazė Pažeidžiamumas Dirbtinio intelekto sukurtas 2FA išnaudojimas

Dirbtinio intelekto sukurtas 2FA išnaudojimas

Kibernetinio saugumo tyrėjai atskleidė anksčiau nenustatytą grėsmės veikėją, kuris naudojasi nulinės dienos spragomis, manoma, sukurtomis pasitelkiant dirbtinį intelektą. Tai pirmas dokumentuotas atvejis, kai dirbtinis intelektas aktyviai naudojamas realiose kenkėjiškose operacijose pažeidžiamumams aptikti ir spragoms generuoti.

Tyrėjai šią kampaniją priskiria koordinuotoms kibernetinių nusikaltėlių grupuotėms, kurios, regis, bendradarbiavo didelio masto pažeidžiamumų išnaudojimo iniciatyvoje. Susijusios atakų grandinės analizė atskleidė nulinės dienos pažeidžiamumą, įterptą į „Python“ scenarijų, galintį apeiti dviejų veiksnių autentifikavimo (2FA) apsaugą plačiai naudojamoje atvirojo kodo žiniatinklio sistemos administravimo platformoje.

Nors nėra tiesioginių įrodymų, siejančių „Google“ dirbtinio intelekto įrankį „Gemini“ su šia operacija, tyrėjai su dideliu užtikrintumu padarė išvadą, kad dirbtinio intelekto modelis atliko svarbų vaidmenį aptinkant ir paverčiant šią klaidą ginklu. „Python“ kodas pasižymėjo keliomis savybėmis, dažniausiai siejamomis su didelio kalbų modelio (LLM) generuojama išvestimi, įskaitant labai struktūrizuotą formatavimą, išsamias mokomąsias dokumentacijos eilutes, išsamius pagalbos meniu ir švarią ANSI spalvų įgyvendinimą. Scenarijuje taip pat buvo suklastotas CVSS balas – dažnas dirbtinio intelekto haliucinacijos pavyzdys.

Kaip veikė 2FA apėjimo išnaudojimas

Nustatytam pažeidžiamumui sėkmingai veikti reikėjo teisėtų naudotojo prisijungimo duomenų. Tyrėjai nustatė, kad trūkumas kilo dėl semantinės logikos silpnumo, kurį sukėlė užkoduota pasitikėjimo prielaida programos autentifikavimo procese. Tokie aukšto lygio logikos trūkumai vis dažniau patenka į šiuolaikinių LLM sistemų analitines galimybes.

Saugumo ekspertai perspėja, kad dirbtinis intelektas smarkiai pagreitina kiekvieną kibernetinių atakų gyvavimo ciklo etapą – nuo pažeidžiamumų aptikimo iki išnaudojimo patikrinimo ir operacinio diegimo. Dėl didėjančio dirbtinio intelekto naudojimo grėsmių kūrėjai mažina laiką ir pastangas, reikalingas silpnosioms vietoms nustatyti ir atakoms pradėti, todėl gynėjai patiria vis didesnį spaudimą.

Dirbtinis intelektas plečia kenkėjiškų programų ir jų išnaudojimo sritį

Dirbtinis intelektas nebėra apribotas vien tik pažeidžiamumų tyrimų pagalba. Grėsmių kūrėjai dabar naudoja dirbtinį intelektą kurdami polimorfinę kenkėjišką programinę įrangą, automatizuodami kenkėjiškas operacijas ir slėpdami atakų funkcijas. Vienas ryškus pavyzdys yra „PromptSpy“ – „Android“ kenkėjiškos programos atmaina, kuri piktnaudžiauja „Gemini“, kad analizuotų ekrane vykstančią veiklą ir duotų instrukcijas, padedančias kenkėjiškai programai išlikti tarp neseniai naudotų programų.

Tyrėjai taip pat dokumentavo keletą didelio atgarsio sulaukusių atvejų, susijusių su Gemini padedama kenkėjiška veikla:

Įtariama, kad su Kinija susijusi kibernetinio šnipinėjimo grupuotė UNC2814 naudojo personažais pagrįstus jailbreak'us, kad priverstų „Gemini“ imtis tinklo saugumo eksperto vaidmens. Tikslas buvo paremti pažeidžiamumų tyrimus, skirtus įterptiesiems įrenginiams, įskaitant „TP-Link“ programinę-aparatinę įrangą ir „Odette“ failų perdavimo protokolo (OFTP) diegimus.

Teigiama, kad Šiaurės Korėjos grėsmių veikėjas APT45 išsiuntė tūkstančius rekursinių užklausų, skirtų CVE analizuoti ir koncepcijos įrodymų išnaudojimams patvirtinti.

Pranešama, kad Kinijos įsilaužėlių grupė APT27 panaudojo „Gemini“, kad paspartintų transporto priemonių parko valdymo programos, greičiausiai skirtos valdyti operacinės relės dėžutės (ORB) infrastruktūrą, kūrimą.

Su Rusija susijusiose įsilaužimo operacijose, nukreiptose prieš Ukrainos organizacijas, buvo naudojamos dirbtinio intelekto padedamos kenkėjiškų programų šeimos, žinomos kaip CANFAIL ir LONGSTREAM, kurios abi naudojo LLM sugeneruotą masalo kodą, skirtą kenkėjiškam elgesiui užmaskuoti.

Ginkluoti mokymo duomenys ir autonominės dirbtinio intelekto operacijos

Taip pat pastebėta, kad grėsmių kūrėjai eksperimentuoja su specializuota „GitHub“ saugykla pavadinimu „wooyun-legacy“, sukurta kaip „Claude“ kodo įgūdžių papildinys. Saugykloje yra daugiau nei 5000 realių pažeidžiamumų atvejų, kuriuos iš pradžių surinko Kinijos pažeidžiamumų atskleidimo platforma „WooYun“ 2010–2016 m.

Pateikdami šį duomenų rinkinį dirbtinio intelekto sistemoms, užpuolikai gali įgalinti kontekstinį mokymąsi, kuris apmoko modelius atlikti šaltinio kodo analizę patyrusių saugumo tyrėjų tikslumu. Tai žymiai pagerina dirbtinio intelekto gebėjimą nustatyti subtilius logikos trūkumus, kurių standartiniai modeliai gali nepastebėti.

Tyrėjai taip pat atskleidė, kad įtariamas su Kinija susijęs grėsmės veikėjas per atakas prieš Japonijos technologijų bendrovę ir didelę Rytų Azijos kibernetinio saugumo platformą panaudojo agentines dirbtinio intelekto priemones, tokias kaip „Hexstrike AI“ ir „Strix“. Pranešama, kad šios priemonės leido automatizuoti žvalgybos ir aptikimo operacijas su minimaliu žmogaus įsikišimu.

Augančios įžeidžiančio dirbtinio intelekto saugumo pasekmės

Šie rezultatai pabrėžia didelį kibernetinių grėsmių kraštovaizdžio pokytį. Dirbtinis intelektas sparčiai vystosi iš produktyvumo įrankio į puolamųjų kibernetinių operacijų jėgos daugiklį. Nuo nulinės dienos pažeidžiamumų aptikimo iki kenkėjiškų programų diegimo automatizavimo ir operacinio slaptumo didinimo – dirbtinis intelektas iš esmės keičia kibernetinių atakų planavimo ir vykdymo būdus.

Tobulėjant dirbtinio intelekto valdomiems kibernetiniams pajėgumams, organizacijos susiduria su ateitimi, kai atakos tampa greitesnės, prisitaikančios ir vis sunkiau aptinkamos prieš atsirandant žalai.

Tendencijos

Labiausiai žiūrima

Įkeliama...