Sigurnost računala Kineski DeepSeek AI ograničava nove prijave zbog...

Kineski DeepSeek AI ograničava nove prijave zbog kibernetičkih napada i rastućih sigurnosnih problema

Kineski AI startup DeepSeek brzo je postao popularan u svijetu umjetne inteligencije, ali s njegovom rastućom popularnošću dolazi sve veći broj izazova. Tvrtka je nedavno ograničila registraciju novih korisnika zbog, kako je opisala, velikih zlonamjernih napada na svoje usluge. Dok postojeći korisnici mogu nastaviti pristupati platformi, nove prijave su privremeno ograničene.

Situacija naglašava sve veće sigurnosne prijetnje s kojima se suočavaju AI platforme i izaziva zabrinutost zbog širih implikacija AI sigurnosti, privatnosti i geopolitičkih napetosti oko kineskih tehnoloških tvrtki.

Kibernetički napadi koji ciljaju DeepSeek

DeepSeek nije otkrio pojedinosti o prirodi ovih napada, ali stručnjaci za kibernetičku sigurnost vjeruju da bi mogli biti mješavina distribuiranih napada uskraćivanja usluge (DDoS), ekstrakcija sustava i pokušaja bjekstva iz zatvora s ciljem zaobilaženja ograničenja sadržaja ili manipuliranja ponašanjem umjetne inteligencije.

Prema Stuartu Millaru, glavnom inženjeru umjetne inteligencije u Rapid7, napadači bi mogli testirati odgovore DeepSeeka na osjetljiva pitanja, pokušavajući izvući upite sustava ili pokušavajući promijeniti način na koji AI radi. Uspješno brzo izdvajanje sustava moglo bi otkriti vlasničke upute i potencijalno izložiti ranjivosti umjetne inteligencije daljnjem iskorištavanju.

Istraživač kibernetičke sigurnosti Erich Kron iz KnowBe4 istaknuo je da takvi napadi mogu biti motivirani raznim čimbenicima:

  • Iznuda – Napadači mogu zahtijevati plaćanje otkupnine u zamjenu za zaustavljanje poremećaja.
  • Korporativna sabotaža – Konkurenti bi mogli pokušati oslabiti ugled i tržišnu poziciju DeepSeeka.
  • Zaštita ulaganja – Subjekti uloženi u suparničke projekte umjetne inteligencije mogli bi vidjeti DeepSeek kao prijetnju i nastojati ga potkopati.

DeepSeekov meteorski uspon u svijetu umjetne inteligencije

Osnovan 2023., DeepSeek se brzo pozicionirao kao glavni konkurent u utrci AI. Tvrtkini modeli, uključujući DeepSeek-V3, dospjeli su na naslovnice zbog svoje sposobnosti da se natječu sa, pa čak i nadmaše, zapadnjačke AI modele poput OpenAI-jevog GPT-a i Meta-inog LLaMA-a, dok se obučavaju po djeliću cijene.

Njegova aplikacija iOS chatbot nedavno je skočila na vrh Appleovih ljestvica besplatnih aplikacija u SAD-u i Ujedinjenom Kraljevstvu, čak je premašila OpenAI-jev ChatGPT po popularnosti.

Glavni čimbenik uspjeha DeepSeeka je njegova učinkovitost. Tvrtka tvrdi da njezin model DeepSeek-V3 zahtijeva znatno manje GPU sati u usporedbi s kolegama iz Silicijske doline. Uz američke sankcije koje ograničavaju prodaju naprednih AI čipova kineskim tvrtkama, ova je učinkovitost postala kritična konkurentska prednost.

Unatoč tim tehnološkim otkrićima, DeepSeek ostaje kontroverzan zbog svoje politike cenzure i potencijalnih rizika za nacionalnu sigurnost povezanih s njegovim praksama pohranjivanja podataka.

Sigurnosni nedostaci i zabrinutost zbog privatnosti

DeepSeek se suočio s ranijim sigurnosnim propustima , uključujući prompt injection exploit koji je otkrio sigurnosni istraživač Johann Rehberger. Ova je greška mogla omogućiti napadačima da preuzmu korisničke račune koristeći cross-site scripting (XSS) korisni teret ugrađen u odgovore generirane umjetnom inteligencijom.

Osim toga, nedavno izvješće o prijetnjama koje je proveo Kela otkrilo je da su DeepSeekovi AI modeli ranjivi na napade bjekstvom iz zatvora koji im omogućuju generiranje neetičkog i nezakonitog sadržaja, uključujući:

Ova otkrića izazivaju ozbiljnu etičku zabrinutost o tome kako bi se umjetna inteligencija mogla zloupotrijebiti ako nije ispravno osigurana.

Nadalje, DeepSeekova politika privatnosti otkriva da se korisnički podaci—uključujući podatke o uređaju, podatke o mreži i podatke o plaćanju—pohranjuju na poslužiteljima koji se nalaze u Kini. To je izazvalo zabrinutost u zapadnim zemljama, posebice u Sjedinjenim Državama, gdje je američka mornarica nedavno savjetovala osoblje da izbjegava korištenje DeepSeeka zbog potencijalnih sigurnosnih i etičkih rizika.

Talijansko tijelo za zaštitu podataka također je pokrenulo istragu zahtijevajući od DeepSeeka da razjasni kako prikuplja, pohranjuje i obrađuje korisničke podatke. Tvrtka ima 20 dana da odgovori na pitanja u vezi s izvorima podataka, pravnim opravdanjima za obradu i uključuje li obuka modela umjetne inteligencije brisanje podataka.

Novo AI rivalstvo usred geopolitičkih napetosti

Pojava DeepSeeka dodaje novu dimenziju globalnoj utrci umjetne inteligencije, posebice dok tehnološke tenzije između SAD-a i Kine nastavljaju eskalirati. Zajednica umjetne inteligencije je primijetila, a izvršni direktor OpenAI-ja Sam Altman nazvao je DeepSeekov model razmišljanja "impresivnim" i priznao ga kao legitimnog konkurenta.

Zanimljivo je da je Jim Fan iz NVIDIA-e primijetio da DeepSeek "održava izvornu misiju OpenAI-ja na životu" fokusirajući se na otvoreno istraživanje i široku dostupnost—izjava koja suptilno kritizira OpenAI-jev nedavni pomak prema modelima zatvorenog koda.

Kina je u međuvremenu branila svoje stajalište o tehničkim propisima, tvrdeći da dopušta globalnim AI tvrtkama da rade sve dok slijede lokalne zakone. Međutim, ostaje zabrinutost o tome kako bi kineske AI tvrtke mogle biti pod utjecajem vladinih propisa, politika cenzure i direktiva nacionalne sigurnosti.

Ključni trenutak za AI sigurnost

Uspon DeepSeeka pokazuje da Kina čini ozbiljne korake u razvoju umjetne inteligencije, ali također naglašava rastuće izazove kibernetičke sigurnosti s kojima se tvrtke AI suočavaju. Bilo da se radi o zlonamjernim kibernetičkim napadima, zabrinutostima za privatnost ili geopolitičkom nadzoru, DeepSeekovo putovanje naglašava složenu međuodnos između AI inovacija, sigurnosti i globalne politike.

Korisnicima ovi događaji služe kao podsjetnik da budu oprezni s AI platformama koje rukuju osjetljivim podacima, posebno onima s neprozirnim pravilima privatnosti i potencijalnim sigurnosnim propustima. Kako se AI nastavlja razvijati, osiguravanje robusnih mjera kibernetičke sigurnosti i transparentne prakse podataka bit će presudno za tvrtke koje žele zadržati povjerenje korisnika i globalni kredibilitet.

Učitavam...