Intervju: Grožnje, ki jih omogoča uporaba orodij umetne inteligence

Intervju odpira tematiko groženj, ki jih omogoča uporaba orodij umetne inteligence (AI). Odgovore je podelil strokovnjak David Kasabji iz podjetja NIL, del skupine Conscia. Kasabji deluje v podjetju kot vodilni analitik varnostno-obveščevalnih podatkov.

Naši bralci so tako strokovnjaki s področja kibernetske varnosti kot tudi drugi zaposleni v bančno-finančnem sektorju, ki še ne poznajo vloge analitika varnostno-obveščevalnih podatkov. Katere so vaše glavne naloge in odgovornosti, kako se je vaša vloga razvijala v zadnjih letih glede na hitro spreminjajoče se okolje kibernetske varnosti?

Vloga analitika varnostno-obveščevalnih podatkov ima širok spekter. Znotraj oddelka imamo za vsakega posameznega analitika večkrat različne in specifične fokuse. V tem primeru bom povzel glavne naloge in odgovornosti v celoti.

Primarni cilj varnostno-obveščevalnih podatkov je, da zagotavljajo proaktivno odkrivanje groženj. S pomočjo takšnih podatkov lahko predvidimo potencialne grožnje za naše podjetje, še preden se zgodijo – takšne dogodke lahko preprečimo oziroma bistveno znižamo tveganje za resnejši incident – to je naš »holy grail«.

V podjetju NIL imamo opredeljeno storitev, ki naslavlja prav to področje, in sicer pod imenom Executive Intelligence Briefings. Ta deluje tako, da za naše stranke spremljamo njihove grožnje v okolju (angl. Threat Landscape) in na podlagi opazovanja ugotavljamo, katera grožnja je za njih najbolj relevantna. Ko grožnjo odkrijemo (to so navadno hekerske skupine ali celo APT-ji), analiziramo njihovo delovanje. Ko dobimo informacijo, kdo je najbolj verjetna grožnja ter kako operira, lahko v nadaljevanju na podlagi teh dveh vhodnih podatkov z ustreznimi operativnimi ali strateškimi odločitvami zagotovimo, da grožnja ne bo predstavljala visokega tveganja za digitalno varnost podjetja.

To je torej klasični cilj varnostno-obveščevalnih podatkov na strateški oz. taktični ravni, za katerega verjamem, da ga večina podjetij najbolj pozna.

Tisti manj znani del se pojavlja na operativni ravni, kjer varnostno-obveščevalni podatki služijo kot vir bogatenja podatkov za varnostno operativne centre (angl. SOC), kar analitikom omogoča hitrejšo dedukcijo primerov, ki jih razrešujejo. Prav tako se varnostno-obveščevalni podatki uporabljajo za proaktivno odkrivanje groženj na podlagi t. i. Threat Hunting tehnik, s katerimi ujamejo tiste grožnje, ki se izmuznejo reaktivni zaznavi.

Prav tako so nepogrešljivi pri odzivih na incidente, kjer analitiki varnostno-obveščevalnih podatkov sodelujejo z ekipo odziva na incidente, pri čemer jim pomagajo ugotoviti, kdo stoji za določenim napadom in kako se je tak napad v celoti izvedel (npr. z analizo vzorca zlonamerne programske opreme). S to ugotovitvijo odkrijejo dodatne tehnike napadalca, katere posredujejo ekipi za odzive na incidente. Ta ekipa lahko potem dodatno preveri, ali so res ustrezno in v celoti počistili grožnjo v okolju.

Varnostno-obveščevalni podatki so pravzaprav vpeti v vsak steber kibernetske varnosti in predstavljajo tisto »proaktivno« komponento v kibernetski varnosti, ki postaja vse bolj nepogrešljiva. Iz leta v leto namreč spremljamo naraščanje digitalnega kriminala, tako v volumnu napadov kot v razvoju naprednih tehnik napadov ter infrastrukture. Prav zato tradicionalne metode reaktivne zaznave groženj žal ne bodo več zadoščale. Treba bo začeti predvidevati tiste najbolj očitne in akutne grožnje ter jih ustrezno obravnavati, še preden pride do incidenta.

Veseli me, da se v finančnem sektorju prebuja zavedanje tega izziva in da se v kar nekaj nedavnih pravnih aktih (DORA, TIBER-EU) zahteva vpletenost varnostno-obveščevalnih podatkov v programih za kibernetsko varnost.

Kako ravnate z obveščevalnimi podatki o grožnjah? Kako obveščevalni podatki o grožnjah prispevajo k oblikovanju dolgoročne strategije kibernetske varnosti v banki oz. podjetju?

Sam postopek je večfazni. Sam varnostno-obveščevalne podatke rad definiram kot proces transformacije surovih podatkov v uporabne informacije (angl. Actionable intelligence), ki so ustrezne za določene deležnike. Ni vseeno, ali te informacije prejme CISO, inženir, ki razvija zaznavna pravila, ali pa forenzik v odzivih na incidente. Za isto informacijo moramo tvoriti ustrezne pakete, ki bodo pomenljivi za določenega deležnika.

Banke morajo vključevati strateške varnostno-obveščevalne podatke za oblikovanje dolgoročne strategije kibernetske varnosti. Finančne institucije so žal pogosta tarča digitalnih kriminalcev (zaporedno leto so že med top 3 globalnimi industrijami, če preverjamo različna poročila, kot je IBM-ov Cost of Data Breach). Uspešen vdor lahko za digitalne kriminalce pomeni precejšen denarni izkupiček v fazi izterjave z izsiljevalskim virusom ali odtujenimi podatki.

Za učinkovito zaščito mora takšno sodelovanje potekati neprekinjeno, saj se tudi okolje groženj dinamično spreminja in prilagaja. Tako bi morali analitiki varnostno-obveščevalnih podatkov konstantno spremljati okolje groženj ter prilagajati raven tveganj za finančno inštitucijo glede na trenutne dejavnike in kazalnike, ugotovitve pa ustrezno poročati vodilnim z ustreznimi priporočili. Tako mi ravnamo z našimi storitvami in strankami.

Poleg že omenjene storitve Executive Inteligence Briefings imamo na voljo tudi storitev Brand Protection, ki je zelo popularna v finančnem sektorju. Za naše stranke spremljamo pojave ter spremembe na temnem in navadnem spletu (na ravni domen in identitet), ki bi lahko zlonamerno vplivale na znamko podjetja, v sklopu omenjene storitve pa uspešno zaznavamo tudi morebitne ukradene poverilnice, ki se tam prodajajo.

Za banke je na primer ključno, da hitro zaznamo registracijo nove lažne domene, ki očitno želi prelisičiti komitente preko »phishing« sporočil, da vnesejo svoje prijavne podatke v lažni prijavni portal, ki pa je videti identično kot portal banke. T. i. »typosquatt« domene so lahko zelo prepričljive in na prvo oko verodostojne, takšna uspešna prevara pa bistveno vpliva na ugled banke.

Laiki ne poznamo orodij AI, kot sta WormGPT in FraudGPT. Kaj sta ti »orodji« in kako se razlikujeta od ChatGPT, za katerega smo vsi vsaj slišali?

Predvsem za laike bi opisal ta zla orodja kot »ChatGPT brez varnostnih filtrov« in napajan s podatki o tehnikah napadov.  Takšna orodja so zelo koristna pri razvoju zlonamerne programske kode, kjer pri »zlobnih« GPT-jih ni nekih zavor pri odgovorih, kako kakšen sistem ali varovalo prelisičiti – celo še več – prav na podlagi takšnih podatkov so učeni njihovi modeli. So tudi nepogrešljivi pri tvorbi »phishing« sporočil. Tako lahko nedavno opazimo porast uspešnih »phishing« napadov – tudi v Sloveniji lahko opažamo precej bolj sofisticirane verzije »phishing« vsebin. Nekaj let nazaj je bila naše varovalo slovenščina, saj je bila pri »phishing« napadih opazno popačena. Tega varovala sedaj s pomočjo takšnih orodij ni več.

Kako lahko orodja AI prispevajo k povečanemu številu sofisticiranih kibernetskih napadov  in kakšni bodo ti? Ali je ta orodja mogoče zaznati s trenutnimi kibernetsko-varnostnimi orodji?

Kot sem nakazal že v prejšnjem odgovoru, bodo razna orodja AI bistveno vplivala na volumen napadov ter verjetno tudi na uporabo novih naprednih oblik napadov. Digitalni kriminalci imajo sedaj na voljo asistenta, ki jim pomaga generirati zle vsebine ter kode, kar bistveno pohitri celoten proces kibernetskih napadov. To posledično vpliva na količino izvršenih napadov. Zame je dober primer pohitritve napadov ravno pri izsiljevalskih virusih, ki so najbolj priljubljeni – namreč pri napadih z izsiljevalskimi virusi je del procesa tudi pogajanje glede plačila za ključ za dekriptiranje podatkov ali pa za preprečitev objave odtujenih podatkov. Ta faza napada je lahko za digitalne kriminalce zelo dolgotrajna, saj se morajo svoji žrtvi posvečati več tednov in komunicirati v angleščini, kar jim morda ni najbolj enostavno. No, sedaj imajo naenkrat na voljo orodja AI, ki jih pretvorijo v t. i. Chatbote. Tovrstna orodja bodo omenjeno delo opravljala samostojno in povsem brez njihove intervencije. Celotna faza pogajanja, ki je najbolj dolgotrajna, bo sedaj povsem »outsourced« na AI Chatbote, digitalni kriminalci pa se bodo v tem času lahko fokusirali na nove napade.

Omenil bi še en pomenljiv pojav v svetu digitalnega kriminala, na katerega je vplivala umetna inteligenca. Zaradi bistveno lažjega in hitrejšega razvoja zlonamerne programske kode je na temnem spletu naprodaj vse več paketov te zlonamerne programske opreme, in to po zelo ugodnih cenah, saj je sedaj konkurenčnost produkta večja, ravno zaradi hitrejših iteracij razvoja s pomočjo AI-asistentov. Dostopnost zlonamerne programske opreme je skupaj s padcem cen povzročila nov pojav: amaterskim hekerjem je odprla vrata v svet digitalnega kriminala. Seveda amaterski hekerji niso ravno novost, ampak sedaj je res vsakdo, ki ima v žepu 100 EUR, lahko heker, in za ta znesek dobi sofisticirano zlonamerno programsko opremo, ki se pravzaprav sama izvaja – treba je nastaviti le osnovno konfiguracijo in že je nared za uporabo.

Glede zaznave pa je tako: cilj sofisticirane zlonamerne programske opreme (ki jo danes omogočajo tudi orodja AI) je, da se spretno izogne tradicionalnim oblikam zaznave. Velikokrat se to doseže s posnemanjem delovanja legitimnih orodij na sistemih, na katere se reaktivna zaznavna orodja praviloma ne odzivajo. Analitiki bi se namreč utopili v količini primerov, ki jih morajo pregledati, saj bi največkrat šlo za t. i. »false positive«. Drug primer je izraba neodpravljenih ranljivosti v okoljih, ki omogočajo »tih« vstop. S tradicionalnimi oblikami zaznave je takšne primere tudi sicer težje zaznati, orodja AI pa bodo vse bolj pomagala pri razvoju takšnih zlorab.

Zato velikokrat omenjam, da je pri zaznavanju nujno potrebna proaktivna komponenta. Ključno je vedenje, katere so trenutno najbolj aktivne grožnje za naše okolje, ki se jim moramo ustrezno  izogniti pred samim napadom. Proaktivnost vključuje tudi aktiven pregled sistemov in delovnih postaj za grožnje glede na izbrane indikatorje.

Ste zaznali kakšne tehnične ranljivosti ali pomanjkljivosti teh orodij AI, ki bi jih strokovnjaki za kibernetsko varnost lahko izkoristili za obrambo pred napadi in prevarami?

David Kasabji, Vodilni analitik varnostno-obveščevalnih podatkov, NIL, del skupine Conscia

V trenutni fazi, ko še ne poznamo avtonomnega sistema AI (neka raven  AGI), imamo prednost, da bijemo bitko s stroji. Le-ti, ne glede na vse zmogljivosti, še vedno delujejo po principu 0 in 1 (biti). Torej na obrambni strani moramo imeti človeško komponento, ustrezno uparjeno z vsaj enako naprednimi tehnologijami ter proaktivnimi komponentami, in tako bomo lahko preprečili resne vdore.

Kako lahko zakonodajalci in regulatorni organi omejijo (zlo)uporabo orodij AI za zlonamerna dejanja? Kako pomembno je po drugi strani vzpostavljanje etičnih standardov pri razvoju in uporabi AI, zlasti ko govorimo o kibernetskih grožnjah?

Po mojem mnenju bi se morali regulatorji osredotočiti na lažje vpeljevanje novih tehnologij v organizacije. Seveda mora obstajati neka regulativa, ampak ne smemo preveč oteževati vpeljave novih tehnologij v legitimne namene, ker nas potem tisti na drugi strani prehitijo in se boj znatno oteži.

Prav tako se moramo usmeriti v vpeljavo boljših tehnologij zaznave naprednih groženj – če ne gre drugače, pa preko zakonov ali regulativ. Kot sem omenil uvodoma, DORA in TIBER-EU sta zelo dobra premika v pravo smer.

Imamo pa tudi zametke vpeljave zakonov oz. aktov na ravni EU (kot je na primer EU AI Act), ki poskušajo na svoj način omejevati uporabi orodij AI – menim pa, da to ne bo bistveno vplivalo na svet digitalnega kriminala.

Kakšne preventivne ukrepe lahko organizacije sprejmejo, da zmanjšajo tveganje napadov, ki temeljijo na orodjih AI?

Ukrepov je lahko veliko, izpostavil bi le nekaj pomembnejših:

  1. Izobraževanje in ozaveščanje zaposlenih
  2. Varnostna preverjanja v kombinaciji z uporabo varnostno-obveščevalnih podatkov
  3. Uporaba AI za obrambo
  4. Kontinuirano spremljanje varnostnih dogodkov v okolju s pomočjo zaznavnih orodij

Medtem opažamo, da postaja v finančnem sektorju vse bolj popularno varnostno preverjanje v obliki Red Teaming, ki temelji na varnostno-obveščevalnih podatkih. To prepoznava tudi ogrodje TIBER-EU, ki ga je vzpostavila centralna banka (ECB) za krepitev odpornosti finančnega sektorja na kibernetske grožnje.

Takšno storitev izvajamo v podjetju NIL za stranke celo intervalno, kajti grožnje se prilagajajo in razvijajo – še posebej takšne, ki se razvijajo s pomočjo AI.

Kako bo po vašem mnenju razvoj tehnologije umetne inteligence vplival na kibernetsko kriminaliteto v prihodnosti?

Predvidevam, da se bo volumen napadov kontinuirano večal, zaradi vse nižjega vstopnega praga za amaterske hekerje in hitrejšega razvoja zlonamerne programske kode. Prav tako bodo sofisticirane hekerske skupine izvajale bistveno bolj napredne napade s pomočjo AI.

Ali menite, da se bo človeštvo v bodoče soočilo z velikim tveganjem, da bi umetna inteligenca z učenjem pridobila svojo samobitnost in je ne bo več mogoče kontrolirati?

Verjamem, da je to utemeljeno tveganje in ga je treba pravočasno obravnavati in urejevati.

Katere industrije so trenutno najbolj izpostavljene napadom z uporabo orodij AI?

Zdravstveni, finančni, bančni ter izobraževalni sektor. Ti prednjačijo, ker so tipično »zanimive« tarče tudi za amaterje, ki bi radi zaslužili hiter denar z nekim kupljenim izsiljevalskim virusom ali »infostealerjem«. Običajno razpolagajo ti sektorji oz. industrije s pomembnimi osebnimi podatki, ki so tudi v hekerskih skupnostih med najbolj cenjenimi.

Kako lahko posamezniki zaščitimo svoje osebne podatke in identiteto pred zlorabami, ki jih omogoča uporaba orodij AI?

Vse to je zelo odvisno od lastnega modela groženj (Threat Modeling). Posamezniki imamo različna merila, kaj nas »boli« v primeru odtujitve osebnega podatka.

Menim, da je tukaj težava bolj v tem, da so naši osebni podatki in identitete precej razpršeni po spletu že samo pri legitimni uporabi popularnih orodij, ki nam konstantno sledijo in nas profilirajo.

Za posameznike bi podal splošna priporočila, kot so:

  1. Upoštevanje načel varne uporabe interneta
  2. Izogibanje deljenju prevelike količine osebnih podatkov
  3. Redno spremljanje svoje digitalne identitete
  4. Uporaba šifriranih komunikacijskih kanalov
  5. Preverjanje virov informacij
  6. Uporaba orodij za zaščito zasebnosti (VPN)
  7. Previdnost pri uporabi javnih omrežij

Ali menite, da bi o tveganjih glede zlonamerne uporabe orodij AI morali govoriti že v osnovnih šolah?

Absolutno. Prav tako se mi zdi, da je v osnovnih šolah in tudi kasneje premalo govora o osnovah digitalne varnosti. Zdi se mi, da se vse bolj pričakuje uporaba digitalnih orodij za dosego standardov pri učenju, pri tem pa še zmeraj ne obstaja noben obvezen predmet, ki bi ozaveščal o varni uporabi takšnih produktov in morebitnih grožnjah.

Kakšna je po vašem mnenju stopnja digitalne pismenosti slovenskega prebivalstva?

Moje osebno mnenje je, da obstaja prelomnica, kjer se digitalna pismenost bistveno razlikuje, to prelomnico pa navadno določa starost prebivalca. Pozitivno je, da se iz leta v leto ta prelomnica digitalne pismenosti pomika k višji starosti. Če se ozremo 10 let nazaj in primerjamo povprečnega 70-letnika tedaj in danes, vemo, da smo danes pri 70 letih veliko bolj digitalno ozaveščeni in bolje dojemamo tudi kibernetska tveganja.

Kljub vidnemu pozitivnemu trendu ne moremo mimo številk, ki nam prikazujejo realno stanje in hkrati priložnosti za izboljšave. Po podatkih Statističnega urada Republike Slovenije je v letu 2023 imelo le 19 % prebivalcev Slovenije zelo dobro razvite digitalne veščine, 28 % osnovne, 21 % pomanjkljive, 13 % skromne in 6 % zelo skromne. Med vsemi prebivalci je le dobra polovica (56 %) oseb, ki imajo razvite digitalne veščine za varno uporabo IKT in zaščito podatkov, kar 44 % pa tovrstnih veščin (še) nima. V prizadevanjih za samozavestno, kritično in odgovorno uporabo digitalnih tehnologij imamo torej še veliko možnosti za napredek.

Članek je bil prvotno objavljen v reviji Bančni vestnik.