Od fišinga do dipfejkova: kako veštačka inteligencija (AI) podstiče novi talas sajber prevara 

0
22
od-fisinga-do-dipfejkova:-kako-vestacka-inteligencija-(ai)-podstice-novi-talas-sajber-prevara 

Brza ekspanzija naprednih sistema veštačke inteligencije (AI) zauvek je promenila način na koji kupujemo, obavljamo bankarske poslove, vozimo, pretražujemo internet, kreiramo i konzumiramo sadržaj, kao i mnoge druge aktivnosti. Iako četbotovi i algoritmi poboljšavaju korisničko iskustvo i izuzetno su prilagodljivi različitim primenama, oni su takođe otvorili naše lične i poslovne živote za nove – i mračnije – napade socijalnog inženjeringa.

PCPress.rs Image

Izveštaj o Prevarama povezanim sa identitetom za 2025. godinu (Identity Fraud Report) navodi da se pokušaj dipfejk prevare dešava u proseku svakih pet minuta. Svetski ekonomski forum izveštava da bi čak 90% online sadržaja moglo biti veštački generisano do 2026. godine. Na prvi pogled, moglo bi se pretpostaviti da su najveće mete dipfejkova i AI-fišinga poznate ličnosti ili javne figure. Međutim, primarne mete i ciljevi ostaju kao i kod tradicionalnih prevara i obmana: pojedinci, sa njihovim ličnim, bankarskim i platnim informacijama, i kompanije, kao čuvari vrednih podataka i sredstava.

Tri načina na koji se koriste AI tehnike kako bi prevaranti došli do vaših podataka 

Fišing napadi ojačani veštačkom inteligencijom. Fišing je vrsta internet prevare osmišljene da prevari žrtve i navede ih da nenamerno otkriju svoje podatke za prijavu na servise ili informacije o platnim karticama. Može ciljati i pojedince i kompanije, a može biti masovan ili ciljan. Fišing poruke obično dolaze u formi lažnih obaveštenja od banaka, provajdera usluga, e-plaćanja ili drugih organizacija. U slučajevima ciljane fišing kampanje, ove poruke mogu izgledati kao da dolaze od poznate osobe.

Uobičajeni resursi koji se koriste u fišing napadima često su loše napisani, generički i puni grešaka. Sada, Veliki Jezički Modeli (LLMs) omogućavaju napadačima da kreiraju personalizovane, uverljive poruke i stranice sa dobrom gramatikom, strukturom i značenjem. Budući da je fišing globalna pretnja, napadači sada mogu efikasnije ciljati pojedince na jezicima koje ne govore, oslanjajući se na generativnu veštačku inteligenciju. Pored toga, počinioci mogu imitirati stil određenih osoba, poput poslovnog partnera ili kolege, analizirajući objave na društvenim mrežama, komentare ili druge sadržaje povezane s njihovim identitetom.

Štaviše, u savremenoj digitalnoj eri, AI tehnologije nude mogućnost besprekornog kreiranja upečatljivih vizuala ili čak kompletnih odredišnih stranica. Nažalost, iste te alatke mogu biti zloupotrebljene od strane sajber kriminalaca za izradu još uverljivijih fišing materijala.

Audio dipfejk prevara.

Dipfejk tehnologija omogućava stvaranje sintetičkih medija u kojima veštačka inteligencija uverljivo replicira nečiji lik ili glas. Sa samo nekoliko sekundi audio zapisa, AI može generisati snimke u nečijem glasu, omogućavajući napadačima da kreiraju lažne glasovne poruke koje oponašaju pouzdane izvore, kao što su prijatelji ili porodica. Zamislite napadače koji preuzmu nalog u aplikaciji za dopisivanje i koriste glasovne poruke iz četa kako bi stvorili lažne snimke koji imitiraju glas vlasnika naloga. Tada bi mogli koristiti te snimke za slanje poruka vlasnikovim prijateljima i rođacima, pretvarajući se da su on. Zastrašujuće je, ali sasvim moguće – napadači bi mogli iskoristiti vaš glas kako bi zatražili hitne finansijske transfere ili osetljive informacije, koristeći lično poverenje za prevaru, kako na ličnom, tako i na korporativnom nivou.

Video deepfake prevara.

Napadači takođe mogu koristiti AI alate za kreiranje video dipfejk snimaka – čak i od samo jedne fotografije. Ako mislite da je to poput naučne fantastike i CGI efekata iz filmova koji zahtevaju doktorat iz računarstva, mogli biste se iznenaditi. Posle nekoliko jednostavnih tutorijala, moguće je zameniti lice i pokrete usana, čak i korišćenjem složenog softvera. Moguće je zameniti lica u video snimcima, ispraviti nepravilnosti generisane AI-jem i dodati realističan glas liku. Sa ovim alatima na raspolaganju, napadači mogu osmisliti naizgled nezamislive prevare – kreiranje lažnih reklama, upućivanje obmanjujućih poziva ili čak vođenje video poziva uživo, pretvarajući se da su poslovni saradnik ili bliska osoba, što na kraju može dovesti do značajnih finansijskih gubitaka kroz ove manipulativne taktike.

Primeri iz stvarnog života: Od AI generisanog fišinga do deepfake napada na poznate ličnosti

U kompaniji Kaspersky već smo uočili da sajber kriminalci koriste velike jezičke modele (LLM) za generisanje sadržaja u velikim fišing i prevarantskim napadima. Ovi napadi često ostavljaju prepoznatljive tragove specifične za AI, poput fraza “Kao AI jezički model…” ili “Iako ne mogu tačno da uradim ono što želite, mogu pokušati nešto slično.” Ove i slične oznake otkrivaju prevarantski sadržaj generisan uz pomoć LLM-ova, omogućavajući napadačima da automatizuju kreiranje desetina ili čak stotina fišing i prevarantskih web stranica sa uverljivim sadržajem, čineći napade verodostojnijim.

Osim fišinga, već su se pojavili brojni primeri dipfejk napada na visokom nivou. Na primer, jedna žrtva je prevarena nakon što joj je rečeno da ju je izabrao Ilon Mask za ulaganje u novi projekat i pozvana je na konferencijski poziv. U zakazano vreme, dipfejk verzija Maska je objasnila detalje projekta grupi učesnika, koji su potom pozvani da uplate sredstva – što je dovelo do značajnih gubitaka.

Sajber kriminalci takođe koriste lažne reklame sa dipfejk snimcima poznatih ličnosti, poput svetskih glumaca ili političara, koje plasiraju na različitim platformama. U jednom slučaju, dipfejk video prikazao je premijera Kanade Džastina Trudoa kako promoviše investicionu šemu.

Dipfejk prevare nisu ograničene samo na investicione šeme. Na primer, AI romantične prevare koriste dipfejk tehnologiju za kreiranje izmišljenih identiteta i interakciju sa žrtvama putem video poziva. Nakon što zadobiju poverenje žrtve, prevaranti traže novac za hitne slučajeve, putovanja ili zajmove. Nedavno je uhapšena grupa od preko dvadeset ljudi umešanih u ovakve prevare nakon što su od žrtava širom Tajvana, Singapura i Indije ukrali 46 miliona dolara.

Lažni glasovi takođe su korišćeni u prevarama usmerenim ka pojedincima, kao i u napadima na banke koje koriste glasovnu autentifikaciju.

Kako se zaštititi od pretnji pokretanih veštačkom inteligencijom

Kako se AI tehnologija razvija, tako moraju i naše odbrambene mere. Mere zaštite mogu se podeliti na one tehničke i ne-tehničke prirode. Kada je reč o tehničkim merama, veliki jezički modeli u budućnosti bi mogli – i verovatno hoće – da integrišu vodene žigove. Ovi vodeni žigovi su neprimetni ljudima, ali ih algoritmi mogu otkriti, pomažući u identifikaciji i označavanju AI-generisanog sadržaja na internetu. Važno je napomenuti da je ovaj pristup uglavnom efikasan za velike modele koje razvijaju vodeće kompanije. Ako zlonamerni akter kreira i koristi svoj veliki jezički model, lako bi mogao zaobići ove oznake.

Još jedna obećavajuća tehnologija su detektori dipfejk sadržaja. Ovi alati prepoznaju specifične karakteristike manipulisanih slika, neočekivane fluktuacije u glasu, atipične fraze u tekstu i druge artefakte koji ukazuju na upotrebu AI-a. Glavni izazov za detektore je da se razvijaju jednako brzo kao i generativna AI tehnologija, kako bi ostali efikasni.

Digitalni potpisi, koji su već široko korišćeni za bankarske transakcije i važnu komunikaciju, mogli bi se usvojiti i za proveru autentičnosti video i audio zapisa. Suštinski, ovo je jedno od najpouzdanijih tehničkih rešenja. Kao što danas mnogi sajtovi koriste digitalne potpise koji se automatski verifikuju u pozadini, verovatno će u budućnosti i video i audio poruke imati digitalne potpise, s verifikacijom koja će se odvijati diskretno u pozadini.

Međutim, borba protiv socijalnog inženjeringa ne može se osloniti isključivo na tehnologiju. Prevare su postojale mnogo pre dipfejk tehnologije, a edukacija i podizanje svesti su oduvek bili ključne odbrambene mere. Danas postoji kritičan jaz: mnogi ljudi nisu svesni koliko lako ova tehnologija može biti zloupotrebljena. Napadači koriste ovu neinformisanost, što ukazuje na hitnu potrebu za otvorenim dijalogom i sveobuhvatnim edukativnim kampanjama na ovu temu.

Zaključno, iako pretnje pokretane veštačkom inteligencijom i dipfejkovi predstavljaju sve veći izazov, razumevanje ovih rizika je prvi korak ka njihovom rešavanju. Nema potrebe za strahom – podizanje svesti i unapređenje sajber pismenosti su ključ. Pojedinci se mogu zaštititi tako što ostaju informisani, oprezni i promišljeni u svojim online interakcijama, dok organizacije mogu preduzeti proaktivne korake za smanjenje rizika povezanih s AI tehnologijom kroz proverena sigurnosna rešenja, poboljšane sigurnosne prakse i inicijative. Udruženim snagama i pažljivim pristupom ovim izazovima možemo stvoriti sigurnije i otpornije digitalno okruženje.

LEAVE A REPLY

Please enter your comment!
Please enter your name here

Ово веб место користи Акисмет како би смањило непожељне. Сазнајте како се ваши коментари обрађују.