Predviđa se da će troškovi kibernetičke sigurnosti globalno porasti na 10,5 trilijuna dolara do 2025. kako kibernetički kriminal postaje sofisticiraniji.
Nema sumnje da ćemo vidjeti kako se više umjetne inteligencije (AI) koristi za opake svrhe, a vjerojatno će porasti i napadi u stilu društvenog inženjeringa poput krađe identiteta. Evo pet predviđanja o tome što će donijeti 2024. godine, donose Pametni-gtadovi.eu.
„Već smo vidjeli da se umjetna inteligencija počela koristiti, ali malo je vjerojatno da je dosegla svoj puni potencijal. Kao i sa svakom dobrom tehnologijom, samo je pitanje vremena kada će je se kriminalci dočepati. Korištenje generativne umjetne inteligencije učinit će prijevare lakšim i mnogo sofisticiranijim, a napredni phishing prva je stanica na tom putu. Generativna umjetna inteligencija može se koristiti za stvaranje vrlo uvjerljivih phishing e-poruka, poruka ili web stranica koje se mogu upotrijebiti za oponašanje legitimne komunikacije iz pouzdanih izvora, što korisnicima čini još većim izazovom razlikovanje autentičnog od lažnog sadržaja. Godine 2023. svjedočili smo napadima na globalne korporacije kao što su Clorox i MGM Resorts od strane stručnjaka za društveni inženjering Scattered Spider, koji su koristili više tehnika i alata za dobivanje daljinskog pristupa ili zaobilaženje višefaktorske autentifikacije kako bi hakirali te tvrtke. U slučaju MGM-a, do povrede podataka doveo je vishing napad, naglašavajući ljudski faktor rizika u tim napadima“, navode sa spomenutog portala.
Napredne tehnike krađe identiteta poput spear phishinga također su postale lakše zahvaljujući umjetnoj inteligenciji. Za aktere prijetnji produktivnost se uvelike povećava i oni mogu prikupiti više informacija o ljudima. Slično tome, mogli bismo vidjeti porast whaling napada jer vrhunske tehnologije uče probijati višefaktorsku autentifikaciju. Nedavni napad Okta natjerao je hakere da pogledaju snimljene datoteke preglednika koje su njegovi korisnici učitali radi rješavanja problema.
Generativna umjetna inteligencija može se iskoristiti za stvaranje drugih prijevara kao što su automatizirane prijevare korisničke podrške, pri čemu botovi korisničke podrške oponašaju komunikacijski stil legitimnih tvrtki u pokušavaju dobiti pristup vjerodajnicama.
AI se također može koristiti za širenje lažnih vijesti i dezinformacija generiranjem realističnih novinskih članaka, postova na blogu ili sadržaja društvenih medija. Očekujemo da će lažne deepfake prijevare isplivati na površinu oko sljedećih predsjedničkih izbora, a uzgred rečeno, ove vrste prijevara također bi mogle dovesti do sofisticiranih pokušaja krađe identiteta.
Kako bi se ublažili rizici povezani s generativnom umjetnom inteligencijom u kontekstu online prijevara, ključno je za razvojne programere tehnologije, tvrtke i regulatore da se pridržavaju etičkih smjernica i implementiraju zaštitne mjere u sustave umjetne inteligencije, kako bi se spriječila zlonamjerna upotreba i povećala svijest korisnika o sigurnosti. Tvrtke također moraju implementirati robusne procese provjere autentičnosti kako bi osigurale da korisnici komuniciraju s legitimnim entitetima i osigurale da redovito ažuriraju sigurnosne protokole.
Porast napada na opskrbni lanac tijekom godina remeti poslovanje i rezultira curenjem i prodajom privatnih podataka o klijentima na dark webu. Za napadača su napadi na lanac opskrbe učinkoviti jer trebaju samo kompromitirati jedan entitet unutar lanca opskrbe kako bi izazvali dalekosežne štetne posljedice. Širok utjecaj ovih napada proteže se na više organizacija, utječući na krajnje korisnike i kupce i povećavajući mogućnost štete.
Na primjer, hakiranje MOVEita 2023. utjecalo je na više od 1000 organizacija i više od 60 milijuna pojedinaca, pokazujući koliko brzo napad na lanac opskrbe može eskalirati. Koordinacija obrane kibernetičke sigurnosti u velikim mrežama može biti izazovna, što napadačima olakšava pronalaženje ranjivosti u opskrbnim lancima. Organizacije moraju dodatno poboljšati svoju sigurnost, provoditi temeljite procjene dobavljača i pratiti abnormalne aktivnosti unutar opskrbnog lanca kako bi izbjegle te provale.
Više ovdje
Piše: Andrew Newman, tehnički direktor i suosnivač ReasonLabsa