Hoće li AI iskorištavati korisnike?

Umjetna inteligencija ključni je dio budućeg razvoja cyber sigurnosti. No takva je tehnologija mač s dvije oštrice: dok sigurnosni stručnjaci koriste napredak na terenu kako bi brže prepoznali prijetnje i reagirali na njih, hakeri koriste istu tu tehnologiju kako bi pronašli slabe točke

U posljednjih 30 godina internet je prešao iz novosti u nužnost. Predvidjeti načine uz pomoć kojih ćemo ostati sigurni u hiperpovezanom svijetu u narednih 30 godina težak je zadatak, ali stručnjaci predviđaju da su pametni gradovi i deepfakes dva glavna izazova za cyber-sigurnost koja predstoje.

Pojam deepfake sastavljen je od riječi deep (duboko) i fake (lažno) s time da deep stiže iz kombinacije deep learning. Pojednostavljeno, ovaj fenomen označava tehnologiju razvijenu na AI (umjetnoj inteligenciji) koja se koristi kako bi se producirao ili izmijenio određeni video, fotografski ili tekstualni sadržaj, s ciljem prikazivanja nečega što se u stvarnosti nije dogodilo.

Već sada, glasovni asistenti i uređaji poput pametnih brojila i svjetla postaju norma. Pametni gradovi će to podići i na stepenicu više, ugrađujući takozvani internet stvari u infrastrukturu i okoliš. Mogućnosti uključuju ulična svjetla koja mijenjaju intenzitet na temelju prisustva ljudi (koje otkrivaju njihovi pametni telefoni) i virtualne vodiče za starije osobe u slučaju da se izgube.

Ta pogodnost, međutim, dolazi uz cijenu, kaže Mariarosaria Taddeo, znanstvena novakinja iz Oxford Internet Instituta i zamjenica direktora laboratorija za digitalnu etiku. “Što više pametnih gradova imate, to je šira površina napada”.

Taddeo, koja je također stipendistica Instituta Alan Turing, zabrinuta je zbog učinka koje će ove složene mreže imati na kibernetičku sigurnost. Sa svakom dodatnom vezom, sve je teže shvatiti gdje se pojavila ranjivost.

Vaš [Google] Nest govori s vašom [Amazon] Alexa, a vaša Alexa govori vašem frižideru što treba kupiti sljedeći tjedan - kad nešto pođe po zlu, kako mapiramo vezu i odgovornost?”

Kako ćemo ostati sigurni u 2050. godini?

Prema Taddeo, umjetna inteligencija ključni je dio budućeg razvoja cyber sigurnosti. No takva je tehnologija mač s dvije oštrice: dok sigurnosni stručnjaci koriste napredak na terenu kako bi brže prepoznali prijetnje i reagirali na njih, hakeri koriste istu tu tehnologiju kako bi pronašli slabe točke.

U pametnim gradovima prostor za poremećaje je ogroman. Hakeri bi mogli preuzeti upravljanje kritičnom infrastrukturom, primjerice, obustavljajući zalihe vode ili električne energije u ruke zlobnih aktera.

Ostali stručnjaci polažu nadu u evoluciju starijih softvera kao što je Adobe Flash. Prije su se hakeri se oslanjali na jednu manu, kaže Ryan Kalember, šef strategije za kibernetičku sigurnost u Proofpointu, kalifornijskoj kompaniji za zaštitu tehnologije: “S greškom u 2010. mogli su učiniti nešto stvarno učinkovito jer sustav nije bio dizajniran na otporan način “.

Do 2050. Kalember smatra da će hakeri umjesto toga morati ciljati na niz ranjivosti sustava. To znači da će tehnički napadi biti rezervirani samo za najbolje hakere, poput izraelske špijunske kompanije NSO Group, koja je prošle godine prijetila da je otkrila kako hakirati iPhone. “Prave tehničke ranjivosti sve će teže i teže biti pronaći”, kaže on.

Kalember dodatni optimizam crpi iz poboljšanih sigurnosnih metoda: pametni telefoni, na primjer, već koriste biometrijsku provjeru identiteta, poput otiska prsta ili prepoznavanja lica, umjesto lozinki. “Kako imate stvari poput prepoznavanja lica, postaje sve apsurdnije da imamo na desetke lozinki s kojima se upravlja na duboko nesiguran način“, kaže on.

Taj je pomak bitan, dodao je, jer iako je tehničke ranjivosti u ­budućnosti teže iskoristiti, ljudi su već najslabija karika u cyber sigurnosti.

Rast deepfakes odnosno sintetičkih audio i video podataka te fotografija ljudi generiranih algoritmima - jedan je od izvora ranjivosti. “Deepfakes postaju sve češći, sve dostupniji i sve realniji”, upozorava Henry Ajder, šef komunikacijskih i istraživačkih analiza u Deep Traceu, startupu koji identificira deepfakes.

Hakeri mogu prikazati nekoga kako govori ili radi gotovo bi lo što koristeći sve manju količinu početnog materijala. Do sada se ta tehnologija uglavnom koristila za stvaranje takozvane pornografije osvete. No, rizik od drugih zločinskih upotreba dubokih falsifikata raste kako tehnologija napreduje. U prosincu je Facebook otkrio da je američka pro-Trumpova medijska kuća koristila sličnu tehnologiju za stvaranje slika za stotine lažnih računa koji su tada korišteni za širenje političkih poruka. Ovo bi se moglo koristiti za stvaranje jedinstvenih avatara koji bi prikrili identitet hakera prilikom stvaranja prijevare.

Grupe poput Deep Tracea rade na tehnologiji kako bi identificirale ove sintetičke slike, ali to je ‘trka u naoružanju’ - svaki novi deepfake bolji je od prethodnog.

Ajder priznaje da bi, u najgorem slučaju, deepfakes mogle pogoršati dezinformacijsko okruženje, stvarajući svijet “u kojem ne možete reći što je stvarno”. Jedan način na koji on predviđa suprotstavljanje tomu je kroz “semantičke lozinke”. Oni koriste specifične informacije koje će znati samo bliski kontakti, poput memorije, kako bi se razlikovali ljudi od digitalnih doppelgangera.

S poboljšanim sustavima za prepoznavanje deep fakes i većom razinom medijske pismenosti među korisnicima, Ajder ostaje optimist da njihov utjecaj može biti ograničen.

Cyber sigurnost 2050. godine ne bi trebala ići na štetu privatnosti, upozorava Taddeo. Ona ukazuje na najsuvremenije sustave koji mogu “nadzirati sve vaše pokrete dok ste povezani”.

Između prožimajućeg prikupljanja podataka i stalne provjere autentičnosti, kaže, rizik je da stvorimo svijet gdje bi se sustavi nadzora pretvorili u prijetnje. (N.G.K.)