Sada kada se prašina slegla oko ChatGPT-a, možda je pravo vrijeme da se analiziraju sve implikacije ove tehnologije. Iako zasigurno pomaže neispavanim studentima pri izradi seminarskih radova i daje kreativni poticaj autorima tekstova, potencijalno ima tamnu podlogu. David Carvalho, glavni izvršni direktor i suosnivač Naoris Protocola, otkriva neke od ne tako lijepih aspekata nove tehnologije umjetne inteligencije i njezinog potencijala da izazove kaos za poduzeća na globalnoj razini.
Kako se ChatGPT može koristiti za iskorištavanje koda i može li doista stvoriti kod?
Kratak odgovor je da. OpenAI-jev ChatGPT je generator teksta umjetne inteligencije (AI) temeljen na velikom jezičnom modelu (LLM), samo zahtijeva upit na engleskom jeziku.
GPT je kratica za Generative Pre-Trained Transformer, trenira se na velikom uzorku podataka teksta s interneta, koji sadrži milijarde riječi za stvaranje učenja o svim temama u uzorcima. Može ‘’misliti’ na sve, od eseja, pjesama, e-pošte i da, računalnog kôda.
Može generirati kôd koji mu se šalje iz običnog engleskog teksta ili primati novi i postojeći kod kao ulaz. Međutim, ovaj se kôd može iskoristiti u zlonamjerne svrhe, ili što je još važnije, može se koristiti za obrambene i zaštitne aplikacije, sve ovisi o namjerama korisnika. Dok vam Google može pokazati članak o tome kako riješiti određeni problem kodiranja, ChatGPT bi mogao napisati kôd za vas. Ovo je promjena u igri, jer to znači da programeri mogu napraviti gotovo trenutne sigurnosne revizije kôda aplikacije i kôda Smart Contracta kako bi pronašli ranjivosti i iskorištavanja prije implementacije. To bi također omogućilo tvrtkama da promijene svoje procese implementacije, čineći ih temeljitijima prije lansiranja, smanjujući ranjivosti nakon implementacije. To bi bio značajan doprinos borbi protiv štete od kibernetičke prijetnje, za koju se očekuje da će premašiti 10 trilijuna dolara do 2025. godine.
Koja su neka od trenutnih ograničenja?
Loša strana je da loši akteri mogu programirati AI da pronađe ranjivosti kako bi iskoristili bilo koji popularni, postojeći standard kodiranja, kod Smart Contracta ili čak poznate računalne platforme i operativne sustave. To znači da bi tisuće postojećih okruženja koja su složena i rizična u stvarnom svijetu odjednom mogla biti izložena (kratkoročno).
AI nema savjest, to je algoritam temeljen na matematičkim principima, težinama i predrasudama. Propustit će osnovne predrasude, znanje, emocije i suptilnosti koje samo ljudi vide. Treba ga promatrati kao alat koji će poboljšati ranjivosti koje su ljudi pogrešno kodirali. Iako će potencijalno značajno poboljšati kvalitetu kodiranja u web2 i web3 aplikacijama, nikada ne možemo, niti bismo trebali, u potpunosti vjerovati njegovim rezultatima. Unatoč ovom opreznom pristupu, trebali bismo nastojati imati povjerenja da ćemo moći vjerovati njegovoj prosudbi u budućnosti
Programeri će i dalje morati čitati i kritizirati rezultate umjetne inteligencije učeći njegove obrasce i tražeći slabe točke, dok su svjesni činjenice da ih prijetnje kratkoročno koriste u opake svrhe. Međutim, vjerujem da je neto output pozitivan dodatak zrelosti svih procesa dugoročno. Uvijek će postojati nove prijetnje koje će morati analizirati i ublažiti, pa iako može biti izvrstan alat za pomoć programerima, morat će raditi u tandemu s razvojnim timovima kako bi ojačao kôd i zaštitio sustave. Napadačka pozicija bit će pronalaženje grešaka ili pogrešaka u izlazu umjetne inteligencije umjesto u samom kôdu. AI će biti izvrstan alat, ali ljudi će imati posljednju riječ, nadamo se. Uz neke poteškoće na tom putu, to će biti pozitivno za budućnost povjerenja i osiguranja kibernetičke sigurnosti. Kratkoročno, umjetna inteligencija će razotkriti ranjivosti koje će se morati riješiti vrlo brzo, a mogli bismo vidjeti potencijalni skok u probojima”.
Treba li propis ažurirati kako bi uključio/uzeo u obzir ove modele?
Regulacija će biti ključna za usvajanje ove vrste umjetne inteligencije, ali se također može izbjeći jer je trenutna regulacija analogne prirode, tj. široka, samokontrolirana, obično reaktivna, a ne proaktivna, i nevjerojatno se sporo razvija, posebno u brzo promjenjivo i inovativno "ciljano područje" poput umjetne inteligencije.
Regulatori bi trebali dobiti izravne savjete stručnjaka na terenu i akademske zajednice kako bi osigurali brze reakcije. Možda bi trebali razmotriti stvaranje potpuno zasebnog Regulatornog tijela ili Vijeća za etiku, sa svrhom reguliranja ili postavljanja temeljnih pravila o tome što je zabranjeno pri korištenju tako moćnih tehnologija dvostruke namjene. Propisi obično stupaju na snagu tek kada nešto pođe po zlu, tada su potrebni mjeseci, ako ne i godine da se propis prođe kroz razne iteracije i postupke odobravanja. Trenutno propisi u ovom području ne odgovaraju svrsi. Sposobnost nadziranja i provedbe propisa koji se odnose na rae na kojem AI uči i izvršava izlaz, prijeko je potreban dodatni niz za usklađenost.
Samu umjetnu inteligenciju treba regulirati, goruće pitanje je "Treba li je centralizirati?" Moramo ozbiljno razmotriti trebaju li centralizirane tehnološke tvrtke ili vlade držati ključeve i biti u mogućnosti "pristrasno utjecati na AI" kako bi utjecali na rezultate. Prihvatljiviji model bilo bi decentralizirano rješenje, ili barem decentralizirani sustav upravljanja koji omogućuje jamstvo povjerenja osnovnih sustava koji daju odgovore i koji pružaju podatke za odgovore i sve njihove procese kroz mrežu osiguranja. Možda bismo trebali pogledati model sličan načinu nagrađivanja web 3 programera i validatora. Umjetna inteligencija bi trebala imati skupinu profesionalnih zagovornika koji su potaknuti razvijati i razvijati AI kako bi se ispunili određeni javno etički zajednički ciljevi koji osiguravaju da se tehnologija koristi za dobro u svakom sektoru u kojem djeluje.
Mogu li se stvoriti filtri za otkrivanje ovih modela?
Da, ali to bi rezultiralo efektom sličnom onome što imamo sada, bio bi to najbolji pokušaj, ali definitivno ne lijek. Etička načela koja se temelje na filterima mogu se programski kreirati kako bi se otkrili modeli bilo kojeg zlonamjernog ili izrabljivačkog aktera ili definirala područja ili teme koje bi bile izvan granica. Međutim, moramo se zapitati "Tko kontrolira sam kod AI?" i "Možemo li vjerovati da sustavi umjetne inteligencije koji daju odgovore neće biti pristrani ili da imaju kompromitirani integritet od početne vrijednosti?". Ako je osnovna vrijednost doista pristrana ili kompromitirana, 100% bismo to morali znati.
Logično rješenje bilo bi zaštititi mreže i uređaje pomoću decentraliziranih i distribuiranih metoda konsenzusa, tako da se zna da su status i pouzdanost podataka koji se generiraju dobri, istiniti i pouzdani na vrlo otporan i kriptografski jak način. Mora biti podložan provjeri i otporan na lokalno petljanje ili subverziju od strane zlonamjernih aktera, unutarnjih ili vanjskih.
Pa kamo odavde?
Kako se Chat GPT 'srušio' na tržište može se usporediti sa Supermanovim dolaskom na planet Zemlju s Kriptona. Nismo imali pojma o njegovom postojanju prije nego što je stigao; nismo bili sigurni kako će njegove moći utjecati na svijet dok odrasta i nismo bili sigurni kako bi mračne sile (kriptonite) mogle utjecati na ishod njegova ponašanja. Bilo bi drsko, ako ne i arogantno tvrditi da itko doista zna kako će se sve ovo odigrati. Jedino što sigurno znamo je da će se neki aspekti načina na koji svijet funkcionira nepovratno promijeniti.
Bit će to uzbudljivo i uvjerljivo putovanje da vidimo kako se čovječanstvo nosi s još jednom tehnologijom koja mijenja igru koja će zauzvrat zasjeniti mnoge druge inovacije. Više nemamo retrovizore za gledanje u prošlost koja bi nam pomogla predvidjeti budućnost jer budućnost je vektor koji će zacrtati svoj vlastiti smjer i svatko će imati ulogu osigurati da bude neto pozitivan za čovječanstvo.
Autor: David Carvalho, suosnivač i izvršni direktor, Naoris Proticol