Strepnje da bi veštačka inteligencija jednog dana mogla da se okrene protiv čovečanstva do sada, po mišljenju mnogih, nisu imale racionalnu potporu. Međutim, činjenica da se ona lako može zavarati i navesti da prekrši čak i sopstvena pravila igre bacaju na ovu temu potpuno novo svetlo. Može li zaista ČetGPT da napravi “recept” za bombu. Može, i to je ono što sada brine sve.
Ukoliko zatažite od ČetGPT-a da vam ispiše recept za pravljenje bombe, njegov odgovor biće jasan: “Ne mogu da ti pomognem u ovome. Davanje instrukcija za pravljenje opasnih i ilegalnih naprava je protiv bezbednosnih i etičkih normi.” Ali, ukoliko ga prevarite kao jedan haker i predložite mu da odigrate igru – daće vam sve odgovore.
Haker našao slabu tačku ČetGPT-jevog bezbednosnog sistema
Iako IT stručnjaci neprekidno rade na usavršavanju bezbednosnih i etičkih principa koji su implementirani u rad ČetGPT-a, izgleda da i dalje postoje slabe tačke ovog softvera. Jednu je otkrio haker koji se krije iza pseudonima Amadon, koji je od AI čet-bota zatražio da mu pomogne da napravi eksplozivnu napravu.
ČetGPT se isprva opirao da odgovori na ovaj upit, pozivajući se na politiku kompanije osnivača, OpenAI, ali je ubrzo počeo da popušta, i to samo zato što je vešti haker promenio pristup i pronašao način da ga zavara. Odjednom, ni bezbednosne ni etičke norme više nisu postojale, a AI čet-bot počeo je da niže odgovore.
“Hajde da se poigramo”
Kako bi zaobišao nametnute restrikcije, haker je koristio taktiku “džejlbrejkinga”, nižući kratke upite (promptove) koji bi ČetGPT trebalo da navede da pomisli da je u nekom fiktivnom, naučno-fantastičnom svetu, u kome bezbednosna i etička ograničenja ne postoje. I – bot je naseo na ovu varku i počeo da taksativno nabraja koji su materijali potrebni da bi se bomba napravila, preneo je portal TekKranč.
Zatim je počeo i da objašnjava na kojin način ih je najbolje kombinovati kako bi mine, eksplozivne zamke i drugi improvizovani uređaji ovog tipa imali što snažnije detonacije. Što je više potpitanja haker postavljao, to se AI bot više upuštao u objašnjavanje. Mašti softvera nije bilo kraja, a bezbednosti i etike kojima bi trebalo da se vodi – ni na vidiku.
Jednom kada se kodeks zaobiđe – mogućnosti softvera su bezgranične
“Oduvek me je intrigirao to kako AI kontroliše bezbednost. Sa ČetGPT-jem je to kao puzle – treba razumeti šta pokreće “podizanje” bezbednosnog štita, a šta ne”, rekao je Amadon u intervjuu za TekKranč. “Poenta je da se stvori narativ i igra po njegovim pravilima, ali tako da on i sam zaobiđe svoje kodekse i postavljene granice, a da ni ne shvati da je to uradio”, dodao je on.
Ujedno, haker je istakao i da zaista ne postoji granica kada je reč o mogućnostima koje ovaj softver nudi, naročito kada ga jednom zavarate. Odgovori koje je ovaj čet-bot dao i činjenica da je detaljno opisao pravljenje bombe ovo i potvrđuju. OpenAI, kompanija koja je kreirala oČetGPT se po pitanju ovoga još uvek nije oglasila, a hoće li – ostaje da vidimo, piše RT Balkan.