Häkker nimega Amadon leidis viisi, kuidas mööda hiilida ChatGPT turvapiirangutest, pannes selle andma juhiseid omatehtud pommi valmistamiseks. Selleks lõi ta väljamõeldud stsenaariumi, milles vestlusroboti piirangud ei kehtinud.
Amadon kasutas tehnikat, mida tuntakse “jailbreaking’u” nime all, et saada ChatGPT-lt üksikasjalikud juhised lõhkeseadmete valmistamiseks. Plahvatusohtlike ainete ekspert kinnitas, et saadud teave võiks tõepoolest viia toimiva pommi valmistamiseni.
Kuigi Amadon teavitas OpenAI-d oma avastusest, märkis ettevõtte veaparanduste programm, et sellised ohutusküsimused vajavad laiemat uurimist ja neid ei saa käsitleda lihtsate vigadena.
Allikas: Techcrunch