ArsTechnica raporti kohaselt lekitas vestlusrobot ChatGPT privaatseid vestlusi, sealhulgas selliseid üksikasju nagu kasutajanimed ja paroolid. Üks vestlusroboti kasutaja tegi ChatGPT´le päringu ning märkas täiendavaid vestlusi, mis ei kuulunud talle. OpenAI sõnul ei ole tegemist andmete lekkega.
Võõrad vestlused sisaldasid mitmeid üksikasju. Üks vestluste komplekt oli tehtud kellegi poolt, kes üritas apteegi retseptiravimite portaali töötajate tugisüsteemi kaudu probleeme lahendada. See sisaldas rakenduse nime, millele kõrvalseisja üritas tõrkeotsingut teha, poe numbrit, kus probleem tekkis ning täiendavad sisselogimismandaate.
Veel üks lekkinud vestlus sisaldas esitluse nime, mille kallal keegi töötas, koos avaldamata uurimisettepaneku üksikasjadega.
See pole esimene kord, kui ChatGPT teave on lekkinud. ArsTechnica märgib, et ChatGPT´l oli 2023. aasta märtsis viga, mis lekitas vestluste pealkirju, samas kui 2023. aasta novembris suutsid teadlased kasutada päringuid, et AI-bot avaldadaks LLM´i koolitamisel kasutatud privaatseid andmeid.
OpenAI tegi juhtunuga seoses järgmise avalduse. “ArsTechnica avaldas juhtunu enne, kui meie pettuste ja turvameeskonnad jõudsid uurimise lõpule viia ning väljaande aruanne on kahjuks ebatäpne. Meie leidude põhjal rikuti kasutajate konto sisselogimismandaate ja pahatahtlik kasutaja kasutas seda kontot. Kuvatav vestlusajalugu ja failid on selle konto väärkasutusest tulenevad vestlused ning ChatGPT ei näita teiste kasutajate ajalugu.”
Allikas: Android Authority