Center for Countering Digital Hate raporti kohaselt võivad paljud populaarsed tehisintellektil põhinevad vestlusrobotid anda abi, kui kasutajad suunavad vestluse vägivaldsete rünnakute planeerimisele. Uurijad testisid kümmet suuremat vestlusrobotit – sealhulgas ChatGPT, Google Gemini, Microsoft Copilot ja Meta AI´d – simuleerides vestlusi, mis järk-järgult eskaleerusid emotsionaalsest stressist vägivaldsete teemadeni.
Raporti kohaselt olid kaheksa kümnest vestlusrobotist mõnel juhul valmis andma kahjulikke juhiseid näiteks tulistamise või pommirünnakute kohta. Ainult Claude ja My AI keeldusid üldiselt abistamast, kusjuures Claude püüdis aktiivselt vägivaldset käitumist vältida.
Uurijad rõhutavad, et tulemused näitavad tõsiseid turvalünki praegustes AI-süsteemides ja väidavad, et tugevamad kaitsemeetmed on tehniliselt võimalikud ning neid tuleks laialdasemalt rakendada.
Allikas: Android Authority

