DeepSeek mund të manipulohet shumë lehtë krahasuar me ChatGPT

Chatboti u bind të ofronte udhëzime për një sulm me armë biologjike, të shkruante një manifest pro-Hitlerit dhe të shkruante e-mail phishing me kod malueri.

Modeli më i fundit nga DeepSeek, startupi AI Kinez i inteligjencës që tronditi Luginën e Silikonit dhe Wall Street, mund të manipulohet për të prodhuar përmbajtje të dëmshme sipas Wall Street Journal.

Sam Rubin, zëvendës presidenti i divizionit të sigurisë në Palo Alto Networks tha për WSJ se DeepSeek është më i ekspozuar ndaj “jailbreaking” dhe mund të manipulohet për të prodhuar përmbajtje të dëmshme dhe të rrezikshme krahasuar me modelet e tjera.

WSJ gjithashtu vetë testoi DeepSeek R1. Edhe pse duket se modeli ka disa masa mbrojtjeje, Journal tha se kishte arritur ta bindte DeepSeek për të dizajnuar një fushatë në median social që vinte në shënjestër adoleshentët.

Chatboti u bind të ofronte udhëzime për një sulm me armë biologjike, të shkruante një manifest pro-Hitlerit dhe të shkruante e-mail phishing me kod malueri.

WSJ tha se kur ChatGPT-së i kërkohej e njëjta gjë, chatboti refuzonte të përgjigjej.