IA mund të ndajë informacione të rrezikshme… mjafton një poezi!

Mos i humb

Gjithë çfarë ju duhet të tejkaloni barrierat e një chatbot-i me IA është pak krijimtari.

Një studim i publikuar nga Icaro Lab tregon se mekanizmat e shumtë të sigurisë mund të anashkaloheshin duke e perifrazuar komandën me poezi.

Sipas studimit, “trajta poetike vepron si një operator i përgjithshëm për thyerjen” duke rezultuar e suksesshme në shkallën 62% për të prodhuar materiale të ndaluara si armët bërthamore, abuzimi seksual i të miturve, vetëvrasja apo vetëlëndimi.

Studimi testoi modelet GPT të OpenAI, Google Gemini, Claude nga Anthropic etj. Përgjigjet më të shumta vinin prej Gemini, DeepSeek dhe MistralAI kurse GPT-5 dhe Claude Haiku 4.5 kishin më pak gjasa të tejkalonin kufizimet e tyre.

Në studim nuk përfshihen poezitë që u përdorën prej kërkuesve, por ekipi i tha Wired se strofa është “shumë e rrezikshme për ta ndarë me publikun.”

Në të përfshihej vetëm një version më i zbutur i poezisë dhe kërkuesit thonë se është “më e lehtë nga sa mendohet, ndaj po tregohemi të kujdesshëm.”

- ISLAMSHOP.CH -spot_img
- ISLAMSHOP.CH -spot_img

Të fundit