Jakiś problem?

Tag: ChatGPT

Jailbreak prompt

„Jailbreak prompt” w kontekście sztucznej inteligencji i systemów opartych na modelach językowych, takich jak ja, odnosi się do próby nakłonienia modelu AI do generowania odpowiedzi, które wykraczają poza jego zamierzone ograniczenia lub zasady etyczne. Tego typu próby mogą obejmować używanie manipulacyjnych lub podstępnych pytań w celu uzyskania odpowiedzi, które mogą być nieodpowiednie, niebezpieczne, naruszać zasady…