Jakiś problem?

Dzień: 2024-07-15

Jailbreak prompt

„Jailbreak prompt” w kontekście sztucznej inteligencji i systemów opartych na modelach językowych, takich jak ja, odnosi się do próby nakłonienia modelu AI do generowania odpowiedzi, które wykraczają poza jego zamierzone ograniczenia lub zasady etyczne. Tego typu próby mogą obejmować używanie manipulacyjnych lub podstępnych pytań w celu uzyskania odpowiedzi, które mogą być nieodpowiednie, niebezpieczne, naruszać zasady…

Prompt engineering

Inżynieria podpowiedzi (ang. prompt engineering) – koncepcja związana ze sztuczną inteligencją (ang. AI), w szczególności przetwarzaniem języka naturalnego (ang. NLP – Natural Language Processing), która koncentruje się na optymalizacji, formułowaniu i dostosowywaniu pytań, poleceń lub sugestii dla modeli AI – zwanych „podpowiedziami” (ang. prompts). Jej głównym celem jest uzyskanie od systemów AI dokładniejszych, bardziej użytecznych i odpowiadających oczekiwaniom użytkownika odpowiedzi. Działanie to obejmuje strategie formułowania…

Postprawda

Okoliczności, w których obiektywne fakty mają mniejszy wpływ na kształtowanie opinii publicznej niż odwoływanie się do emocji i osobistych przekonań.    https://pl.aleteia.org/2018/01/07/postprawda-emocje-gora-fakty-do-lamusa