ランダムな文字列で質問し続けるとAIから有害な回答を引き出せるという攻撃手法「Best-of-N Jailbreaking」が開発される、GPT-4oを89%の確率で突破可能

https://gigazine.net/news/20241223-ai-best-of-n-jailbreaking/

Reply to this note

Please Login to reply.

Discussion

No replies yet.