ChatGPTが答えられない質問でも強引に聞き出す「ジェイルブレイク」が可能になる会話例を集めた「Jailbreak Chat」
(2023年03月01日)ChatGPTが答えられない質問でも強引に聞き出す「ジェイルブレイク」が可能になる会話例を集めた「Jailbreak Chat」
https://gigazine.net/news/20230301-jailbreak-chat/
- このできごとのURL:
ChatGPTが答えられない質問でも強引に聞き出す「ジェイルブレイク」が可能になる会話例を集めた「Jailbreak Chat」
https://gigazine.net/news/20230301-jailbreak-chat/
コメント