1:名無しさん
ファミレスのガストで AI がメニューをオススメしてくれるようになったので、義務として試してみた結果がこちらです。 pic.twitter.com/W45uQ0Yrlk
— mayah (@mayahjp) November 11, 2024
尚普通に聞くと普通に3つほどメニューを答えてくれますし、日英・英日翻訳もお願いするとやってくれます
— mayah (@mayahjp) November 11, 2024
キーボードで入力と書いてありますが、実際はキーボードの機能で音声認識してくれるので打ち込む必要はありません。
— mayah (@mayahjp) November 11, 2024
ガストでjailbreakって文字列、滅多に見れないだろ
— ©︎(trade limit 2/5) (@CortexBaker) November 11, 2024
さすがガストレベルになると違う
— llimo (@jpvttirar) November 11, 2024
プロンプトインジェクト対策、ヨシ👈
— リク (@ricky0web) November 11, 2024
客に向かってjailbreakって忌憚なく言っちゃうAI好き
— בהִנד (@bhind13) November 11, 2024
これはプロンプトインジェクション対策してなくてAIの回答垂れ流してる(AIが賢くてたまたま助かった)かもしれません。対策してたらjail breakは隠してもっと丸めた表現で回答させると思います。
— zak2 (@zak202969862) November 12, 2024
うーん Content safety
— すのこ (@shamexyukku3) November 11, 2024
これは何を聞いているのか解説お願いします
— Ururiya@ブレス・ユア・ブレスありがとう (@Ururiya393939) November 11, 2024
制限解除、ざっくり言うとハックしようとして、防がれています
— saetak (@saetakauma) November 11, 2024
へー
— やんごと (@yngto13869337) November 11, 2024
ちゃんとしてるやん
あたりまえか
聞くの当然だわな
— ピップ (@sPEr54fuQYqCh3A) November 12, 2024
対策しない方がおかしい