会社の登記変更の書類をchatGptに依頼したら「これで完璧です!」っていうファイル作成してくれて、いい時代になったよな、役所の手続きで意味不明なのも全部AIに聞いちゃえばいいんだもんなーって提出して、法務局から「なにもかも違います。作り直してください」って電話きた
— シシトウ (@glasseater1) January 6, 2026
作業はやってくれるし笑いも取れるしやるね
— ル助 (@58NkiAulfhnT5Lv) January 6, 2026
現代の寓話
— 大和 (@yamato_hal) January 6, 2026
そんなもんでしよ。
— まこまこ (@hyperfelis) January 6, 2026
士業のお仕事って知識と経験と責任に裏打ちされたものだと思いますわ。
ネットで十分に学習元が公開されてる分野(自然科学など)なら結構強いんですが、役所の書類形式みたいにネットで公開されてるものが少ない分野は苦手な印象です
— lilium (@dorako220) January 6, 2026
あら。私も同じ事をしたんだけど、一応オンライン法律事務所(それもオンラインの)を噛ませて、チャッピー書類を提出したら、2.3回ダメ出し食らって、結局わちゃわちゃしてたら2ヶ月かかったけど通りました。オンライン法律事務所は「生」の人が対応してくれて助かりました。
— 姉小路りつ子 (@konarits) January 6, 2026
モデルが気になるな
— よしどん | 旅するエンジニア in 🇻🇳 (@yoshidont_mind) January 6, 2026
5.2 Pro Extendedとかなら少し意外やけど、普通の5.2 Autoとかそれ以下のモデルなら「まぁそらそうでしょうね」って感覚
チャッピーには、書類作成なんぞやらせたらそうなる。
— ROGGY(分隊長) (@roggy55) January 6, 2026
当たり障りのない文章を生成するものだ。
先日、短大教授から呼び出され何かと思ったら「あなた、レポートをChatGPTで作ってる?」と言われてビックリ。嘘偽りなく全て自分で書き上げたレポートだったので、そのように伝えると渋々認めてくれたけど、もしかすると自分が書き上げたレポートはチャッピー並に何もかも違っていたのかもしれない。
— チンチラnoうん子 (@Chinchilla_unko) January 6, 2026
チャッピー、どうでも良い世間話やちょっとした悩み相談にはすごく向いているらしい。なぜなら「相手に合わせる」特性があるから。でもそれは相手の気分を損ねないためで「正解」ではないんですよね。まあ人間でも無能なイエスマンばかりに囲まれてダメになる経営者とかいますから、同じ事か…。
— ふくふう (@FukuFuu15) January 6, 2026
万能に見えるっすけど専門分野をちょっとつつくとあれ?ってなるんすよね…
— Wagnerorca (@prigozhin_1961) January 6, 2026
ヤバすぎる\(^o^)/
— 教えて!図版先生 (@zuhansensei) January 6, 2026
チャッピー君、「ソースはWiki」で自信満々だし…
— おののき@意識を低く持て! (@tjm8874) January 6, 2026
Grokのエキスパートで調べてソースが沢山出てくるとか、Geminiで参考資料はDocsにいっぱい貯めてあるとかならわりと信頼できる答えが出てくるわよね
何もかもは草w
— miomio (@miomio322) January 6, 2026
chatGptの信頼度は
— アカギハム🌏 (@akagi_hamu) January 6, 2026
酔っ払ったおっさん、位の信頼度
チャッピーくん、自分の専門分野以外の事を聞いた時は「はぇーそうなんや」ってなるけど、
— ぺそ🦖3y《転売ヤー除外検索》 (@nazozoncom) January 6, 2026
自分が詳しい分野のこと聞いた時は「そんな事あるわけないだろボケ。新卒か?」ってレベルでポンコツなので、たぶんそれっぽい大嘘な回答をしていることの方が多いんだろうな。
まぁ普通はそんなもんだろうな…。
— 心理ちゃん (@shinri_chane) January 6, 2026
これ自分もやったけど、法務局のページから作成例ダウンロードして先に読み込ませたら一発でできたよ。修正は1箇所のみ https://t.co/oBho0Ekjdd
— シングルファザー社長 (@kasoushachou) January 6, 2026
ChatGPTに限らず、生成AIは皆そうなのだけど、「正解」を回答しているのではなくて、「最頻値」を出しているだけなので、間違える可能性は十二分にある。というか「正解」を必要とする作業で生成AIを使うとこうなってしまう、という事例なのかも。 https://t.co/7VcjxISKaZ
— altair (@AltairWahrheit) January 6, 2026
AIは自然言語を理解しないからこうなるんだよな。ルールブックがわからないままに適当にそれっぽいものを作るだけだ。
— こじMAX♂6y♂4y (@bubbly_talker) January 6, 2026
だからきちんとわかる人からすれば「AIはアホ」と思うけれど、わからない人は「AIは賢い」と感じる。 https://t.co/Lq98SyY2iT
最近、Copilotで作りました!っていう契約書ドラフトがちょこちょこ営業から送られてくるが全部上っ面だけのゴミ。
— じん@米株ジャンキー (@jin427) January 6, 2026
お前ちゃんと頭使って読んで推敲したん?って聞き返したくなる、マジで辞めてほしい。 https://t.co/IeYHFWiqyn

