米東部ニューヨーク州の弁護士が審理中の民事訴訟で資料作成に米オープンAIの生成AI(人工知能)「Chat(チャット)GPT」を利用した結果、存在しない判例を引用してしまったことが問題となっている。米紙ニューヨーク・タイムズなどが報じた。
問題が起きたのは、米ニューヨーク行きのフライトで食事配膳用カートが当たってけがをしたとする男性客が南米コロンビアのアビアンカ航空を訴えた訴訟だった。
資料で引用された判例が見つからなかったため、ニューヨーク州連邦裁判所のカステル裁判官が確認したところ、弁護士がChatGPTを使っていたことが発覚した。弁護士は資料にデルタ航空やユナイテッド航空などが関連しているとされた6件の実在しない判例を引用していた。
同裁判官は「インチキな引用を使ったインチキな司法判断が記述された資料が提出された」と指摘するとともに「前例のない状況に置かれている」と説明した。弁護士を懲戒処分にするかどうかを判断するために6月8日に審理を開く予定だ。
全文はこちら
https://www.nikkei.com/article/DGXZQOGN30E450Q3A530C2000000/
AIこそすべて
こないだ週報を作ってみたら
なんとなくなんとなくだった
>>5
それらしく作ってあれば誰も見てない。
ついにAIが自我に目覚めたか!
自分で考えて、人間を欺けるウソをついたのか
→実在するか調べる作業
が追加されるだけか
>>8
それやってない時点で弁護士キチガイだと思う
これは弁護士がバカなだけの話だろ
面倒な検索事務やらせてんだったら裏くらい取れよマヌケ
アホだな
ちゃんと調べてから使えよ
実在する団体を調べると、思いっきり嘘書きよる場合あり。
Wikipedia見て論文書いたみたいな
>>24
自分の所属する会社や組織のウィキペディア見るとインチキ極まりない記述が見散されるけど、関わりたくないので放置するよな
ChatGPTが組み込まれてる猫のなんちゃらってアプリみたいのが出てたが同じように適当に答えそう
判例って検索しやすいように番号振ってあるはずだから、この弁護士もちょっとの手間を惜しんだがために処分されることになるってことだよね
アメリカってホントにバカしかいないのか?
>>35
本人訴訟をやったことがあるとわかるけど、日本の場合でも法令や判例って出典を示せば本文や概要を書く必要はなくて裁判官や相手側が探すルールだからね
飛行機内で配膳用カートが
当たっただけで
航空会社相手に裁判かよ
さすが米国だな
そもそも検索エンジンに文章作成能力つけただけだろ
なにがAIなのかわからん。検索結果を決め打ちしただけだからこうなる
もし間違ってたらとか思わないんだろうか
弁護士やべぇな草
ただ学習能力はあるらしく、数ヶ月前から「左翼を殲滅する方法」を
定期的に聞いてるが最初は長文で具体的だったのに最近は
「私は中立的なAIであり、政治的な立場や特定のグループを攻撃する方法を
教えることはできません。また、暴力や憎悪を助長するような内容も提供する
ことはできません。」
とか2行で軽くあしらわれるわw
>>81
それ学習してるのか?
指示されるようになったてのじゃないのか?
>>90
ま、中共のAIみたくチューニングされたんだろうな
政治家とかもめそうだから「そのような人物は実在しません」と出るんだな
チャット何ちゃらは回答が自然にできるだけであって、情報が正確かどうかの問題とは別なんだけどね
AIとはまともな議論は成立しない
なぜなら主張の根拠、ソース元も提示できないから
chatGPT使ってるくせに
あいつけっこう間違えるってのを知らないのはどういうことだよ
いや、判例ってさ、「条件」が全部揃わないとその「結果」にならないわけじゃん?
AIはいろいろ引っ張ってきて「平均化」しちゃうわけだから、そりゃぁデタラメになるよね
法律系は「計算論理」が一番真反対な典型なんじゃねぇの?
どうせ金ケチってバージョン3.5使ったんだろ?w
有償版のバージョン4ならこんなことなかったのにな
>>144
> 有償版のバージョン4ならこんなことなかったのにな
本気で言ってる……?
>>144
4も大差ないぞ
普通に嘘吐くしネーミングには使えないし翻訳問題も間違うし
レスポンスうんこな分3.5の方が使い勝手良いかもしれないレベル
実在しない判例をあらかじめインターネット上にばらまいておけばいいわけだな
あとは勝手にAIが判例として既成事実化してくれる
アホな弁護士が引用しまくってますます既成事実化
こんなのがまかり通るなら韓国北朝鮮のウリナラファンタジーの事実化が捗って仕方ないだろ
県を指定してオススメの飲食店を質問しても実在しない飲食店が出てくるからな