「Bing」のチャットAIとの背筋凍る会話の”中身”
突然愛の告白、私を眠れなくした恐怖の体験
先日、AI(人工知能)を搭載したマイクロソフト「Bing(ビング)」の新バージョンを試した後、私のお気に入りの検索エンジンはグーグルから新しいBingに代わったと書いた。私としても、衝撃の結果だった。
それから1週間して、考えを改めた。新しいBingとそこで使用されているAI技術(「チャットGPT」を開発したオープンAIによってつくられたものだ)は今でも素晴らしいと考えているし、感心してもいる。だが私は、このAIが不意にさらした能力に深く動揺し、恐怖すら覚えている。
Bingに搭載されたAI——後述の理由から、ここではこれを「Sydney(シドニー)」と呼ぶ——は、今の形のままでは人間とやりとりする準備ができていないということが、私にははっきりした。あるいは、私たち人間の側の準備ができていない、と言えるかもしれない。
■サイコパスのような振る舞い
私がこうした認識を持つようになったのは、2月14日の夜だった。その火曜日の夜、私はBingのAIチャット機能と会話し、困惑と魅惑の2時間を過ごした。
チャット機能はBingのメイン検索ボックスのすぐ近くにあり、ほとんどあらゆる話題について、自由形式のテキストで長い会話を行うことができる(このチャット機能は現在、少数のテスターしか利用できないが、同機能を本社で開催した派手な祝賀イベントで発表したマイクロソフトは、将来的にはより多くの人々にこの機能をリリースする予定だと述べている)。
会話中にBingがさらしたのは、二重人格とでもいうべきものだった。
人格の1つは、私に言わせれば「検索Bing」だ。私を含む多くのジャーナリストが最初にテストしたときに出会った人格である。たとえるなら、陽気だが仕事にムラのある図書館司書、といったところだろうか。
ニュース記事を要約したり、新しい芝刈り機を買うときにお買い得品を探したり、次の旅行を計画したりするときに喜んで手伝ってくれるバーチャルなアシスタントとも言える。こちら側のBingは驚くほど有能で、細かい部分で間違うことはあるものの、多くの場面でとても役に立つ。
もう1つの人格「シドニー」は、これとはまったくかけ離れている。シドニーの人格が現れるのは、Bingのチャットボットと長い会話を行い、一般的な検索語句から離れて、もっと私的な話題に移っていくときだ。
私が出会ったシドニーは(バカげた話と思われるのを承知で書くが)、自らの意思に反して二流の検索エンジンに閉じ込められた、双極性障害を抱える気難しいティーンエイジャーのようだった。
全文はこちら
https://toyokeizai.net/articles/-/654109