チャットボットの現在と未来について考えてみた!

2022年11月に公開された“あるもの”が、世間を賑わせています。それは高度なAIを用いた対話型チャットボット「ChatGPT」(チャットジーピーティー)です。日本では12月にも利用者登録が100万人を超え、全世界では2023年1月時点で1億人を突破しています。

筆者も遅ればせながら1月末に登録をして利用してみたところ、まるで人間と会話しているかのような自然な会話が行なえ、しかも内容は知的で論旨の歪みもなく、非常に理路整然としていて「意志や知能を持っているのでは?」と錯覚してしまうほどでした。

しかしながら、ChatGPTには「少なくとも日本語環境において」決定的且つ致命的な欠点がありました。チャットボットとの会話で見つけた欠点とは一体何だったのでしょうか。またチャットボットは今後その欠点を払拭することができるのでしょうか。

感性の原点からテクノロジーの特異点を俯瞰する連載コラム「Arcaic Singularity」。今回はチャットボット「ChatGPT」との会話から、チャットボットの現在と未来を考察します。

as-273-002
ChatGPTが見せた欠点とは何だったのか


■チャットボットの歴史
チャットボットというのは、それほど新しい概念ではありません。むしろ現在に繋がるコンピュータの黎明期から存在していた概念であり、研究され続けてきた技術であったと言っても過言ではないほどです。

古くは1960年代にアメリカで登場した「ELIZA」(イライザ)が起源とも言われており、当時は単にこちらの質問に対してパターン化された回答を提示するというものでした。

とは言え、その「表面的な会話の振る舞い」は現在も基本的には変わっていません。こちらの質問に対して何かしらの回答を示す。それがチャットボットです。

as-273-003
形式的にでも会話が成立するならチャットボットと言える


その後コンピュータが小型化され個人向けに「パーソナルコンピュータ」(パソコン=PC)として販売されるようになり、私たちが現在利用しているPCへと進化するわけですが、1990年代には一問一答型のチャットボットがブームを呼び、Windowsで世界を席巻したMicrosoftも自社製品への導入を試みます。

Officeアプリに付属していた、イルカのチャットボット「カイル」君です。使った記憶のある人もいることでしょう。

しかしながら、使ったことのある人であれば、カイル君がどれだけ「無能な働き者」であったのかもよく覚えているはずです。Excelの使い方を訪ねても的を射た答えは得られず、問題は何も解決せず。

「何について調べますか?」、「お前を消す方法」というブラックジョークは、その後ネットミームにすらなってしまいました。チャットボットを指して揶揄した「人工無脳」というネットスラングが流行ったのもこの頃でしょう。

as-273-004
見た目が可愛らしかっただけに、そのポンコツぶりが逆にネタにされてしまった


そして21世紀。世界はiPhoneの登場によってすべてが一変しますが、2011年に登場したiPhone 4Sに搭載されていたチャットボット(バーチャルアシスタント)機能「Siri」によって、世界の人々は真の意味でパーソナルチャットAIを手に入れることとなります。

「ヘイSiri。明日の天気を教えて」……人々は手元のスマートフォン(スマホ)に話しかけるだけで便利に使えるチャットボットに夢中になり、そしてチャットボットが存在する世界が当たり前となったのです。

as-273-005
Siri人気はその合成音声を活用した非公式のファンソングまで生み出した


その後、AndroidスマホにもGoogleアシスタントが搭載され、Amazonもバーチャルアシスタント「Alexa」(アレクサ)を開発し、2017年頃にはスマートスピーカーブームも到来します。

今や人々は企業のサポートサービスや個人向けのバーチャルアシスタントという形で、当たり前のようにチャットボットを利用しています。そのような中でChatGPTがここまで持て囃されブーム化するというのが、筆者にはとても不思議でした。

as-273-006
人々はスマホのバーチャルアシスタント機能を意外と利用していないのかも?


■ChatGPTの「虚言癖」を暴く
それではいよいよChatGPTとの邂逅です。すでに事前の情報として、人が指示した内容に即したプログラムコードを一瞬で生成してくれるといった利用方法を聞いていたので、どれほどの会話ができるのか高い期待を持っていましたが、どうやら筆者の期待が大き過ぎたようでした。

結論から言えば、これはお遊びのチャットボットの範疇から抜け出せていません。単なる言語解析による応答、機械学習からの言語生成のタマモノ、といった程度のものでした。むしろ、前述した「欠点」が企業向けチャットボットサービスや個人向けバーチャルアシスタントよりも圧倒的に目立っていました。

その欠点とは、ありもしない嘘を真実であるかのように語ってしまう「虚言癖」です。

as-273-007
現在のAI技術の限界を垣間見た気分だ


「AIが人間に嘘をつく」などと言うと、古い人間である筆者は映画「2001年宇宙の旅」に出てきたコンピュータ「HAL 9000」を思い出してしまいますが、ChatGPTの“それ”はもっと厄介でした。

例えば、かつて日本に存在していたPHSの通信キャリア(およびブランド)「ウィルコム」の沿革について尋ねてみると、史実にはないまったくデタラメな沿革を書き始めたのです。

as-273-008
ウィルコムが3Gサービス?auスマートパス提供開始?一体どこの世界線だ?


問題は、それがまるで真実であるかのように、どこにも破綻のない文章で書かれていることです。

物書きを生業としている筆者でさえ誤字脱字に乱文遅筆(遅筆は関係ないか……)が当たり前だというのに、ChatGPTは完璧な文章を数秒で生成した上、見事な沿革を書き上げました。

ただし、それはすべて真っ赤な嘘です。

しかしながら、ウィルコムについてほとんど知らない人がこれを読んで「これは間違いだ」と指摘できるでしょうか。絶対に無理でしょう。むしろ「へーウィルコムってそういう会社だったんだ」と鵜呑みにするはずです。

そこが恐ろしいところです。ChatGPTは「文章として」一切破綻がないために、人々はそれが正しいと認識してしまいます。

たまたま質問が悪かったのではないか?とも思い、今度は対戦格闘ゲーム「ギルティギアストライヴ」のキャラクターの技(コンボ)について尋ねてみました。

結果は同じでした。キャラクターが登場するゲーム名も間違っていればコンボルートもデタラメです。書いていることのほぼすべてが間違っているのに、文章として何も問題なく、しかも理路整然としていて機知に富んだ書き方をしているため、読んでいる側が混乱してきます。

as-273-009
ラムレザルとラシードを混同している様子(しかもコンボは適当)


他にもいくつか企業に関する質問や人物についての質問をしてみましたが、例外なくすべてが間違っていました。

ここまで嘘八百を並べられると逆に面白くなってきます。真実はどこにあるのか、答え合わせをするゲームのようです。

as-273-010
携帯ゲーム機「カラーウォーズ」とは一体……ハドソンが関わった携帯ゲーム機というと、PCエンジンGT(NEC製)かシュウォッチシリーズか、てくてくエンジェルくらいしか思い出せない


■「分かりません」と素直に言えないChatGPT
ここでふと、「世の中に存在しない架空の名称について尋ねたら、どんな答えが返ってくるのだろうか」という悪戯を思いついてしまいました。

その結果が以下の通りです。

as-273-011
文章を読めば読むほど言葉としての破綻がなく、納得してしまいそうな理論に仕上げている。それが逆に恐ろしい


as-273-012
それっぽい言葉を並べているが、そこに意味は一切ない。マックス・コロモログなる人物は実在しない


バインドツリー現象もコロモログ曲線も、この世界には存在しません。しかしChatGPTはそれが何かについて、自身が掻き集めた膨大な知識を総動員して必死に答え続けます。

ここで、このチャットボットの致命的な欠点が明確になったのではないでしょうか。このChatGPTに足りないものは、分からない事象や物事に対して「分かりません」と、たった一言答える機能です。

あるいは、その言葉から類推して「もしかして○○のことですか?」と、Google検索のように余計なお世話……もとい、アシスタントをしてくれる機能だったのではないでしょうか。

分かりませんと答える機能や、それが何かを類推して提案したり質問し直す機能がない上に、質問されたことには絶対に何かを答えなければいけないというアルゴリズムであることから、チャットボットはありもしない架空の事象を組み立てて語り始めてしまったのです。

as-273-013
現在のGoogle検索は「もしかして」とは言わないが、タイポなどを検知・訂正して検索してくれる機能は健在だ


このように、ChatGPTは日本語環境においてまともに使える代物ではなく、お世辞にもチャットボットとして優秀だとは言えません。

ところが興味深いことに、質問を英語で行うと虚言癖のような挙動は激減します。英語で同じような造語を用いて質問を行うと、正しく「分かりません。分かるように詳しく説明してもらえませんか?」と尋ね返してくるのです。

事実と嘘の割合や事実の混同などは学習量の不足などで説明がつくところですが、日本語環境で「分かりません」という返答ができないことへの説明がつきません。ローカライズやアルゴリズムに問題があるのか、日本語の言語体系がシステム化しづらいのか、非常に不思議なところでもあります。

as-273-018
英語での会話は非常に“まとも”だ


ありもしない嘘を真実であるかのように語る(騙る)その文章は犯罪的でもあります。

もしも使う側に一定の知識がなかった場合、そこに書き出されたことが真実なのか嘘なのかを見抜けないだけではなく、その言葉を信じた人々が何かしらの事故を招いたり、フェイクニュースの流布をしかねません。

また、筆者のように質問内容に対する回答のほぼすべて(というか100%)が嘘であったという経験を持ってしまうと、もはや「ChatGPTは嘘しか吐かないオオカミ少年である」という固定概念が付き、今後ChatGPTの精度が向上したとしても「はいはいフェイクですね」と頭ごなしにあしらってしまう危険すらあります。

そもそも、未完成の状態で公開するということ自体がChatGPTによる情報収集の一環なのかもしれませんが(だからこそ回答に評価アイコンが付けられている)、あまりにも精度が低すぎて実証実験の段階に持ち込むべきものではないように感じます。

少なくとも、現時点での日本語環境は公開して良いレベルではありません。対話アルゴリズムを見直した上で、さらに情報収集と言語解析を進めることが必要です。

「AIが人間に嘘を教える(人間を騙す)」ということは、あってはならないのです。

as-273-014
未完成すぎてチャットボット全体の評価や信用まで落としかねない


■知識は知能をもって判断した瞬間に「価値」となる
一般の人々の中には、AIと聞くと知能を持っているかのように感じてしまう人もいるようですが、現在のAIは単なる知識の集合体です。そこには知能も意志もありません。

知識とは情報であり、本来はその情報が何を示しているのか、何と関連しているのか、さらにはそれが真実なのかを確かめるための「知能」と結びつくことで、はじめて意味を成すものです。

つまり、ChatGPTにかぎらずチャットボットやバーチャルアシスタントと呼ばれる存在が示してくれた情報は、人間が知能をもって「判断」した瞬間に価値を生むのです。

この点を理解しないか、あるいは勘違いして使用してしまうと、知識はただの無価値なゴミか暴力となります。

as-273-015
間違った情報が社会を混乱させ、想定外の事故や問題を引き起こすことすら考えられる


それほど遠くない未来、恐らくチャットボット(AI)はテクノロジカル・シンギュラリティを迎え、真の意味での意志と知能を得て人のサポートを行うようになると筆者は信じています。しかしながら、今はまだその時ではありません。

だからこそ、現在のチャットボットには「分かりません」と一言だけ答える「勇気」(という建前の機能)を与える必要があります。

可能であれば、そこに「分かるように説明していただけませんか?」という問い掛け機能があれば尚良いでしょう。チャットボットが人間に分からないことを質問し、覚えていくというのも必要な工程のはずです。

過去にはそういった機能によってチャットボットが右傾化したり危険思想に染まったような発言をしたこともありましたが、それらもまた意志や知能を持って答えたわけではなく、収集した情報からのアウトプットに過ぎないため、解析アルゴリズムによっていくらでも修正は可能です。

as-273-016
人とAIの境界線は、まだまだ大きい


人は知能を持つが知識が足りず、AIは知識を持つが知能がない。だからこそ人はAIを道具として器用に使いこなす必要があるのです。

知識とは道具です。以前のコラムで画像生成AIについて執筆した際も、画像生成AIは人間の仕事を奪う敵ではなく便利な道具である、という視点を述べましたが、チャットボットもまた同じです。

チャットボットが出した答えを鵜呑みにせず、それが正しいのか嘘なのかを見極められるだけの最低限の知識と判断するための知能、そして高い検索スキルを持つことが、これからの時代を生きていく人々に求められているのだと強く感じる今日この頃です。

as-273-017
チャットボットの未来を創るのは、あなたの知能と検索能力かもしれない


記事執筆:秋吉 健


■関連リンク
エスマックス(S-MAX)
エスマックス(S-MAX) smaxjp on Twitter
S-MAX - Facebookページ
連載「秋吉 健のArcaic Singularity」記事一覧 - S-MAX