見出し画像

会話という錯覚について

ITmediaの連載を更新した。

あちらの記事は万人向けに書いているので、行間読まないとわからないようなことは省略してあるのだが、本欄の読者には補足として蛇足になるかもしれないが会話について研究していて思ったことを記しておく。

人工無能と僕

記事中にあるように僕がチャットボット・・・当時は人工無能と呼ばれていたが・・・を開発し始めたのは中学生の頃だ。1990年頃だと思う。

きっかけは、中学校にNECのパソコンが導入されて、友達に自分のプログラムを見せる機会を得たからだ。

家で一人でプログラミングしているときはどうも気分が乗らなかったのだが、友達を面白がらせるという動機は子供の頃の僕にとっては非常に強く働いた。

一度、家で人工無能のプログラミングをしたときは、相手が自分しかいないのでわりとすぐ飽きてしまったが、中学になってその熱が再燃した。

きっかけは月刊ASCIIに、AWKの特集が載ったことで、AWKというのは要はUNIX用のツールなんだけど、それをアスキーがMS-DOSで動くように移植して、付録に日本語版GAWKことJGAWKがついてきたことだった。

アスキーはもともと、MS-DOSソフトウェアツールズというソフトを発売していて、これがMS-DOSをUNIXのように使えるようにするツール集だった。ツールと言ってもGUIはなく、sedやgrepといったUNIXの必須コマンドが使えるだけだ。でも、MS-DOSがまだ非力なハードディスクもない16ビットマシンで動いていた頃は、まさに「神ツール」だった。

sedは置換を、grepは検索をそれぞれ正規表現で可能にしていたが、JGAWKは正規表現のパターンマッチングを使ってプログラムめいたことができるのがウリだった。なぜsedやgrepが有料ソフトで、JGAWKのような超強力なツールが雑誌の付録だったのか理解に苦しむが、もとがオープンソースのJGAWKと、曲がりなりにもプロプラ的に作ったMS-DOS版のsedやgrepを同列に論じることはできないかもしれない。

このJGAWKの強力なパターンマッチング機能を使ってまさしくイライザのような単純な会話プログラムを書く、というサンプルがあって、それはBASICのような記述能力の低い環境で騙し騙し会話プログラムを書くのとは別格の面白さがあった。

このAWKを使ったパターンマッチングは、今で言えばSpacyやGinzaのように、構文をちょっと拾ってキーワードを抜き出したりすることができるので、うまく使えば相当なトリックが作れそうだった。

そう。とはいえ会話プログラムというのはトリックの集合体なので、「これは知性を持ったAIである」とは誰も考えていなかった。あくまでもジョークの延長上のものだ。

たとえば当時の月刊ASCIIの編集長だった遠藤諭さんのペンネームであるホーテンス・S・エンドウは、会話プログラムのラクターがつけた名前だ。つけたというよりも、一方的にありもしない話をでっちあげ、そこに「ホーテンス・S・エンドウ」なる人物が登場したのを拝借したらしい。

ネットの時代になるといろいろな人工無能がうまれ、ネット上に常駐して一種のペットのようになった。この手の人工無能は、ネットで他の人と会話して知識を増やしていくため、家で一人で遊ぶよりは幾分マシなはずだった。

しかしこれも意外とすぐに飽きる。
それには二つ理由があって、ひとつは誰かが変な言葉を教えるとかなり変なことばかり喋るようになってしまい、他のユーザーをうんざりさせてしまうこと。もうひとつは、結局意味のある会話になるのはほとんど偶然の産物でしかないことだ。

OSとしてのチャットボット

僕はこの頃からUIやOSとしての会話ロボットが作れないか考えていた。

たぶんAlexaやSiriを作った人たちも同じだと思うが、「意味のある会話ができなくとも、ともかく機能として会話を通じて提供可能なものがないか」と考えたのだ。

2004年に未踏ソフトウェア創造事業に応募したときのテーマの一つは、「会話による家庭用ロボット向けアプリケーションプラットフォームの開発」だった。会話ロボットはnuvoを使うつもりで、ZMPから本体を借りていた。残念ながらこちらは採択されず、かわりに「アーティクル直交ドキュメントプラットフォーム」が採択された。

もしも会話による家庭用ロボット向けアプリケーションプラットフォームが採択されていたら、僕はもっと長い時間を会話プログラムの研究に費やすことができたはずだが、今更そんなことを言っても仕方がない。採択者の名古屋大学の長尾先生はIBMの中央研究所出身で、この時には影も形もないが、中央研究所はのちにワトソンの開発に深く関わる。先生にしてみれば会話プログラムなどありふれたテーマに思えたのだろう。ただ、テーマ提案の段階で論文を提出しなければならなかったので、会話によるOSのどこに課題があるのかまとめたのだが、これは後述する。

とにかく、「会話はOSになりうる」というコンセプトは、AlexaやSiriの目覚まし時計や乗り換え案内や天気予報やニュースやラジオ、音楽といった機能から感じ取ることができる。

これらの作り方の違いも興味深くて、GoogleのGoogleアシスタントは融通が効かないのでしゃべってる人間のほうがロボットみたいな喋り方をしないと全く聞き取ってくれない。Siriは容赦無くわかりませんを連発し、Alexaは言葉尻を捉えて多少解釈が間違っていてもスパッと動作するか聞かなかったふりをする。

たとえば「ひとりぼっちで寂しい夜を癒してくれるメロウなジャズをかけて」と頼むと、

Googleアシスタントは

「ごめんなさい。ひとりぼっちで寂しい夜を癒してくれるメロウという名前の曲は見つかりませんでした。もっと頑張ります」

と返すが、Alexaは

「Amazon Musicから、ベストヒットジャズ2022を再生します」

と言って勝手にジャズを流し始める。
この二者の違いは興味深い。

もしも人間だったらどうだろうか。
たとえば、自分がバーテンで、客がふらっと入ってきて、「ひとり寂しい夜を癒してくれるメロウなカクテルを頼む」と言われて、「そのような名前のカクテルはありません」と返すのが正しいだろうか。とにかくなんでもいいからそれっぽい酒を出せばいいと考えるのが普通だろう。黙って「モヒート」を出すか、「マンハッタンです。カクテル言葉は"切ない恋心"」を出すか、まあ無理やりこじつけるだろう。

Alexaは「よーわからんがとにかくジャズが聴きたいんやな」と解釈して無難なベストヒットジャズのプレイリストを選択する。それに比べるとGoogleアシスタントは融通が効かない真面目だけが取り柄の退屈な男のようだ。計算だけは凄いが(実際、Googleアシスタントは計算だけは他のどの手段よりも強い)、人と人の機微をわかっていない。

このレベルのものでさえセンスの差が出て面白い。

実は僕は、数年前から「コンシューマ向けAI開発」を研究テーマにしていて、そのなかでも特に会話について研究していた。これを研究するため、何年も前から新宿ゴールデン街にほぼ毎日のように通い、酒を飲まずに周辺の酔っ払いの会話を聞き、会話の法則を研究した。

これは僕にとっては非常に重要なノウハウである。

「手書き」で見落としたもの

enchantMOONを発売したのは2013年だから、もうすぐ10年が経つことになる。
あのときやりたかったことは、人間の思考能力を直接補強または拡張するということだ。それは自分が子供の頃にBASICやマウスに触れて、自分の能力が日に日に増していくことを体感したことをもう一度、もっと過激な形で再現したいという願いによるものだった。

そこで、現在のコンピュータが意図的に捨ててきた「手書き」という思考プロセスに着目し、人間が手書きしているプロセスを深掘りすることで人間の思考プロセスに直接関与できるインターフェースが作れるのではないかと考えた。

enchantMOONは完成し、発売することはできたが、習作に近いものだった。その後、後継機となるプロトタイプを複数の会社と何度か試すが、手書きを起点に置くため、まずはコンピュータ化されていない手書き業務を研究するため、さまざまな「コンピュータ化されてない仕事」の現場を調査した。

取材対象は石油採掘の会社や、国家の情報機関、国立大学の学生課、ジャーナリストなど多岐に渡った。でも一番大きな経験は、岩手県一関市にある格之進の本社で実際に働かせてもらったときのことだ。

朝早くに集まって、小冊子を輪読し、開店準備をする。その日は雪が降っていて、雪かきを手伝ったりした。雪国育ちは僕も同じだから、これは勝手がわかっていた。

全身をビニール製の作業服を着込んで、種となる挽肉をみんなでハンバーグの形にする。このとき、手の暖かさでハンバーグの表面がほんのり溶け合うことが重要なんだと社長が熱く語っていた。

それから、肉の捌き方をならった。肉切り包丁で丁寧に捌いていく。肉の磨き作業では、真っ白な脂に包まれた肉の中から、赤い部分を取り出していく。彫刻のように、赤い部分が白い脂のなかでどんな立体構造になっているか想像しながらやらないとロスになってしまう。重要な仕事だ。

二日ほど仕事を見学したが、誰一人としてキーボードはおろか、スマホに触れてさえいなかった。POS端末だけだ。

もっと言えば、何かに書きつけている人など、ほぼ一人もいなかった。僕の大好きなホワイトボードやノートなど、現実の飲食の仕事の現場ではほとんど使われることがないのだ。

他にも、当時の自分のまわりのスタッフやインターンに、大学のノートを見せてもらった。僕の会社はよくいえばバラエティにとんだ人材が多かったので、学部も学科も専門科目もバラバラだったのだが、理系や私立難関校の生徒はノートにびっしりと数式やら英文やらが書いてある。

しかし、私立文系や専門学校に通っていた人たちのノートを見せてもらうとびっくりした。ノートにプリントが貼り付けてあるのである。板書すらせず、プリントに直接メモを書き込むことで授業を聞いていたのだ。というか、そのように「親切な」教え方をする学校が意外にも多かったのだ。

要は、世のほとんどの人は、手書きをして何か新しいアイデアを考えるということが、人生のなかでほとんどないことなのだ。そう考えると、僕自身もジョイントベンチャーの社長になってからというもの、手書きする機会が激減した。オフィスの壁を大きなホワイトボードにしたものの、そこに何かを書きつけるのは、年に数回に減っていた。

手書きして考えるという行為自体が、そもそもニッチのなかでもさらにニッチな領域だったのである。

かといって、考えていないのかといえばそうでもなく、考えることはずっと増えた。その考えは、インターンや秘書やエンジニアと食事したり酒を飲んだりマジックバーに行ったりといった行動の中で、自分の考えをぶつけ、相手の反応を見て、また別の考えをぶつけ、どうしても言葉だけで説明するのがむずかしいとき、初めてホワイトボードやメモ帳にごく簡単な図を書きつけて説明するのである。ということは、思考の大部分は、手書き作業の中ではなく、その外にあるということだ。

人間にとって手書きは、それほど重要ではなかった。
それまでの「思考する」というプロセスのなかで最も重要なものは、実は「会話」だったのだ。思考プロセスの大部分が、自分自身、または自分と他者との会話にあり、手書きはそれが整理され、凝縮される過程で副産物的に扱われるだけだった。

若い頃は、どんな企画を立てるときでも、締め切りの当日の朝まで作業に入らなかった。それは今でもあまり変わっていない。

そのかわり、締め切りまでの時間を「考えること」に費やすのだ。寝てる間も、起きている間も、歩いている間も、座っている間も、食事している間も、ずっと考えるのである。

そうして頭の中で「自問自答の会話」を繰り返していると、締め切りの当日朝には、頭の中にいきなり答えめいたものが浮かび、飛び起きてそれを書きつけるだけだった。だから僕の仕事はとても早いように見えるのだが、実は締め切りまでの時間で考えているに過ぎない。書類作成にとりかかってから完成するまでの時間が短いだけである。

手書きによる思考能力拡張の試み

enchantMOONの後継OSのプロトタイプは、手書きで文字を書いてタッチすると、それに関係する類義語や反対語、画像が掲示されるようになっていた。

あるとき何の気なしに「Human Augmentation」と書いてタッチすると、人がサルから進化してサイボーグになるという絵が出てきた。

このとき、ビビっときた。「そうか。思考能力を拡張するとは、ほとんどサイボーグになるようなものなのだ」と。

ここから先は

9,846字 / 4画像

¥ 2,490