AIはどこまで再現できるようになる? 平野啓一郎さんx松尾豊さん #noteフェス
noteクリエイターフェスティバル にnoteフェスサポーターとして参加しました。
9/2〜4の4日間のセッションを、毎日レポート記事を上げています。
3日目の、小説家 平野啓一郎さんと ディープラーニング協会理事長の松尾豊さんのセッションのレポートを書いていきたいと思います。
AI(人工知能)は、人間の知能のどこまで再現できるようになっていくのでしょうか。
人工知能の知覚の課題
・ある部分が別の部分を含意するかどうか分かるか。
→つまりこの文はポジティブなことを言っているのか、ネガティブなことを言っているのかわかるか。
・人間は、脳の思考のごくごく一部が言葉として言葉に出てきている。
→つまり人間が言葉にしていない言葉もたくさんある。
→人間が意識していない情報処理を、人間の脳はかなりの量を走っている。
それらの情報をAIは情報を走らせることができるのか。
技術の進化
■ GTP-3(1500億パラメーター)10兆ページのデータ
・小説、ブログが書ける。プロットを書くだけで全部書いてくれる。
・プログラムの指示を出すと、htmlのコードを書いてくれる。
・素数を列挙してくれる
・webページの一部を隠して、何が書かれているかひたすら予測させる。
→すると予測できるようになる。タスクを制度良くできるようになる。
AIは原理的に脳に近づけるアプローチは取られている?
・アプローチ1. 人工的に極める。産業的な運用を目指して。
・アプローチ2. 人間の知能への興味、挑戦。画像認識ができるようになった。
人間の知能はどういうアルゴリズムか。
人間の知能の働きには、[早い思考]と[遅い思考]がある。
・早い思考・・・反射(コンピューター処理の囲碁などはこれ)
・遅い思考・・・熟慮する
「NeurIPS 2019」という国際会議で、ベンジョー先生というディープラーニングで世界的に有名な先生が講演されたこちらの内容が詳しいそうです。
「From System 1 Deep Learning to System 2 Deep Learning」
ダニエルカールマンという心理学者が、人間の知能には[早い思考]と[遅い思考]があると言っていました。
今までのディープラーニング技術は早い思考(囲碁とかもそう)。これはもうほどんどできている。今後はシステム2(遅い思考、熟慮)に行かないと。という講義。
画像認識
人工知能は、
✔️画像認識は人間を超えている(画像の中に情報が全て入っているから)
✔️言語認識はあと10年くらいかかる(2025年〜2030年頃)
→言葉は、周りに含んでいるものが多いから。
例)夏目漱石が I love you を月が綺麗ですね と訳したように。
詩を読解できるかどうか。
人間は入力系統が2系統、出力系統が2系統
言葉の入力によって知覚を予期している。
音などの知覚から将来の近くを予測している。
意味を予測するとは、言葉の情報から知覚系の模擬状況を作ること。
「模擬」状況。
模擬なんですね。
例)俳句/言葉の情報から情景、イメージを思い浮かべる。言葉を理解する。
言葉の処理を外す、すると人間は猿、犬になる。
入力される情報は、視覚、聴覚、触覚、センサー情報。
出力は、走り回る、吠える、などアクチュエイターの出力。
→これを言葉 で考えると?
✔️言葉が耳から言葉として入力される
(言葉が言葉として(音ではなくて)言葉として耳から入力される)
✔️発話する(喋るという出力)
「人間の知覚で一番初めに思い描くのはグラフィック。」
像を描く一番初めの層はグラフィック。
言葉が入ってくる→情景が思い浮かぶ = 言葉の意味を理解する。
[犬]と言われて一番初めに思い浮かべるのは犬のグラフィック。
[動物]など、絵を描けない概念の場合は、動物の絵は書けないので、どこか動物の一部分を思い描いている。あるいは変数の構造を描いている。
データセット
キャプチャ画像とキャプチャ文章のセット。
写真と答えのセット。
動画と言葉のセット。
これらのセットをたくさん作って、人工機能にインプットして学習させる。
画像解析ツール Microsoft COCO はまさにデータセット。
Microsoft COCO
画像の認識、セグメンテーション、キャプショニングがされているデータセットです。画像解析ができるAPI。
ダウンロードはこちら→ http://mscoco.org/dataset/#download
人工知能は教師無し学習の方が教師ありより学習量が大きい。
教師無しで学んでもらって、構造を学んでもらって
そこからタスクを与えると、学びが大きい。
(人間も、会話しながら、次の言葉を予測している。)
教師あり学習・・・赤ちゃんが「ママ」と発声するとお母さんが喜ぶ→喜ばれたからまた発声する。
コンピューターは最短処理をしてしまうので、ズルをしてしまう。
・[これはペットボトルです。]という言語情報のインプットから[ペットボトル]だと理解。
・ペットボトルを見て、[これはペットボトルです。]と理解。
コンピューターの場合、
犬が玄関で飛び跳ねているのを見た時に、AIは「玄関が」飛び跳ねていると処理してしまったりする。(ズルをしてしまう。最短距離で処理しようとしてしまう。)
どれにフォーカスさせるかの処理が必要。
シンギュラリティとは?
人工知能が自分の能力を超える。
人工知能が自ら生み出せるようになる時点。
人工知能は、ビールの蓋をひねることなしに、触る前から [硬い] or [柔らかい] がわかるかどうか。触る前に、ひねった方が良いことに気づくかどうか。
タスク処理、自分の言語によって処理することはできる。
本能、肉体が必要かどうか。
インターネット上のエージェントが作れる。
どこかのURLを訪問して、行動→認識→行動→認識...で作れる。
コンピューターが人事査定をするようになる。
人間がやると、変な恣意性が入る。
・やらなくてもよいめんどくさいことをAIにやってもらう。
癌細胞の発見、レジ打ち、掃除、、、など
・AIと膨大な時間を一緒に過ごす(ゲームとか、将棋とか、バーチャル旅行とか)
平野啓一郎さん「小説のプロット作成など、3までAIにを作成、処理させて、あとの7を人間が仕上げる共同作業とか、、、」
AIが登場する前に、現世は環境の中のデータ量が増えすぎている。
現世は圧縮しないと処理しきれないデータ量になっている。
平野啓一郎さん「社会が複雑になりすぎてる 圧縮するためにAIが活躍。」
マウンティングのし合い、見方を作りたい、敵をやっつけたい。
人間は快を感じたい。
AIがやってくれるといっても、マウンティングしてしまう。人間が作った!と。
Q. 人間は死を恐れるが、コンピューターが電源を切られる恐れを持つようになるか?
→No
機械の方で良い悪いの判断はできない。
例)絵画を描かせるなど
良い悪いの判断基準を入れてあげないとできない。
→新たな価値基準の創造はできない。
→音楽とか、身体的に痺れるものはAIに作れる?
ーーーーーーーーーーーーーーーーーーーーーーー
視聴者からのネガティブ意見
・疲れている時「疲れているな」って考えることができるから救われるってのはある。思考を肉体のせいにできるのは人間の特権だと思う。
・心をもたせる上では、恐怖は必要だと思う。
・「AIがやってくれても、どうしてもマウンティングしてしまう」
・本能はマウンティングのし合い。
作家の岸田奈美さんも、noteの記事で
「アホちゃうか」だけで、賞賛も、憤怒も、悲哀も、ありとあらゆる感情が表せられると言っていた。」と書いていましたね。
https://note.kishidanami.com/n/nf9ff6c1242c1
ーーーーーーーーーーーーーーーーーーーーーーー
「AIが人事査定するようになる」の発言は、話題になっていました。
これからの人工知能の発展は、難しいけれどとても気になる内容でした。
「2025年から2030年頃に言語認識できるようになる」という松尾豊さんの発言も気になりました。すぐですね。
平野啓一郎さんの小説「本心」はAIを題材にした小説です。母親を亡くした少年がその悲しみから立ち直れず、仮想現実の世界にAIで動く母親を再現してもらって、母親そっくりのAIと関わる姿を描いたヒューマンストーリーです。下記から全文読めます、読んでみるとさらにAIに対する創造や考察が深まります。
https://k-hirano.com/honshin
見逃しアーカイブはこちらからご覧になれます。
いただいた支援は、私も他のクリエイターさんの記事をサポートしてスキの循環にまわします🤝