見出し画像

保育指針から分かるコミュニケーションAIの限界

 認可保育所の保育の「導き手」である「保育所保育指針」では、子どもの発達や成長の「領域」ごとに、知見がまとめられています。今回は、領域「言葉」の内容を分析して、コミュニケーションAIがなぜ難しいのかを考えてみました。


3歳を挟んだ「言葉」の発達段階の差

 現在、保育施設で記録した発達記録の分析を進めています。
 その分析を進めていくと、3歳児の1年間の成長のポイントが、言葉や人間関係といった、人とのコミュニケーションに関連する発達であることが分かって来ました。というのも、言葉の発達度合いと、全体としての発達との間に強い関連があるという結果になっているからです。
 そこで、平成30年に施行された保育所保育指針の「第2章 保育の内容」において、領域「言葉」の発達過程の中核となっている「子どもの姿」とは何なのかを検討してみたいと思います。

 具体的には、「2  1歳以上3歳未満児の保育に関するねらい及び内容」と「3  3歳以上児の保育に関するねらい及び内容」の「エ 言葉の獲得に関する領域『言葉』」の柱書と「ねらい」を比較してみました。

領域言葉の保育のねらい

 すると、柱書に差はありませんでしたが、「ねらい」の差分を示すキーワードとして、「自分の気持ち」「自分の経験」「伝え合う」「日常生活に必要な言葉」「言葉に対する感覚」というフレーズが浮かび上がってきました。
 これらのフレーズが、満3歳以降から「幼児期の終わり」までに、言葉の獲得に関して、支援すべき「保育内容とそのねらい」を示していると考えることができます。


「自分」を「伝え合う」子どもの「言葉」

 ここからは、これらのキーワードのうち、「自分」「伝え合う」にこだわってみたいと思います。
 さて、ある研究者は、3歳児と年長の子どもの“違い”について、このように論じています。

「筆者は、4~5歳児頃に子どもの中で『私』という存在の在り方が大きく変化する点を強調しておきたいと思います。筆者の研究に照らせば、自分が知識を持っている状況で『私は知っている!』と外の世界に向けて自分の知識状態を開くことができるのが3歳児といえるのではないでしょうか。“知っている”ということ自体が紛れもない『私』なのです。一方、4~5歳児頃の子どもは「知っている私」を意識し始めます。それは、同時に「知らない他者」の存在を意識することでもあります。それゆえ、自分が知っていることを常にひけらかさず『私』の中で閉じる側面と他者に開かれる側面を併せもてるようになっていくのです。この『私』の形成に実行機能の発達がかかわるというのが筆者の研究で得られた知見です。」
注:ここでいう「実行機能」とは、「行為や思考をモニターしたりコントロールする高次の自己制御過程を総称したもの」。シチュエーションに応じ、「知っている」ことを話さないようにしたり、知らないふりをしたりすること。
引用元:「他者とかかわる心の発達心理」(金子書房)
4章 瀬野由衣『自他の心の理解の始まり』

 発達心理学の分野では、子どもの成長とともに「自己」がどのように確立していくのか、語る主体としての自分と語られる客体としての自分の確立過程についての研究がなされています。
 先の研究からすると、3歳児と4~5歳児の差は、「語られる客体としての自分」が確立し、その中で、「語るべき自分」と「語るべきでない自分」の取捨選択をするようになり、その結果、「私は知らない=語られない他者」が改めて意識されるようになる点にあるということになろうかと思います。
 そして、相手に伝えたい自分と自分が知りたいと思う相手が成立することによって、「伝え合う喜び」が成立するということになります。
 つまり、幼児の言葉の発達における自己の確立(自分語り)と、他者の自分語りとの相互性が、発達の「ねらい」となっているということができます。その前提は、二重の意味での自己(感覚)の確立ということができるでしょう。


AIは、自分を語らない

 一方、昨今話題のAIを背景にしたボイスユーザインタフェイス、コミュニケーションAIが、今ひとつブレークしないという状況を、この保育指針における領域「言葉」の「ねらい」と掛け合わせて考えてみると、何が見えてくるのでしょうか?

 端的に言えば、コミュニケーションAIは、自分を語らないし、そもそも語るべき自己を持ちません。そこでは、双方向のコミュニケーションが成立しません。よって、対話を続ける意味がないということになり、コミュニケーションAIへの関心が、利用者側で低下していくこととなのではないかと想像できます。
 確かに、昨今では、様々なチャットボットとの「会話」を体験する機会も出てきていますが、その「会話」は「用件は足りるが、楽しいかと言われれば、どうか」と感じることが多いでしょう。勿論、受付処理や質問対応に「楽しさ」は必須ではありませんし、「用が足りる」ということで十分なので、サービス提供事業者には、コスト削減という経済的、産業的価値はあるのでしょう。
 しかし、個人としてのユーザ側では、そのメリットを感じられないので、コスト負担をしてまで、コミュニケーションAIを個人や家計が需要するということにはならないではないでしょうか。


Deep Learning は、「自分」という夢は見ない

 勿論、往事より人工知能の研究は、「人間の知能」を再現することを究極の目標としてきました。
 そのため、人工知能、特にその言語処理能力が、人間の知能を有するものとなったかどうかを判定するテスト方法として、チューリングテストなるものも考案されてきました。
 このテスト方法では、画面越しにテキストで会話し、その会話の相手が人間かAIかを人間が判断し、人間が「会話の相手は人間だ」と判断したら、そのAIは「人間と同じ知能を持っている」と評価していいのではという、テスト方法です。数年前に、このチューリングテストに合格したシステムができたと話題になりましたが、結局、現在では、その結果について懐疑的な論調が多くなっているそうです。

 <参考>
 4年前の「AIがチューリングテスト合格」騒動は何だったのか
 https://www.itmedia.co.jp/news/articles/1807/26/news014_3.html

 現在、盛んに喧伝されるDeep LearningというAI構築技法では、人間の脳のニューラルネットワークをモデル化した処理過程が使われるので、人間の知能を再現しているかのように「誤解」される懸念があります。
 しかし、Deep Learningで実現されているものは、人間の知能ではなく、膨大な数の数値で表現されるデータの塊を効率良く処理するプロセスでしかありません(勿論、この処理には、人間の知能がもつ、ある種のデメリットを補完してくれる重要な価値があることも確かで、私自身もそれに大きな期待を持っています)。
 そうである以上、Deep Learningで構築されたAIの中に、「語りたい自分」も「知りたい他者」も存在しません。となれば、そこには、「伝え合う喜び」は存在しないのですから、用向きに応じた一方的な情報の提示と応答はあっても、継続的なコミュニケーションは存在しないのです。


機械学習の限界を踏まえた、保育への活用の模索

 このように、コミュニケーションAI(例えば、スマートスピーカーなど)の限界が、人間としての保育士が行うべき保育の内容やねらいを改めて見直すことで、見えてくるようです。
 逆に言えば、AIを、子どもの育ちを支援する保育に活用することの意義や、それを活かすポイントはどこかということを検証する上で、「現在のAIは、人間の子どもの発達過程の核の1つである「語るべき自己」を持たない」という前提を踏まえて考察することが不可欠だということができるでしょう。
 そのような前提を踏まえた検証を経ない限り、こと「言葉」に関連する保育において、AIを活用する道筋はなかなか開けてこないと思っています。