見出し画像

LIFE・AIと介護労働 科学と介護2


1.労働における「構想」と「実行」の分離

 本来の労働は、知識と技術を持った労働者が「構想」と「実行」を併せて行っていました。ここでいう、「構想」とは知的労働で「実行」は肉体労働のことです。
 斎藤幸平(哲学者)さんは次のように指摘しています。

 労働者は作業を頭のなかで「構想」し、それから手を動かして「実行」する。自分たちのスキルや能力に基づいて、労働者たちは自律的にそれを行っていた。

引用:斎藤幸平編 2019年『未来への大分岐』集英社新書 p96

 しかし、フレデリック・テイラー[1](F.W. Taylor)が20世紀初頭に提唱したテイラー主義(科学的管理法)の労働者管理手法により、労働者の「構想」と「実行」は分離されてしまいました。
 つまり、「構想」、知的労働は資本家・管理者が行い、その指示、マニュアルに従い労働者は「実行」、肉体労働、単純労働を行うようになってきたのです。
 労働者は経験や洞察に基づく知を奪われて、単純労働のみを管理者から言われるままに実行する存在になり下がってしまったのです。
 例えば、コンピューターを作る工場ラインの組み立て工員はコンピューターの原理的な仕組みを知りません。

2.介護労働で保たれる「構想」と「実行」の統一

 しかし、介護労働はどうでしょうか。次の斎藤幸平さんの指摘は重要です。

 介護や保育の現場においては、上からの指導・命令だけではどうにもならないし、マニュアル化かロボット化などによってはケアの質が大きく低下してしまう可能性がある・・・

 どうしても労働者たちがもっている知や洞察、そして、感情労働のための自律的な協働に依存しなければなりません。資本が介入しきれないために、マニュアル化や単純化に対する制限を利かせ、自分たちで労働を管理することができる余地が大きい。

引用:斎藤幸平編 2019『未来への大分岐』集英社新書 p104

 介護労働は介護される者と、介護する者との相互行為であり、相互コミュニケーションが非常に重要な要素であるため、また、当事者(お年寄り)個々人に合わせての介護が求められているため、基本的にマニュアル化・システム化が困難な労働なのです。

 そもそも、システムというのは当事者(入居者)一人ひとりの個別性に対応できるわけがありません。
 近内悠太(教育者、哲学者)さんはシステムについて次のように指摘しています。

 「システム」は個別の出来事を考慮できません。
 個別の出来事に配慮するシステムというものは存在しません。それは端的な形容矛盾です。そして、システムに従順な者は思考する必要がありません。なぜなら、全てはシステムが決定してくれるからです。そこでは、「決まりですので」というまさに決め台詞がきちんと用意されています。

近内悠太 2024「利他・ケア・傷の倫理学」晶文社 p82

 システムは個に対するケアを行えません。なぜなら、人間という存在は不合理だからです。

近内悠太 2024「利他・ケア・傷の倫理学」晶文社 p111

 確かに、相互行為である介護、日常生活に関わる介護は最もマニュアル化、システム化が困難な領域だと思います。

3.LIFEの影響

 2021年、介護の世界に新たな事態が出現しました。2021年4月の介護報酬改定により日本ではLIFE(ライフ;Long-term care Information system For Evidence;科学的介護情報システム)の本格運用が始まったのです。
 LIFEは入居者一人ひとりのADLや認知症の状態、栄養状態、口腔機能など心身の状態に関するさまざまな情報を登録することで、累積されたデータベースからケアに関する提案(フィードバックデータ)が受けられます。
 つまり、これまで、介護施設や介護労働者が担ってきた「構想」領域がAI(Artificial Intelligence;人工知能)による管理となり、AI(LIFE)が定義する、エビデンス・根拠のある質の良い介護の実施のための指導、指示を受けることができるのです。
 そして、このLIFEの提供する指導により介護品質を高めることができると信じられているのです。

 2021年度から始められたLIFE関連加算の算定実績は、2023年には介護老人福祉施設で64.4%、介護老人保健施設で75%と着実に伸びていると言います。

 根拠なき介護から、LIFEを用いた科学的根拠のある介護への転換は喜ばしいとは思います。

 しかし、私は、このAI・LIFEのアルゴリズム(algorithm)の進化により、介護職員のスキルや経験則が蔑ろにされ、介護職員の「構想」が徐々に不要、邪魔になっていく可能性があるのではないかと危惧しています。

 進化していくAI・LIFEのアルゴリズムを行政機関及び一部の専門家だけが独占するのではなく、介護職員も含め、市民に共有され、管理されるべき富(コモン;common)としていくことが求められているのではないでしょうか。

参照 ジョブメドレー 2022.07.10

4.AIには倫理がない

 今後も進化し続けるであろうAIですが、AIにも課題や限界があると思います。

 マルクス・ガブリエル[2](Markus Gabriel:ドイツの哲学者、ボン大学教授)の言葉を紹介します。

 ・・・現実には、AIはうまく決定を行うことはできない。人間のほうがうまくやれると私は考えています。なぜなら、AIは倫理をもっていないからです。選択をするのには、倫理が必要なのですが、倫理をプログラムすることはできません。倫理的選択のためのアルゴリズムは存在しないのです。

 AIは死にません。もしあなたは生き物ではなく、不死身の存在であれば、どう生きるかは問題とならないので、倫理をもつことはできません。倫理は、死すべき存在のためのものです。

引用:斎藤幸平編 2019年『未来への大分岐』集英社新書 p203

 また、次の斎藤幸平とマルクス・ガブリエル(MGと略)の対話も興味深いです。

MG「・・・私たちがコンピューターに服従させられたのではない。私たちが自分たち自身をアルゴリズムに服従させているのです。」
斉藤「アルゴリズムを内面化して、自分たちもロボットか何かのように思考し、判断するようになっていくということですね。何も考えないでスマホの指図に従って行動することは私もあります。」
MG「こういう動きに対する正しい抵抗の方法は、啓蒙主義を最大化することです。つまり、他者の指図や手引きに頼らず、自分の知性を使うということを徹底すべきなのです。・・・」

引用:斎藤幸平編 2019年『未来への大分岐』集英社新書 p205、206

 MGは「AIは死なないから倫理を持たない」としましたが、AIはアルゴリズム(algorithm;ある特定の問題を解く手順)に従って判断するのみであり、葛藤したり、迷ったりはしません。

 そして、竹田青嗣[3](哲学者)さんの以下の指摘のように、葛藤や迷い、自由がないところには倫理はないのです。

 ・・・どんな葛藤や判断についての迷いも生じないのであれば、われわれはその行為や選択をそもそも倫理的な行為と意識することすらない。つまり、われわれに「倫理的」行為と意識される状況は、必ず何らかのかたちで自己自身の存在配慮(自己配慮)についての判断や葛藤を伴い、それがひとつの「自由」な選択であるような場合なのである。

引用:竹田青嗣 2001「言語的思考へ」径書房 P297

 AIに従って、ただ行動するだけであれば、そこには葛藤も、迷いもないし自由もありません。
 AIは倫理を原理的に持てませんから、人間がAIの結論に従うか否か、葛藤しながら、迷いながら自ら考え判断しなければ、人間からも倫理が欠落していくことになってしまいます。

 たとえ、LIFEのアルゴリズムが進化し続けたとしても、やはり、職員は自分の知性を使うことを止めてはいけないのです。

 葛藤しながら、迷いながらも思考し、行動し、介護していかなければならないのです。


[1] フレデリック・テイラー(F.W. Taylor 1856年3月20日~1915年3月21日)アメリカ合衆国の技術者(技師、エンジニア)で、経営学者。

[2] マルクス・ガブリエル(Markus Gabriel 1980年~)は、ドイツの哲学者。今、最も注目されている哲学者。

[3] 竹田 青嗣 (1947年 ~)は、 日本 の 哲学者 ・ 文芸評論家 ・ 音楽評論家 。 早稲田大学 名誉教授。 元 早稲田大学国際教養学部 教授。 大学院大学至善館 教授 。 在日韓国人二世で戸籍名は、姜正秀(カン・ジョンス、강정수)。「竹田青嗣」は、太宰治の小説「竹青」から付けた筆名。


 科学と介護はシリーズです。以下のnoteもご参照願います。


この記事が気に入ったらサポートをしてみませんか?