見出し画像

機長は副操縦士よりも事故率が高い。


Windows Copilot

 日経スペシャル「ガイアの夜明け」2023年8月11日放送回「AIは天使か悪魔か」にて、WindowsのOSにも、AIアシスタント機能を盛り込む件が紹介されていた。

 私はかつてWindowsとMacintoshの両方を使っていた。Intelチップ搭載機の頃であれば、ハードウェア的にはWindowsとほぼ同一のため、Appleのハードウェアで、OSのデュアルブートも可能だった。

 しかし、Appleシリコン搭載機となって以降、Windowsを使えるメリットよりも、iOSアプリがネイティブで動作するメリットの方が大きいと判断したため、まんまと囲い込まれており、現在ではもっぱらMacのみとなっている。

 Windowsの基礎知識は10で止まっているため、AIアシスタント機能が搭載されることは聞いていたが、名称がWindows CopilotであることはTVerで知る体たらくとなった。

 番組内でも触れられていたが、あくまでも人間がメインで、AIアシスタントはアシストをする領域にとどまる意味で、副操縦士の意味を持つCopilotが名称に採用されているとのことだった。

 私は元鉄道員という出自もあり、現状の運転支援技術的に鉄道は自動運転が可能な段階となっているが、新交通システム以外では無人運転は行われていない。

 障害物のない地下鉄でも、ATO(自動列車運転装置)を搭載しており、通常時に運転士はドアを閉めて、出発時に回復、通常、低速と3つある走行パターンの中から、運行状況に応じて適切と思われるボタンを押すだけで、運転士は運転していない。

 それでも原理原則的な考え方は、あくまでも人間がメインであり、保安装置はあくまでも人間のバックアップに過ぎないと位置付けられている。

 しかし、ホームドアの登場により実際問題、運転免許で要求されるブレーキの精度よりもシビアな制動操作が求められる。おまけに車種によっても寸法の違いから、停止許容範囲が異なる場合、人間業で正確に制動操作を行うことは現実的ではない。

 事実、それらの線区ではTASCやATOの運転支援装置が「主」で、運転士はただ座って前を見てるだけの「従」と捉えられても仕方がないパワーバランスとなっているのが現状であるが、大きな問題には至っていない。

 むしろ、ヒューマンエラーの確率を踏まえれば、むしろ機械任せの方が精度が高いとすら、元業界人としては思う。

パワーバランスによって起きる悲劇。

 タイトル回収にもなるが、航空業界で有名な話で、過去に起きた航空事故の事例を分析すると、副操縦士よりも、機長が操縦桿を握っている時に事故が起きていることが明らかになっている。

 一般論として、機長の方が操縦桿を握る時間が長いのだから、一見すると至極当然の統計のようにも思えるが、それが機長と比べて経験値も技量も浅い副操縦士の、事故率が低い優位差を説明できる理由にはならないだろう。

 これは、日本人なら誰もが読めるようになってしまった「忖度」が関係している。航空パイロット然り、鉄道乗務員然り、ワンミスが命取りになり、かつ被害が甚大になるような職業の場合、重要な意思決定を複数人で行う形態を取るのが安全の上で重要と言われている。

 人はミスをするものである前提で、ヒューマンエラーは起こり得るものと考えると、1人がミスをしても、2人居れば片方がミスに気付ける可能性が高い。

 統計上、単純作業でヒューマンエラーを起こす確率は1%(整備された環境下では0.1%)とされているが、2人が同時にヒューマンエラーを起こす確率は数理上、1%の2乗で、0.01%にまで抑えることができる。

 だから機長と副操縦士の2人で意思決定を行うことが、ヒューマンエラーを無くしていく上で重要なのである。しかし、航空業界の人事システム上、副操縦士のキャリアを積むことで機長になるため、必然的に機長の立場が、副操縦士よりも上の可能性が極めて高い。

 その場合、副操縦士が操縦中にヒューマンエラーを起こす分には、機長が「それは違うぞ!」と言えるが、ヒューマンエラーを起こしている側が機長だと、副操縦士は忖度してミスを指摘し難い。

 結果として意思決定が事実上1人となることで、エラー率が0.01%から1%に跳ね上がり、機長の方が事故率が高くなる。トップダウン型におけるパワーバランスがもたらす悲劇としか言いようがない。

 話をAIアシスタントに戻すと、AIはあくまでも副操縦士で、最終的な意思決定は人間側に委ねられている。つまり我々がコンピュータ上では機長という訳だ。

 航空事故を起こそうと思って操縦桿を握る機長は居ないと信じたいが、だからこそ、自分自身の経験値や知識、技能に絶対的な自信がある訳で、ベテランパイロットの事故の多くは、練度の未熟さからではなく、自信過剰による過信から、勘違いによる操作ミスが引き金となっていることが統計で表れている。

 鉄道業界でも、保安装置が通常時と異なる場所で動作して非常停止すると、ベテランほど機械の故障を疑い、自分が信号を見落としているなどとは疑わず、保安装置を指令に連絡することなく、無断復帰して事故に至った事例が、どこの事業者でも割と起きている。

 機械も人間が生み出したものだから、壊れるだろうし誤動作もゼロではない。だが1%の確率でミスをする自分よりは、恐らく正確だろうと機械を疑わないマインドが、AI時代には大切なのかも知れない。

 機械やAIはいつもエラーを吐いて足を引っ張ると、副操縦士の警告を無視することが常態化すると、もはやバックアップとしての機能すら失い、ジェイコム事件のような、61万円で1株の売り注文したかったものが、61万株を1円で誤発注して、個人では取り返しがつかないレベルの損失を出すことに繋がりかねない。

 機械化、自動化、AIが進化した先でも、主導権を握っているのは相変わらず人間という構図は暫く続くものと思われるが、案外自分はポンコツである自覚を持って生活することが、人生で再起不能となるようなミスを犯さないための秘訣なのかも知れない。


この記事が気に入ったらサポートをしてみませんか?