見出し画像

生成AIに垣間見えるルール化できないリスク

以前の私の記事「生成AIはBCP策定に役立つか?」では、「今やBCPの策定指導に当たる筆者としては、生成AIの活用は避けては通れない課題である」と書きました。

これは、諸手を挙げて生成AIの利用を歓迎しますという意味ではなく、車のアクセルとブレーキを使い分けるように、利便性とリスクのバランスをとりながら活用していく必要があるぞという自己の戒めも含めたものでした。

その解決策の一つとして「生成AI×BCP作成・運用ルール」を作成してみたわけですが、ルールだけでは捉えきれない隠れたリスクがあることも確かです。例えば生成AIのブームの中で、次のようなネガティブな意見を目にしたことはないでしょうか?

  • 怠惰な学生や社会人は常にAIから答えを引き出すことばかり考え(いわばAI依存症)、自分の頭で考えることを放棄してしまうのではないか?

  • 生成AIのインプットとアウトプットが生成AIの新たなデータソースとして使用される以上、その無限の繰り返しによって、やがて人間の認知や判断を介さない、AIの中だけで自己完結的に生成されたデータで現実世界が埋めつくされてしまうのではないか?

一つ目のリスクは十分にあり得ることです。筆者は、客先宛の1通のメールに2時間以上も時間をかけてなお書けなかった会社員を知っています。彼は本をまったく読まない人で文章作成も苦手ときている。このようなタイプの人が生成AIを活用すれば、ずいぶん仕事ははかどるでしょうが、その一方で文章を理解したり、行間を読んだり、空気を読んだり、自分で文章を組み立てる能力はどんどん衰えていくのではないでしょうか。怖いことです。

二つ目のリスクは、これはもう映画「マトリックス」の世界と同じですね。「マトリックス」では、主人公ネオが生きて現実と思い込んでいた世界が、実はコンピュータによって作られた仮想世界であったという内容でした。自分が見聞きしている日常のほとんどの情報(文字データ、映像・文学作品、ニュース、裁判の判決その他何でも)が、ふたを開けてみたら、すべて生成AIが検証不可能な底知れぬデータの深淵から救い取って提示したものだった、などということが絶対にないとは言い切れない。これもまた怖いことです。

このようなリスクを避けるためにできることは何でしょうか。私の得た結論はとてもシンプルなものです。これまで通り、さまざまな文字情報を読み書きし、自分の頭で能動的かつ幅広く考え、判断する習慣、つまり情報リテラシーをしっかり維持すること、そしてChatGPTなどを活用する際は、一にも二にも「結果を疑ってかかる」こと。

これに尽きます。(了)


この記事が気に入ったらサポートをしてみませんか?