見出し画像

「生成AI、熱狂への警鐘」④生成AI作成コンテンツはデータセットを汚染する?! enshittificationって?

生成AIによって作成されたコンテンツはアップされると、当然、インターネット上でwebに反映される。そのコンテンツが誤っていたり、不適だったりすると、どうなるか。※往々にしてみられる。

webに、誤った、あるいは不適な情報が紛れ込む「データ汚染」が起こるかもしれない。いや、恐れが多いだろう。

生成AIは、学習したwebに加えて、2019年以降に作成されたwebも参照する。もしその中に誤りのある情報や不適な情報が入ってくると、生成AIモデルが参照するデータセットは汚染されることになる。すなわち、データセットの「クソ化」(enshittification;改悪、劣化の意)が起こる。意図的であろうと、なかろうと。

※Enshittficationは、2022年にカナダ人の作家でブロガーであるコリー・ドクトロウが提唱したといわれる。オンラインプラットホーム上に、販売企業の意図・思惑を優先する広告媒体を増やすことによって、顧客にとって雑音となるような不便な機能を負わせ、結果として顧客サービスを低下させてしまう。販売企業の思惑・手段は、顧客にとっては、「クソ」以外の何物でもない。

AIなだけに、何でも応えようとすると、AIシステムから論理的に導かれた文と文脈が、必ずしも適切ではなくなる。これがwebデータとして紛れ込むと、正誤の判断さえできなくなる。

この結果、ユーザーから見ると、生成AIシステムの信頼性が揺らぎ、「何が正しいか、何が間違っているかを判断することが必要となってくる。すなわち、過度な「認知的負荷」(cognitive load)をユーザーに負わせることになる。

*「認知的負荷」(cognitive load):人が情報を処理したり課題に取り組んだりする際に必要な脳の働きの負担を表現する概念。

信頼性を失った生成AIシステムは、「熱狂」から覚めて、損害を回避できないAIシステムと認識されるかもしれない。