ChatGPTを始めとする自己回帰型大規模言語モデルは仕組み上、嘘を言わないようにできないという指摘があるとの投稿があった。
しかし考えてみれば、嘘や間違いは人間だって冒すし、DNAの変異が起こるから生物の進化も起こっているわけで、エラーが起こるのはモデルに問題があるというよりも、情報そのものが持つ性質なのではないかとも思う。情報は伝達される中で変化する。
ところでソースを辿ったら、そもそもこのAIモデルが間違いを起こすのは、学習した教材に嘘の情報が紛れ込んでいて、AIはそれが真実かどうかを判断できないからだと読み取れる。
何のことはない、AIが嘘を吐く原因は人間が間違ってきたからだし、陰謀論やスピリチュアルや占いを本気で信じている人も少なからずいるわけで、人間であれば真贋の判断ができるという意見も怪しいものである。
この記事が気に入ったらサポートをしてみませんか?