![見出し画像](https://assets.st-note.com/production/uploads/images/106852054/rectangle_large_type_2_bfeac297edda467465fb514657e57d5e.jpeg?width=1200)
ChatGPTで出力される情報は真偽不明
生成AIが吐き出す情報は、真偽不明を前提に人がチェックする必要があるはずなのですが、急速に普及していくなかで、chatGPTのような文章生成AIの出力内容が正しいものだと思い込んでいる人たちが増えてきている印象があります。
間違った内容を出力することがあると知らずに、弁護士が過去の判例としてchatGPTで出力したものをチェックせずにそのまま提出した事案も起きており、今後類似した事案が増えてくると思われます。
先週木曜日に開かれた宣誓供述で、シュワルツ弁護士は今回の件に関連する判例をChatGPTに問い合わせて出力させ、それをそのまま書類に書き写していたと述べ、謝罪しました。ChatGPTを使ったのはこれが初めてのことであり、AIが出力する内容に嘘が含まれる可能性があることには気づかなかったと釈明しました。
今までの世界では、既存のデータベースから参照した物をそのまま出力していたため、そこに間違いがあったとしても、その著者や関係者へ問い合わせる事で解決出来ていましたが、生成AIではそうはいかず、出力された情報を人が精査しなければ使い物になりません。
責任を問われないような形や、遊び道具として使う分にはいいですが、責任を問われる場で使うのであれば、単に作業時間を短縮できるツール程度のものだと理解しておく必要があります。
今後、こういったリスクを技術的に解決していくと思いますが、まだまだ便利な未完成品程度の距離感で活用するのがいいんじゃないでしょうか。
メディアのAI導入では、失敗事例もある。
独自開発のAIによってコンテンツの自動生成に取り組んでいたCNETのケースでは、その開示方法が不十分だった上、間違いも多数発見されたことから、大きな批判を浴びることとなった。
![](https://assets.st-note.com/img/1685382213826-zfNHoVUQZV.jpg?width=1200)
よろしければサポートお願いします!いただいたサポートは活動費に使わせていただきます!