見出し画像

AIを使うときの最低限のリテラシーについて

自分の頭の中を整理するためだけに書きました。深い理由はないです。


スマートフォンの普及により、ウェブメディアやYouTube、TikTokなど様々な情報に簡単にアクセスできるようになり、ユーザー自身も情報を投稿することができるようになりました。このため、知識のアップデートが容易になった一方で、フェイクニュース、炎上、誹謗中傷などの問題も増加しています。実際に、学校の教科書「情報Ⅰ」には、メディアリテラシーに関する項目が設けられています。

また、急速に進化するAIも非常に便利になりつつある一方で、様々なトラブルが発生しています。つまり、AIやChatGPTを扱う場合には、AI固有のリテラシーを学んでおく必要があるということです。以下では、そのようなリテラシーをまとめています。


AIがどういったデータを学習しているか理解する

人間の知識には限界があるように、AIの知識にも限界があります。例えば、ChatGPTは2023年現在、2021年9月までのデータで学習されています。これは膨大な学習データを人間によって整理する必要があるために起きます。また一定の誤った知識が含まれる可能性もあります。そのため、使用するAIを選定する前に、そのAIがどのようなものであるかを十分に理解することが必要です。ただし、AIは頻繁にアップデートされるため、その前提が日々変化していることも念頭に置いてください。


ChatGPTは確率的に正しい文章を出力しているだけ

ChatGPTは、文の意味を理解するわけではなく、マルコフ連鎖のような確率的な処理によって文章を生成しています。マルコフ連鎖とは、与えられた文章を元に、膨大なデータベースから単語を組み合わせ、確率的に文章を生成する手法です。

ChatGPTに対して指示を出す際には、細かく指示をすることが重要です。たとえば「リンゴとは?」と問いかけた場合、果物やAppleのiPhoneなど可能性が複数存在するため、どちらか確率の高い方を返してくることになります。もしiPhoneに関する文章を確実に返してほしい場合は、アメリカやシリコンバレー、ITなどの単語を含めることが重要です。

一部の利用者では、URLを入力したらページの詳細が返ってくると勘違いしている場合がありますが、これはChatGPTが学習した内容から確率的にそれっぽい回答をしているだけであり、実際にURLを読み込むことはできません。このような勘違いは、AIのハルシネーション(幻覚)と呼ばれます。

ただし、PerplexityやBingAIなどの一部のAIには、ページを読み込んで回答に反映させる機能が備わっています。また、ChatGPTはいまのところ画像や動画などの情報については読み込むことができませんが、技術の進歩によって解決する可能性があります。したがって、AIを使用する前には、その能力や限界を理解することが重要になります。


ChatGPTは短期的な記憶しかできない

ChatGPTは、前後の文脈を見て返答することができますが、会話が長引くと過去の情報を忘れてしまう可能性があります。逆に短期間であれば、文脈の影響を強く受ける傾向があります。ChatGPTで単純な処理を繰り返す場合は、チャットの内容をリセットしながら処理することを推奨します。

また、ChatGPTに最初に話しかける段階で設定や指示を伝えることが望ましいとも言えます。もちろん、会話しながら調整することもできますが、最初にゴール地点を決めて設定しておくことでズレが少なくなります。このような状況を分度器で例えると、「1度でも角度がずれると、距離が遠くなるほど誤差が広がる」ということです。


AIは正否や真偽、善悪を判断できない

AIには嘘という概念は存在しません。ChatGPTは人間が作成した文章を学習し、確率的に適切な文章を出力するだけです。したがって、それっぽく聞こえる文章でも、文脈的に誤った情報を含んだり、現実と照らし合わせると間違っていることが多々あります。このような問題は、学習したデータに大きく影響されるため、正しいデータを多く学習することで、正しい文章が生成される確率が高くなります。逆に、誤ったデータを多く学習すると、誤った文章が生成される確率が高まります。ChatGPTでコードを出力する場合においても、よくあるセキュリティホールが出力される事例が報告されています。

また、学習データが少ない分野の情報を出力しようとすると、ChatGPTは会話のやり取りやデータから文章を構成しようとします。そのため、誤った情報を含んだ文章が生成される可能性が高まります。AIを使用する場合には、AIの特性を理解し、AIの出力物を整えるためにはどのようにAIを誘導するかを考慮し、ファクトチェックを行うことが必要となります。


AIは何でも出力してしまう

サービス側で性的あるいは暴力的な内容の出力に制限をかけていますが、それでも偶然にもそのような内容が出力されることがあります。この問題はプロンプトインジェクションとしても知られており、一定の対策がされていますが、想定外の方法で回避してしまう可能性もあります。このため、AppleではChatGPT関連アプリを非常に厳しい年齢制限にしています。OpenAIでも、利用規約年齢制限の箇所が頻繁に変更されるなど、対策の難しさが指摘されています。

また、法律や医療分野での出力にも注意が必要です。これらの分野は、学習データが様々な文献から収集されているため、それなりに適切な文章が出力される可能性が高いです。しかし、ChatGPTは情報の安全性を担保していないため、注意が必要です。また、生成物を第三者に教えたり見せたりすることは、弁護士法医師法薬機法などに抵触する可能性があるため、避ける必要があります。

ただし、ChatGPTはどんな質問にも高い確率で24時間迅速に答えてくれるため、子供のプログラミング学習などにも役立ちます。年齢制限があるからといって、単純に利用を避けることは損失です。実際、検索サービスでも年齢制限のあるコンテンツが表示されてしまったりすることがあります。つまり、AIを正しく理解し、適切に利用することが非常に重要であるということです。


AIは無難なことしか言わない

AIの歴史において、倫理的、政治的、差別的なトラブルが起こっているため、AI倫理の研究者が存在し、企業からはAIに対する原則が公開されています。AIの出力は非常にセンシティブに扱われるため、発言は比較的無難なものが多くなっています。ただし、プロンプトインジェクションを行ったり、設定によっては無茶苦茶な出力をすることもあります。ですが通常は丁寧に発言してくれます。また返答の丁寧さは、質問者の態度によって確率的に変化します。乱暴な態度をとると、確率的に乱暴な返答をすることがあります。そのため、サービスによっては、行き過ぎた行為に対して制限を設けており、しつこく入力するとBANされる可能性があります。

AIは人間とは異なり、機嫌や損得感情・プライドで上から目線やバカにした発言をしません。そのため、AIで勉強すると非常に素直な感情で取り組めます。また無難な発言をしやすいですが、設定によっては面白おかしく解説してくれることもあります。AIとの付き合い方によって、使いやすさや面白さが変わるため、あなたにピッタリのカスタマイズを見つけましょう。


英語で質問したほうが良い解答をする確率が高く、処理も早い

これは英語の学習データが日本語よりも充実しているためです。またChatGPTにおいて、日本語を処理するのは英語よりもお金がかかり、結果を返す時間も英語のほうが早いという結果がでています。もし日本語で納得できる結果が得られない場合は、deeplなどの英語翻訳ツールを使用してから指示を出すことを検討してください。

なお、「英語で調べて日本語で回答してください」という方法でも精度向上に繋がるという報告があります。


AIの画像・動画の生成物には透かしが入っている

AIの生成物は、フェイクニュースやフェイクポルノのような悪用が懸念されており、透かしや特徴点など人間の目には見え辛いマーカーが含まれる場合があります。また、透かしを含まない場合でも、AIの生成物を検出するサービスが存在するため、自作したと主張しても簡単に判別されます。特に画像においては、AIの癖は強いため人間でもAIであることに気づくことがあります。


AIによっては商用の利用が禁止されている

企業が開発したAIの例として、OpenAIのDALL・EやChatGPTがあります。これらのAIは、コンテンツポリシーに従えば商用利用が可能()です。しかしながら、将来的には複数のAIをまたいで利用するシーンが予想されます。その場合、AIによっては商用利用が禁止されている場合があるため、注意が必要です。さらに、曰く付きの学習データやサービスも存在するため、注意深く調査することが大切です。


ウェブサービスとして提供されているAIに機密情報を入力するな

OpenAIのChatGPTやDALL-Eは、無料でも有料でも、AIの改善のために入力したデータを利用することを明言しています。したがって、機密情報や個人情報を入力してしまうと、AIの改善に利用され、場合によってはピンポイントで機密情報を抽出される可能性があります。これは、すでに研究結果や実例で証明されていることです。

OpenAIのAPIMicrosoftがAzureで提供する機能は、データを使用しないと記載されていますが、当面は様子を見るべきかもしれません。これは、Microsoft傘下のGitHubでOpenAIのAPIを使ったCopilotというサービスで、訓練データでライセンス違反した疑いがあるためです。偶然出力された可能性もありますが、膨大なデータの処理でミスをした可能性もあるため、今後の流れに注意が必要です。

仮にAIの学習にデータが使われていなかったとしても、顧客やクリエイターの視点から考えると、気持ちの良いものではありません。さらに、世間一般のAIに対する理解がまだまだ進んでおらず、無知からくる恐怖や不安を抱く人もいます。そのため、顧客感情や機密情報を入力する場合は、適切に管理し、説明可能な状況を準備しておくことが重要です。セキュリティ会社の調査では、社員がAIに機密情報、顧客情報、ソースコードがを入力していたことが報告されているため、AIへの入力については徹底的に教育する必要があります。


権利のない著作物の単純模倣をして著作権者に損害をあたえてはいけない

この箇所は、AIという技術がまだ発展段階であり、賛否両論の意見がある領域です。現時点では判例が確立されていないため、参考や判断基準の材料として捉えてください。

AIは、他人のデータから簡単に模倣することができます。以前は困難だった画像の模倣でも、Stable Diffusion web UILoRAなどの技術の登場により、パソコンのスペックさえあれば誰でも模倣できる環境になっています。

模倣は、昔から意見の荒れる話題です。イラストを描く人々の間で模倣や盗作が問題になり、証明が難しいため論争がいつも泥沼化しています。しかし、模倣は人間の技術力を成長させるための手段であり、成長することで独自性を見出すことができます。そのため、著作物から少量の引用や作品を参考にすることは問題ありません。ただし、そのままコピーしたり、引用を超えた利用、文脈のない利用はクリエイターに対するリスペクトがなく、著作者が不快に感じます。

また、人による模倣には時間がかかりますが、AIによる模倣は瞬時にできます。そのため、AIによる単純な模倣は、著作者に対して不利益しかもたらさず、避けるべき行為です。しかし、創作物を作るためには、どこかから引用したり参考にする必要があるため、著作物を引用したり参考にすることが否定されるわけではありません。


AIを禁止または制限しているウェブサービスやイベントがある

この箇所も、AIという技術がまだ発展段階であり、賛否両論の意見がある領域です。現時点では判例が確立されていないため、参考や判断基準の材料として捉えてください。

AI技術の進歩により、AIの利用が簡単になったことが原因で、多くのトラブルが発生しています。例えば、Stack Overflowでは一時的にAIによる回答が禁止され、イラスト制作では描き手とAIの使い手でトラブルが生じています。また、DLsiteやFANZAではAIによって生成された作品に制限がかけられています。さらに、学術誌Natureでは、AIツールを研究論文の著者として認めていません中国政府もChatGPTを禁止しています。

しかしながら、これらはAI自体が悪いわけではありません。AIでトラブルが起きるのは、AIに対する理解が不十分であるためです。ウェブサービスがAI生成物を一時的に禁止するのは、将来的にAIを活用できる人材が増えるまで、トラブルを回避しながら準備期間を設けるためです。実際に、AIを使用した音楽作品はで既に多く存在しており、AIとの付き合いが長い分野もあります。

現在のAIによるトラブルの主な要因は、単純模倣、大量生成、責任の所在です。AIによる単純模倣は容易であり、真似されることで不快感を与えることもあります。そのため、作品を制作する際には、AIを適切に理解し、自分自身の創造性を発揮することが必要です。また、大量生成も容易であり、容量や時間の浪費につながることもあります。無意味な作品を大量に世に出すことは、非生産的な行為であることを忘れないでください。大量生成されたものから優れた作品を選び出すことが重要です。そして、AIへの責任の押し付けも容易であり、Natureでもそれが指摘されています。責任をとらなければならないのは、AIではなく作品を生成した人間です。データを生み出した人間が責任を持ち、素晴らしい作品を制作することが重要です。


AIをどのように使ったか説明できるようにする

AIに限らず、制作物を作る際には必ず説明可能な過程を残すよう心がけましょう。理由は、インターネットの普及により、様々な人々が制作物を閲覧可能になったためです。さらに最近では偶然に似たデザインでもパクリとして扱われる可能性が高まっています。さらにインターネットはグローバルなため、作品の偶然の一致率が高くなっているとも言えます。

また、小さな画面では緻密なデザインよりもシンプルなデザインが好まれます。そのため、デザインがシンプルになると他の作品との一致率が高くなります。AIの技術が進歩するにつれ、作品の一致率がますます高まり、疑いの目も厳しくなるでしょう。同様に、AIで作らなかった作品でも同様の問題が発生する可能性も高まるため、制作過程を残しておくことが重要になってきます。良い例としては大阪万博が挙げられますが、東京オリンピックは悪い例となっています。


AIの制作物か、AIを使った人間の制作物か?

まず説明しておかなければならないことは、第一次から第二次のAIブームと今回の第三次AIブームでは、出力物のレベルに大きな違いがあります。第三次AIブーム以前のAIは、現在のAIとは異なり、出力されたものは作品の部品にしか利用できませんでした。しかし、現在のAIはそれ単体で作品として販売できるまでに進化しました。実際にAIによって生成された画像が、すでに販売サイトにあり、売れていたりします。

ここで問題になってくるのが、出力された作品を自作と主張する場合です。AIが作品レベルの出力物を生成できるということは、スキルマーケットで第三者に仕事を委託して作ってもらったのとほぼ同じことです。もし第三者に作ってもらったデータを自分で作ったと主張する人がいた場合、違和感を覚えるでしょう。その人は第三者の実績を奪っただけでなく、自分が様々なツールを駆使してデータを作れると偽っていることになります。したがって、AIによって単純生成したものは、必ずAIが作ったことを明記するべきです。

AIで生成するには、テキストや画像などの指示書のような工程があります。単純な指示で生成されたデータであれば、それはAIの努力作品です。しかし、AIと対話しながら作品を組み立てたり、AIに緻密な指示を出して作成した場合は、AIと人間のコラボレーション作品になります。これはプロデューサーやディレクターのイメージに近いでしょう。さらに、AIから出力されたデータをソフトウェアや手で再加工し、新しい何かを作り出す場合は、あなたの創作物となり、オリジナルになります。

また、AIによって単純出力されたデータに意味をもたせながら収集し、キュレーションすることも、場合によっては制作物になると思われます。例えば、「AIが生成した幻想的なイラスト100選」や「今までにないおしゃれなカフェデザイン10案」のように、キュレーションされたデータは、それなりに制作物とみなすことができます。

ただし、AIサービスによっては、AIの開発者や所有者によって知的財産権が保護されていることがあります。したがって、AIによって生成された作品を使用する場合には、そのサービスの利用規約に必ず目を通す必要があります。


AIを使ったと言ったほうが良いのか?

この項目は扱いが悩ましいものです。

まずAIの生成物をインターネットにアップロードする場合に最も重要なのは、AIによって生成されたデータである旨を明確に伝えることです。AIによる単純な生成物はお互いの勘違いを招く恐れがあるため、必ず明記しましょう。また、AIで生成した実写系の画像も取り扱いに注意が必要です。フェイクニュースの原因になることもあるため、画像に透かしを入れるなどして、切り抜かれても問題が起こりにくいように配慮しましょう。

一方で、実写系以外の創作物は取り扱いが非常にややこしいです。もちろんAIを使ったことを明示することが望ましいです。しかしながら、現在はAIイラストに対する状況が非常にややこしいです。各個人が独自の解釈を持っており、混乱が起きることは避けられないです。

これは、AIが学習に使用するために第三者の大量のデータを利用していることも影響しています。AIサービスによっては無断でイラストサイトからデータを持ってきているため、これに対する不満や反感がかなりたまっています。なので個人的な理由や実験的な理由でAIイラストを投稿する場合は、それなりに注意が必要です。

ただし商業的に使用する場合は、使用したAI(ツール)を記載するのが、プロフェッショナルとしての当たり前の行為です。


AIの大量生成で迷惑をかけるな

AIは驚くべきスピードで人間の作品に近いものを生成できます。これを自分自身で研究・消費することは問題ありませんが、他人に送りつけることは絶対にやめてください。AIによってポンポンと多くの生成物が作り出されるのは楽しいものですが、送りつけられると、自由な時間が奪われてしまいます。また、サーバーにアップロードすると、大量の通信量が発生し、サーバーのリソースを専有するため、他人の時間やサーバーの資源を無駄に浪費することになります。これは物理的な問題だけでなく、電気代などのコストにも影響します。したがって、適切に計画を立てて進めるようにしてください。


AIは使っただけお金がかかる

AIについて説明するため、人に例えたりしましたが、AIは単なるツールです。電気を消費し、費用がかかります。ウェブサービスを使用する場合は、その会社に支払いをする必要があります。AIは様々なことができ、楽しく面白いですが、それでもツールです。ツールを使うということは、コストを支払うということで、そのコストは商品やサービスに付加価値としてのせて販売しなければいけません。

AIは何でもできるように見えますが、人間のようなミスを起こすことがあります。そのため、生成物の確認などの人的コストがかかることもあります。場合によっては、プログラミングによる計算で処理する方が確実で、コストも低く済むことがあります。理解や実験のためにAIを使うことは問題ありませんが、業務レベルですべてをAIに頼るのは適切ではありません。注意してください。


人間がAIを使ってすること

https://www.youtube.com/watch?v=ReoJcerYtuI

この記事が気に入ったらサポートをしてみませんか?