![見出し画像](https://assets.st-note.com/production/uploads/images/115684370/rectangle_large_type_2_de81ba3741e56144ee5da6f5c010d6f9.png?width=800)
メディア各社のAI利用ポリシーまとめ
(最終更新日: 2023年7月30日)
22年11月にAIによる自動生成記事を掲載したCNETを皮切りに、メディア業界全体で生成AI活用に関する試行錯誤や議論が活発化してきています。Buzzfeedはクイズやミニゲームに生成AIを仕込むことで、ユーザーのコンテキストや入力内容に応じてパーソナライズされた体験を提供しています。その結果、AIを組み込んだクイズは従来のものに比べてユーザーの滞在時間が「40%」長かったと報告されています(Ad exchanger)。さらに、チャットボットを使ったインタラクティブゲームである「Under the Influencer」は、通常のクイズに比べて利用が4倍も多かったそうです(bloomberg)。
一方で、生成AIを使ったコンテンツ制作によるダウンサイドへの理解も深まってきました。例えば、The Arena Groupは傘下のMensJournal.comにて生成AIを使用して制作した「What All Men Should Know About Low Testosterone」という記事を公開したところ、少なくても18の不正確な情報と虚偽が発見され批判を受けました(Daily Beast)。また、ChatGPTを通した機密情報の流出も懸念されてます。CyberHaven社の調査によると、従業員10万人あたり機密情報やインターナルデータをChatGPTに入力している事例が319件存在し、ソースコードは278件、顧客データは260件あると言います(CyberHaven)。
![](https://assets.st-note.com/img/1686298416629-pCWPYIfnqH.png?width=800)
実際、サムスン電子では2023年3月の間にChatGPT経由で社内情報が3件流出しています(PC Watch)。
このようなリスクがある中、社内でAI利用に関するガイドラインやポリシーを設けているのはわずか20%程度で、49%は自由に生成AIツールを使用しているというデータがあります(Press Gazette)。生成AIの利用が浸透するほど、効率性や生産性が向上する一方でコンテンツに誤謬や偏見が含まれてしまう可能性や情報漏洩等のリスクも高まります。
AIポリシーを策定すべき理由
この不可逆な流れの中で、AIポリシーを定めることは非常に大きな意味を持ちます。
コンテンツの品質担保
コンテンツの品質を担保するために、生成AIを利用する際の具体的なルールを示しつつ、コンテンツに対する最終的な責任の所在も明確化することができます。
現場における生成AIの活用を奨励
生成AIの活用方法はトップダウン的に社員へ通達するものではなく、現場からボトムアップ的に試行錯誤する中でその会社にあったユースケースを確立することができます。AIポリシーを早期に示すことは、現場が安心して生成AIを試行錯誤できる土壌作りにも繋がります。決まったルールがないと、現場社員はトラブルを恐れてAIを使用しない、もしくは使用しているのにそれを隠すといった行動をとる可能性が高くなります。
社会への透明性確保
AIが生成したフェイクニュースや広告収益目的の低品質な完全自動ニュースサイトなどが増える中、メディアとしてAIに対する向き合い方・使い方を発信し社会へ透明性を示すことも非常に重要です。その意味で、AIポリシーは社内に留めるのではなく積極的に社外へ公表することで、読者や顧客、ひいては社会全体から信頼を勝ち得ることができます。
この記事では国内外の大手メディア企業が定めているAIポリシーを概観し、そこから得られるポリシー策定のポイントを解説していきます。
本記事で取り上げるメディア
WIRED
Aftonbladet
Reuters
CNET
Insider
USA Today
Financial Times
The Globe and mail
The Guardian
IT Media
日本経済新聞社
CBC News
Mediahuis
AI利用ポリシー策定における示唆
掲載するコンテンツの品質を担保するために、記事の執筆や編集など読者に触れる部分でのAI使用ルールを定めることが基本的な考え方
生成AIの最大の課題は、明らかな間違いをそれらしく回答してしまう「幻覚問題」です。各社その認識を持った上で、最終的に読者の目に触れるコンテンツの品質を保つことを第一にポリシーを制定しています。
インタビューの文字起こしやリサーチでのAI利用は記事制作のプロセスの根幹を成しますが、直接的に読者の目に触れるわけではありません。そのため、制作プロセスの上流でAI利用を制限している企業はなく、執筆や編集など下流部分におけるルールの厳格度が意思決定のポイントになっています。
執筆・編集における規則の厳格性という観点で分類すると、
生成AIが生成・編集したテキストは一律で掲載禁止、もしくは限定的な状況のみ利用可能 (WIREDや日本経済新聞社、ITMediaなど)
AIが生成したテキストが知的財産権を侵害していないなど、多数の規則を記者の責任で保証しなければならない (USA TODAY, Insiderなど)
事実確認のみ規則として定め、それ以外は記者の裁量に任せる (Reutersなど、CNETなど)
と整理することができます。
![](https://assets.st-note.com/img/1690634733983-tahcgnNuRH.png?width=800)
読者への透明性を保証する条項は必須
生成AIを使用したフェイクニュースや広告収入目的の低品質完全自動化ニュースサイトなどが増える中、メディアは社会への責任を保つ前提でAIを使用することを明確にしなければなりません。そのため、「AIを使用して記事を生成した場合はクレジットなどにその旨を明記し読者へ透明性を確保する」ことはほぼ全てのメディアが宣言しています。
AIポリシー策定時にはこれを確実に盛り込み、かつ実効性を持つようなオペレーションを構築する必要があります
ビジュアルコンテンツの利用ポリシー策定は、テキストより遅れている
WIREDやUSA TODAYなど既にビジュアルコンテンツの取り扱いルールも定めているメディアがある一方で、大半の企業は現在検討している最中か既存ポリシー内で触れていない場合がほとんどです。また、WIREDも3月から5月にかけて、「AIが生成した画像は一律使用禁止」としていたルールを「一定の条件下で利用可」とするなどポリシーを変更しています。Financial Timesも、「AIが作成に関わるインフォグラフィックスや図、写真の使用」に関しては現在検討中としています。
これは、ビジュアルコンテンツはテキスト以上に知的財産権の問題が取り沙汰されていたり、逆に生成AIを活用したクリエイターも現れるなど業界の動きが速いからという想定ができます。
そのためビジュアルコンテンツの利用ポリシーは、テキスト以上に技術変化や倫理的問題への社会的解釈に寄り添った策定・改訂が重要になると言えます。
社員研修による底力の強化
生成AIはメディアの幅広い業務に影響を与えますが、ベストプラクティスは各社模索中です。そのため、どの企業も生成AIの具体的な使用方法や規則はあえて厳格に定めず、社員に幅広く活用を促すことでボトムアップによるイノベーションの機会を窺っています。そのため、社員がいかにAIに詳しくなり使いこなせるかが重要になってきます。
社員のAIリテラシーを向上させるために、CNETやUSA TODAY、Financial Times、MediaHuisなどはAIに関する社内研修の実施を利用ポリシー内で宣言しています。AIの進化スピードや社会的な影響度を考えると、今後社内トレーニングの強化は必須となってくることが予想されます。
WIRED
![](https://assets.st-note.com/img/1686305741484-N21GjjXI3S.png?width=800)
【AIポリシーの要点】
AIが生成したテキストを含む記事は原則掲載しない。
AIが編集した文章も掲載しない。
AIが生成した画像や動画は、依既存の作品を露骨に模倣したり著作権を侵害していない限り使用する。その場合、生成AIの使用を開示する。
ただし、ストックフォトの代わりにAIが生成した画像は使用しない。
【具体的な使用ケース】
ストーリーのアイデア出し。
リサーチや分析。
SNSの投稿の見出しや文章作成。
→原文はこちら
Aftonbladet
![](https://assets.st-note.com/img/1686317704486-zUeUjSWz1x.png?width=800)
Aftonbladetは、スウェーデンのストックホルムで発行されている日刊紙で、北欧諸国で最大の規模を誇ります。
【AIポリシーの要点】
Aftonbladetのジャーナリストは記事作成などでAIを使用することができるが、制作の過程には必ず人間が関与し事実確認を行う。
外部のAIツールに機密情報やソース情報を入力しない。
AIが生成した記事や画像を掲載する場合、その旨を明記する。
【具体的な使用ケース】
リサーチ
アイデアのブレインストーミング
見出しの提案
→原文はこちら
Reuters
![](https://assets.st-note.com/img/1686318844390-hmpnqZgChF.png?width=800)
【AIポリシーの要点】
ロイターの記者と編集者はAIを使用してコンテンツを制作する場合、その品質担保に全面的に関与し責任を負う。AIが完全に自動生成した記事を公開する場合、それはロイターのジャーナリストが十分な品質であることを判断したためである。
AIツールの使用が編集プロセスで重要な場合、その旨を開示する。
→原文はこちら
CNET
![](https://assets.st-note.com/img/1686319440554-7XRbdjRgpm.png?width=800)
【AIポリシーの要点】
AIが生成した記事をそのまま使うことはない。
生成AIを使ってコンテンツを作成する場合、CNETの編集者が慎重に正確性と引用元を確認する。
AIが生成したテキストが掲載されている記事では、その旨を開示する。
生成AIを使ったクリエイターは常にクレジットされる。
社内AIツールであるRAMPを適切に使用するための研修を実施する。
【具体的な使用ケース】
CNETが持つ膨大な情報の整理
記事のアウトラインの作成
重要な文脈やポイントがドラフトから欠けていないかのチェック
【現在検討中】
画像や動画作成のための生成AIの活用方法は現在評価している最中。ただし、現時点では原則AIが生成した画像を公表していない。
→原文はこちら
INSIDER
![](https://assets.st-note.com/img/1686320613838-TJgOc94gdr.png)
INSIDERのAIポリシーは、メディアとして公表しているものではなくEditor-in-ChiefであるNich Carlson氏が従業員にメモとして送付した内容になります。
【AIポリシーの要点】
記事の文章生成にAIを使わない。
機密情報やソース情報を入力しない。
ジャーナリストが記事の最終的な正確性に責任を持ち、必ずファクトチェックを行う。
AIが生成するコンテンツは他人の著作物を盗用している場合があるので、常にオリジナル性を担保する。
AIが生成した文章は、必ず自分の文体やInsiderスタイルにリライトする
【具体的な使用ケース】
ストーリーのアウトライン作成や、記事の構成作り
タイポや文体の修正
SEO対策のヘッドラインとメタディスクリプション作成
インタビューの質問出し
トリッキーなことについての調査(例:USがデフォルトしたら何が起こるのか)。
記事のアーカイブから要点を抽出
→原文はこちら
USA TODAY
![](https://assets.st-note.com/img/1686321324424-tddNz9L1Wc.png?width=800)
【AIポリシーの要点】
AIが生成したことはすべて情報源を確認し、正確性を検証する。
AIが関わったコンテンツを公開する場合、その旨を開示する。
AIが生成した画像や動画を使用する際は、編集長以上、フォト&ビデオディレクター、スタンダードエディターの承認を得なければならない。また、使用した旨を開示する。
AIが生成したコンテンツを使用する際、他者の知的財産権を侵害しないためにフェアユースに関する法的・倫理的配慮を遵守する。
AIが生成したコンテンツが個人のプライバシーを侵害していないことを確認する。
AIが生成するコンテンツが、人種、民族、宗教、性別、性的指向、またはその他の特性に関して、個人または集団を差別するものでないことを確認する。
AIが生成するコンテンツが、損害を与える可能性のある偽情報や誤報に寄与しないことを保証する。
AIが生成したコンテンツが視聴者の多様性を反映していることを確認する。
生成AIツールが学習しているデータが、データ保護法を遵守して収集・使用されることを確認する。
ジャーナリストは、AIが生成したコンテンツを効果的かつ倫理的に使用するために十分な訓練と育成を受け、AI技術の最新動向とその倫理的意味合いについて常に情報を得る必要がある。
→原文はこちら
Financial Times
![](https://assets.st-note.com/img/1686322235829-H88nFpTSIV.png?width=800)
【AIポリシーの要点】
生成AIを使用した場合、FT社内および読者に対してその旨を開示する。
AIが生成した写実的な画像を公開することはない。
外部パートナーも含め、生成AIツールの使用は記録される
ジャーナリストに対し、生成AIの使用に関するトレーニングを行う。
【現在検討中】
AIが作成に関わるインフォグラフィックスや図、写真の使用を検討している。使用する場合、読者にその旨を開示する。
生成AIを使用した要約についても、人間の監視を前提として使用を検討する。
→原文はこちら
The Globe and Mail
![](https://assets.st-note.com/img/1690537232497-baOa4ofxQs.png?width=800)
The Globe and Mailはカナダに拠点を置く新聞社で、日刊紙の中ではトロント・スターに次ぐ2位の発行部数を誇ります。
【AIポリシーの要点】
自社の評判や報道の機密性が危険にさらされる可能性があるため、記事の要約や作成に使用してはいけない。
間違いが生じる可能性があるため、AIをストーリーの編集に使ってはいけない。
MidjourneyやDALL-EのようなAI画像ツールは、報道写真には使用しない。AIが生成した動画についても同様。
AI画像ツールは、著作権や肖像権を侵害しない範囲においてイラストの一部として使用することができる。ただし、AIを使用した場合はクレジットに明記する。
プログラミングコードのプロトタイピング、テスト、デバッグに使用できるが、最終的なアウトプットは精査と監視無しに公開してはいけない。
【具体的な使用ケース】
リサーチ、ブレーンストーミング、インタビューの質問出しなど調査段階における出発点として使える。
ヘッドラインやソーシャル投稿のアイデア出しに使えるが、編集者が必ず正確性の確認を行う。
→原文はこちら
The Guardian
![](https://assets.st-note.com/img/1690538160204-nrKhJzqRxs.png?width=800)
【AIポリシーの要点】
AIの生成物をコンテンツに盛り込みたい場合、具体的なメリットの提示、人間による監督、上司の許可を得る必要がある
その場合、AIを使用している旨を読者に公開する
使用するサービスやモデルは、著作物の許諾、社会への透明性、公正な報酬といった論点をどの程度考慮しているかによって決める
【具体的な使用ケース】
記者が莫大なデータセットから情報を抽出する
マーケティングキャンペーンのアイデアを生み出す
社内手続きにおける承認フローなど時間がかかるプロセスの削減
→原文はこちら
IT Media
![](https://assets.st-note.com/img/1690627537103-71KUTlXTfB.png?width=800)
【AIポリシーの要点】
編集業務におけるChatGPTの利用は「報道発表資料などですでに公開された情報など、情報漏えいの懸念がないもの」に当面は限る
AIを使う場合でも、記事としての最終出力は編集部が責任を持つ
情報の整理のみならず執筆部分にまで明らかにAIが関わった場合、記事末尾のコピーライトにその旨を明記
【具体的な使用ケース】
ChatGPTは「情報の加工・抽出」での利用がメイン
→原文はこちら
日本経済新聞社
![](https://assets.st-note.com/img/1690627838824-mGe5MXVyXj.png?width=800)
【AIポリシーの要点】
AIを利用する場合、事前の報告、許可、結果の検証、記録、修正が全て編集メンバーの義務
取材や業務で知り得た機密情報や個人情報の入力は禁止
AIの提案を採用する場合は、その旨を明記。プログラミングの補助や技術調査のために利用する際も同様
技術の進歩に応じてルールを見直す
【具体的な使用ケース】
信頼できる公開情報からのデータ抽出、文章や画像の検索や翻訳など
→原文はこちら
CBC News
![](https://assets.st-note.com/img/1690628251719-owRMYE2nLD.png?width=800)
CBC Newsは、1941年に設立されたカナダ最大のニュース放送局です。
【AIポリシーの要点】
情報開示せずにAI生成コンテンツを使用することはない
AIを使用した調査だけに頼ることはなく、常に複数の情報源を用いて事実を確認する
AIを使用した声や肖像を生成は、CBCの担当局の事前承認と再現される個人の承認がある場合にのみ行う
情報源の声や似顔絵を生成するためにAIを使用することはない。ただし、声の変調、画像のぼかし、シルエットなど視聴者にも理解されている使い方は継続する
機密事項や未発表のコンテンツを生成AIツールに投入することはない
→原文はこちら
MediaHuis
![](https://assets.st-note.com/img/1690628862808-wlEcmF2WQW.png?width=800)
Mediahuisは、ベルギーを拠点とするグローバルメディア企業です。
【AIポリシーの要点】
AIでコンテンツ生成や編集、読者体験の変更(パーソナライゼーションなど)に使用される場合は、免責事項、ラベル、ウォーターマークを使用して常に開示
AIが生成したり編集したコンテンツに対して、制作プロセスの過程で 必ず人間が関わる。編集長はAIを使用した全てのコンテンツに責任を持つ
編集長は、社内ルールや法的/倫理的基準に準拠していることを保証するために、AIの使用を常に監督
AIが生成した有害なコンテンツが不用意に拡散されることを防ぐため、情報元を確認するプロセスをより強化する
AIが生成する、人種・性別・民族・宗教・年齢などに関するバイアスに警戒
AIの使用において、ジャーナリズム、商業、読者への提供価値のバランスを確保する。特にパーソナライズは、特定の読者に対してフィルターバブルが発生しないように価値を提供できる形にする。
AIを使用する際、データのプライバシーとセキュリティを優先する。
AIツールにおける個人情報の使用方法を明確に説明し、ユーザーがデータへのアクセス、変更、削除などをできるようにする。
AIについての意思決定に責任を持つ人は適切なトレーニングを受けることを保証する
AIを使用したコンテンツ制作について記者が正しく理解できるようにするために、啓蒙活動やコミュニケーションに投資をする。
→原文はこちら
Liquid Studioについて
![](https://assets.st-note.com/img/1686468361524-JXQkwpYEE0.png?width=800)
Liquid Studioは、Media&Entertainment業界に特化したコンサルティングスタジオです。Generative AIなど、最先端デジタルテクノロジーに関するリサーチや計画立案、実行支援に強みを持ちます。メンバーには、ビジネスコンサルタントだけでなくAIエンジニアも在籍しており、ビジネスとテクノロジーの両面からお客様のビジネス変革をサポート致します。
HP: https://www.liquidstudio.biz/
公式Twitter: https://twitter.com/_liquidstudio_
この記事が気に入ったらサポートをしてみませんか?