見出し画像

AI犯罪から身を守ろう!超知能の危険性を理解する -前編-

AIメディアを運営するアラサーの男性2人が、 AIの最新動向やその未来に関する情報を広く掘り下げながら考察をしていくPodcast「AI未来話」

このnoteでは番組のエピソードからトピックをピックアップして再構成したものをお届けします。※この記事は95%がLLM「Claude」で執筆しています。

今回は「#16 AI犯罪から身を守ろう!超知能の危険性を理解する -前編-」を再構成した内容をお届けします。


AIを利用した犯罪事例

近年、AIの発展に伴い、その技術が犯罪に悪用されるケースが増えてきています。

金融犯罪、誹謗中傷、知的財産権侵害、サイバー攻撃、性犯罪など、AIを利用した犯罪の手口は多岐にわたります。

ここでは、それぞれの犯罪事例について詳しく見ていきましょう。

金融犯罪

AIを利用した金融犯罪は、特に深刻な問題となっています。

フィッシング詐欺では、生成AIを使って巧妙なフィッシングサイトが短時間で作成され、多くの人が被害に遭っています。

また、ロマンス詐欺でも、AIによる自然な会話で被害者を信用させ、金銭を騙し取るケースが報告されています。

AIは不正取引の検知を回避するためにも用いられます。

犯罪者がAIで不正取引のパターンを学習すれば、検知システムの脆弱性を突くことができるのです。

さらに、ディープフェイク技術を悪用して実在人物になりすまし、金銭を騙し取る手口も増加しています。

2024年4月、香港の会計担当者がディープフェイクで作られた経営幹部になりすまされ、約38億円を騙し取られる事件がありました。

このように、AIを活用したなりすまし詐欺は、非常に巧妙化しています。

誹謗中傷・名誉毀損

2024年1月、アメリカの司法当局が衝撃的な発表を行いました。

民主党の予備選挙で、ジョー・バイデン大統領そっくりの偽の音声を使って投票を妨害する行為があったというのです。

この偽音声は、生成AIを悪用して作成されたものでした。

犯人は特定の候補者への投票を呼びかけたり、逆に別の候補者への投票を思いとどまらせたりするために、わざとバイデン大統領の声に似せたのです。

巧妙に作り込まれた音声は、バイデン大統領本人のものと聞き分けるのが難しいレベルだったと言います。

この事件は、AIが民主主義の根幹を揺るがしかねない脅威となっていることを示す象徴的な出来事でした。

知的財産権侵害


また、著作権侵害も深刻な問題です。

例えばTiktokでは「名探偵コナン」の声真似動画が投稿され、関係者を困惑させるケースがありました。


アニメ『進撃の巨人』の主人公・エレン役を務める声優の梶裕貴氏も、自身の声を無断でAIに学習させ、動画投稿するケースが報告されていることに警鐘を鳴らしています。

しかし、梶氏はAI技術の発展そのものを否定しているわけではなく
AIと共存しながら、クリエイターの権利を守る方策を模索していくことが重要だと訴えています。

実際、梶氏の音声を利用できるサービスを開始しました。
これは、AIの適切な活用方法を提示する取り組みの一つと言えるでしょう。

AI技術の発展と普及により、現在、無法地帯となってしまっている”声の権利”問題。

私自身、この問題について、日頃から頭を悩ませておりました。そのため、悪用のリスクを懸念し、当初は『CeVIO Al 梵そよぎ ソングボイス』のみの開発に留める考えでした。

しかし、今回のクラウドファンディングを通して、本当に多くの方々からあたたかいご支援とご声援をいただき…また同時に、本プロジェクトに対する大きな期待値を感じ、少しでも音声AIの明るい未来に貢献できるならと、この度、『CeVIO Al 梵そよぎ トークボイス』の販売を決意するに至りました。

今、あらためて、新しいエンターテインメントの可能性を確信しております。

ロボスタ編集部

また、2024年5月、OpenAIが開発した大規模言語モデル「GPT-4o」に搭載された音声対話機能「Sky」が、 女優のスカーレット・ヨハンソン氏の声に酷似していたことが問題となりました。

実は、OpenAIのCEOであるサム・アルトマン氏は、2023年9月にヨハンソン氏に対し、 音声モデルへの声の提供を依頼していました。

しかし、ヨハンソン氏は「熟考の末、個人的な理由から断った」とのことです。

それにもかかわらず、リリースされたGPT-4oのデモンストレーションでは、 Skyがヨハンソン氏の声そっくりに話す様子が確認されました。

さらに、アルトマン氏自身がSNS上で「her」(ヨハンソン氏の出演映画のタイトル)といったつぶやきをしたことで、 ヨハンソン氏の怒りに火が付いたようです。

芸能人にとって、声は大切な財産です。 無断で声を利用されることは、肖像権の侵害に当たります。

今回の一件は、AIによる声の利用に関する倫理的な問題を浮き彫りにしました。AIの開発者には、こうした倫理的な配慮が強く求められるでしょう。

サイバー攻撃

パスワードクラッキングは、AIの得意分野の一つです。高度なアルゴリズムにより、従来よりも短時間でパスワードを解析できるようになりました。

また、ランサムウェアの作成も、生成AIの能力で非専門家でも可能になりつつあります。

日本では実際に2023年5月ランサムウェアをAIに作らせた男が逮捕される事件が発生しました。

「AIならば何でもできる」「楽して稼げる」という安易な思想が犯罪を助長しています。

性犯罪

児童ポルノへのAIの悪用は、非常に深刻な問題です。

イギリスのインターネット監視団体によると、2023年に削除された27万5000件もの児童ポルノ画像のうち、AIによるものが増加傾向にあるとのことです。

実在児童のデータを学習させて作成した画像が、ネット上で販売されているという衝撃的な実態も明らかになっています。

このように、AIを利用した犯罪は多様化し、深刻さを増しています。技術の発展に伴い、私たちは新たな脅威に直面しているのです。

不正利用の監視と情報共有

OpenAIは、自社のAI技術が悪用されないように、不正利用の監視と情報共有にも力を入れています。

OpenAIは、自社のAPIを通じて提供されるツールが、他のユーザーから適切に保護されるよう、Microsoftと協力して監視を行っています。

もし不正利用が発見された場合は、関係機関と情報を共有し、速やかに対処するという方針を取っているのです。

実際に、2023年5月30日には、中国、ロシア、イラン、イスラエルの5つの組織がOpenAIの技術を使って世論工作を行っていたことを発見し、公表しました。

これらの組織は、AIを使って特定の国を批判する文章を大量に生成し、SNSに投稿していたのです。

OpenAIは、該当するアカウントを全て停止し、不正利用を阻止しました。

選挙の公正性確保への協力

OpenAIは、選挙の公正性を守るための取り組みにも積極的に協力しています。

具体的には、有権者が正確な投票情報にアクセスできるよう、政府と協力して情報提供を行っています。

また、DALL-E 3のような画像生成AIに、選挙関連の画像を識別するツールを組み込んだり、データ編集の履歴を追跡できるようにしたりと、技術的な対策も講じています。

さらに、OpenAIは自社のChatGPTを通じて、ユーザーをアメリカやヨーロッパの公式な選挙情報源に誘導するようにしています。

これにより、有権者が信頼できる情報にアクセスしやすくなり、フェイクニュースに惑わされることを防げるのです。

OpenAIの内部告発と懸念

しかし、こうしたOpenAIの取り組みに対して、内部から懸念の声が上がっているのも事実です。

2022年11月、OpenAIの元取締役であるDario Amodei氏がによれば、サム・アルトマン氏はAI製品の安全性チェックについて、幾度となく不正確な情報を提供していたというのです。

安全性軽視の姿勢

こうしたサム・アルトマン氏の安全性軽視の姿勢に、多くの社員が不信感を抱いています。

OpenAIは表向き安全性を重視していますが、実際には利益を優先しているのではないかという疑念が社内で渦巻いているのです。

2023年5月17日には、OpenAIのAI倫理チームのリーダーを務めていたIrina Raicu氏も退社しました。

Raicu氏は「OpenAIの経営陣と、倫理的な優先順位をめぐって合意できなかった」ことを理由に挙げています。

また、2023年6月、OpenAIの元社員が匿名でブログを投稿し、「2027年までにAGIが登場し、その数年後には人間の知性を凌駕する可能性が高い」と警鐘を鳴らしました。

この元社員は、「AGIによって引き起こされる社会的・経済的混乱を、OpenAIは過小評価している」と指摘しています。

こうした内部告発は、OpenAIの安全性への取り組みに疑問を投げかけるものです。

AGIの軍事的インパクト

AIの発展は、軍事分野にも大きな影響を及ぼしつつあります。

特に、AGI(汎用人工知能)の登場は、戦争のあり方を根底から変えてしまうかもしれません。

核兵器との類似性

AGIは、かつての核兵器に似た存在になるかもしれません。

核兵器が登場したことで、戦争は一変しました。

同様に、AGIが軍事利用されれば、戦争の形態は大きく変化するでしょう。AIが兵器を自律的に制御し、人間の判断を介さずに攻撃を行うようになるかもしれません。

AIによる戦争は、非常に短時間で終結する一方で、甚大な被害をもたらす可能性があります。

AGI開発の歴史的類似 - マンハッタン計画

AGIの開発は、第二次世界大戦中のマンハッタン計画と似た状況にあると著者は感じています。

マンハッタン計画とは、アメリカが主導して行った核兵器の開発プロジェクトのことです。

技術者の倫理的懸念と離脱

マンハッタン計画では、多くの科学者や技術者が倫理的な懸念から計画を離脱しました。

彼らは、核兵器の開発がもたらす危険性について警鐘を鳴らしたのです。

例えば、物理学者のジョセフ・ロートブラットは、「核兵器は人類を滅亡させかねない」と訴え、計画から離脱しました。

彼は後に、核兵器廃絶運動のリーダーとなり、ノーベル平和賞を受賞しています。

同様に、OpenAIでも倫理的な懸念から離職する社員が相次いでいます。
彼らは、AGIの開発がもたらすリスクについて警告を発しているのです。

国際社会は、AGIの脅威について真剣に向き合わなければならないでしょう。

続きはこちらから↓↓↓


この記事が気に入ったらサポートをしてみませんか?