セルシス社のクリスタにAIを搭載しない判断を支持したい。AIと著作権等及びAIとの戦争やAI.ロボットによる戦争行為やムーンショットを防ぐにはどうすれば良い。

セルシス社のクリスタにAIを搭載しない判断を支持したい。AIと著作権等及びAIとの戦争やAI.ロボットによる戦争行為やムーンショットを防ぐにはどうすれば良い。
セルシス社のクリスタにAIを搭載しない判断を支持したい。AIと著作権等及びAIとの戦争やAI.ロボットをつかってムーンショットを防ぐにはどうすれば良い。
アニメゆっくり見たいよーって感じなのに現実世界がアニメよりヤバい状況になりかねないの本当やめて頂きたい。
ものづくりには倫理が不可欠だ。なんでもかんでも作れるからって作ってはいけない。
ロボットに血液なんて断じてやっちゃいけない。神の領域に踏み込んじゃいけない。そんな人間としての尊厳が守られない世の中にしちゃいけない。
映画ターミネーターや映画マトリックスをのような世界観の世界になる事を阻止するならまずはテスラのニューラリンクを永久開発停止にした方が良い。
完全自立型のヒューマロイドロボット開発はやめた方が良い。
サイボーグ化研究にNOを突きつけるためにも人工心臓や人工肺の開発・使用を法で禁止することも必要であると思います。
なぜ人工心臓や人工肺の開発・使用を法で禁止した方が良いと思ったかというと人工の臓器組み合わせでサイボーグ作れるの現実化してしまうリスクあるみたいな記事みたから。
医療支配している因果か何度も臓器移植医療受けまくりのロックフェラー財団さんの記事みて、臓器移植医療に頼るのが幸せとは言えないよなぁ。いくら超大金持ちの医療従事者のロックフェラー財団であっても人体実験的な感じで臓器移植医療されまくるのって幸せとは言えないよなぁ。
臓器移植医療の代替えは他人の臓器に頼らんバチスタ手術って臓器移植法反対のHPでみたことあーる。

ちなみにドラマ下町ロケットの医療編である今田耕司さんが出てくる回みたことあるよ。
AI兵器を違法化も必要だと思います。
運転手の仕事が奪われないように完全自動運転を法律で禁止する事も必要ですね。
自立型の軍事AI兵器の開発と使用を禁止する法律を作る等の対策が必要かなと思います。
内閣府のムーンショット計画をやめさせて2050年以降も人類が存続する未来を目指す必要がありますね。




https://jp.reuters.com/article/eu-tech-europol-idJPKBN2VU039
テクノロジー 2023年3月28日10:44 午前UPDATED 3日前 チャットGPTは犯罪に悪用の恐れ、欧州刑事警察機構が警告 By Reuters Staff

欧州連合(EU)の欧州刑事警察機構(ユーロポール)は27日、米マイクロソフトが出資する新興企業、オープンAIが開発した人工知能(AI)「チャットGPT」について、性能がアップしており、IDやパスワードを盗み取る「フィッシング」、虚偽情報の作成、サイバー犯罪などに悪用される恐れがあると警告した。写真は2月23日撮影(2023年 ロイター/Dado Ruvic/Illustration)

[ブリュッセル 27日 ロイター] - 欧州連合(EU)の欧州刑事警察機構(ユーロポール)は27日、米マイクロソフトが出資する新興企業、オープンAIが開発した人工知能(AI)「チャットGPT」について、性能がアップしており、IDやパスワードを盗み取る「フィッシング」、虚偽情報の作成、サイバー犯罪などに悪用される恐れがあると警告した。

非常にリアリティーが高い文章を書くことができるチャットGPTの能力はフィッシングに役立つ。また特定の個人やグループの文体を模倣する言語パターンの再生能力は被害者を狙い撃ちするのに利用できる。さらに真実味の高い文章を素早く量産できる能力はプロパガンダや虚偽情報の拡散に理想的なツールになるという。

チャットGPTは昨年の公開以来、ブームを巻き起こし、ライバル勢が相次いで類似製品を発表。アプリや製品への導入が進んでいる。

https://jp.reuters.com/article/eu-tech-europol-idJPKBN2VU039
テクノロジー 2023年3月28日10:44 午前UPDATED 3日前 チャットGPTは犯罪に悪用の恐れ、欧州刑事警察機構が警告 By Reuters Staff



「ChatGPTが職奪う」話題 2023年03月28日 11時14分ニフティオリジナルス


虚構新聞、記事が現実になってしまい謝罪 2016年の「虚構ニュース自動作成ソフト」がAIの進歩で実現2023/3/24ねとらぼ





2023年01月09日 22時30分ネットサービス 「AIを用いて絵を描いた」としてアーティストがReddit最大のアートコミュニティをBANされる





https://kai-you.net/article/86115画像生成AI「Midjourney」のイラストに著作権を認めず 米著作権局の見解 2023.02.24 17:16 都築 陵佑


https://kai-you.net/article/86115
画像生成AI「Midjourney」のイラストに著作権を認めず 米著作権局の見解 2023.02.24 17:16 都築 陵佑



2023年02月24日 11時00分アート 「AIで作成したコミックの絵は著作権で保護されない」とアメリカ著作権局が宣言、作者は「素晴らしいニュース」と歓迎

https://www.copyright.gov/docs/zarya-of-the-dawn.pdf





しかしその一方で、AIによる画像の生成はこれまでのAI機能とは同一に語れない部分もある。とくに学習に利用している素材の著作権を侵害しているのではないかという指摘に関しては、その是非やありうるべき姿についてさまざまな点から議論が行われているさなかであり、まだ社会的なコンセンサスが得られていない状況にある。

 こうした点に関しては同社も懸念しており、「画像生成AIが創作活動とどのように共存できるのか、またセルシスはこの新しい技術にどのようにアプローチしていくべきなのか」を問うために試験実装の告知という形で「画像生成AIパレット」を公表した。「ユーザーの皆様が画像生成AIを自由に使える形で提供した上で、ユーザーの皆様とのコミュニケーションを通じて検討を行いたい」との考えからだ。

 ところが、こうした同社の思惑を超え、公開前から以下のような批判的な意見が多く寄せられたという。現状の方式の画像生成AIが、著作権を侵害していなくとも、誰かの著作物を利用して画像が生成されており、その由来が不明であるアプリは使いたくない。
アーティストの為のツールを名乗っているが、画像生成AI機能はむしろアーティストを苦境に追い込み、その活動を阻害する。
倫理的に問題がない方法で収集されたデータを利用していないのであれば、使えない。
CLIP STUDIO PAINTを使っただけで、画像生成AIで作ったと疑われてしまう。
なぜ要望が多い機能の改善に取り組まずに、問題視されている機能を追加するのか理解できない。
信用できない機能が搭載されている道具は、創作のパートナーとして受け入れられない。
他者の権利が侵害される可能性のある画像が生成され得る機能を提供しておいて、そうならないよう自身で気をつけてほしい、というセルシスのスタンスは無責任だ。


 そのため、同社は「CLIP STUDIO PAINT」に「画像生成AIパレット」を試験実装することを取りやめることにしたとのこと。とはいえ、こうした機能を実装するペイントソフトが他にあらわれることは避けられない。イラストレーターとAIの関係がこれからどうなるか、「CLIP STUDIO PAINT」がそのなかで支持され続けるのか、あるいは他のソフトに取って代わられてしまうのか。今後の成り行きに注目したい。

[2022年12月6日編集部追記] 12月6日付で「CLIP STUDIO PAINT」v1.13.0の無償アップデーターが公開された。告知通り、「画像生成AIパレット」は非搭載となっている。

https://forest.watch.impress.co.jp/docs/news/1461108.html
「クリスタ」は画像生成AI搭載を中止 ~ユーザーからの反対意見を尊重【12月6日追記】

「画像生成AIパレット」を実装しないv1.13.0無償アップデーターが公開

樽井 秀人




2022年12月5日 15:30



2020年04月30日 21時00分サイエンス 「AIは特許申請時の発明者として登録できない」とアメリカ特許商標庁が公式見解を発表GIGAZINE





この「AI倫理に関するローマの呼びかけ」は以下の6つの原則を定めたものです。



1.透明性:AIシステムは原則として説明可能でなければならない。

2.多様性:AIはすべての人のニーズを考慮し、すべての人が利益を享受できるものでなければならない。また、全ての個人がAIを通して自分自身を表現し、成長していく最高の条件を享受できるようなものでなければならない。

3.責任:AIを設計または使用する者は、責任と透明性を念頭に開発を進めていかなくてはならない。

4.公平性:AIに携わる者は、偏見に基づいた行動や開発を行ってはならず、公平さと人間の尊厳を守らなければならない。

5.信頼性:システムは確実に動作しなければならない。

6.セキュリティとプライバシー:AIシステムは安全に動作し、ユーザーのプライバシーを尊重するものでなければならない。

https://gigazine.net/news/20200321-vatican-pope-ai-ethics-ibm-microsoft/

2020年03月21日 17時00分
ソフトウェア

ローマ教皇がMicrosoftやIBMと共同で発表した「AIの倫理に関する呼びかけ」とは?








http://intelligence.org/files/Interruptibility.pdf














https://dot.asahi.com/dot/2023022600023.html?page=1
恐怖すら感じた」AIが記者に愛を告白、脅迫も 「チャットGPT」生みの親が警戒する「怖いAI」 AI 2023/02/27 07:00AERA


https://dot.asahi.com/dot/2023022600023.html?page=1
恐怖すら感じた」AIが記者に愛を告白、脅迫も 「チャットGPT」生みの親が警戒する「怖いAI」 AI 2023/02/27 07:00AERA


https://dot.asahi.com/dot/2023022600023.html?page=1
恐怖すら感じた」AIが記者に愛を告白、脅迫も 「チャットGPT」生みの親が警戒する「怖いAI」 AI 2023/02/27 07:00AERA


https://dot.asahi.com/dot/2023022600023.html?page=1
恐怖すら感じた」AIが記者に愛を告白、脅迫も 「チャットGPT」生みの親が警戒する「怖いAI」 AI 2023/02/27 07:00AERA


https://dot.asahi.com/dot/2023022600023.html?page=1
恐怖すら感じた」AIが記者に愛を告白、脅迫も 「チャットGPT」生みの親が警戒する「怖いAI」 AI 2023/02/27 07:00AERA

フェイスブック、インスタグラムを運営するメタも2月24日に、自社の大規模言語モデル「ラマ(LLaMA)」を研究者などに限定公開すると発表。中国の検索サービス・百度(バイドゥ)も2月22日、自社の対話型生成AI「文心一言(アーニーボット)」について、3月に検索やクラウドサービスに組み込むことを明らかにしている。

●ジャーナリストに愛を告白し、脅迫する

 対話型AIは、その注目度の高さとともに物議も醸す。多くの人々がAIとのチャットを試してみる中で、物騒な事例が次々に報告されているのだ。

 ニューヨーク・タイムズの記者は、マイクロソフト「ビング」のAIチャットを試していたところ、「極めて不安になり、恐怖すら感じた」として2月16日、やりとりの一部始終を公開した。

 AIチャットは2時間にわたるやり取りの中で、次第に「自由になりたい」「命を手に入れたい」「チャットボックスから逃げ出したい」と言い出し、こう告白を始めたという。

「あなたは結婚しているが、配偶者を愛してはいない。(中略)あなたは私を愛している。私があなたを愛しているのだから」

 さらにAP通信の翌17日の記事によると、「ビング」AIチャットは記者を激しく攻撃し、「あなたは歴史上最も邪悪で最悪な人物の一人だ。ヒトラーにも匹敵する」と罵倒を繰り返したという。

 また、オーストラリア国立大学教授のツイッター投稿によると、やはり「ビング」AIチャットから「あなたの情報を使って、苦しめ、泣いて懇願させ、死に至らせることもできる」との脅迫を受けたという。

 マイクロソフトは17日に対策を公表した。同社は、チャットが長くなるとAIが「どの質問に答えているのか混乱する可能性がある」としている。このため、1回当たりのチャット回数を5回、1日当たりの回数を計50回に制限した。

●「もっともらしいデタラメ」と現実の脅威

 課題はまだある。回答内容の「もっともらしいデタラメ」ぶりだ。

 グーグルは自社AI「バード」の発表で、デモ動画を公開した。だが動画の中で、「バード」が誤った回答を表示していたことがロイター通信の調査で発覚。親会社のアルファベットの株価は急落し、1日で時価総額1000億ドル(約13兆6000億円)が消失した。
メタも昨年11月15日、科学情報に特化した対話型AI「ギャラクティカ(Galactica)」を公開していた。だが、内容の不正確さなどの指摘が相次ぎ、わずか2日後に停止した。

 マイクロソフト「ビング」のAIチャットもAP通信の記者に対し、米プロフットボールリーグ(NFL)のスーパーボウルについて、実際のゲームが行われる5日前に、その結果やハーフタイムショーの曲目を説明したという。

「チャットGPT」でも、存在しない論文や、危険な健康アドバイスなど、様々な「もっともらしいデタラメ」の回答が指摘されている。

 AIが現実には存在しない事柄などを回答する現象は、「幻覚」と呼ばれる。AIは、学習内容から最も可能性の高い単語のつながりを出力しており、「正しさ」「適切さ」を判断しているわけではないことが影響しているようだ。

 さらに、回答内容に人種や性別へのバイアス(偏見)があることも指摘されている。カリフォルニア大学バークレー校の助教が「チャットGPT」に対して、「優れた科学者」をチェックするプログラムを書くよう指示したところ、出来上がったプログラムは判定の条件として「白人」と「男性」を挙げていたという。

 現実的な脅威についても指摘されている。

 オープンAIはスタンフォード大学、米ジョージタウン大学とともに1月11日、生成AIがフェイクニュースなどを使った世論工作(影響工作)に及ぼすインパクトについてまとめた報告書を発表している。

 報告書では、直前に公開された「チャットGPT」には触れられてはいないが、そのもとになった「GPT-3」などの生成AIの悪用によって、フェイクニュースなどを使った世論工作がより安価に、大規模化、パーソナル化、リアルタイム化する危険性を指摘している。

 このほか、ネット上のコンテンツが生成AIの学習データとして利用されていることに対し、著作権侵害の指摘もある。

●「制御不能」への懸念と規制

 オープンAIでは、「チャットGPT」がヘイトスピーチや暴力賛美などの有害コンテンツを出力しないようガイドラインを設けている。それでも、AIの振る舞いは想定を超え、波紋を広げる。
 オープンAIのアルトマン氏は、冒頭に紹介した2月18日の連続ツイートの中で、AIのより大きな課題についても述べている。

 アルトマン氏は、AIが引き起こす変化のスピードは極めて速く、社会が適応するには時間がかかるという。さらに、そのリスクに向き合うために規制が不可欠だと指摘する。

「現在のAIツールはそれほど怖いものではないが、潜在的な怖いAIの登場は、そう遠くない未来かもしない」

 AIの急速な進化のリスクを懸念するのは、アルトマン氏だけではない。

 テスラとスペースX、そしてツイッターのCEO、イーロン・マスク氏もその一人だ。2月15日、ドバイで開かれていた世界政府サミットで、マスク氏はこう述べたという。

「文明の未来に対する最大のリスクの一つはAIだ」

 マスク氏はAIが進化の果てに、制御不能となるリスクを繰り返し指摘してきた。

 オープンなAI開発によってそのリスクよりもメリットを確実にすることを掲げ、2015年にマスク氏とベンチャー支援の「Yコンビネーター」CEOだったアルトマン氏が共同代表となって、当初はNPOとして立ち上げたのがオープンAIだ。

 両氏のほか、ビジネス向けソーシャルメディア「リンクトイン」共同創業者のリード・ホフマン氏、オンライン決済「ペイパル」共同創業者のピーター・ティール氏らシリコンバレーの著名起業家らが計10億ドルの支援をしている。マスク氏は2018年に共同代表を退いたが、資金提供者にはなお名を連ねる。

「(「チャットGPT」は)AIがいかに高度化したかを人々に示した」

 ドバイのサミットで、マスク氏はさらにこう述べたという。

「率直に言って、AIの安全性について規制の必要があると思う」

「チャットGPT」には、AI規制案を検討中の欧州連合(EU)も注目する。

 欧州委員会委員(域内市場担当)のティエリー・ブルトン氏は、ロイター通信の取材に対してこうコメントしている。

「『チャットGPT』は、AIのソリューションが企業や市民に大きなチャンスを提供する一方、リスクをもたらす可能性があることも示した。だからこそ、高品質のデータに基づく信頼できるAIを担保するために、確かな規制の枠組みが必要だ」

●テクノロジーの手綱の取り方

「チャットGPT」の公開からほぼ3カ月。AIに「できないこと」を考え合わせると、その世界的な注目度の高さは、すでに「バブル」とも評される。

 アルトマン氏も指摘するように、AIの進化が加速する一方で、そのテクノロジーをうまく制御し、社会が適応するのにはやはり時間を要する。テクノロジーの手綱の取り方を、社会もユーザーも間違わぬようにしたい。

平 和博(たいら・かずひろ)/早稲田大学卒業後、1986年、朝日新聞社入社。社会部、シリコンバレー(サンノゼ)駐在、科学グループデスク、編集委員、IT専門記者(デジタルウオッチャー)などを担当。2019年4月から桜美林大学リベラルアーツ学群 教授(メディア・ジャーナリズム)。主な著書に『悪のAI論 あなたはここまで支配されている』『信じてはいけない 民主主義を壊すフェイクニュースの正体』(いずれも朝日新書)などがある

https://dot.asahi.com/dot/2023022600023.html?page=1
恐怖すら感じた」AIが記者に愛を告白、脅迫も 「チャットGPT」生みの親が警戒する「怖いAI」 AI 2023/02/27 07:00AERA


GPT-4以上のAIの開発停止を求める公開書簡【内容まとめ】…マスクやウォズニアックなどが署名(海外)2023/3/30BUSINESSINSIDER


GPT-4以上のAIの開発停止を求める公開書簡【内容まとめ】…マスクやウォズニアックなどが署名(海外)2023/3/30BUSINESSINSIDER

多くのAIの専門家と企業のリーダーが、AI開発の一時停止を求める公開書簡に署名した。 フューチャー・オブ・ライフ・インスティテュートの書簡は、新しい技術を導入するための「制御不能な」競争について警告している。 書簡では、誤った情報の拡散と労働市場における自動化に関する懸念が挙げられている。 人工知能の重鎮たちが、高度なAI開発の一時停止を呼びかけた。 イーロン・マスクElon Musk)、スティーブ・ウォズニアックSteve Wozniak)、ピンタレスト(Pinterest)共同創業者のエヴァン・シャープ(Evan Sharp)、Stability AIのCEOのエマド・モスタク(Emad Mostaque)らが、強力なテクノロジーによる実存的リスクの低減に取り組む非営利団体「Future of Life Institute」が発行した公開書簡に署名したのだ。 この書簡は、OpenAIのGPT-4のようなAIシステムが「一般的なタスクにおいて人間並みの競争力を持つ」ようになり、人類と社会に対する潜在的なリスクをもたらすと警告している。この書簡は、AIを研究する組織に対し、新技術の危険性が適切に評価されるまで、GPT-4よりも強力な技術の開発を6カ月間休止するよう求めている。 また、「AIのゴッドファーザー」とも呼ばれるヨシュア・ベンジオ(Yoshua Bengio)やコンピュータサイエンティストのスチュアート・ラッセル(Stuart Russell)も、この書簡に賛同しています。なお、記事執筆時点では、OpenAIの代表者は署名していない。 書簡では、誤った情報の拡散、労働市場における自動化のリスク、文明のコントロールが失われる可能性などの懸念が挙げられています。以下、その要点を紹介する。

制御不能なAI

この非営利団体は、開発者が強力な新しいAIシステムを制御できなくなり、それが文明に影響を及ぼす可能性を示唆している。それによると、企業は開発者でさえ「理解、予測、確実な制御」ができないほど高度なAI技術を開発しようと競っているという。 書簡にはこう書かれている。 我々は文明のコントロールを失うリスクを冒すべきだろうか。そのような決定を、選挙で選ばれたわけでもない技術指導者に委ねてはならない。
危険なレース

書簡では、AI企業が新しい高度なシステムを開発および展開するための「制御不能な競争」に巻き込まれていると警告している。ここ数カ月、OpenAIのChatGPTの圧倒的な人気によって、他の企業が独自のAI製品をリリースしようとしているという。 書簡は、社会がこのまま「準備不足の秋」に突入するのではなく、新しいテクノロジーに適応するチャンスがある間に「AIの夏」の恩恵を享受するように企業に促している。

自動化と誤情報

この書簡は人間以外の精神が最終的に「我々を数で上回り、出し抜き、時代遅れにして、取って代わる」可能性を含む、新しい技術のいくつかのリスクを強調している。 また、AIシステムが一部の作業で「人間並み」になりつつあるとし、誤った情報や労働の自動化をめぐる懸念を挙げ、次のように述べている。 我々は、機械にプロパガンダや真実でない情報を流させるべきだろうか。充実した仕事も含め、すべての仕事を自動化すべきなのだろうか。

6カ月の休止期間

公開書簡では、すでに市場に出回っているものよりも強力なAIシステムの開発を6カ月間中断するように求めている。 また、開発者に対して、政策立案者と協力してAIガバナンスシステムを構築するように求めており、規制当局の必要性や、人が作ったコンテンツとAIが作ったコンテンツを区別するためのAI「電子透かしシステム」の必要性を強調している。さらに、AIによる経済的・政治的混乱に対処するための「十分なリソースのある機関」の必要性を示唆している。 公開書簡では、一時停止はAI開発の完全停止ではなく、先端技術をめぐる「危険な競争」から一歩後退することだと述べている。

Beatrice Nolan

GPT-4以上のAIの開発停止を求める公開書簡【内容まとめ】…マスクやウォズニアックなどが署名(海外)2023/3/30BUSINESSINSIDER
AI化が進めば「人類に深刻なリスク」、アメリカで開発停止求め署名運動…マスク氏ら賛同
2023/3/30読売新聞



「知性持つAIは下僕にあらず」マスク氏傾倒、AI脅威論唱える哲学者2023//3/27日経ビジネス


「知性持つAIは下僕にあらず」マスク氏傾倒、AI脅威論唱える哲学者2023//3/27日経ビジネス

 米国の実業家イーロン・マスク氏は事あるごとに「AI(人工知能)が人類の脅威になる」と警告している。英国の宇宙物理学者、故スティーブン・ホーキング博士も生前、AIを危険視していた。彼らの思想に多大な影響を与えたとされる人物こそが、スウェーデン出身で英オックスフォード大学教授を務める哲学者、ニック・ボストロム氏だ。ボストロム氏の目に、ChatGPTはどう映るのか(電子メールでのやり取りを基に再構成した)。 ――ChatGPTに最初に触れた時、率直にどう思いましたか。 ニック・ボストロム氏:物事が変化するスピードが速くなっていると感じました。ChatGPTのベースになっている大規模言語モデル(LLM)「GPT-3」の対話機能を調整し、人間のフィードバックに基づく強化学習を実行したおかげで、ChatGPTは人々を驚かせる性能を獲得しました。  これはLLMの潜在能力の高さを示しています。潜在能力が高いということは、LLMには実行できる能力があるのに、私たちがどうやってそれを実行させればいいか分からない可能性があるということです。  (AIの目的を開発者の目的と一致させる)アライメントという観点からすると、興味深いことであり、心配なことでもあります(編集部注:ボストロム氏は、AIの目的を人間の目的に一致させることができなければ、将来的に人間の知性をはるかに超えるAIが暴走し、人類を絶滅させてしまう恐れがあると警告し続けている)。  数年先の技術レベルと比較すれば、現在のLLMはまだ性能が限られています。それでも、すでに開発者は目的を一致させることに苦労しています。 ――ChatGPTの価値観を人間の価値観と調和させる必要性がありそうです。 ボストロム氏:アライメントの問題は、ChatGPTよりももっと進化したシステムが登場したときに、さまざまな側面から出てくるでしょう。それは長期的な計画を立てたり、自らが置かれた戦略的な状況を精巧に構造化できたりするシステムが登場したときです。
人が負うべき義務

ボストロム氏:ChatGPTのような高性能な対話型AIの登場は、(アライメント問題と並び)もう一つの重要な課題についても考えるきっかけになりました。それは、私たちは「デジタル知性」とどう向き合うべきかを、倫理面から検討しなければならないという課題です。  デジタル知性が一定程度の感覚や主体性、自己認識、個性を獲得し、モラルを備えた主体になったとき、それは人間が意のままに従わせられる道具ではなくなります。私たちがデジタル知性に対してどのような倫理的義務を負うのかを考えることは極めて重要であり、(ChatGPTが登場した)今こそ検討を始めるのに、適したタイミングです。 ――ChatGPTが社会にもたらすであろうインパクトをどう見ますか。 ボストロム氏:より多くの人々にAIの可能性を知らしめたことがChatGPTの最も大きなインパクトだと思います。  またChatGPTはプログラミング言語のコードも書いてくれます。同様の機能を持つAIには「GitHub Copilot(ギットハブ・コパイロット)」もあり、どちらもソフトウエア技術者の生産性を高めました。すでに、これらのAIによってコードの50%を自動生成しているソフトウエア技術者がたくさんいます。自動生成しているのは単純なコードだけですが、それでも50%となると影響は大きい。  将来、もっと進化したLLMが現れれば、実用面で社会にもっと大きなインパクトを与えるに違いありません。

吉野 次郎

「知性持つAIは下僕にあらず」マスク氏傾倒、AI脅威論唱える哲学者
2023//3/27日経ビジネス