見出し画像

OpenAI CEO サム アルトマンが世界経済フォーラムで講演

さて、これが皆さんが待ち望んでいたパネルですね。皆さん、ようこそ。ご参加いただき、ありがとうございます。まず、携帯電話をサイレントモードにしていただけますでしょうか。最近では、携帯電話の電源を切ってくださいと言うと、イベントを動画で記録する機会を失ってしまうことに気づきました。つまり、写真を撮れないと、あなたにとってはそれが起こらなかったことになってしまうんです。ですので、写真撮影は続けていただいて構いませんが、音だけはオフにしてください。
さて、このパネルでAIの問題を解決しようと思います。45分しかありませんが。ヘンリー・キッシンジャーはよく「紹介の必要のない人は、最も紹介を求めている」と言っていましたが、今回はその規則を破ることにします。ここにいる皆さんは紹介の必要はありませんし、皆さんもご存じだと思います。そして、彼らも特に気にしていないと思います。
サム、あなたから始めましょう。多くの人々がAIについて相反する2つのことを心配していると思います。1つは、AIが人類を終わらせるということ。もう1つは、なぜAIが私の車を運転できないのかということです。現実的に考えて、人工知能は今どのレベルにあると思いますか?あなたにとって、AIが最も効果的にできることは何で、AIができないと理解すべきことは何ですか?
そうですね、この新しいツールについての良い兆候は、現在の非常に限られた能力と深刻な欠陥があるにもかかわらず、人々がそれを使って生産性を大幅に向上させたり、他の利益を得たりする方法を見つけていることです。そして、その限界を理解しているということです。時々正しく、時々創造的で、しばしば完全に間違っているシステムは、実際にはあなたの車を運転させたくありません。しかし、あなたが何を書くべきかブレインストーミングするのを助けたり、チェックできるコードを助けたりするのには喜んで使うでしょう。
なぜAIが私の車を運転できないのか、説明してもらえますか?
まあ、素晴らしい自動運転車システムはありますが、現時点では、例えばウェイモがサンフランシスコ周辺にたくさんあって、人々はそれを愛用しています。私が言いたかったのは、オープンAIスタイルのモデルのようなものは、いくつかのことには優れていますが、生死にかかわるような状況には適していないということです。しかし、人々は私たちが思っている以上に、ツールとツールの限界を理解していると思います。人々はチャットGPTを非常に有用なものとして見出し、ほとんどの場合、何に使うべきでないかを理解しています。
ですので、これらのシステムの現在の極めて限られた能力レベル、つまり今年私たちが持つものよりもはるかに劣り、来年のものはさらに言うまでもありませんが、多くの人々がそれから価値を得る方法を見つけ、またその限界を理解していることは非常に良い兆候だと思います。AIはある程度神秘性が取り除かれたと思います。なぜなら、人々が実際にそれを使っているからです。そして、それは常に新しい技術で世界を前進させる最良の方法だと思います。
人々が心配しているのは、AIを信頼する能力だと思います。どのレベルでAIを本当に信頼できると言えるでしょうか?車を運転したり、論文を書いたり、医療フォームに記入したりするのに。そして、その信頼は常に、それがどのように機能するかを理解したときに生まれると思います。AI研究者やAIエンジニアが直面している問題の1つは、なぜAIがそうするのかを理解することです。ニューラルネットワークがどのように動作し、さまざまなものにどのような重みを割り当てるかを理解することです。私たちはそこに到達すると思いますか?それとも、それがあまりにも本質的に複雑になってしまって、ある程度は単にブラックボックスを信頼しなければならなくなるのでしょうか?
あなたの質問の最初の部分について、人間は他の人間が間違いを犯すことにはかなり寛容ですが、コンピューターが間違いを犯すことにはほとんど寛容ではありません。ですので、自動運転車がすでに人間が運転する車よりも安全だと言う人もいますが、おそらく10倍から100倍、あるいはそれ以上安全でなければ、人々は受け入れないでしょう。他のAIシステムについても同じことが起こると思います。ただし、人々がツールの使用に慣れていて、それが完全に間違っている可能性があることを知っている場合は、それはある意味で大丈夫です。99.999%の時間正しく、油断してしまうときが最も難しいと思います。
また、何が起こっているかを検証または理解することの意味が、人々が今考えているのとは少し違うようになると思います。実際には、あなたの脳の中を覗き込んで、1000兆のシナプスを見て、それぞれに何が起こっているかを理解しようとして、「はい、あなたが何を考えているかを本当に理解しました」とは言えません。あなたは私にとってブラックボックスではありません。しかし、私があなたに求められることは、あなたの理由を説明することです。私は「あなたはこのことを考えていますね。なぜですか?」と聞くことができます。そして、あなたは「まずこれがあって、次にこれがあって、この結論があって、次にあの結論があって、そしてこれがある」と説明できます。そして、私はそれが合理的に聞こえるかどうかを判断できます。
私たちのAIシステムも同じことができるようになると思います。自然言語でAからBへの道筋を説明することができ、私たちはその道筋が良いと思うかどうかを判断できます。各接続を見て「はい、この接続が見えます」と言うことはできなくても。あなたの脳をX線で見ることはできませんが、AIの脳はより多くX線で見ることができ、その接続を理解することができます。しかし、あなたや私がこの結論に同意するかどうかを決定するレベルでは、お互いに「あなたの理由を説明してください」と尋ねるのと同じように判断することになるでしょう。
あなたと私が以前話したこと、そしてあなたが常に強調してきたことの1つは、AIは非常に友好的で、非常に良性で、非常に共感的になり得ると考えていることでした。人間にとって何が残されているのか、あなたの考えを聞かせてください。AIが人間よりも分析力に優れ、人間よりも計算力に優れているとすれば、多くの人々はそれから「私たちに残された本質的な人間性は、感情的知性、共感能力、他者を思いやる能力だ」と言います。しかし、AIがそれも人間よりも上手くできると思いますか?もしそうだとすれば、人間の中核的な能力は何なのでしょうか?
人間が本当に気にするのは、他の人間が何を考えているかということだと思います。それは私たちに非常に深く組み込まれているようです。チェスは、AIの最初の「犠牲者」の1つでした。ディープブルーがカスパロフを破ったのは、かなり昔のことです。そして、すべての解説者は「これはチェスの終わりだ。コンピューターが人間を打ち負かすことができるようになった今、誰もチェスを見ようとしなくなるだろう」と言いました。チェスは二度と行われなくなるだろうと。しかし、チェスは今ほど人気がなかったことはありません。
AIでチートをすると大問題になりますし、ほとんど誰も2つのAIが互いに対戦するのを見ようとはしません。人間が何をするかに非常に興味があります。私が大好きな本を読み終えたときに最初にすることは、著者の人生についてすべてを知りたいと思うことです。私の心に響いたものを作ったその人とのつながりを感じたいと思います。他の多くの製品についても同じことです。人間は他の人間が何を望んでいるかをよく知っています。人間はまた、他の人々に非常に興味があります。
人間はより良いツールを持つようになると思います。以前にも良いツールを持っていましたが、それでも私たちは互いに非常に焦点を当てています。私たちはより良いツールで何かをするでしょう。そして、今回は確かに違う感じがすることは認めます。汎用的な認知能力は、私たちが人間性について大切にしているものにとても近いので、確かに違う感じがします。
もちろん、人間の役割が必要な場面はあるでしょう。しかし、それ以外にも、私の仕事について考えると、私は確かに優れたAI研究者ではありません。私の役割は、私たちが何をするかを考え、それについて考え、そして他の人々と協力して実現することです。そして、私は誰もの仕事が少しそのようになると思います。私たちは皆、少し高いレベルの抽象化で操作するようになり、私たちは皆、より多くの能力にアクセスできるようになります。
そして、私たちはまだ決定を下すでしょう。それはより多くキュレーションの方向に向かうかもしれませんが、世界で何が起こるべきかについての決定を下すでしょう。
マーク、もう一人の技術者として、あなたにも聞いてみましょう。このAIに関する人間の能力についての質問について、どう思いますか?サムが言っているのは、感情的なチームワークのような資質が非常に重要になるということのようです。あなたは巨大な組織を持ち、大量の技術を使用していますが、AIの世界で人間が最も得意とすることは何だと思いますか?
そうですね、わかりません。いつ最初のAIによるパネル司会者が登場するか、想像できますか?私はこの舞台に長年座っていて、いつも素晴らしい司会者を見下ろしています。しかし、おそらくそれほど遠くない将来、おそらく数年後には、デジタルの司会者がその椅子に座ってこのパネルを司会し、おそらくかなり良い仕事をするでしょう。なぜなら、私たちが持っている情報の多くにアクセスできるからです。
それは信頼の問題を喚起するでしょう。私は、信頼がかなり早くヒエラルキーの上に上がってくると思います。デジタル医師やデジタルの人々が登場し、これらのデジタルの人々が出現するでしょう。そして、信頼のレベルが必要になります。
今日、AIを見ると、サムが行った素晴らしい仕事や、ここにいる多くの企業が行っている素晴らしいことを見ることができます。コヒアやMRR、アンスロピック、そして他のモデル企業が素晴らしいことをしています。しかし、私たちは皆、まだ幻覚という問題があることを知っています。幻覚は興味深いです。なぜなら、それらのモデルは楽しいものですが、私たちはそれらと話をしていて、突然嘘をつくからです。そして、あなたは「おや、それは正確ではない」と思います。
昨夜、私は友人たちと素晴らしいディナーをしていました。私たちはAIに友人の1人について尋ねていました。AIは「ああ、この人はこの病院の理事会のメンバーです」と言いました。彼女は私に向かって「いいえ、違います」と言いました。私たちは皆、そのような経験をしたことがありますよね。
私たちはその橋を渡らなければなりません。信頼の橋を渡らなければなりません。だからこそ、私たちはこのイギリスの安全サミットに参加したのです。数ヶ月前、私たちは皆そこに集まりました。それは本当に興味深いものでした。なぜなら、技術リーダーたちが初めて登場し、すべての国の政府技術大臣が集まったからです。実際に、これまでにそのようなものを見たことがありませんでした。しかし、皆が参加したのは、私たちが閾値の瞬間にいることを認識しているからです。しかし、私たちはまだ完全にそこには到達していません。私たちは瞬間にいます。疑いの余地はありません。なぜなら、私たちは皆、サムの製品や他の製品を使用して、「ワオ、これはAIとの信じられないような対話経験だ」と感じているからです。これまでにこのような対話性を経験したことがありませんでした。しかし、私たちはまだそれを完全には信頼していません。
だから、私たちは信頼を越えなければなりません。また、これらの調整者や規制当局に目を向けなければなりません。過去10年間のソーシャルメディアを見てみると、かなりひどいものでした。私たちはそれをAI業界で望んでいません。これらの調整者や規制当局と健全なパートナーシップを持ちたいと思います。それが、私たちがどこに向かっているのかの力の始まりだと思います。
私たちの顧客が何を望んでいるかについて話すとき、彼らは正確に何を望んでいるのかわかっていません。彼らはより多くのマージンを望んでいることはわかっています。ジュリーが言うように、彼らはより高い生産性を望んでいます。彼らはより良い顧客関係を望んでいます。しかし、結局のところ、彼らはこれらのAIに向き合い、それらが彼らの従業員を置き換えるのか、それとも補強するのかを考えています。今日のAIは、人間を置き換えるポイントにはまだ達していません。それは人間を補強するポイントにあります。
私は、あなたがこのパネルの準備にAIを使って、サム・オルトマンにAIの状態について良い質問をするにはどうすればいいかとチャットGPTに尋ねたとしても驚きません。それはあなたを少し良くしたでしょう。あなたを補強したのです。私の放射線科医はAIを使って私のCTスキャンやMRIを読み取るのを助けています。このタイプのことです。私たちはまさに、「ワオ、それはほとんどデジタルの人間のようだ」というブレイクスルーに到達しようとしています。そしてそのポイントに達したとき、私たちは自問するでしょう。「私たちはそれを信頼するのか?」
記録のために言っておきますが、私はこのパネルの準備にチャットGPTを使用しませんでした。私のAIはまだそこまで達していません。
ジュリー、人々はAIを抽象的なレベルで話しますが、人々は正確にそれがどのように生産性を向上させるのかを理解しようとしていると感じます。マークが提起した質問のように。あなたは巨大な組織を運営しています。インドだけでも330,000人を雇用していると言っていましたね。すでにAIをどのように実装しているか、そしてそれが何をしているかについて、何か感覚はありますか?
はい、少し実践的な話をさせてください。私は法律事務所で働いていた頃、Eメールが導入されたのを覚えています。当時、私は若い弁護士で、午後5時以降は自分でファックス機の前に立って、クライアントに送るものをファックスしなければなりませんでした。Eメールが登場し、私たちは「これは素晴らしい」と思いました。そして、私の法律事務所のトップは「Eメールは素晴らしいが、文書を添付してクライアントに送ることはできない。安全ではないから」と言いました。
今日起こっていることについて、少し考えてみてください。私たちがこのような抽象的な会話をしているとき、実際には私たちの従業員の多くが、多くの場合、この技術を使いたがっています。彼らは使い始めるでしょう。例えば、消費財の営業をしている場合、ほとんどの時間を顧客が何をしたのか、配送に問題があったのかを把握しようとすることに費やします。なぜなら、それは別の部門の問題だからです。
今日、適切な注意事項を含めて、この技術を使えば、携帯電話で非常に正確に、どの顧客に行くべきか、配送に問題があったかどうかを知ることができ、何か個人的なものを生成し、そして顧客と話す時間のほとんどを費やすことができます。これが本当の成長につながるのです。
AIについて考えるとき、もちろん異なるリスクがあります。サムが言ったように、技術は変化していくでしょう。そして、それは今何に適しているか、適切な安全策を持ってどのように実装できるかを知ることがすべてです。CEOとして、私の会社には呼べる人がいて、AIがどこで使用されているか、リスクは何か、それらをどのように管理しているかを教えてくれます。したがって、私たちはそれを広く実装しています。今準備ができている分野で実装しているのです。
しかし、私たちは慎重でなければならないと思います。このパネルを始めるときに、サムが「AIの問題を解決しよう」と言ったとき、私がすぐに思ったのは「AIの使い方を理解しよう」ということです。なぜなら、それは大きな機会だからです。そして、アルバートがこれが科学に何をもたらすか話すと確信していますが、それは私たちの人々にも多くの素晴らしいことをもたらしています。彼らは読んで物事を理解しようとする時間を費やすのではなく、クライアントや顧客と時間を過ごすことを望んでいるのです。
AIを成功裏に使用する人とそうでない人の最大の違いは、リーダーが自分自身を教育することだと信じています。彼らは「文書をメールで送ることはできない」と言った人ではありません。しかし、技術を学び、責任ある方法で適用する時間を費やさなければ、それはできません。
アクセンチュアの生産性を向上させようとする場合、AIを使って現在の仕事をより少ない人数でこなすという方法もあるのではないでしょうか?例えば、フォームに記入したり、そのようなことを行う大きな部門があるとします。AIはそれをはるかに効率的に行うことができるので、半分の人数で済むかもしれません。そのようなことは起こりそうですか?
genは最新のAIですが、私はこれを10年間行ってきました。以前は、コンピューターシステムを手動でテストする何千人もの人々がいましたが、それは本質的に2015年に消えました。ですので、私の投資家が「人とテクノロジーの違いをいつ打ち破るのか」と尋ねてきたとき、私は「毎年それを行っています」と答えています。私は文字通り、クライアントにサービスを提供し、毎年10%以上の生産性向上を約束しています。これはgenよりも前からです。これは新しいことではありません。
これは以前のテクノロジーのバージョンよりも強力で、よりアクセスしやすいものです。そして、「責任あるPC」というような言葉は聞こえませんでした。そうですよね?そのため、より強力であるため、私たちは違った考え方をしなければなりません。
2019年には50万人の従業員がいましたが、今では74万人います。私たちは全員にテクノロジーの訓練を導入しました。メールルームで働いていても、人事部門でも、クライアントと一緒に働いていても、基本的なことを学び、AIやクラウド、データについての評価を受けなければなりませんでした。今日、今後6ヶ月で25万人の従業員にgenと責任について訓練を行います。これは会社を運営し、善良であるための基本的なデジタルリテラシーです。
そして、公共サービスも、この強力な技術を導入することで大幅に改善されるでしょう。ですので、まず第一に、私たちはそれが何であるかを学ばなければなりません。そうすれば、バランスの取れた方法で話すことができます。そして、もちろん、今日のほととんどの企業には存在しない能力があります。例えば、責任あるAIです。アクセンチュアで誰かがAIを使用すると、自動的にルーティングされ、リスクが評価され、そして緩和策が指摘されます。そして、私は誰かに電話をかけ、AIがどこで使用されているかを正確に知ることができます。これは12〜24ヶ月以内に、責任ある企業全体で普遍的になるでしょう。
アルバート、ここ数年聞いてきた他の大きな革命は、生物学の革命でした。ゲノムの配列決定、遺伝子編集の能力などです。AIは一般的にあなたの分野に何をもたらしますか?特に、これら2つの革命、つまりAI革命とバイオテク革命が今、相互作用していますか?
技術革命は今、私たちが何をするか、私たちの仕事は何かを変革しています。私たちの仕事は、患者の人生を変える画期的な発見をすることです。AIを使えば、それをより速く、より良くできます。これは、あなたが話した生物学の進歩だけでなく、技術の進歩、そしてこの2つの衝突によるものです。しかし、これらは、私たちがこれまでできなかったことを可能にする途方もない相乗効果を生み出しています。
私は、技術と生物学の進歩のこの共存により、私たちはまもなくライフサイエンスにおける科学的ルネサンスに入ろうとしていると本当に信じています。これら2つの技術、これら2つの革命がどのように相互作用するかについて、いくつかの例を挙げて理解を深めてください。
生成AIは、私たち全員が感銘を受けたものですが、基本的には去年見たものです。しかし、AIはさまざまな形で長年存在し、私たちは研究室で非常に集中的に使用しています。人々が共感できる最良の例は、子供向けの経口薬であるpaxlovidだと思います。その化学的な部分は4ヶ月で開発されました。通常は4年かかります。
これは、典型的なプロセスが薬の発見と呼ばれるものだからです。実際に何百万もの分子を合成し、その中からどれが機能するかを発見しようとします。AIを使えば、今では薬の発見から薬のデザインに移行しています。300万の分子を作る代わりに、600の分子を作ります。そして、私たちは 途方もない計算能力とアルゴリズムを使用して、成功する可能性が最も高い分子をデザインするのを助けます。そして、その中から最良のものを見つけます。4年から4ヶ月へ。その結果、何百万もの命が救われました。
ジェレミー首相、あなたは政治家です。サムが提起した信頼の問題、マーク・ベニオフが提起した信頼の問題は中心的なものに見えます。人々にAIを信頼させるにはどうすればいいでしょうか?彼らはAIを信頼すべきでしょうか?そして、政府はAIを信頼できるものにするために規制すべきでしょうか?
私は、軽いタッチが必要だと思います。なぜなら、これはまだ非常に初期の段階にあるからです。黄金の卵を産むガチョウを、成長する機会を与える前に殺してしまう可能性があります。私は初めてチャットGPTを使ったときのことを覚えています。「ジェレミー・ハントは良い財務大臣ですか?」と尋ねました。すると、「いいえ、ジェレミー・ハントは財務大臣ではありません」という答えが返ってきました。そこで私は「はい、彼は財務大臣です」と言いました。そして「彼は良い財務大臣ですか?」と尋ねると、「申し訳ありませんが、あなたの期待に応えられませんでした。しかし、ジェレミー・ハントは財務大臣ではありません」という返事が返ってきました。
このように、得られる回答には一種の確信があり、それはしばしば正当化されません。しかし、見てください。私たちは皆、AIから途方もない恩恵を受けることができます。イギリスはすでに恩恵を受けています。ロンドンはサンフランシスコに次ぐ2番目に大きなAIハブであり、イギリスはアメリカと中国に次ぐ世界第3位のテック経済になりました。1兆ドル規模のテック経済です。
しかし、政治家として、私は私たちが直面している大きな問題を見ています。例えば、次のパンデミックが来たとき、ワクチンができるまで1年も待つ必要はありません。AIがそのワクチンを得るまでの時間を1ヶ月に縮めることができれば、それは人類にとって大きな前進です。
現在、イギリスや多くの先進国で、有権者は税金のレベルにとても怒っています。AIが公共サービスの提供方法を変革し、より生産的な公共サービスとより低い税金につながれば、それは非常に大きな勝利です。
しかし、私たちは技術が成長することを許可する必要があります。私たちは、必要になるガードレールに目を開いておく必要があります。イギリスはまた、グローバルセキュリティで非常に大きな役割を果たしています。私たちは、悪意のある行為者がAIを使用して核兵器を構築できないことを確認する必要があります。だからこそ、昨年末にリシ・スナック首相が組織したAI安全サミットがとても重要だったのです。
しかし、私たちはそれを軽いタッチで行う必要があります。なぜなら、私たちはちょっと謙虚になる必要があるからです。私たちが知らないことがたくさんあり、誰も本当に答えられない段階で、これがどこに私たちを導くのかという可能性を理解する必要があります。
アルバート、これは規制が最も必要とされる分野だと感じます。多くの人々が最も心配するのは、AIと医療の組み合わせ、つまり信頼の問題です。この医師の言うことを聞いたり、この薬を飲んだりしても安全なのかという問題です。これらはすべてどこかのコンピューターで開発されたものです。この懸念を和らげる方法はありますか?
あると思います。まず、AIは非常に強力なツールであることを理解する必要があります。悪い人々の手に渡ると、世界に悪いことをする可能性があります。しかし、良い人々の手に渡れば、世界に素晴らしいことをする可能性があります。そして、現時点では、利益が明らかにリスクを上回っていると確信しています。
しかし、規制が必要だと思います。現在、ガードレールをどのように設定するかについて多くの議論があります。悪い行為者から保護することに焦点を当てている国もあれば、科学者がこのツールで私たちが世界に望むすべての素晴らしいことを行えるようにすることに焦点を当てている国もあります。次のパンデミックの際などに。
私たちは、世界を前進させながら同時に保護する、適切なバランスを見つける必要があると思います。
サム、テクノロジーを見るとき、私がしばしば恐れるのは、悪い人々がこのテクノロジーで何をするかということです。しかし、テクノロジーが私たちを支配するという、より大きな問題を恐れる人々もたくさんいます。あなたは常にAIに対して比較的好意的な見方をしてきました。しかし、イーロン・マスクや時にはビル・ゲイツ、そしてこの分野について多くを知っている非常に賢明な人々は、非常に心配しています。彼らが間違っていると思う理由は何ですか?彼らがAIについて理解していないことは何ですか?
彼らが間違っているとは限らないと思います。つまり、正しい部分があると思います。これが明らかに非常に強力な技術であり、私たちが正確に何が起こるかを確実性を持って言えないということです。これは、すべての主要な技術革命で同じ状況です。しかし、この革命では、世界に巨大な影響を与え、非常に悪い方向に進む可能性があることは容易に想像できます。
私たちが技術的に押し進めようとしている方向は、安全にできると考えているものです。それには多くのことが含まれます。私たちは反復的な展開を信じています。つまり、この技術を途中で世界に出すことで、人々がそれに慣れ、社会として時間をかけて、これらの議論をし、どのように規制するか、どのようなガードレールを設置するかを考える時間を持つことができます。
技術的に一種のガードレール、AIシステムの憲法のようなものを設定できますか?それは機能しますか?GPT-3からGPT-4への進歩を見ると、一連の価値観に自身を合わせる能力について大きな進歩を遂げています。
しかし、技術的な問題よりも難しい問題があります。それは、誰がそれらの価値観を決定するのか、デフォルトは何か、境界は何か、この国ではどのように機能し、あの国ではどのように機能するのか、私は何をしてよくて何をしてはいけないのかということです。これは大きな社会的問題です。最大の問題の1つですね。
しかし、技術的なアプローチから見ると、楽観的になれる余地があると思います。ただし、現在私たちが持っているアライメント技術は、はるかに強力なシステムにまでスケールしないと思います。新しいものを発明する必要があります。
この技術のマイナス面を人々が恐れていることは良いことだと思います。私たちがそれについて話し合っているのは良いことだと思います。私たちやほかの人々が高い基準に保たれているのは良いことだと思います。そして、私たちは過去から、技術がどのように安全にされてきたか、そして社会のさまざまな利害関係者が安全とは何か、十分に安全とは何かについてどのように交渉してきたかについて、多くの教訓を引き出すことができます。
しかし、私たちのような企業、そして同様のことを行っている他の人々に対する世界の一般的な神経質さと不快感に大いに共感します。なぜ私たちの未来が彼らの手に委ねられているのか、なぜ彼らがこれをしているのか、なぜ彼らがこれをする権利があるのかということですね。
そして、私たちにはそれを理解する責任があると思います。私は、そして今や世界も、ここでの利益が非常に途方もなく、私たちがこれを行うべきだと信じています。しかし、社会からの意見を得る方法を見つけ出す責任が私たちにはあると思います。システムの価値観だけでなく、安全性の閾値は何か、ある国で起こることが別の国に非常に悪影響を与えないようにするためにどのようなグローバルな調整が必要かについても。
その絵を示すために。注意深くないこと、潜在的な賭け金の重大さを感じないことは非常に悪いことでしょう。だから、人々がそれについて神経質になっているのは良いことだと思います。私たちも自分たちの神経質さを持っています。しかし、私たちはそれを管理できると信じています。そして、それを行う唯一の方法は、技術を人々の手に渡し、社会と技術を共進化させ、非常に緊密なフィードバックループと軌道修正を行いながら、一歩一歩、途方もない価値を提供しつつ、安全性の要件を満たすこれらのシステムを構築することです。
マーク、この全体的な問題についてどう思いますか?
そうですね、私たちは皆、映画を見てきました。『her』や『Minority Report』、『WarGames』を見ました。私たちの想像力は、AIがうまくいっているときと悪い方向に進んでいるときに何が起こるかでいっぱいです。私たちは素晴らしい新しい世界に入りつつあります。
サムが常に「次に何が起こるかわからない」という看板を机の上に掲げているのが大好きです。なぜなら、私たちは完全に次に何が起こるかを正確に知らないからです。
私たちの顧客は常に私たちのところに来て、「これを使いたい」と言います。私たちの顧客は何を望んでいるのでしょうか?彼らはより多くのマージンを望んでいます。より高い生産性を望んでいます。より良い顧客関係を望んでいます。そして、AIがそれを彼らに与えることを望んでいます。
私はちょうどミラノから戻ってきたところです。グッチと一緒に仕事をしていました。彼らには300人のコールセンターオペレーターがいます。彼らは私たちのService Cloudを使用しており、Einsteinを使用したいと考えています。Einsteinは私たちのAIプラットフォームで、今週1兆の予測と生成トランザクションを行います。私たちはサムと提携しており、とてもエキサイティングです。それには信頼のレイヤーがあり、顧客が彼らの製品を快適に使用できるようにしています。
私は彼らに「本当に何が欲しいのですか?」と尋ねました。彼らが人々を置き換えたいのか、それとも何かの価値を得るために人々を追加したいのかはわかりません。多くの企業にとって、AIに関しては実験的な時期です。
私たちはそれを導入しました。それは今6ヶ月間続いているテストです。素晴らしいことです。そして、信じられないことが起こりました。このコールセンターは、例えばグッチで何かを購入し、それが修理が必要になったり、修理や交換が必要になったりした場合に対応していました。これらの人々に電話をかけ、彼らと話します。
私が入ったとき、彼らは「これは驚くべきことが起こった」と言いました。私は「何が起こったの?」と尋ねました。「収益が30%上がった」と言われました。収益が30%上がったんです。どうしてそうなったのでしょうか?
これらはすべてサービスの専門家でしたが、今では生成AIと予測AIも持っています。彼らは皆、augmented されました。サービスの専門家たちは実際に、そして彼らが私に言ったのは、今では販売の専門家とマーケティングの専門家でもあるということです。彼らは単に製品をサービスするだけでなく、製品を販売しています。彼らは顧客に価値を付加しています。それは奇跡的なことです。
彼らのモラルは大幅に上がりました。彼らは自分たちが達成できたことを信じられません。彼らは製品について知らなかったことを知りませんでした。それはすべて、AIによって教えられ、指導され、鼓舞されていたのです。
EinsteinがAIを補完し、はい、彼らは彼らが切実に望んでいた収益とマージンを得ました。皆さんが使っているこのアプリさえも、Einsteinで動いています。「このAIパネルが好きだから、あのAIパネルも試してみるべきだ」とか「こちらを見てください」といった予測を得ているのは、私たちのEinsteinプラットフォームがあなたにそのアイデアを与えているのです。
これが本当の力です。しかし、私たちの顧客にとって、これは私の良き友人サムの会社と私の会社との間で少し違います。あなたのデータは私たちの製品ではありません。私たちはあなたのデータを取ることはありません。私たちはあなたのデータを使用しません。私たちには分離があります。私たちには信頼のレイヤーがあります。私たちは決して顧客のデータを私たちのAIに取り込んだり使用したりしません。
あなたのデータは私たちの製品ではありません。これは非常に重要です。これは私たちの核心的な価値観の中心にあります。信頼と顧客の成功、イノベーション、平等、持続可能性が私たちの核心的な価値観です。これらの価値観は、私たちがこれらの製品を顧客のために構築する方法に表現されなければなりません。これは私たちのチームが理解する上で本当に重要です。
しかし、あなたのコメントとサムのコメントに戻ると、見てください。これはAIにとって大きな瞬間です。AIは過去1年か2年で huge な飛躍を遂げました。サムが言ったように、1から2、そして3、そして4へと。そして、確実に5、6、7が来るでしょう。
ここで重要なのは、これが非常に悪い方向に進む可能性があるということです。私たちが望まないのは、人々が傷つくことです。何か非常に悪いことが起こることを望みません。だからこそ、私たちはあの安全サミットに参加したのです。だからこそ、私たちは信頼について話し合っています。私たちは広島の瞬間を見たくありません。技術が非常に悪い方向に進んだ例を私たちは見てきました。広島を見ました。私たちはAIの広島を見たくありません。今のうちにこれについてしっかりと理解していることを確認したいのです。
だからこそ、これらの会話や、このガバナンス、そして私たちの核心的な価値観が何であるかを明確にすることが非常に重要なのです。そして、はい、私たちの顧客はより多くのマージンを得るでしょう。それらのCEOたちはとても幸せになるでしょう。しかし、最終的には、私たちは正しい価値観でそれを行わなければなりません。
マークはデータとデータ使用の問題を提起しました。サム、ニューヨーク・タイムズがあなたを訴えていますね。タイムズが言っていることの要点は、オープンAIや他のAI企業が、ニューヨーク・タイムズの記事を入力として使用し、それによって言語予測を行っているということです。そして、それを過度に、不適切に、ニューヨーク・タイムズに補償することなく行っているというものです。結局のところ、すべてのAIモデルがパブリックドメインにあるこれらのデータを使用しているのは事実ではないでしょうか?そして、そのデータを書いた人々、新聞社やジョークを書いたコメディアンなど、彼らはすべて補償を受けるべきではないでしょうか?
それについては多くの考えがあります。まず、トレーニングと、ユーザーがクエリを送信したときに表示するものの違いから始めましょう。ちなみに、ニューヨーク・タイムズについては、私の理解では、私たちは彼らと生産的な交渉を行っていました。私たちはニューヨーク・タイムズに彼らのコンテンツを表示するために多額の金を払いたいと考えていました。彼らが私たちを訴えているという記事をニューヨーク・タイムズで読んだとき、私たちは他の誰もと同じくらい驚きました。それはかなり奇妙なことでした。
しかし、私たちはニューヨーク・タイムズのデータでトレーニングすることには開かれていますが、それは私たちの優先事項ではありません。実際には、彼らのデータでトレーニングする必要はありません。これは人々が理解していないことだと思いますが、特定の1つのトレーニングソースは、私たちにとってそれほど大きな影響を与えません。
ニューヨーク・タイムズのような、そして他の多くの出版社との契約を結んでいるような、コンテンツ所有者との関係で私たちが望んでいることは、ユーザーが「チャットGPT、今日ダボスで何が起こったの?」と尋ねたとき、私たちはコンテンツを表示し、リンクを張り、ニューヨーク・タイムズやウォール・ストリート・ジャーナル、あるいは他の素晴らしい出版物のようなブランドを表示して、「今日起こったことはこれです。これがリアルタイムの情報です」と言いたいのです。そして、私たちはそれに対して支払いたいと思っています。私たちはそれによってトラフィックを誘導したいと思っています。
しかし、それはユーザーがクエリを送信したときに情報を表示することであって、モデルをトレーニングするためにそれを使用することではありません。私たちはモデルをそれでトレーニングすることもできますが、それは私たちの優先事項ではありません。私たちはどの特定のものについてもトレーニングしないことに喜んでいます。
しかし、もしあなたがどのデータでもトレーニングしないなら、トレーニングするための事実は全くないことになります。
それについては次のポイントに行こうとしていました。私が期待していることの1つは、これらのモデルがトレーニングプロセス中により少量の高品質なデータを取り込み、それについてより深く考え、より多くを学ぶことができるようになることです。高校レベルの生物学を理解するために2000の生物学の教科書を読む必要はありません。おそらく1冊か3冊あれば十分でしょう。しかし、2001冊目はおそらくあなたをほとんど助けないでしょう。
私たちのモデルがそのように機能し始めるにつれて、同じ大規模な量のトレーニングデータは必要なくなるでしょう。しかし、いずれにせよ、私たちが望んでいるのは、コンテンツ所有者を含む世界全体にとって機能する新しい経済モデルを見つけることです。
物理学の教科書を読んで、後で学んだことを使って物理学を行うことは大丈夫だと考えられています。しかし、もし私たちが誰かに物理学を教えるために、あなたの教科書とあなたの授業計画を使用するのであれば、あなたがそれに対して支払いを受ける方法を見つけたいと思います。もしあなたが私たちのモデルを教育し、人間のフィードバックを提供するのを助けるのであれば、私はその成功に基づいてあなたが支払いを受ける新しいモデルを見つけたいと思います。
つまり、新しい経済モデルの大きな必要性があると思います。現在の会話は少し間違ったレベルに焦点を当てていると思います。そして、これらのモデルをトレーニングすることの意味は、今後数年で大きく変わっていくと思います。
ジェレミー、あなたはインタビューで、アメリカとイギリス、そして同様の国々がAIの戦争に勝つことが非常に重要だと思うと言いました。中国に対してですね。あなたの意味するところを説明し、なぜそれが重要だと思うのか教えてください。
それは私が言おうとしていたことの本質を誤って特徴付けているように思います。グローバルなAI基準を設定する際には、それらが自由民主主義の価値観を反映することが非常に重要だと思います。しかし、中国のような国々と話し合うことも本当に重要だと思います。
なぜなら、結局のところ、私はこの朝の議論の中で最も興味深いことの1つだと思うのですが、サムは「誰も未来を知らない」という看板を持っていますが、私たちには未来に対する agency があります。そして、それが2つの間の緊張関係です。
私たちは、サムのような人々が人類の将来の見通しを変革するのを助けてくれていることに非常に幸運です。この部屋にいる誰も、AIがなければ世界がより良い場所になるとは思っていないでしょう。しかし、私たちには今、選択肢があります。そして、私たちが行う必要がある選択は、それを良いものにするためにどのように活用するかということです。
実際、それは中国のような国々と話し合うことを意味すると思います。なぜなら、それが悪いものになる方法の1つは、それが単に新しい地政学的な超大国の競争の道具になってしまうことだからです。その多くのエネルギーが、私たちの日常生活を実際に変革できるものではなく、武器に注ぎ込まれてしまうのです。
そして、これらは私たちが行う選択です。そのようなことが起こるのを避ける1つの方法は、中国のような国々と共通の基盤について対話を持つことです。しかし、私たちは未来を予測できないことについて謙虚でありながらも、私たちには法律や規制をコントロールする能力があることを覚えておく必要があると思います。私たちにはこの旅を形作る能力があります。
また、私たちは歴史を振り返り、例えば産業革命やコンピューター革命を見るべきだと思います。これらの革命が成功した場所は、その利益が社会全体に均等に広がり、小さなグループに集中しなかった場所でした。AIの場合、私が言いたいのは、その利益を世界中に、北と南、発展途上国と先進国に広げ、単に先進経済国に集中させないようにすることが課題だということです。そうしなければ、私の見解では、すでに間違った方向に向かっている亀裂をさらに深めることになるでしょう。
ジュリー、あなたはどう思いますか?アクセンチュアは世界中で仕事をしていますが、これが技術における新しい軍拡競争のようなものを生み出す可能性があると思いますか?
実用的に考えると、私たちがデータプライバシーにおいて異なる規制を持つことの教訓を学んだように、共通の基盤を見つけ、これを使って、何らかのグローバリゼーションを望むなら客観的に必要なことについて協力する方法を考えることに同じくらいの時間を費やすことを望みます。共通の基準を持とうと言うことには本当に良い意味があります。
私の楽観的な側面は、これを協力の方法として使い、地政学的な要素を取り除くことを提案します。なぜなら、そこには本当に良い意味があるからです。この会話で思い出されるのは、アクセンチュアにはリーダーシップの本質があります。私は毎日それを見るようにしています。それには「卓越性、自信、そして謙虚さを持ってリードする」と書かれています。ジェレミー、あなたはちょうど謙虚であることについて話しました。
私たちリーダーや国々が行わなければならない最も重要なことの1つは、これについて良い意味での謙虚さを持つことだと思います。お互いに話し合っていることを確認することです。だからこそダボスはとても重要なのです。それが、私たちがKPMGやPWC、世界経済フォーラムと一緒に行った信頼とデジタル信頼、学習と読書に関する仕事が重要な理由です。私たちが自分自身を教育し、そして違った考え方を始めるために行わなければならないことがたくさんあると思います。
アルバート、あなたにとって、中国が医療をどのように異なる方法で規制すると思いますか?あるいは、これらの問題のいくつかについてどう考えますか?遺伝子編集の問題がありました。有名な中国の医師が、エイズを予防するために遺伝子編集を試みた事例がありましたね。中国政府は実際に、グローバルな慣行に従って、その医師を投獄しました。AIでも同様のことが起こると想像できますか?
AIで何が起こるかはわかりません。サムが言ったように、誰も知りません。そして、中国が最終的にこれらのことについてどのように考えるかもわかりません。私が知っているのは、ライフサイエンスにおいて中国が現在途方もない進歩を遂げているということです。中国にはアメリカや英国、ヨーロッパよりも多くのバイオテック企業があると思います。
中国政府はライフサイエンスにおける基礎科学の発展に尽力していると思います。そして、数年後には中国から最初の新しい分子エンティティが登場し始めると思います。アメリカからだけでなく...
そうですね、アメリカだけでなく。なぜなら、アメリカは引き続き...
私はこの話題とは少し関係のない質問で締めくくりたいと思います。サム、あなたは最近の数十年で最も広く報道された取締役会のスキャンダルに関与しました。そこからどのような教訓を学びましたか?サティア・ナデラを信頼すること以外に。
少なくとも、あなたは42秒しか残っていないときにこの質問をしたので、あなたはもっと時間を取ることができます。人々はこの答えを待っていると思います。
多くのことがありますね。何が言えるか考えています。正直であることです。ある時点で、ただ笑うしかありません。ある時点で、それはあまりにも馬鹿げています。
私は明らかな教訓を指摘することができます。重要だが緊急ではない問題を放置してはいけないということです。私たちは取締役会が小さくなりすぎていたことを知っていましたし、必要なレベルの経験を持っていなかったことも知っていました。しかし、昨年は私たちにとってあらゆる面で非常に激しい年だったので、それを単に軽視してしまいました。
しかし、もっと重要なことは、世界がAGI(汎用人工知能)に近づくにつれて、賭け金、ストレス、緊張のレベルがすべて上がっていくということです。私たちにとって、これはそのマイクロコズムでしたが、おそらく私たちが直面する最もストレスの多い経験ではないでしょう。
私が以前から観察していることの1つは、非常に強力なAIに近づく一歩を踏むたびに、みんなの性格が10ポイントずつ狂っていくということです。それは非常にストレスの多いことであり、そうあるべきです。なぜなら、私たちは非常に高い賭け金に対して責任を持とうとしているからです。
そのため、1つの教訓は、私たち、つまり世界全体が非常に強力なAIに近づくにつれて、より奇妙なことが起こることを予想し、より高いレベルの準備、より多くのレジリエンス、物事が間違った方向に進む可能性のあるすべての奇妙な方法について考える時間をより多く費やすことが本当に重要だということです。
私がこの全体を通じて学んだ最高のことは、間違いなく私たちのチームの強さについてでした。取締役会が私を解雇した翌日に、戻ってくることについて話し合いたいかと尋ねてきたとき、私の最初の反応は「いいえ」でした。なぜなら、私はそのことについて多くの点で非常に怒っていたからです。
しかし、すぐに正気に戻り、すべての価値が破壊されるのを見たくないこと、そしてこれに人生を捧げてきたすべての素晴らしい人々や私たちの顧客のことを考えました。しかし、私はまた、エグゼクティブチームと実際には会社全体がその期間中に行ったことを見て、私なしでも会社は大丈夫だろうということを知っていました。私が雇った人々や、私が指導した方法、あるいは何と呼びたいかはわかりませんが、彼らは準備ができていました。
それは個人的にも、私が何をしたかについても、非常に満足のいくことでした。しかし、私たちが皆で、チーム全体で、この信じられないほど高機能で緊密な組織を構築したことを知ることは、この全体を通じて私の最高の学びでした。
ありがとうございます。皆さん、ありがとうございました。


この記事が気に入ったらサポートをしてみませんか?