bioshok

AIのもたらす深刻なリスクに関する発信(AI Alignment,Governance…

bioshok

AIのもたらす深刻なリスクに関する発信(AI Alignment,Governance)や技術トレンドを推定して将来起こり得ることを発信しています。 Xアカウント https://x.com/bioshok3?t=zveV31pS1Sy0jiBGisbKpA&s=09

最近の記事

World Government SummitでのSam Altmanインタビュー翻訳

このテキストは、OpenAIのCEOであるSam Altman氏とUAEのAI大臣Omar Sultan Al Olama氏のWorld Government Summitでの対談の和訳(GPT-4)です。 このインタビューではUAEでのAIのサンドボックス実験への言及とUAEがASIを含めた高度なAIシステムの規制の中心になるかもしれず、その場合この対談は重要な為翻訳しました。 詳しい考察は以下ポスト。サンドボックスなど言及箇所は和訳箇所を太字にしています。 和訳 オ

    • YOLOの揺らぎ

      YOLO(You only live once)、人生は1度限りという命題の揺らぎ。 我々は2030年頃超知能にたどり着くかもしれない。 その場合2030年代には猛烈な勢いで生命科学が進歩する可能性があるだろう。 昔から人生は1度限り。やらない後悔よりやる後悔と言う。しかし、才能と努力のできる素質やモチベーションの過多は多かれ少なかれ生来的、環境的に定められているため、そんな事ができる人は一部だ。 多くの人は子供の頃の夢なんてそもそも思い出せもせず、日々を生きるだけで精一杯

      • 未来との冷戦

        今我々の世界は冷戦状態に入っているかもしれない。中露とアメリカの話ではない。 我々地球に現在存在する100億人と未来に存在するだろう気の遠くなるような膨大な数の我々子孫との間に。 我々は今高度なAIを開発することで労働の自動化、癌の克服、アルツハイマーの予防、核融合の開発、常温常圧超電導の発見等の果に不老不死、半永久的に続く豊穣な世界を享受できるかもしれない。 しかしと同時に高度なAIは人類の存亡的破局をもたらすかもしれない。 そのため理想的には世界的にガバナンスを行い、

        • 様々な事象の簡易タイムライン予想

          以下簡易的に私の今持っている様々なタイムラインを記載します。理由などは細かくは書きません。 補足ですが、このタイムラインは存亡リスクや壊滅的なリスクなどが人類社会に起こらないことを前提としています。私はおよそ人類社会が存亡的破局(絶滅や全体主義による半永久的な人類社会の未来の可能性の喪失)を迎える可能性を10-20%と推定しています。そのためこのタイムラインはおおよそ75%程度の確信を持って推定しています。 ①2026年末までにホワイトカラー人口の少なくとも50%を代替可

        World Government SummitでのSam Altmanインタビュー翻訳

          奇妙なリアリズム/人類史の誤配

          SNSの文化も、DXとかいって見える化してる世界ももうすぐ終わる。すぐにこの世界は懐かしい風景になってしまう。今のうちにこの世界の、2023年までの世界の香ばしさを感じなきゃいけない。そう感じさせる。 確かに今までの技術革新だって大きな社会の変化とそれに伴う懐かしさは発生してきた。じゃ~今回は何が違うのか? 人類を超える知能の誕生。 だからこの変化は単なるスマホやSNSやインターネットや車の登場とは比較できない文化的認知的なパラダイムシフトになる。 人類史が終わるとい

          奇妙なリアリズム/人類史の誤配

          AIのもたらす深刻なリスクとその歴史的背景概要

          本記事は以下私が公開した「AIのもたらす深刻なリスクとその歴史的背景」の概要とAI存亡リスクに対する深層防護的な対策、QA(AIが何故存亡リスクを導くか等)、関連資料を抜き出したものです。 詳細は以下のGoogle Docsから参照ください。 概要私たちが今いる21世紀は過去人類が体験したことのないような技術の発展の最中にあるかもしれず、特に近いうちに高度なAIが開発され、様々な意味で劇的に世界が変わる可能性があります。 その一方で今世紀に人類が何らかの要因で壊滅的な結果や

          AIのもたらす深刻なリスクとその歴史的背景概要

          Where I agree and disagree with Eliezer 和訳

          前置き Paul Christiano氏と呼ばれるAI alignment(人間の価値観にAIを沿わせる)に取り組む非営利の研究組織Alignment Research Centerを運営しているAlignment研究第一人者とEliezer Yudkowsky氏と呼ばれるAGIによる人類存亡リスクの提唱者として最も有名なこの分野の草分け的な方への意見をまとめた以下のAlignment Forum記事の和訳となります。 主にPaul Christiano氏がElieze

          Where I agree and disagree with Eliezer 和訳

          How We Prevent the AI’s from Killing us with Paul Christiano 和訳

          以下の動画はAI alignment(人間の価値観にAIを沿わせる)に取り組む非営利の研究組織Alignment Research Centerを運営しているPaul Christiano氏の対談動画です。 noteでAI alignmentの先駆者として度々紹介しているEliezer Yudkowsky氏はAGIが人類を壊滅させる可能性はほぼ100%といった強い悲観論を唱えていることで有名です。 Paul Christiano氏はそれよりは楽観的な見立てとして、人類のほ

          How We Prevent the AI’s from Killing us with Paul Christiano 和訳

          Max Tegmark interview: Six months to save humanity from AI? | DW Business Special 和訳

          ドイツ連邦共和国国営の国際放送事業体のDeutsche Welle(DW)がGPT-4以上の学習の停止を公開書簡で求めたFuture of Life Instituteの共同創設者のマックステグマーク氏にインタビューをしている。 つい最近もLex Fridman氏との対談でAIの今後のガバナンスについてどうするべきか、AGI(汎用人工知能)の話題やAGIの価値観を人間に沿わせるためのAIアライメントの話題などが話されている。 書き起こし元 https://www.asse

          Max Tegmark interview: Six months to save humanity from AI? | DW Business Special 和訳

          Max Tegmark: The Case for Halting AI Development | Lex Fridman Podcast和訳

          GPT-4以上のAIの学習を6ヶ月停止する公開書簡を出したFuture of Life Instituteの共同創設者のマックステグマーク氏とLex FridmanのPodcastの和訳です。 書き起こし元は以下です。 https://www.assemblyai.com/playground/transcript/6oywy9j7p5-6e7f-4dd2-b6ba-4c8f93bf2e16 SpeakerA=マックステグマーク氏 SpeakerB=レックスフリードマン

          Max Tegmark: The Case for Halting AI Development | Lex Fridman Podcast和訳

          AGIによる破滅:致命的なリスト

          去年6月にAI Alignment Forunmに投稿されたEliezer Yudkowsky氏による以下の記事を和訳した。適宜わかりにくいかもしれない箇所は※で補足を試みた。 Eliezer Yudkowsky氏はAI Alignment問題(主に、AGIが人間の利益に沿った目標ではなく、意図しない、望ましくない目標の追求を学習するという懸念)が一般に認識される前からAGIによる人類への壊滅的被害に関する思索を続けられてきた方で基本的にはデフォルトで今のままだと人類は壊滅

          AGIによる破滅:致命的なリスト

          Sparks of AGI論文著者講演和訳

          「Sparks of Artificial General Intelligence: Early experiments with GPT-4」と呼ばれるMicrosoft Researchからの論文が2023年3月23日に公開されました。https://arxiv.org/abs/2303.12712 その論文の著者のS´ebastien Bubeck氏のMITでの講演が公開されていたので以下和訳したものを貼り付けます。 元の書き起こし英語は以下です。 https:

          Sparks of AGI論文著者講演和訳

          Eliezer Yudkowsky: AIの危険性と人類文明の終焉 | Lex Fridman Podcastまとめ

          上記和訳は3時間超えの動画の書き起こしになっており、またDeepLによる直訳なので読みにくいと思われるため、個人的にYudkowsky氏の主張で重要だと感じたところを以下にまとめました。 意識の問題について GPT4は意識を持っているかどうか、恐らくないだろうが、誰にもわからない。少し心配になっている。ニューラルネットワークの中で何が起こっているかを理解するには何十年もかかるだろう。 AGIについて 今まではTransformerを積層させるだけではAGIにはいかない

          Eliezer Yudkowsky: AIの危険性と人類文明の終焉 | Lex Fridman Podcastまとめ

          Eliezer Yudkowsky: AIの危険性と人類文明の終焉 | Lex Fridman Podcast和訳

          上記Lex Fridman氏とAIアライメント分野の第一人者 Eliezer Yudkowsky氏の対談を和訳。原文は以下URL。 スピーカー1 Yudkowsky スピーカー2 Fridman (原文をDEEPLしただけなので適宜補完してください) #第368回 「エリゼル・ユドコフスキー:AIの危険性と人類の文明の終わり - 講演録2023年3月30日 スピーカー2 00:00:00 人工知能、特に超高知能AGIとその人類文明への脅威をテーマに、伝説的な研究者、作

          Eliezer Yudkowsky: AIの危険性と人類文明の終焉 | Lex Fridman Podcast和訳

          AIトレンド(短期~長期)を追うのに参考にしている人/リンク集

          とりあえず僕(TwitterID @bioshok3)がAIトレンド(現状から長期まで)を追うのに参考にしている人やサイトを随時ここに書いていきます。 (※個人的に追っている方orリンクなので情報の正確性は保証しません。それと分類も主観的なものです。) AI論文系発信絶対に追うべき人 最新のAI論文を毎日適切な粒度で紹介してくれる。みんなAKさんのPatron(プロフに書いてある)になって応援するべし。 この方もAKさんのように注目論文をツイートしてくださる。 この方も

          AIトレンド(短期~長期)を追うのに参考にしている人/リンク集

          Strictly VC Sam Altman対談和訳(前編主にAI以外の話)

          OpenAI CEO Sam AltmanのStrictlyVCでの対談動画前編です。 核融合、医療、仮想通貨の話が主となってます。 後編はAIの話が主になってます。 スピーカーA だから、感謝しています。 スピーカーB お招きいただきありがとうございます。 スピーカーA それで、サム、あなたも3年前にたまたまここで行われたイベントにとてもうまく来てくれましたね。ええ、何があったかは覚えていますよ。 スピーカーB 目を見開かせるんだ、ほとんど。でも、それはと

          Strictly VC Sam Altman対談和訳(前編主にAI以外の話)