bioshok

AIのもたらす深刻なリスクに関する発信(AI Alignment,Governance…

bioshok

AIのもたらす深刻なリスクに関する発信(AI Alignment,Governance)や技術トレンドを推定して将来起こり得ることを発信しています。 Xアカウント https://x.com/bioshok3?t=zveV31pS1Sy0jiBGisbKpA&s=09

最近の記事

Sam Altman talks GPT-4o and Predicts the Future of AI和訳

以下のYoutubeの対談の和訳です。Sam AltmanをS:、Logan BartlettをL:とします。重要そうな箇所は太字にしました。 S: 長い間、音声制御のコンピューターのアイデアはありましたが、これまで自然に使えるとは感じませんでした。でもこれは、柔軟性や適応性がとても高く、使うのがこんなに好きになるとは信じられません。 L: Logan Bartlettショーへようこそ。このエピソードでは、OpenAIの共同創設者兼CEOのSam Altmanと対談します

    • A Conversation with OpenAI COO Brad Lightcap和訳

      OpenAI COOのBrad Lightcap氏へのインタビューの和訳です。重要そうな箇所は太字にしました。Brad Lighcap氏をB:、インタビューアーをJ:とします。 ホスト: セクション1「AIの力と可能性」へようこそ。ステージに上がったOpenAIの最高執行責任者ブラッド・ライトカップ氏をお迎えください。CNBCのシニアメディア・テクノロジー記者ジュリア・ボースティンとの対談です。 J: みなさん、おはようございます。ご来場いただきありがとうございます。ブラ

      • Sam Altman talks with MIT President about AI (May 2024)翻訳

        以下の動画の翻訳です。Sam AltmanはS、対談者をFとしました。最後に質問もあります。重要そうな箇所は太字にしました。 司会者: お二人ともお越しいただきありがとうございます。ご紹介の必要はないかもしれませんが、サリー・コーンは2023年1月にMITの第18代学長に就任しました。細胞生物学者であり、デューク大学の学長時代には、優れた管理者、創造的な問題解決者、教員の卓越性と学生の幸福の主導者としての評判を得ました。MITでの1年目には、AIに注力し、AIが社会に広く恩

        • The Possibilities of AI 和訳

          以下のOpenAI Sam AltmanとRavi Belani(司会)のインタビュー動画の和訳です。重要そうなところは太字にしました。 S=Sam Altman,R=Revi Belani,Q=聴衆からの質問 R: スタンフォード大学での起業家精神セミナーにようこそ。ここは起業家を目指す学生のためのセミナーです。私はRavi Belani、経営科学工学部の講師であり、アルケミストという企業スタートアップ向けのアクセラレーターのディレクターです。今日はSam Altman

        Sam Altman talks GPT-4o and Predicts the Future of AI和訳

          長期主義とエヴァ/セカイ系

          X-risk。人類の未来の可能性が不可逆的に閉じるリスク。そこには人類絶滅のリスクも含まれる。 長期主義。X-riskはなんとしてでも避けねばならない。未来に存在しうる後続人類の数はほとんど無限大だ。よって未来の人類のこともある程度は倫理的に考えて現時点での意思決定をこなすべきだ。 主にベイエリアとオックスフォードで培われてきたこのような人類の膨大な未来の可能性が失われる天文学的な損失に対する懸念。元はある種人類を救うためのトランスヒューマニズム運動の挫折可能性から生まれ

          長期主義とエヴァ/セカイ系

          World Government SummitでのSam Altmanインタビュー翻訳

          このテキストは、OpenAIのCEOであるSam Altman氏とUAEのAI大臣Omar Sultan Al Olama氏のWorld Government Summitでの対談の和訳(GPT-4)です。 このインタビューではUAEでのAIのサンドボックス実験への言及とUAEがASIを含めた高度なAIシステムの規制の中心になるかもしれず、その場合この対談は重要な為翻訳しました。 詳しい考察は以下ポスト。サンドボックスなど言及箇所は和訳箇所を太字にしています。 和訳 オ

          World Government SummitでのSam Altmanインタビュー翻訳

          YOLOの揺らぎ

          YOLO(You only live once)、人生は1度限りという命題の揺らぎ。 我々は2030年頃超知能にたどり着くかもしれない。 その場合2030年代には猛烈な勢いで生命科学が進歩する可能性があるだろう。 昔から人生は1度限り。やらない後悔よりやる後悔と言う。しかし、才能と努力のできる素質やモチベーションの過多は多かれ少なかれ生来的、環境的に定められているため、そんな事ができる人は一部だ。 多くの人は子供の頃の夢なんてそもそも思い出せもせず、日々を生きるだけで精一杯

          YOLOの揺らぎ

          未来との冷戦

          今我々の世界は冷戦状態に入っているかもしれない。中露とアメリカの話ではない。 我々地球に現在存在する100億人と未来に存在するだろう気の遠くなるような膨大な数の我々子孫との間に。 我々は今高度なAIを開発することで労働の自動化、癌の克服、アルツハイマーの予防、核融合の開発、常温常圧超電導の発見等の果に不老不死、半永久的に続く豊穣な世界を享受できるかもしれない。 しかしと同時に高度なAIは人類の存亡的破局をもたらすかもしれない。 そのため理想的には世界的にガバナンスを行い、

          未来との冷戦

          様々な事象の簡易タイムライン予想

          以下簡易的に私の今持っている様々なタイムラインを記載します。理由などは細かくは書きません。 補足ですが、このタイムラインは存亡リスクや壊滅的なリスクなどが人類社会に起こらないことを前提としています。私はおよそ人類社会が存亡的破局(絶滅や全体主義による半永久的な人類社会の未来の可能性の喪失)を迎える可能性を10-20%と推定しています。そのためこのタイムラインはおおよそ75%程度の確信を持って推定しています。 ①2026年末までにホワイトカラー人口の少なくとも50%を代替可

          様々な事象の簡易タイムライン予想

          奇妙なリアリズム/人類史の誤配

          SNSの文化も、DXとかいって見える化してる世界ももうすぐ終わる。すぐにこの世界は懐かしい風景になってしまう。今のうちにこの世界の、2023年までの世界の香ばしさを感じなきゃいけない。そう感じさせる。 確かに今までの技術革新だって大きな社会の変化とそれに伴う懐かしさは発生してきた。じゃ~今回は何が違うのか? 人類を超える知能の誕生。 だからこの変化は単なるスマホやSNSやインターネットや車の登場とは比較できない文化的認知的なパラダイムシフトになる。 人類史が終わるとい

          奇妙なリアリズム/人類史の誤配

          AIのもたらす深刻なリスクとその歴史的背景概要

          本記事は以下私が公開した「AIのもたらす深刻なリスクとその歴史的背景」の概要とAI存亡リスクに対する深層防護的な対策、QA(AIが何故存亡リスクを導くか等)、関連資料を抜き出したものです。 詳細は以下のGoogle Docsから参照ください。 概要私たちが今いる21世紀は過去人類が体験したことのないような技術の発展の最中にあるかもしれず、特に近いうちに高度なAIが開発され、様々な意味で劇的に世界が変わる可能性があります。 その一方で今世紀に人類が何らかの要因で壊滅的な結果や

          AIのもたらす深刻なリスクとその歴史的背景概要

          Where I agree and disagree with Eliezer 和訳

          前置き Paul Christiano氏と呼ばれるAI alignment(人間の価値観にAIを沿わせる)に取り組む非営利の研究組織Alignment Research Centerを運営しているAlignment研究第一人者とEliezer Yudkowsky氏と呼ばれるAGIによる人類存亡リスクの提唱者として最も有名なこの分野の草分け的な方への意見をまとめた以下のAlignment Forum記事の和訳となります。 主にPaul Christiano氏がElieze

          Where I agree and disagree with Eliezer 和訳

          How We Prevent the AI’s from Killing us with Paul Christiano 和訳

          以下の動画はAI alignment(人間の価値観にAIを沿わせる)に取り組む非営利の研究組織Alignment Research Centerを運営しているPaul Christiano氏の対談動画です。 noteでAI alignmentの先駆者として度々紹介しているEliezer Yudkowsky氏はAGIが人類を壊滅させる可能性はほぼ100%といった強い悲観論を唱えていることで有名です。 Paul Christiano氏はそれよりは楽観的な見立てとして、人類のほ

          How We Prevent the AI’s from Killing us with Paul Christiano 和訳

          Max Tegmark interview: Six months to save humanity from AI? | DW Business Special 和訳

          ドイツ連邦共和国国営の国際放送事業体のDeutsche Welle(DW)がGPT-4以上の学習の停止を公開書簡で求めたFuture of Life Instituteの共同創設者のマックステグマーク氏にインタビューをしている。 つい最近もLex Fridman氏との対談でAIの今後のガバナンスについてどうするべきか、AGI(汎用人工知能)の話題やAGIの価値観を人間に沿わせるためのAIアライメントの話題などが話されている。 書き起こし元 https://www.asse

          Max Tegmark interview: Six months to save humanity from AI? | DW Business Special 和訳

          Max Tegmark: The Case for Halting AI Development | Lex Fridman Podcast和訳

          GPT-4以上のAIの学習を6ヶ月停止する公開書簡を出したFuture of Life Instituteの共同創設者のマックステグマーク氏とLex FridmanのPodcastの和訳です。 書き起こし元は以下です。 https://www.assemblyai.com/playground/transcript/6oywy9j7p5-6e7f-4dd2-b6ba-4c8f93bf2e16 SpeakerA=マックステグマーク氏 SpeakerB=レックスフリードマン

          Max Tegmark: The Case for Halting AI Development | Lex Fridman Podcast和訳

          AGIによる破滅:致命的なリスト

          去年6月にAI Alignment Forunmに投稿されたEliezer Yudkowsky氏による以下の記事を和訳した。適宜わかりにくいかもしれない箇所は※で補足を試みた。 Eliezer Yudkowsky氏はAI Alignment問題(主に、AGIが人間の利益に沿った目標ではなく、意図しない、望ましくない目標の追求を学習するという懸念)が一般に認識される前からAGIによる人類への壊滅的被害に関する思索を続けられてきた方で基本的にはデフォルトで今のままだと人類は壊滅

          AGIによる破滅:致命的なリスト