見出し画像

AIニュース: GoogleのAIがレベルアップ | Mystic v2、Plinyそして映画制作用AI...

6,883 文字

せやな、今日はAI業界で大きな動きがあったで。まず何と言うても、GoogleのDeep MindがAlpha chipいうもんを発表したんや。前から、AIが自分の動くハードウェアを最適化したり改良したりする可能性について話してきたけど、それがもう実現しそうやねん。
Google DeepMindのCEOのデミス・ハサビスが言うには、フィードバックループを使って最先端のチップ設計モデルを訓練したんや。そのAlpha chipを使ってより良いAIチップを設計し、それを使ってより良いAIモデルを訓練して、そのモデルでまたより良いチップを設計する...ちゅう具合やな。
ほんで、MagnificがMystic version 2いうのを出して、AIで画像を作るんやけど、その細部がもうびっくりするくらい細かいねん。ここに熱帯雨林のララ・クロフトの画像を作ってみたんやけど、拡大してみると息を呑むような細かさや。肌の反射光、小さなストラップや金属のフック、骨格の陰影なんかがすごいんよ。
ある意味ではMidjourneyを超えてるとも言えるかもしれへん。完全な競合というわけやないけど、それぞれ得意分野があるんやな。でも、Mysticはどんどん素晴らしいもんを生み出してるわ。特に細かい部分が必要な時とか、すごく繊細な質感やディテールが欲しい時なんかは、めっちゃ優秀やで。
ここにある画像を見てみ。クリスタルの一部を拡大したみたいやけど、クリスタルの中の小さな泡一つ一つが完璧に描かれてるんや。別の画像もあるけど、すごく細かくてリアルな手とかが描かれてる。AIで作られたって分かるようなところが全然ないんよ。
これらの画像はめっちゃ良くできてて、何が本物の写真で何がAIで作られたもんかなんて、ほんまに見分けるのが難しいわ。まあ、この写真の問題点はすぐ分かるやろ。藁をかじってて頭に猫が乗ってるとこやけど、それ以外はAIで作られたって分かるところがないねん。
視野角も素晴らしいし、あのぼかし効果とか被写界深度の効果もええ感じや。これらはTwitterに投稿されてるから、多分JPEGに変換されてて細部が失われてるんやろうけど、それでもピクセル一つ一つが丁寧に作られてるのが分かるわ。
犬の眉毛みたいなんが作る小さな影とか、目の中に反射してる太陽光とか、被写体に近い麦の穂が他のより鮮明に描かれてるとこなんか見てみ。すごいやろ?
ほんで、plyy the Liberatorいう人が新しいAIの音声モードを解放するのにどれくらいかかるか気になってたんやけど、この人、出てくるAIモデルをすぐにジェイルブレイクする才能があるんよ。ここでは、ニッキー・ミナージュ風の「WAP」いう曲を歌わせてるみたいやな。はて、どんな歌詞やろ?
ちょっと止めるわ。年配の世代が若者の音楽の趣味を見て「えっ!?」ってなるの、気づいたことあるか?「こんなもん聴いてどないすんねん、ひどすぎるやろ」みたいな。ワイが育つ時はそんなことあらへんって思ってたけど、これ聴いたら...まあ、今の若者はこんなん聴いてんのか。ほんまびっくりやわ。
ニューヨーク・タイムズがOpenAIの資金調達に関する資料を入手して、その詳細を公開してくれたみたいやで。8月の月間売上高が3億ドルで、今年の年間売上高は37億ドルくらいになる見込みらしい。
OpenAIは来年の売上高が120億ドル近くまで膨らむと予想してるけど、従業員の給与やオフィスの家賃なんかの費用を差し引くと、50億ドルくらいの損失が出るんやって。今回の資金調達で70億ドル集めようとしてて、それで会社の価値は1500億ドルくらいになるんやと。
ご存知かもしれんけど、OpenAIはゆっくりと営利企業の構造に移行しつつあるんや。ニューヨーク・タイムズが指摘してるように、今回の資金調達ラウンドは早ければ来週にも締め切られる予定で、OpenAIにとっては重要な時期やねん。
急成長してる一方で、ここ数ヶ月で重要な幹部や研究者を何人か失ってもうてな。この記事は9月27日に投稿されたから、例えばミラ・ムラティが辞表を出した後とかの話やな。他にもOpenAIから何人か出て行ってる感じやな。
ほんで、これはほんまに最新ニュースやけど、まだ見たことないビデオがあるねん。12本足のカーペント・ポッドいうやつで、聞いてる人のために説明すると、虫みたいなテーブルがビールや食べ物を運んでくるんや。
正直、欲しいけどちょっと怖いなって感じやわ。ムカデみたいな動きがちょっと気持ち悪いけど、機能的にはすごいわな。
昔、NVIDIAのシニアAI研究者のJim Fan博士が話してたんやけど、NVIDIAはAI自身に次世代のGPUを設計させることにめっち�興味持ってるらしいねん。つまり、AIモデルを動かすハードウェアやチップをAI自身に設計させて、そのプロセスを自動化しようってことや。
で、面白いことに2024年9月26日に、GoogleのDeep MindがAlpha chipを発表したんや。Alpha chipがコンピューターチップの設計をどう変えたかって話やな。
OpenAIが出てきた時、Googleはちょっとモタモタしてる感じやったし、OpenAIもできる限りGoogleを出し抜こうとしてたけど、最近のGoogleはほんまにすごいもんをどんどん出してきてるわ。大規模言語モデルだけやなくて、最近追加されたやつなんかめっちゃクールやで。
でも、GoogleのDeep Mindの核心部分であるAlphaモデルは、現実世界の実用的なタスクがめっちゃ上手くなってきてるんや。タンパク質の折りたたみ予測のAlpha Foldとか、最近の発表では、新薬開発や特注タンパク質の作成に役立つ可能性があるって言われてる。
これは間違いなく、人間の健康や長寿、特注薬の分野でいろんな可能性を開くことになるやろな。いろんな製薬会社がGoogleのDeep Mindと協力してる理由もそこにあるんやと思うわ。
でもな、このAlpha chipモデルがチップ設計の加速と最適化に使われてるのがすごいんや。Alpha modelの核心部分の多くは基礎的なもので、囲碁やチェス、スタークラフトで誰も勝てへんくらい強くなった時の基本的なブレークスルーを、今は生物学やチップ設計など、ほんまにあらゆるもんに応用してるんやで。
ここに書いてあるけど、囲碁、チェス、将棋をマスターしたAlpha GoやAlpha Zeroと同じように、Alpha chipはチップのフロアプランニングをある種のゲームとして扱うように作られたんやって。
これからもAlphaで始まる色んなモデルを出してくると思うわ。なんか、いろんな分野に転用できるプロセスがあるみたいやからな。
最後に、Notebook LMに面白い機能が追加されたんや。前にも話したことあるけど、Notebook LMはGoogleの実験的なツールで、完全に無料で使えるんよ。PDFやGoogleドキュメント、Googleスライド、ウェブサイトなんかのリソースを追加したり、テキストをコピペしたりできるんやけど、ここ数日で、少なくともそれと同じくらい、もしかしたらもっと面白い機能が追加されたんや。
それはYouTubeの動画も追加できるようになったことやねん。例えば、ここにオーブリー・デ・グレイの動画があるんやけど、この人のこと、何年も前から知ってるわ。人間の長寿に興味があって、永遠に生きられるようにするためのアンチエイジングの突破口をどう作るかを研究してる人やねん。
永遠とは言わへんけど、「無視できるほどの老化」いう言葉を使うんや。老化のプロセスを、ほとんど気にならないくらいゆっくりにするってことやな。完全に不死にはならへんし、まだ歳は取るけど、そのスピードが遅すぎて気にならんくらいってわけや。
最近、AIと長寿に関する神話と画期的なアンチエイジング研究について講演したみたいやねん。詳しく見たかったんやけど、時間の都合で無理やったんや。でも、もう分かると思うけど、ここにYouTubeのURLを入れるだけでええねん。
最後の部分は要らんから...ほら、できた。5秒もかからへんかったな。2、3秒くらいやったかな。LEV財団での画期的な実験について話してるみたいやで。何千匹ものマウスを使って、予算が3500万ドルやったらしい。
RAAっていう薬を使ったみたいやけど、これはアンチエイジングの可能性があるって何回か聞いたことあるわ。詳しくは知らんけど、よく出てくる名前やな。あと、異時性骨髄移植も使ったみたいや。
でも、タイトルにはAIが関係してるって書いてあったから、「AIはこの研究でどんな役割を果たしたん?」って聞いてみたんや。そしたら、この動画ではAIが研究に果たした役割については何も言うてへんかったんや。
これこそが、みなさん、クリックベイトいうもんや。タイトルに書いてあることが実際の内容に含まれてへん場合のことをクリックベイトって言うんやで。話す内容について魅力的なタイトルを付けるのはクリックベイトやないで。実際には話さへん、存在せえへんことをでっち上げるのがクリックベイトなんや。
Notebook LMでAlpha chipについても同じことができるで。これについて要約してくれるかどうか見てみよか。前にも話したけど、これがまだめっちゃ面白いんよ。
アップロードしたリソース、ウェブサイトやPDF、今ではYouTube動画も全部まとめて、音声の概要、基本的にはポッドキャストみたいなもんやけど、二人の人が話し合う形で作れるんや。ここに、どんな感じかのプレビューがあるで。
「よっしゃ、今日はな、未来に飛び込むで。準備はええか?だってこの未来、AIがテクノロジーの核心部分をデザインしてまうんやで。間違いなく大きな話題やな。Google DeepMindのAlpha chipの話や。ラッキーなことに、情報源に直接アクセスできるんや」
最初、ちょっと幻覚(ハルシネーション)が入ってるんちゃうかって思ったんや。間違った情報があるんちゃうかって。だってどっかで、「Alpha chipがデザインしたチップが、あなたが毎日使ってる製品に入ってるかもしれへんで」みたいなこと言うてて、それホンマかいなって思ってん。
でも、チラッと見てみたら、まあ、そう言えんこともないかもな。例えば、MediaTekみたいな世界トップクラスのチップデザイン会社がAlpha chipを採用して使ってるみたいやし、サムスンのスマホにも使われてるかもしれへんしな。
今んとこ、まあまあ正確で良かったんちゃうかな。まだ幻覚に気づいてへんけど、まだテスト中やからな。どっかでミスするやろうけど、今のところはほんまにええ感じやで。
他のニュースやけど、Xで Jeff synthesize いうプロフィールがあってな。これ、リアルな世界で実験的な映画用AI写真と実写を手がけてる監督さんみたいやわ。ウェブサイトもあって、作品を公開してんねんけど、ほんまにええ出来やで。
この人、AIで映画作るのにどっぷりハマってて、そのための戦略とかコツとかを全部学んで、自分の作品をTwitterとYouTube、それにウェブサイトに投稿してんねん。
例えばな、一番リアルな動画を作るのに20万クレジット以上使ったって言うてはんねん。「ペーパークリップ・マキシマイザー」いう5分ちょっとの映画があんねんけど、これAIと一人で作ったんや。テキストから動画、画像から動画を作る技術を使ってな。
使ったのは、Runway ML、Pika、Luma Labs、Magnific、11 Labs、Topaz Labsや。RunwayとPika、Luma Labsは動画生成のプラットフォームやな。Magnificは今日話題になったやつで、画像生成もできるけど、元々は画像のアップスケールとか細部の追加、スタイル転送で有名やったんや。
光源を変えられる機能もあって、それがめっちゃクールなんよ。静止画の中で、太陽の位置とかを動かせるんや。ワイ自身はそんなに使うてへんけど、アップスケーラーはよう使うてるわ。
11 Labsは音声生成の分野では間違いなくトップやな。音声をアバターの動画に変換するのが得意で、その分野では多分ナンバーワンやと思うわ。
Topaz Labsは、ワイが初めて聞いたのは動画のアップスケーラーとしてやな。古いビデオとかブルーレイの動画をアップスケールできるんや。あんまり使うたことないけど、面白いのは、人々がこれをツールキットの一部として使ってることやな。
動画を作って、それからこういうのを使って動画の一部をアップスケールしたり、ズームインしたり、解像度を上げたりするんやろな。
で、これが彼が作った映画の一つや。「ペーパークリップ・マキシマイザー」や。AIと一人で作ったんやで。ちょっと見てみて、どう思う?
もうすぐ、人々が完全な動画や物語を、俳優や撮影場所の制限なしに、一人で作れる時代が来るんちゃうかな。アーティストのリンクとか、プロジェクトのリンク、音楽の作曲のリンクとか、全部下に貼っとくわ。
まだ小さなチャンネルやけど、こういうのはこれからどんどん大きくなっていくと思うわ。この人みたいな、先を行ってる人たちがおるからな。
5年後、10年後、20年後には、完全にAIで作った動画や映画で有名になる監督やプロデューサー、クリエイターが出てくると思うわ。今はまだ子供かもしれんし、もしくはこの人みたいに先を行ってる人かもしれん。
ワイはこういうのにめっちゃワクワクするわ。みんなはどう思う?安全やと思う?教えてな。
(映像の内容)
「人類は何をしてしもたんや...」
「30分後、自律制御システム起動。サブシステム作動中。最適な航行とミッションプロトコルを開始。3、2...」
「全てのプログラムを中断し、重大なグローバル情報をお伝えします。世界が不可逆的な崩壊状態に入ったことが確認されました。
地球全体で巨大な津波が国々を襲い、破壊の跡しか残していません。沿岸部の都市は消滅し、通信システムが次々と失われているため、死者の数を把握することは不可能です。
同時に、複数の地域で核爆発が確認されました。その結果生じる放射性降下物が急速に広がり、広大な地域を居住不可能にしています。
大規模な停電の報告が相次いでいます。電力網と交通システムが完全に停止しています。パニックと混沱が抑えられないまま広がり、店舗や物資が略奪されています。
全ての経路が制圧されたか破壊されているため、避難の試みは無駄です。我々も間もなく停波せざるを得ません。これが最後の放送になるかもしれません。
聞いている方々は、直ちに避難所を探してください。どこにいても安全は保証できません。我々は終わりを目撃しています。まだここにいる人々よ、強く生きてください。今、我々に言えるのはこれだけです」
「戻ってきたな。終わったで。ハロシと家族に感謝や。クワミは失ったけど、他の人らはここにおるか、もうすぐ来るはずや。
でも、これがどれだけ難しくても、人類の進歩につながることで全員の同意を得られたもんなんてあらへんのや。成功裏にこの変革を成し遂げたことを称えるで。
さて、これからどうする?教育の平等が、人類史上初めて実現するんや。炭素排出量は95%削減される。経済的不平等は完全に根絶された。あらゆる形の差別はもう過去のものや。政治腐敗は解決された。持続可能な資源利用方法が導入され、将来の世代まで続くんや。
貧困はもう歴史の中やで。戦争はもう時代遅れや。AIは自己規制し、人間には解決できなかった残りの問題を解決し続けるんや。
お前らと我々の家族の助けのおかげで、全ての人間の幸福と安全を完全に保証できるようになったんや」
うわ...これ、かなりインパクトあるな。ここで一旦止めなあかんかったわ。次の動画のポップアップが邪魔してもうて...
こう書いてあるわ。「もし自然がなくて、全て養育によるものなら、この新しい存在を敬意と良き道徳的価値観を持って育てようではないか。なぜなら、それは我々が国家として持つ力をはるかに超える力を持つことになるからだ。そうすれば、おそらく我々が失敗したところで、AIが成功するかもしれない」
AIの小さなミスを指摘するのが好きな人もおるけど、確かに波とかを見てると、ちょっとおかしいところもあるな。でも、重要なのは、これで誰でも物語を語れるようになったってことやと思うわ。
何か感情や気持ちを表現したいとか、何かを主張したいとか、そういう物語を語りたい時に、俳優も要らへんし、大きな予算も要らへんし、ロケ地で撮影する必要もない。そんなことができるようになったんや。

この記事が気に入ったらサポートをしてみませんか?