マンジャロかオゼンピック? ソフトバンクグループは、医療データをAIで解析する新しいサービスを立ち上げることを発表 Oracle、Microsoft、そしてOpenAIが協力して、大規模なGB200クラスターを構築

イーライ・リリーのマンジャロ(チルゼパチド)は、2型糖尿病治療薬であり、体重減少効果も報告されています。実際に、マンジャロを服用した患者は服用開始から6か月後に平均体重減少率が10.1%に達したとのことです1。一方、ノボ・ノルディスクのオゼンピック(セマグルチド)も2型糖尿病治療に用いられ、体重減少効果が期待されていますが、同条件下での平均体重減少率は5.8%でした
株価に関しては、イーライ・リリーの株価は最近の取引で+0.66%上昇し、上場来高値を更新したとの報道があります。一方で、ノボ・ノルディスクの株価は1.91%下落しています。これらの動きは、それぞれの企業の製品に対する市場の反応や、全体的な市場環境の変化によるものかもしれません。

マンジャロ(チルゼパチド)とオゼンピック(セマグルチド)は、どちらも2型糖尿病の治療に使用されるGLP-1受容体作動薬ですが、いくつかの重要な違いがあります。
まず、マンジャロはGIP(グルコース依存性インスリン分泌刺激ポリペプチド)とGLP-1(グルカゴン様ペプチド-1)の両方の作用を持つ国内初のGIP/GLP-1受容体作動薬です1。これにより、マンジャロは血糖降下作用と体重減少効果が大きいとされています。一方、オゼンピックはGLP-1受容体作動薬であり、体重減少効果が期待されるものの、マンジャロに比べるとその効果はやや控えめです
治療成績に関する日本人患者を対象とした研究では、マンジャロはHbA1cの低下と体重減少の両方で優れた結果を示しています。例えば、マンジャロ15mgはHbA1cを2.8%低下させ、体重を平均9.5kg減少させたと報告されています。これに対し、オゼンピック1mgはHbA1cの低下と体重減少の効果がそれぞれ少ないとされています
また、マンジャロとオゼンピックの副作用プロファイルにも違いがあり、消化器症状の副作用発生率がマンジャロで高い傾向にあるとの報告がありますが、重大な有害事象に関しては差は認められていません
マンジャロ(チルゼパチド)は、週に1回の皮下注射として服用されます。初めての投与は2.5mgから始まり、その後4週間投与した後に5mgに増量します。5mgを維持用量とし、効果が不十分な場合は、4週間以上の間隔で2.5mgずつ増量することが可能です1。
投与方法は以下の通りです:
マンジャロは週に1回、皮下注射します。
忘れないように毎週同じ曜日に投与しましょう。
注射針・薬剤はあらかじめセットされており、針の付け替え・空打ちは不要です。
安全キャップを外し、注射部位に当ててロックを解除し、注入ボタンを押すだけで注射は完了します。
保管方法については、マンジャロは注射製剤であり、ペプチドホルモンのため、高温・直射日光などによって失活する可能性があります。基本は冷蔵庫に保管し、注射時に取り出します。冷蔵庫が使用できない場合は、室温(30℃以下)で21日間保管可能です。凍結させないでください

ソフトバンクグループは、医療データをAIで解析する新しいサービスを立ち上げることを発表しました。このサービスは、個人の遺伝子情報を基にがん治療法を提案し、医療水準の向上を目指すものです。新会社は、Tempus AIとの合弁で設立され、日本のがん患者のデータを共通データベースで解析することを計画しています

Tempus AIは、AIを活用した精密医療を推進するテクノロジー企業で、遺伝子検査、医療データの収集・解析、AIによる治療提案などのサービスを提供しています。同社は、米国の約50%の腫瘍医と連携し、業界最大規模の非識別化された分子、臨床、および画像データのライブラリを保有しており、診断をよりインテリジェントにし、医療提供者がよりデータに基づいた意思決定を行い、製薬会社がより効果的な治療法を開発することを支援しています
この新しい合弁会社は、Tempus AIの技術と知見を活用し、日本の医療データを統合して、がん治療の個別化と精密化を図ることで、がんで苦しむ方々の治療に貢献することを目指しています

Oracle、Microsoft、そしてOpenAIが協力して、大規模なGB200クラスターを構築したことは、AIとクラウドコンピューティングの分野における大きな進歩です。このパートナーシップにより、Microsoft Azure AIプラットフォームはOracle Cloud Infrastructure (OCI) に拡張され、OpenAIにより大きなキャパシティが提供されることになります
具体的には、「OCI Supercluster」は、大規模言語モデル(LLM)のトレーニングのために最大64,000の「NVIDIA Blackwell GPU」または「GB200 Grace Blackwell Superchips」まで拡張可能で、これらは超低レイテンシRDMAクラスタ・ネットワークで接続されています。これにより、AIモデルの開発と提供が加速され、AI研究開発における新たな可能性が広がります。
このような大規模なインフラストラクチャは、AIのトレーニングと推論の能力を大幅に向上させ、より複雑なAIモデルの構築を可能にします。10万基のクラスターは、AIの未来において重要な役割を果たすことでしょう。この進歩は、AI技術のさらなる発展と、それによる社会への影響を期待させます。

この記事が気に入ったらサポートをしてみませんか?