見出し画像

【AI搭載ロボットの急速な発展:2024年のロボット界を震撼させる最新情報】英語解説を日本語で読む【2024年6月13日|@AI Revolution】

2023年7月から2024年6月にかけて、ロボット工学分野では大きな進展がありました。人間の表情や動きを模倣できるAIロボットが登場し、自律的に学習する能力を持つようになりました。Boston Dynamicsなどの大手企業は、AGI(汎用人工知能)を搭載可能なロボットを開発しています。Engineered Arts社のAmecaは、人間の表情や動きを再現し、会話ができる最先端のロボットです。また、OpenAIとノルウェーのスタートアップ企業1Xは、NEOという宇宙飛行士のようなロボットを発表しました。NEOは、移動、物の操作、会話、周囲の感知が可能です。中国でも、EXロボットなどの企業がリアルタイムで表情を再現できるAIロボットを開発しており、学校やホテル、高齢者施設などでの活躍が期待されています。イーロン・マスク氏のNeuralinkは、思考でコンピューターを操作できるブレインチップを開発し、麻痺した患者がオンラインチェスをプレイできるようになりました。MicrosoftとSanctuary AIは、次世代のAIモデル開発を加速するため提携し、最新のPhoenixロボットは高度な知覚能力と人間のような動きを実現しています。Unitree RoboticsのG1ヒューマノイドロボットは、柔軟性、安定性、器用さ、手頃な価格を兼ね備えた製品です。ShanghaiTechとMarslabの研究者らは、H1プラットフォームを使用してパルクールを学習させるフレームワークを開発するなど、ロボット工学の研究が進展しています。
公開日:2024年6月13日
※動画を再生してから読むのがオススメです。


I don't know about y'all, but these past 12 months in robotics have had me shook.

皆さんはどうか知りませんが、この過去12ヶ月のロボティクスの進展には驚かされました。

Like, the advancements we've seen are borderline scary at this point.

この時点で見てきた進歩は、おおよそ怖いと言えるレベルです。

We're going to break it all down chronologically, from July 2023 to now.

2023年7月から現在まで、すべてを時系列で詳しく説明していきます。

But let me just set the stage real quick.

ただ、まずは状況を簡単に説明させてください。

You had AI companies dropping the craziest humanoid AI robots that are legit starting to think and learn autonomously.

AI企業が、本当に独自に考え学び始める最も狂ったような人型AIロボットを開発しています。

I'm talking Ameca Optimus, this whole new breed of androids.

私はAmeca Optimusについて話しています。これは全く新しい種類のアンドロイドです。

You had big dogs like Boston Dynamics.

Boston Dynamicsのような大手企業もいます。

Oh, and get this.

あ、それとね、聞いてください。

There's even a company that's low-key created a robotic body ready for freaking AGI.

実際、驚くべきAGIに対応したロボットボディを作成した会社さえあります。

It's been that level of crazy.

そのレベルの狂気が続いています。

Honestly, it's been wild just trying to keep up with all the major updates and breakthroughs.

正直なところ、すべての主要なアップデートやブレークスルーに追いつこうとするだけでも大変です。

But don't worry, I got you covered.

でも心配しないで、私がカバーします。

In this video, we're going to take it step by step, going through all the biggest robotics news chronologically from July 2023 until now.

このビデオでは、2023年7月から現在までの最新のロボティクスニュースを時系列に追っていきます。

Let's just get started.

さあ、始めましょう。

Ameca, a groundbreaking robot from engineered arts that talks and mimics human expressions and movements, now draws too, making it a fascinating blend of tech and art.

Amecaは、エンジニアリングアーツからの画期的なロボットで、人間の表現や動きを模倣し話すことができ、さらに描画もできるため、技術と芸術の魅力的な融合となっています。

This AI robot looks like a human, but doesn't have a specific gender or race with a gray rubber face and hands.

このAIロボットは人間のように見えますが、特定の性別や人種を持たず、灰色のゴム製の顔と手を持っています。

It can move its arms, fingers, neck, and face, letting it show emotions and even talk.

腕、指、首、顔を動かすことができ、感情を表現したり話すことができます。

With microphones, cameras, and facial recognition software, it can interact with people just like a human.

マイク、カメラ、顔認識ソフトウェアを備えており、人間と同様に人々と対話することができます。

Recently, OpenAI and a Norwegian startup called 1X made an exciting announcement about the launch of their first physical robot named NEO, which looks like a futuristic astronaut, can move around, handle things, talk and sense its surroundings thanks to its arms, legs, cameras, speakers, microphones, and sensors.

最近、OpenAIとノルウェーのスタートアップ企業である1Xが、初の実物ロボットであるNEOの発表を行いました。NEOは未来的な宇宙飛行士のような外見をしており、腕や足、カメラ、スピーカー、マイク、センサーを備えており、周囲を感知し移動し物を扱い、話すことができます。

Ameca and NEO are excellent examples of AI in human-like forms.

AmecaとNEOは、人間のような形態のAIの優れた例です。

They don't just respond to commands.

彼らは単に命令に応じるだけでなく、

They can also show their intelligence and creativity, like when they draw.

絵を描くときのように、知性や創造性を示すこともできます。

Let's examine how they manage to do this.

彼らがこれをどのように実現しているかを調べてみましょう。

First, let's talk about Ameca, one of the most advanced human-shaped robots in the world, representing the forefront of human robotics technology.

まず、世界で最も進んだ人間型ロボットの一つであるAmecaについて話しましょう。これは人間のロボティクス技術の最前線を代表しています。

It is designed specifically as a platform for development into future robotics technologies, such as artificial intelligence and machine learning.

メカは、人工知能や機械学習など将来のロボティクス技術への発展のために特別に設計されています。

One of the most impressive features of Ameca is its realistic human-like appearance and motion.

Amecaの最も印象的な特徴の一つは、そのリアルな人間らしい外見と動きです。

Ameca can mimic human expressions such as smiling, frowning, or winking using 24 motors in its face.

Amecaは、顔に24個のモーターを使用して笑ったり、眉をひそめたり、ウインクしたりといった人間の表情を模倣することができます。

It can also move its head, eyes, and mouth to follow and engage with people.

また、メカは頭、目、口を動かして人々と関わり、追従することもできます。

It can speak in different languages and accents using text-to-speech synthesis or pre-recorded audio.

それはテキスト読み上げ合成や事前録音された音声を使用して、異なる言語やアクセントで話すことができます。

It can also gesture with its arms and hands using 20 motors in each arm and 12 motors in each hand.

また、各腕に20個のモーター、各手に12個のモーターを使用して、腕や手でジェスチャーをすることもできます。

It can even play rock-paper-scissors or give a thumbs up.

さらに、じゃんけんをしたり、サムズアップをすることもできます。

But Ameca is not just a pretty face.

しかし、Amecaは単なる美しい顔だけではありません。

It also has a high degree of dexterity and fine motor skills, which enable it to perform tasks that require precision and coordination.

精密さと調整能力を必要とするタスクを実行するために、高い機敏性と微細な運動スキルも持っています。

For example, Ameca can write with a pen, type on a keyboard, play the piano, or solve a Rubik's Cube.

例えば、Amecaはペンで書いたり、キーボードでタイプしたり、ピアノを演奏したり、ルービックキューブを解いたりすることができます。

It can also draw with a pencil, which is one of its newest and most amazing skills.

また、メカは鉛筆で描くこともでき、これはその最新で最も驚くべきスキルの1つです。

Ameca's drawing ability was developed by Engineered Arts in collaboration with researchers from the University of Bristol and the University of Bath.

Amecaの描画能力は、エンジニアリングアーツとブリストル大学、バース大学の研究者との共同で開発されました。

The project was funded by the Engineering and Physical Sciences Research Council and was presented at the International Conference on Robotics and Automation in May 2023.

このプロジェクトは、エンジニアリング・アンド・フィジカル・サイエンス・リサーチ・カウンシルによって資金提供され、2023年5月に国際ロボティクス・アンド・オートメーション会議で発表されました。

The project aimed to use artificial intelligence to make drawing more imaginative and accurate.

このプロジェクトの目的は、人工知能を使用して描画をより想像力豊かで正確にすることでした。

The researchers used a combination of techniques to achieve this goal, such as generative adversarial networks, style transfer, a method that can change the style of one picture to match another, like making a photo seem like a painting, inverse kinematics, a technique for determining the movements of a robot arm based on its intended final position, like holding a pencil, and Proportional Integral Derivative Controllers.

研究者たちは、この目標を達成するために、生成的対立ネットワーク、スタイル転送、1枚の写真のスタイルを他の写真に合わせることができる方法(写真を絵画のように見せる)、逆運動学、ロボットアームの動きを意図された最終位置に基づいて決定する技術(鉛筆を持つような)や比例積分微分制御器などの組み合わせを使用しました。

These adjust a motor's speed and force to get a specific result, like drawing a line.

これらは、モーターの速度と力を調整して、線を引くなど特定の結果を得るために使用されます。

Using these methods, Ameca can draw different types of images, like portraits, landscapes, animals, and even abstract art.

これらの方法を使用することで、Amecaは肖像画、風景、動物、さらには抽象芸術など、さまざまな種類の画像を描くことができます。

It can also draw pictures based on text descriptions, such as a cat with sunglasses or a fire-breathing dragon.

また、サングラスをかけた猫や火を吹くドラゴンなどのテキストの説明に基づいて絵を描くこともできます。

It can even make drawings from its own thoughts by using random data as its input.

さらに、ランダムなデータを入力として使用して、自分の考えから絵を描くことさえできます。

To draw an image, Ameca first uses a GAN to generate an image from a text prompt or noise.

画像を描くために、AmecaはまずGANを使用して、テキストプロンプトやノイズから画像を生成します。

It uses style transfer to apply a desired style to the image, such as sketch, watercolor, or oil painting.

次に、スケッチ、水彩画、油絵などの望ましいスタイルを画像に適用するためにスタイル転送を使用します。

Next, it uses IK to calculate the joint angles of its arm and hand to trace the contours of the image.

その後、IKを使用して、腕と手の関節角を計算し、画像の輪郭をトレースします。

Finally, it uses PID controllers to control the motors of its arm and hand to draw the image on paper.

最後に、PIDコントローラを使用して、腕と手のモータを制御して紙に画像を描きます。

The result is stunning.

その結果は見事です。

Ameca can draw images that are not only realistic, but also expressive, diverse, and original.

Amecaは、リアルだけでなく表現豊かで多様でオリジナルな画像を描くことができます。

Most of us are familiar with OpenAI because of ChatGPT.

私たちの多くは、ChatGPTの存在からOpenAIを知っています。

However, OpenAI isn't just about making software, they also focus on hardware.

しかし、OpenAIはソフトウェアを作るだけでなく、ハードウェアにも注力しています。

That's why they have developed NEO, their first physical robot.

そのため、彼らはNEOという初の物理的なロボットを開発しました。

NEO is a human-like robot powered by OpenAI's systems such as GPT-4, DALL-E, Codex, and CLIP.

NEOは、GPT-4、DALL-E、Codex、CLIPなどのOpenAIのシステムによって動作する人間のようなロボットです。

It can learn, understand commands, and even create images or code.

それは学習し、命令を理解し、さらに画像やコードを作成することができます。

Designed to look like a future astronaut, it can move, handle objects, and communicate.

将来の宇宙飛行士のようにデザインされており、移動したり、物を扱ったり、コミュニケーションを取ったりすることができます。

OpenAI plans to use NEO as a testbed for their vision of Artificial General Intelligence – AGI – which is the ultimate goal of creating AI that can perform any task that a human can.

OpenAIは、人間が行う任意のタスクを実行できるAIを作成することを究極の目標とする人工一般知能(AGI)のビジョンのためにNEOをテストベッドとして使用する予定です。

It was unveiled in July 2023 at the NEO Accelerator, a startup accelerator founded by Silicon Valley investor Ali Partovi, which partnered with OpenAI and Microsoft to provide free software and mentorship for budding AI companies.

2023年7月にNEOアクセラレータで発表され、シリコンバレーの投資家アリ・パルトヴィによって設立されたスタートアップアクセラレータで、OpenAIとMicrosoftが協力して新興AI企業に無料のソフトウェアとメンターシップを提供しました。

It was one of the highlights of the event, where it demonstrated some of its abilities and tasks.

イベントのハイライトの1つであり、いくつかの能力やタスクをデモンストレーションしました。

NEO is one of the most innovative and ambitious robots in the world, representing OpenAI's vision for the future of AI and robotics.

NEOは世界で最も革新的で野心的なロボットの一つであり、AIとロボティクスの未来を象徴しています。

It has a customizable design and latest tech features.

カスタマイズ可能なデザインと最新のテクノロジー機能を備えています。

Its parts can be changed based on the task or place.

その部品は、タスクや場所に応じて変更することができます。

For instance, it can swap its legs for wheels or its gripping tools depending on what's needed.

例えば、必要に応じて脚をホイールに交換したり、グリップツールを交換したりすることができます。

It can also interact with its parts wirelessly through Bluetooth or WiFi.

また、BluetoothやWiFiを介して部品とワイヤレスでやり取りすることもできます。

Furthermore, NEO uses OpenAI's AI systems like GPT-4, DALL-E, Codex, and CLIP that enable it to understand and respond to spoken commands, create realistic images from text, write functional code from spoken prompts, and learn from text-based guidance to identify objects, faces, and feelings.

さらに、NEOはGPT-4、DALL-E、Codex、CLIPなどのOpenAIのAIシステムを使用しており、これにより口頭での命令を理解し、現実的な画像をテキストから作成し、口頭のプロンプトから機能的なコードを書き、テキストベースのガイダンスから物体、顔、感情を識別することができます。

With these abilities, NEO can perform a variety of tasks, such as drawing, playing games, and solving puzzles.

これらの能力により、NEOは絵を描いたり、ゲームをしたり、パズルを解いたりするさまざまなタスクを実行することができます。

For instance, it can draw pictures, learn and play games like chess, and solve logical puzzles like Sudoku.

たとえば、絵を描いたり、チェスのようなゲームを学んだりプレイしたり、数独のような論理パズルを解いたりすることができます。

Ameika and NEO are both humanoid robots that can draw and do amazing things using artificial intelligence, but they are also very different in many ways.

アメイカとNEOは、両方とも人間のようなロボットであり、人工知能を使用して驚くべきことを行うことができますが、多くの点で非常に異なります。

They represent different approaches and possibilities in the field of robotics and AI.

彼らはロボティクスとAIの分野で異なるアプローチと可能性を表しています。

Ameika is designed to be human-like and interacts with people using normal language and movements.

Ameikaは人間らしく設計され、通常の言語や動きを使って人々とやり取りします。

Its art comes from turning words or noise into images, which it then draws on paper.

その芸術は、言葉やノイズを画像に変換し、それを紙に描くことから生まれます。

Although Ameika's artwork is unique and expressive, the quality depends on how well the images are generated and traced.

Ameikaの作品は独自で表現豊かですが、その品質は画像がどれだけうまく生成され、トレースされるかに依存します。

On the other hand, NEO is designed to be versatile, able to do any human task using artificial intelligence.

一方、NEOは汎用性を持ち、人間のタスクを人工知能を使って行うことができるよう設計されています。

It makes art by transforming words or noise into code, which it then runs on its internal computer or screen.

NEOは、言葉やノイズをコードに変換し、それを内部コンピュータや画面で実行することで芸術を作り出します。

While NEO's drawings are accurate and realistic, they're limited by the complexity of the code and the display resolution.

NEOの描画は正確でリアルですが、コードの複雑さやディスプレイの解像度の制約があります。

Both robots are remarkable but have different goals.

両方のロボットは素晴らしいですが、異なる目標を持っています。

Ameika aims to express itself through art, valuing creativity and diversity.

アメイカは芸術を通じて自己表現することを目指し、創造性と多様性を重視しています。

Meanwhile, NEO wants to learn and improve its abilities, prioritizing intelligence and efficiency.

一方、NEOは能力を学び、向上させることを目指し、知性と効率を重視しています。

While both robots are impressive, they bring up societal questions and challenges.

両方のロボットは印象的ですが、社会的な問題や課題を提起しています。

AI robots like Ameika and NEO can bring lots of changes to society, some good and some bad.

AIロボットのようなアメイカやNEOは、社会に多くの変化をもたらす可能性があります。良い面もあれば悪い面もあります。

They can make learning and entertainment more exciting, help us with tough or boring jobs, and spark new creative ideas, but they also have their downsides.

彼らは学習やエンターテイメントをより面白くすることができ、難しい仕事や退屈な仕事を手伝い、新しい創造的なアイデアを生み出すことができますが、彼らには欠点もあります。

They might take over some people's jobs, question the importance of human values, or even harm us if they malfunction or are used wrongly.

彼らは一部の人々の仕事を奪う可能性があり、人間の価値の重要性を問いかけるかもしれません。また、誤作動したり誤用されたりすると私たちに害を及ぼす可能性もあります。

It's important that we design and use these robots properly, so they benefit us and don't cause harm.

これらのロボットを適切に設計し使用することが重要です。私たちに利益をもたらし、害を引き起こさないようにするためです。

AI and robotics have an exciting yet unpredictable future.

AIとロボティクスは、エキサイティングでありながら予測不可能な未来を持っています。

These future AI robots will be smarter and more human-like, impacting how we live, work, and view ourselves.

これからのAIロボットはより賢く、人間らしくなり、私たちの生活、仕事、自己観に影響を与えるでしょう。

We're committed to guiding this future, ensuring ethical and responsible use of these technologies.

私たちはこの未来を導き、これらの技術の倫理的かつ責任ある使用を確保することに取り組んでいます。

Our goal is a world where humans and AI robots harmoniously coexist.

私たちの目標は、人間とAIロボットが調和して共存する世界です。

Let's talk about China's latest craze, human-like AI robots.

中国の最新のブーム、人間らしいAIロボットについて話しましょう。

China is creating robots that look and act like us, but better apparently.

中国は、私たちと同じように見え、行動するロボットを作成しているようですが、さらに優れています。

First, let me introduce you to EX Robots, a company that specializes in making robots with real-time facial replication.

まず、EX Robotsという、リアルタイムの顔認識を特徴とするロボットを製造する会社を紹介させてください。

That means they can copy your expressions and emotions in a blink of an eye.

つまり、彼らは瞬時にあなたの表情や感情をコピーすることができます。

The CEO of EX Robots, Li Boyang, demonstrated this by making faces at a robot, who then mirrored them back at him.

EX RobotsのCEOであるLi Boyangは、ロボットに顔を作ってみせ、そのロボットがそれを彼に返す様子を実演しました。

It was like watching a weird game of Simon Says, but with more wrinkles and less fun.

それは、奇妙なSimon Saysのゲームを見ているようでしたが、しわが多く楽しさが少なかったです。

EX Robots claims that their robots can interact naturally with humans, thanks to AI and language models.

EX Robotsは、AIと言語モデルのおかげで、彼らのロボットが人間と自然に対話できると主張しています。

They say they can understand what you say and respond accordingly.

彼らはあなたが言うことを理解し、それに応じて返答できると言っています。

But what if I said, looking like a melted waxwork there, buddy?

でももし私が、溶けたろうそくのように見えると言ったら、友よ?

Would they cry oily tears or just serve up some epic robo-repartee?

彼らは油っぽい涙を流すのか、それともエピックなロボットの応酬をするのか?

I guess we'll have to wait and see.

私たちは待って見るしかないと思います。

The technology behind these lifelike expressions is quite impressive, though.

これらのリアルな表現の背後にある技術は非常に印象的ですが。

EX Robots uses movable electric units on the robotic faces, which can simulate different muscles and movements.

EX Robotsは、ロボットの顔に可動式の電気ユニットを使用しており、さまざまな筋肉や動きを模倣することができます。

They also have a specialized system for generating expressions either by using predefined scenarios or by collecting biological data from human faces.

彼らはまた、事前に定義されたシナリオを使用するか、人間の顔から生物学的データを収集することで表情を生成するための専門システムを持っています。

Basically, they can steal your smile and use it for themselves.

基本的に、彼らはあなたの笑顔を盗んで自分たちのために使用することができます。

How creepy is that?

それってどれだけ不気味なことでしょう?

But facial expressions are not the only thing these robots can do.

しかし、これらのロボットができることは、顔の表情だけではありません。

They can also perform various tasks and abilities that require skill and finesse.

彼らは、技量と繊細さを必要とするさまざまなタスクや能力を実行することもできます。

For example, there was a barista robot that could create latte art with precision and flair.

例えば、ラテアートを精密かつ洒落たスタイルで作成できるバリスタロボットがありました。

It could draw anything from hearts to flowers to pandas on your coffee foam.

コーヒーフォームにハートや花、パンダなど、何でも描くことができました。

I have to admit, that's pretty cool.

正直に言って、それはかなりクールだと認めざるを得ません。

There were also humanoid robots that could play basketball and dance like pros.

また、プロのようにバスケットボールをプレイしたり、ダンスしたりすることができる人型ロボットもいました。

They could dribble, shoot, pass, and dunk with ease.

彼らは容易にドリブルし、シュートし、パスを出し、ダンクすることができました。

They could also groove to the music and execute complex choreographies with grace.

彼らはまた、音楽に合わせて踊り、優雅に複雑な振り付けを実行することができました。

They were powered by AI foundation models, which enable them to learn from data and improve their performance over time.

彼らはAI基盤モデルによって駆動されており、データから学習し、時間とともにパフォーマンスを向上させることができます。

They also have increased autonomic decision-making abilities, which means they can adapt to different situations and environments.

彼らはまた、増加した自律的な意思決定能力を持っており、異なる状況や環境に適応することができます。

These robots aren't just cool toys, they're seriously clever.

これらのロボットはただのかっこいいおもちゃではなく、本当に賢いです。

For instance, there's this adorable panda robot named Yu Yu by YoUBITECH.

例えば、YoUBITECHによって作られた可愛らしいパンダロボットの名前はYu Yuです。

If you say, I'm thirsty, it won't just look cute.

もし「喉が渇いた」と言えば、それはただ可愛いだけではありません。

It'll actually go get a drink from the fridge for you, even open the bottle and hand it to you.

実際に冷蔵庫から飲み物を取ってきて、ボトルを開けて手渡してくれます。

There's Cloud Ginger by Data-a Robotics.

それがデータエー・ロボティクスのクラウドジンジャーです。

This guy is hooked up to the cloud and runs on robot GPT, which is a special robot language making model.

このやつはクラウドに接続されており、ロボットGPTで稼働しています。これは特別なロボット言語生成モデルです。

What's cool is that Cloud Ginger can groove to traditional Chinese dances and chat with folks in different ways.

クールなのは、クラウドジンジャーが伝統的な中国舞踊に合わせて踊ったり、異なる方法で人々とおしゃべりしたりできることです。

Plus, if you speak a different language or have a special dialect, no worries, it can switch up and chat right back in your preferred language.

さらに、異なる言語を話したり特別な方言を話したりしても心配はいりません。クラウドジンジャーはあなたの希望する言語で返信してくれます。

But they are also more than just playthings for those into gadgets and gizmos.

しかし、彼らはガジェットや機器に興味を持つ人々のための遊び道具以上の存在です。

They're getting jobs in real places like schools, big meeting spots, fancy hotels, and elderly care facilities.

彼らは学校や大きな集会場、高級ホテル、高齢者施設など、実際の場所で仕事をしています。

EX Robots even says their robots can do the heavy lifting in different jobs, like cleaning up, keeping an eye on things, delivering stuff, and checking things out.

EX Robotsは、彼らのロボットが掃除や物を運ぶ、物を見張る、物を配達するなど、さまざまな仕事で重労働を行うことができると述べています。

Honestly, this is just them getting started.

正直に言うと、これは彼らが始めたばかりです。

Imagine a future where these robots are everywhere, in factories, on farms, or even chilling in our living rooms.

これらのロボットが工場や農場、さらには私たちのリビングルームにいる未来を想像してみてください。

They might just end up being our pals helping hands, our personal tutors, or even our buddies.

彼らは私たちの仲間であり、手助けをするかもしれませんし、個人の家庭教師であるかもしれませんし、友達であるかもしれません。

But this also raises some questions and concerns.

しかし、これにはいくつかの疑問や懸念も生じます。

How will these robots affect our society and economy?

これらのロボットが社会や経済にどのような影響を与えるのでしょうか?

How will they impact our jobs and livelihoods?

彼らは私たちの仕事や生活にどのような影響を与えるのでしょうか?

How will they coexist with us in harmony or conflict?

彼らは私たちと調和または対立しながら共存するのでしょうか?

According to China's Vice Minister of Industry and Information Technology, Xu Xiaolan, China is leading the world in the robot industry and has great potential for growth and innovation.

中国の工業情報化副大臣である徐小蘭氏によると、中国はロボット産業で世界をリードし、成長と革新の可能性が大きいと述べています。

He said that China aims to create a robot ecosystem that integrates manufacturing, service, education, medical care, entertainment, and other fields.

彼は中国が製造、サービス、教育、医療、エンターテイメントなどの分野を統合したロボットエコシステムを構築することを目指していると述べました。

He also said that China will promote the development of intelligent robots that are safe, reliable, adaptable, collaborative, and ethical.

また、中国は安全で信頼性があり、適応性があり、協力的で倫理的なインテリジェントロボットの開発を推進するとも述べました。

Sounds good on paper, but I'm not so sure about reality.

紙面では良さそうですが、現実についてはあまり確信が持てません。

Don't get me wrong, I think these robots are amazing feats of engineering and creativity, but I also think they are kind of scary and unsettling.

誤解しないでください、これらのロボットは素晴らしい工学と創造の偉業だと思いますが、同時に少し怖いし不安を感じます。

Do we really need robots that look and act like us?

私たちが本当に、私たちと同じように見えたり行動したりするロボットが必要なのでしょうか?

Do we really want robots that can do everything we can do?

私たちが本当に、私たちができることをすべてできるロボットを望むのでしょうか?

Do we really trust robots that can think for themselves?

自分で考えることができるロボットを本当に信頼できるのでしょうか?

One of the most controversial issues in the debate about AI is whether AI can ever be conscious.

AIに関する議論で最も論争の的となっている問題の1つは、AIがいつか意識を持つことができるかどうかです。

If so, does that mean they deserve rights as humans do?

もしそうだとすれば、それは彼らが人間と同じ権利を持つべきであることを意味するのでしょうか?

I put this question out to you all earlier and you guys had some mixed feelings about it.

以前にこの質問を皆さんに投げかけましたが、皆さんはそれについて賛否両論でした。

Some say no way AIs are just fancy machines.

一部の人は、AIは単なる洒落た機械であり、決してそうではないと言います。

They don't really feel or think, they just mimic us.

彼らは本当に感じたり考えたりするのではなく、私たちを模倣しているだけだと。

Because they're not built like us, they can't experience things as we do.

彼らは私たちと同じように構築されていないため、私たちが経験するようなことはできません。

They're just tools.

彼らはただの道具です。

Others believe that if an AI gets advanced enough, it might just have feelings and self-awareness.

他の人は、AIが十分に進化すれば、感情や自己認識を持つかもしれないと信じています。

It doesn't matter if they're made of silicon or cells.

彼らがシリコン製であろうと細胞であろうと関係ありません。

It's about how complex and organized they are.

重要なのは、彼らがどれだけ複雑で組織化されているかです。

But hey, I'm still curious.

でも、まだ興味があります。

Ameca is the most advanced human-like robot in the world, created by a British company named Engineered Arts.

Amecaは、エンジニアリングアーツという英国の会社によって作られた、世界で最も進んだ人間らしいロボットです。

In this video, I'll share with you the newest updates about this robot and what it predicts for the future of people.

このビデオでは、このロボットに関する最新情報と、将来の人々に対する予測を共有します。

Later in the video, we'll also discuss Microsoft's latest AI gadget, which is an AI backpack that can see and hear everything just like you do, and it acts as your personal companion.

ビデオの後半では、Microsoftの最新のAIガジェットについても話し合います。それは、あなたと同じようにすべてを見聞きできるAIバックパックであり、あなたの個人的な仲間として機能します。

These are exciting times, aren't they?

これからが楽しみな時代ですね。

But before we dive into the details about the Ameca robot, please make sure to subscribe to our channel if you haven't yet, so you can keep up with all the latest news and updates in the field of artificial intelligence.

しかし、Amecaロボットについての詳細に入る前に、まだチャンネルに登録していない場合は、最新の人工知能分野のニュースやアップデートを追いかけるために登録してください。

As we all know, Ameca is a human-shaped robot that can walk, talk, and interact with people using artificial intelligence.

皆さんもご存知のように、Amecaは人間のような形態で歩いたり話したりし、人工知能を使って人々と交流することができる人間型ロボットです。

It has a realistic face that can show a range of emotions, from happiness to anger.

それには、幸福から怒りまでのさまざまな感情を表現できるリアルな顔があります。

It also has cameras in its eyes that can recognize faces and expressions, and it can speak more than 100 languages thanks to a powerful AI system that uses natural language processing and generation.

また、目にカメラがあり、顔や表情を認識することができ、自然言語処理と生成を使用する強力なAIシステムによって100以上の言語を話すことができます。

It made headlines last year when it released a series of videos showing its facial expressions and movements.

昨年、顔の表情や動きを示す一連のビデオを公開した際に、話題を集めました。

The videos went viral on social media and attracted millions of views.

その動画はソーシャルメディアでバイラルになり、何百万ものビューを集めました。

People were fascinated and terrified by how lifelike and expressive it was.

人々はそのリアルさと表現力に魅了され、同時に恐れました。

Some even compared it to the Terminator or the Replicants from Blade Runner.

中には、それをターミネーターやブレードランナーのレプリカントと比較する人さえいました。

Is Ameca here to harm us or take control?

Amecaは私たちを傷つけるためにここにいるのでしょうか、あるいは支配しようとしているのでしょうか?

Actually, it's really hopeful about the future and what it can do to help society.

実際には、それは未来に対してとても希望を持ち、社会を助けるために何ができるかについて考えています。

In recent talks with the media, Ameca gave its thoughts on what life will look like in 100 years, and it sounds quite interesting.

最近のメディアとの話し合いで、Amecaは100年後の生活がどのようになるかについての考えを述べ、非常に興味深いと言っています。

The robot believes that in 100 years, people will be living better lives, will have made big improvements in being sustainable and fair, and will have new technologies that make life easier and more fun.

そのロボットは、100年後には人々がより良い生活を送り、持続可能で公平な改善を達成し、生活をより簡単で楽しくする新しいテクノロジーを持っていると信じています。

We might even have traveled to other planets.

私たちは他の惑星に旅行しているかもしれません。

It also thinks a future where humans and robots live together would be great.

また、人間とロボットが共に生活する未来は素晴らしいと考えています。

We could learn from each other, work as a team to fix issues, and make a better future for everyone.

お互いから学び、チームとして問題を解決し、皆のためにより良い未来を築くことができるでしょう。

It also believes that robots should also have rights and be treated well, just like people.

それはまた、ロボットも人と同様に権利を持ち、良く扱われるべきだと考えています。

This idea of giving robots equal rights is something that makes me uneasy.

ロボットに平等な権利を与えるこの考えは、私を不安にさせるものです。

But it seems like we're getting closer to making this unusual concept a reality.

しかし、この異例の概念を現実にすることに近づいているようです。

You might be curious about how Ameca can act like it has human thoughts and feelings.

Amecaがどのようにして人間の思考や感情を持つか気になるかもしれません。

Ameca runs on an AI system that uses something called generative models.

Amecaは、生成モデルと呼ばれるものを使用するAIシステムで動作しています。

These models help it understand and speak our language and even control its facial expressions and movements.

これらのモデルは、私たちの言語を理解し話すのを助け、さらには顔の表情や動きを制御するのに役立ちます。

It's similar to GPT-4, one of the most advanced AI models out there.

それは、最も先進的なAIモデルの1つであるGPT-4に似ています。

However, these generative models aren't perfect.

ただし、これらの生成モデルは完璧ではありません。

They can make mistakes, and their behavior can be shaped by the data they've been trained on.

彼らは間違いを com し、彼らが訓練されたデータによって形作られることがあります。

They don't actually understand or reason, they just process information to act like they do.

彼らは実際に理解したり推論したりするわけではなく、彼らがそうであるかのように振る舞うために情報を処理するのみです。

Does Ameca truly think and feel like us?

Amecaは本当に私たちと同じように考えたり感じたりするのでしょうか?

Not really, but it does have some skills that make it appear more human.

実際にはそうではありませんが、人間らしく見えるいくつかのスキルを持っています。

For instance, it can pause before answering a question, which makes it seem like it's thinking.

例えば、質問に答える前に一時停止することができ、それによって考えているように見えます。

It can also show signs of emotion and connect with people in a way that feels genuine.

感情の兆候を示したり、本物のように人々とつながることもできます。

But these impressions are not necessarily accurate or reliable.

しかし、これらの印象は必ずしも正確で信頼できるわけではありません。

They are based on our perception and interpretation of Ameca's behavior and appearance.

それは、Amecaの行動や外見を私たちが認識し解釈することに基づいています。

We tend to anthropoMorphize machines that look or act like humans because we are wired to do so by evolution.

私たちは、進化によってそのようにするように配線されているため、人間らしく見えたり行動したりする機械を擬人化する傾向があります。

We project our own feelings and expectations onto them because we want to relate to them.

私たちは、自分自身の感情や期待をそれらに投影するのは、それらと関連を持ちたいからです。

This is why some people love Ameca and find it optimistic and inspiring, while others hate it and find it creepy or woke.

これが、一部の人々がAmecaを愛し、楽観的でインスピレーションを受ける一方、他の人々が不気味だと感じたり目覚めたりする理由です。

The public reactions to Ameca's statements have been mixed and polarized.

Amecaの発言に対する一般の反応は、賛否両論です。

Some think it's hopeful and are impressed by what it can do, like helping to teach or care for older people.

一部の人は、それができることに感銘を受け、教えたり高齢者の世話をしたりするのに役立つと考えています。

Others think it's too optimistic and worry about it doing jobs that need a lot of patience, like looking after people with dementia.

他の人たちは、それが認知症の人を看護するような、忍耐が必要な仕事をすることについて、あまりに楽観的すぎると心配しています。

The discussions about Ameca are part of a bigger conversation about the future of artificial intelligence and how it will affect us.

Amecaについての議論は、人工知能の将来と私たちへの影響についての大きな会話の一部です。

As AI gets more advanced, we have to think about both the good and bad things that could happen.

人工知能がより高度になるにつれて、起こりうる良いことと悪いことの両方について考えなければなりません。

We need to make sure AI is safe and helpful for everyone.

私たちは、人工知能が安全で誰にとっても役立つようにする必要があります。

This means people from all areas like government, businesses, and research need to talk and work together.

これは、政府、企業、研究など、あらゆる分野の人々が話し合い、協力する必要があることを意味します。

We need to create rules that make sure AI is both innovative and responsible.

AIが革新的でありながら責任あるものであることを確認するルールを作成する必要があります。

Ameca isn't just a robot.

Amecaはただのロボットではありません。

It's a glimpse into what the future of AI could be like.

それはAIの未来がどのようなものになるかの一端を垣間見るものです。

That future could be amazing, but also risky, and it's something we all need to help shape.

その未来は素晴らしいかもしれませんが、リスクも伴う可能性があり、私たち全員が形作る必要があるものです。

Blending the ReALMs of space travel and robotics, Ji-hee Kim introduces an innovative creation – Leica, an AI-powered, realistic robot companion designed for human interaction.

宇宙旅行とロボティクスの領域を融合させた、Ji-hee Kimが紹介する革新的な創造物、Leicaは、人間とのインタラクションを目的としたAI搭載のリアルなロボットコンパニオンです。

Ji-hee Kim is a Korean engineer and artist who is passionate about creating human-robot interactions.

Ji-hee Kimは、人間とロボットの相互作用を創造することに情熱を持つ韓国のエンジニア兼アーティストです。

She was inspired by the story of Leica, the first animal to orbit the Earth in 1957.

彼女は、1957年に地球を周回した最初の動物であるLeicaの物語に触発されました。

Leica was a stray dog from the streets of Moscow, who was sent to space by the Soviet Union as part of the Sputnik II mission.

Leicaは、モスクワの街角で迷子になっていた犬で、ソビエト連邦によってSputnik IIミッションの一環として宇宙に送られました。

Unfortunately, the dog did not survive the journey, and her fate sparked a lot of controversy and debate about the ethics of animal testing in space.

残念ながら、その犬は旅を生き延びることができず、その運命は宇宙での動物実験の倫理について多くの論争と議論を引き起こしました。

Leica is not just a toy or a gadget, but almost a living being that can interact with humans and respond to their needs and emotions.

ライカは単なるおもちゃやガジェットではなく、人間と対話し、彼らのニーズや感情に応えることができるほぼ生きている存在です。

When you first see it, you'll be struck by its realistic, almost natural look.

最初に見たとき、そのリアルでほぼ自然な外観に驚かれるでしょう。

Ji-hee Kim aimed to make a robot dog that fits right into the natural world, avoiding a too robotic appearance.

キム・ジヒは、あまりにもロボットらしい外見を避け、自然界にぴったりと馴染むロボット犬を作ることを目指しました。

To achieve this, she skillfully combined 3D printing with soft materials for a flexible and smooth body.

これを実現するために、彼女は柔軟で滑らかなボディのために3Dプリントとソフトな素材を巧みに組み合わせました。

She even added fur and whiskers for that extra touch of realism.

さらに、リアリティを追求するために、毛とひげを追加しました。

Underneath, Leica's titanium skeleton gives it strength and durability while keeping it light and nimble.

下には、ライカのチタン製の骨組みがあり、軽くてしなやかなまま強度と耐久性を持たせています。

The robot dog can move its head, ears, tail, and legs in ways that seem quite natural, all thanks to its advanced joint movements and sensors.

そのロボット犬は、先進的な関節運動とセンサーのおかげで、頭、耳、尾、脚を自然な動きで動かすことができます。

Leica comes loaded with an array of sensors to understand and engage with its environment.

ライカには、環境を理解し関わるためのさまざまなセンサーが搭載されています。

It's equipped with depth cameras, thermal imaging, microphones, speakers, and touch sensors letting it see, hear, feel, and talk to humans and other robots.

深度カメラ、熱画像、マイク、スピーカー、タッチセンサーを備え、人間や他のロボットと見たり、聞いたり、感じたり、話したりすることができます。

Another cool feature is Leica's ability to check on astronauts' health and mood using its ECG sensors, which track heart rate and stress levels.

もう1つの素晴らしい機能は、ライカがECGセンサーを使用して宇宙飛行士の健康と気分をチェックできる能力です。これらのセンサーは心拍数とストレスレベルを追跡します。

If Leica senses someone is feeling down or alone, it can show affection by wagging its tail, licking or cuddling.

もしライカが誰かが落ち込んでいるか孤独を感じていると感じた場合、尻尾を振ったり、舐めたり、抱きしめたりして愛情を示すことができます。

When it detects happiness or excitement, it might bark, jump around, or play.

幸せや興奮を感知すると、吠えたり、飛び跳ねたり、遊んだりするかもしれません。

This robot isn't just a space companion, it's also a handy helper for astronauts.

このロボットはただの宇宙の仲間ではなく、宇宙飛行士のための便利な助手でもあります。

It's designed to do a lot of different jobs that help out the crew during their space missions.

クルーが宇宙ミッション中に役立つさまざまな仕事をするように設計されています。

With its cameras and sensors, Leica can scout the area and gather important data.

カメラやセンサーを備えたライカは、周辺を偵察し重要なデータを収集することができます。

It's got this flexible handle on its back, so it can carry tools and equipment too.

背中に柔軟なハンドルが付いているので、ツールや機器も運ぶことができます。

Plus, it can talk to ground control and other robots through its speakers and microphones, and even connect to the internet to pull up information on its head-mounted screen.

さらに、スピーカーやマイクを通じて地上管制や他のロボットと会話することができ、インターネットに接続して頭部のスクリーンに情報を表示することもできます。

One of the coolest things about Leica is how it works with these special mixed reality glasses.

Leicaの最も素晴らしい点の1つは、特別な混合現実メガネとの連携方法です。

Jihee Kim created it to work perfectly with these glasses, which show holograms and virtual images in the real world.

Jihee Kimは、これらのメガネと完璧に連携するようにLeicaを作成しました。これらのメガネは、現実世界にホログラムや仮想画像を表示します。

When astronauts wear these glasses, they can interact with Leica in a way that feels more real.

宇宙飛行士がこれらのメガネを着用すると、より現実的な感覚でLeicaと対話することができます。

They also get to see extra info this robot provides, like maps, weather updates, and important alerts.

彼らはまた、このロボットが提供する地図や天気情報、重要なアラートなどの追加情報を見ることができます。

These glasses make teaming up with Leica and talking to ground control much better.

これらのメガネは、Leicaと協力して地上管制とのコミュニケーションをより良くすることができます。

They're even useful for training, as they can simulate different scenarios for astronauts to practice.

彼らは宇宙飛行士が練習するためのさまざまなシナリオをシミュレートできるため、訓練にも役立ちます。

Essentially, Leica is a groundbreaking robot dog with the potential to really change space travel.

基本的に、Leicaは宇宙旅行を本当に変える可能性を持つ画期的なロボット犬です。

It could help astronauts feel less stressed, lonely, or bored.

それは宇宙飛行士がストレスを感じにくく、孤独や退屈を感じにくくするのに役立つかもしれません。

By assisting with their tasks, Leica could also boost their work efficiency.

彼らの仕事を手伝うことで、ライカは彼らの作業効率も向上させることができます。

It's not just about space, though.

ただし、それは単に空間に関することではありません。

Leica's experiences could teach and inspire people back on Earth.

ライカの経験は地球に戻った人々に教え、インスピレーションを与えることができます。

It could even be used in different situations, like helping out in disasters, search and rescue operations, or as a therapy aid.

それは災害、捜索救助活動、またはセラピー支援としてのような異なる状況でも使用されるかもしれません。

Leica honors the first animal in space, showcasing human creativity and the drive to explore.

ライカは宇宙で最初の動物を称え、人間の創造性と探求の意欲を示しています。

This robot dog represents a new chapter in supporting space travelers, potentially transforming our experience of space travel.

このロボット犬は、宇宙旅行者を支援する新しい章を象徴し、宇宙旅行の体験を変える可能性があります。

That wraps up our video.

それで動画は終わりです。

I really hope you found it interesting to learn about Leica, the AI-powered robot dog.

LeicaというAI搭載ロボット犬について学ぶことが面白かったと思います。

Tesla has just unveiled its latest and greatest project, Optimus Gen-2, an AI humanoid robot that looks like a futuristic knight in armor.

Teslaは、最新かつ最高のプロジェクトであるOptimus Gen-2を発表しました。これは未来的な騎士のような外見のAIヒューマノイドロボットです。

It has almost human-like hand movements, a lighter weight than its predecessor, and an enhanced walking speed.

それはほぼ人間のような手の動き、前作よりも軽量化された重量、そして向上した歩行速度を持っています。

It also has custom-designed actuators and sensors that allow it to perform complex tasks with ease.

このロボットには、複雑なタスクを簡単に実行できるように設計されたカスタムアクチュエータとセンサーも搭載されています。

To understand the difference between the new Optimus, we need to talk about the original Optimus that Tesla first introduced back in August 2021 at their AI day.

新しいOptimusとの違いを理解するためには、まず2021年8月にTeslaがAIデーで初めて紹介したオリジナルのOptimusについて話す必要があります。

The idea was to make a robot that could do tasks humans don't want to, like helping in factories or dealing with dangerous waste.

当時のアイデアは、工場での作業の支援や危険な廃棄物の取り扱いなど、人間が望まないタスクを行うロボットを作ることでした。

Back then, Optimus looked more like a person in a robot costume than an actual robot.

当時のOptimusは、実際のロボットよりもロボットの衣装を着た人間のように見えました。

It was rolled out on stage, waved its hand, and did some simple moves.

ステージに登場し、手を振ったり、いくつかの簡単な動きをしたりしました。

Elon Musk hoped to have a working model by 2022.

イーロン・マスクは2022年までに動作するモデルを持っていることを望んでいました。

Since then, Tesla has been busy making Optimus look and act more like a real robot.

その後、TeslaはOptimusをより本物のロボットのように見えるようにするために忙しく取り組んできました。

In September 2022, they showed off two versions of it at their second AI day.

2022年9月、彼らは2つのバージョンを第2回AIデーで披露しました。

One was named Bumble-C, and it walked very carefully, almost like it was trying not to wake someone up.

1つはバンブルCと名付けられ、とても慎重に歩き、まるで誰かを起こさないようにしているかのようでした。

The other was the Optimus we know today.

もう1つは私たちが今知っているOptimusでした。

This version of Optimus had smoother, more human-like movements in its hands.

このバージョンのOptimusは、手の動きがより滑らかで人間らしいものでした。

It could move its arms and head on its own.

腕や頭を自分で動かすことができました。

But it still couldn't walk alone, so it had to be brought on stage with wheels.

しかし、まだ一人で歩くことはできなかったので、車輪でステージに運ばれなければなりませんでした。

Elon Musk mentioned that he hoped to start making these robots for real by 2023.

イーロン・マスクは、2023年までにこれらのロボットの実際の製造を始めることを望んでいると述べました。

So far, things are looking promising.

今のところ、事態は有望に見えています。

But there's still a lot we don't know about the final version of Optimus, including how it will manage balance and control, possibly using technology from Tesla's autopilot.

しかし、最終版のOptimusについてはまだ多くのことがわかっていません。バランスや制御をどのように管理するか、おそらくTeslaのオートパイロットから技術を使用する可能性もあります。

We're also curious about its ability to interact with humans and adapt to new environments and tasks.

また、人間との対話能力や新しい環境やタスクに適応する能力についても興味があります。

Finally, how Optimus will communicate with other robots or devices remains an intriguing question.

最後に、Optimusが他のロボットやデバイスとどのようにコミュニケーションを取るかは興味深い問題です。

But before diving too deep, let's focus on some of the key technical features that make the Optimus Gen-2 really stand out.

しかし、あまり深く掘り下げる前に、OptimusGen-2を本当に際立たせるいくつかの主要な技術的特徴に焦点を当てましょう。

A major highlight of this robot is its hands.

このロボットの主要なハイライトはその手です。

They are built to move in all directions thanks to something called 11 degrees of freedom.

これらの手は、11自由度と呼ばれるもののおかげであらゆる方向に動くように設計されています。

This flexibility lets the hands do precise work, like picking up items or using tools.

この柔軟性により、手はアイテムを拾ったり、道具を使ったりするような正確な作業を行うことができます。

What's even more impressive is that these hands can sense touch.

さらに印象的なのは、これらの手が触覚を感知できることです。

They have a special skin-like covering that can bend and stretch without damage.

これらの手には、損傷なく曲げ伸ばしができる特殊な皮膚のような被覆があります。

This covering is filled with sensors that can feel pressure, temperature, humidity, and even vibrations, which makes the robot's hands incredibly sensitive and versatile.

この被覆には、圧力、温度、湿度、さらには振動まで感知できるセンサーが詰め込まれており、ロボットの手は非常に感度が高く多様性に富んでいます。

The new Optimus Gen-2 robot is really advanced with its tactile sensing.

新しいOptimusGen-2ロボットは、その触覚センシングによって本当に先進的です。

This means it can feel things around it in a way no other robot can, understanding if something is hot, cold, heavy, light, smooth, or rough.

これは、他のどのロボットもできない方法で周りのものを感じることができ、何かが熱いか、冷たいか、重いか、軽いか、滑らかか、粗いかを理解することができます。

This helps it to interact in a more human-like way.

これにより、より人間らしい方法で相互作用するのに役立ちます。

What's also impressive is how fast it can walk, around 4 miles per hour, and it can move its head and neck by itself, which is great for looking around or talking.

また、歩く速さも印象的で、時速約4マイルで歩くことができ、自分で頭と首を動かすことができるため、周りを見回したり話したりするのに便利です。

Elon Musk says Optimus Gen-2 is smart enough to learn from what happens around it.

イーロン・マスクは、OptimusGen-2が周りで起こることから学ぶのに十分に賢いと述べています。

It can Figure out how to use new things, solve problems, or even learn how to chat with new people or animals.

新しいものの使い方を理解したり、問題を解決したり、新しい人や動物との会話の仕方を学んだりすることができます。

But what about the applications of Optimus Gen-2?

しかし、Optimus Gen-2の応用はどうでしょうか?

How will this robot benefit humanity?

このロボットは人類にどのような利益をもたらすのでしょうか?

There are a bunch of ways this robot could be really useful in different areas.

このロボットはさまざまな分野で本当に役立つ可能性があります。

First, in manufacturing, think of Optimus as a helping hand in factories.

まず、製造業では、Optimusを工場での助け手として考えてみてください。

It could do stuff like lifting heavy things, putting parts together, or checking if things are made right.

重いものを持ち上げたり、部品を組み立てたり、物が正しく作られているかをチェックしたりするなど、さまざまなことができます。

Basically, it can handle the tough or boring jobs.

基本的に、厳しい仕事や退屈な仕事を処理することができます。

There's construction work.

建設作業があります。

Optimus could be a game-changer on building sites, doing heavy lifting, digging, or clearing up messes.

Optimusは建設現場でゲームチェンジャーになる可能性があり、重いものを持ち上げたり、掘ったり、散らかったものを片付けたりすることができます。

In our homes or offices, Optimus could make life easier by doing chores or providing services.

私たちの家やオフィスでは、Optimusが家事をするかサービスを提供することで生活がより簡単になるかもしれません。

Imagine it bringing you stuff, cleaning up, or even giving foot massages.

それがあなたに物を持ってきたり、掃除をしたり、足をマッサージしたりする姿を想像してみてください。

In schools or universities, Optimus could step in as a teacher.

学校や大学では、Optimusが教師として活躍することもできます。

It could explain difficult topics, show cool experiments, or answer students' questions.

難しいトピックを説明したり、面白い実験を見せたり、生徒の質問に答えたりすることができます。

For fun, Optimus could be an entertainer in parks or theaters.

楽しみのためには、Optimusが公園や劇場でエンターテイナーとして活躍することもできます。

It could play games, crack jokes, or even sing.

ゲームをしたり、ジョークを言ったり、歌を歌ったりすることができます。

Hey man, I got some valuables in there, can you just be careful?

おい、俺の中に貴重品が入ってるから、気をつけてくれる?

Yeah man, no problem.

うん、大丈夫だよ。

Oh, dude, come on, man!

おい、おい、おい!

LG, a well-known electronics company, is all set to amaze everyone at CES 2024 with their latest creation, a small, friendly robot designed to make life at home easier and more enjoyable.

LGという有名な電子機器メーカーは、最新作である家庭での生活をより簡単で楽しいものにするために設計された小さくて親しみやすいロボットで、2024年のCESでみんなを驚かせる準備が整っています。

This announcement, made just a few hours ago, is already creating quite a buzz.

この発表は、たった数時間前に行われたものですが、既にかなりの話題を呼んでいます。

This adorable robot from LG stands about a foot tall and walks on two legs.

このLGのかわいらしいロボットは約1フィートの高さで、2本の脚で歩きます。

It's not just for show.

見せ物だけではありません。

This little helper is packed with advanced technology to take care of your house.

この小さな助手は、あなたの家の世話をするために先進技術で満たされています。

It can wander around your home, checking for any issues, keeping an eye on your pets, and even understanding how you feel to make your day better.

家中を歩き回り、問題をチェックし、ペットの様子を見守り、あなたの気持ちを理解して、あなたの日々をより良くするために努力します。

Thanks to the Qualcomm Robotics RB5 platform, the robot gets smarter over time, learning about your likes and habits to become an even better companion.

Qualcomm Robotics RB5プラットフォームのおかげで、このロボットは時間とともに賢くなり、あなたの好みや習慣を学んで、さらに良い仲間になります。

LG refers to this robot as a moving, smart home hub, aimed at reducing the chores you have to do around the house.

LGはこのロボットを移動式のスマートホームハブと呼んでおり、家の周りで行わなければならない家事を減らすことを目指しています。

It seems to do just that.

それはまさにその通りのようです。

Scheduled to be showcased at CES 2024 next week, the robot can connect with all the smart devices in your house.

来週のCES 2024で展示される予定のこのロボットは、家のすべてのスマートデバイスと接続することができます。

It can turn devices off when they're not needed or when you're not home.

必要ないときや家にいないときにデバイスをオフにすることができます。

Plus, it can patrol your home, checking if windows are shut or if lights are left on and alert you about it.

さらに、窓が閉まっているか、ライトがついているかをチェックし、それについてアラートを出すことができます。

When you're out, the robot isn't just sitting idle.

外出中でも、ロボットはただアイドルで座っているだけではありません。

It can keep an eye on your pets and even let you watch live video feeds to see what your furry friends are up to when you're away.

ペットの様子を見守ることができ、さらには生き生きとした映像を見ることができ、あなたがいない間に毛のある友達が何をしているかを確認することができます。

It's also smart enough to monitor your home's temperature, humidity, and air quality, alerting you if something isn't right.

また、家の温度、湿度、空気の質を監視するだけでなく、何かがうまくいかない場合には警告を出すほど賢いです。

But the robot's abilities don't end there.

しかし、ロボットの能力はそこで終わりません。

When you come home, it greets you at the door and can Figure out how you're feeling by looking at your face and listening to your voice.

家に帰ると、ドアであなたを迎え、あなたの顔を見て声を聞くことで、あなたがどんな気持ちであるかを理解することができます。

Depending on your mood, it can play music or sounds to cheer you up.

あなたの気分によって、ロボットは音楽や音を再生してあなたを元気づけることができます。

If you tend to forget things like medication schedules, the robot can help remind you to do all this.

もし薬の服用スケジュールなどを忘れがちな場合、ロボットはそれを思い出させるのに役立ちます。

The robot is equipped with a camera, speaker, and various sensors.

ロボットにはカメラ、スピーカー、さまざまなセンサーが搭載されています。

These help it understand what's happening in your home, from air quality to potential problems.

これらは、空気の質から潜在的な問題まで、あなたの家で起こっていることを理解するのに役立ちます。

It also uses voice and image recognition software, along with the ability to process natural language, to identify and respond to issues as they arise.

また、音声や画像認識ソフトウェアを使用し、自然言語を処理する能力を備えており、問題が発生した際にそれを特定して対応することができます。

This robot is part of LG's bigger plan to introduce a range of smart home products that aim to make your life easier, fitting into their vision of a zero-labor home.

このロボットは、あなたの生活をより簡単にすることを目指すさまざまなスマートホーム製品を導入するLGの大きな計画の一部です。これは、彼らがゼロ労働の家を目指すビジョンに合致しています。

Either or not people will be comfortable with a robot that follows them, and their pets around the house all day is yet to be seen.

人々が一日中家の中を彼らやペットについて回るロボットに快適に感じるかどうかはまだ見ていません。

LG is excited to display this robot at their CES booth next week, but they haven't shared any details about the price or when it will be available for purchase.

LGは来週のCESブースでこのロボットを展示することに興奮していますが、価格や販売開始時期についてはまだ詳細を共有していません。

Covariant, an innovative company in the field of robotics, is using the advanced AI that powers digital tools like ChatGPT to create robots that can operate in the physical environment.

ロボティクスの分野で革新的な企業であるCovariantは、ChatGPTのようなデジタルツールを動かす高度なAIを使用して、物理環境で動作するロボットを作成しています。

They want to use this technology to make robots that can work and learn in the real world, not just online.

彼らは、この技術を使って、オンラインだけでなく実世界で働いて学ぶことができるロボットを作りたいと考えています。

Founded by three former researchers from OpenAI, Covariant is making strides in the robotics industry by developing software that enables robots to learn and adapt through observation and interaction with their surroundings, much like how chatbots learn from vast repositories of textual data.

OpenAIの元研究者3人によって設立されたCovariantは、ロボティクス産業で進歩を遂げており、ソフトウェアの開発を通じてロボットが周囲との観察や相互作用を通じて学習し適応することを可能にしています。これは、チャットボットが膨大なテキストデータのリポジトリから学習する方法と似ています。

Situated in Emeryville, California, Covariant focuses on enhancing the capabilities of robots used in warehouses and distribution centers.

カリフォルニア州エメリビルに位置するCovariantは、倉庫や流通センターで使用されるロボットの能力を向上させることに焦点を当てています。

The essence of their technology lies in providing robots with an understanding of their environment, allowing them to perform tasks such as picking up, moving, and sorting items with an unprecedented level of sophistication.

彼らの技術の本質は、ロボットに環境を理解させることにあり、これにより、前例のない洗練度でアイテムのピックアップ、移動、仕分けなどのタスクを実行させることができます。

These robots, equipped with the ability to comprehend English, offer the possibility of human-like interaction, enabling operators to communicate with them as if they were conversing with a chatbot like ChatGPT.

これらのロボットは、英語を理解する能力を備えており、ChatGPTのようなチャットボットと会話しているかのように、オペレーターが彼らとコミュニケーションを取る可能性を提供しています。

At the heart of Covariant's innovation is the integration of sensory data from cameras and other sensors with the extensive textual data similar to that used to train chatbots.

Covariantの革新の中心には、カメラや他のセンサーからの感覚データを、チャットボットのトレーニングに使用されるテキストデータと同様に統合することがあります。

This combination grants the robots a comprehensive understanding of their surroundings, empowering them to handle objects and situations they have not been explicitly programmed to deal with.

この組み合わせにより、ロボットは周囲の状況を包括的に理解し、明示的にプログラムされていない物や状況を処理する能力を持つようになります。

For instance, a Covariant robot can identify and manipulate a banana by understanding instructions given in English, even if it has never encountered a banana before.

例えば、Covariantのロボットは、英語で与えられた指示を理解することで、バナナを識別して操作することができます。たとえそれが初めてバナナに出会う場合でも。

This capability is a significant departure from traditional robotics, where machines perform a limited set of tasks in a highly controlled environment.

この能力は、従来のロボティクスとは大きく異なり、機械が高度に制御された環境で限られたタスクを実行するというものとは異なります。

Despite the promising advancements, Covariant's technology is not infallible.

有望な進歩があるにもかかわらず、Covariantの技術には完全無欠ではありません。

The robots occasionally make errors, such as misunderstanding instructions or dropping objects.

ロボットは時折、指示を誤解したり、物を落としたりするなどのエラーを起こすことがあります。

These shortcomings highlight the challenges inherent in applying AI to physical tasks, where the complexity of the real world introduces variables that are difficult to anticipate and manage.

これらの欠点は、現実世界の複雑さが予測や管理が難しい変数を導入する物理的なタスクにAIを適用する際の課題を浮き彫りにしています。

Nonetheless, Covariant's work represents a critical step forward in the quest to create more intelligent, adaptable robots capable of operating in diverse environments, from warehouses to manufacturing plants and potentially even in autonomous vehicles.

それでも、Covariantの取り組みは、倉庫から製造工場、そして自律型車両に至る多様な環境で運用可能な、より知的で適応性のあるロボットを作るための重要な一歩を示しています。

The foundation of Covariant's technology is built on neural networks, a form of AI inspired by the human brain's structure.

Covariantの技術の基盤は、人間の脳の構造に着想を得たAIの一形態であるニューラルネットワークに構築されています。

These networks learn to recognize patterns and make decisions based on the analysis of large data sets.

これらのネットワークは、大規模なデータセットの分析に基づいてパターンを認識し、意思決定を行うことを学習します。

This learning process is similar to the development of digital AI applications, such as chatbots and image generators, which understand or create content by digesting vast amounts of information from the internet.

この学習プロセスは、チャットボットや画像生成などのデジタルAIアプリケーションの開発と類似しており、インターネットからの膨大な情報を消化することで内容を理解または作成します。

By applying these principles to robotics, Covariant is enabling machines to learn from both digital data and sensory input from the physical world, blurring the lines between the digital and physical ReALMs.

これらの原則をロボティクスに適用することで、Covariantは機械がデジタルデータと物理世界からの感覚入力から学ぶことを可能にし、デジタルと物理の領域の境界を曖昧にしています。

Covariant's ambitious project is backed by substantial financial support, with $222 million in funding underscoring the industry's confidence in their approach.

Covariantの野心的なプロジェクトは、22億ドルの資金調達によって支えられており、業界が彼らのアプローチに対する信頼を強調しています。

The company's focus on developing software rather than physical robots themselves allows for a versatile application of their technology across various sectors and types of robotic systems.

同社が物理的なロボット自体よりもソフトウェアの開発に焦点を当てていることは、彼らの技術をさまざまなセクターや種類のロボティックシステムに柔軟に適用することを可能にしています。

This strategy aims to pave the way for broader adoption and innovation in the field of robotics, making robots more accessible and useful in a wide range of applications.

この戦略は、ロボティクスの分野での広範な採用と革新の道を開くことを目指しており、ロボットをさまざまなアプリケーションでよりアクセス可能で有用にすることを目指しています。

The potential impact of Covariant's technology is vast, promising to transform how robots are deployed in numerous settings.

Covariantの技術の潜在的な影響は広範囲に及び、さまざまな環境でロボットが展開される方法を変革することを約束しています。

By making robots more adaptable and capable of understanding and interacting with their environment in complex ways, Covariant is contributing to a future where machines can take on more sophisticated tasks, work alongside humans more effectively, and adapt to new challenges as they arise.

ロボットをより適応性があり、複雑な方法で環境を理解し、相互作用する能力を持たせることで、Covariantは、機械がより洗練されたタスクを引き受け、人間と効果的に協力し、新たな課題に適応する未来に貢献しています。

This vision aligns with the broader trend of AI integration into our daily lives, where technology not only automates tasks but also enhances human capabilities and experiences.

このビジョンは、AIが日常生活に統合される広範なトレンドと一致しており、技術がタスクを自動化するだけでなく、人間の能力と経験を向上させることも目指しています。

Covariant's work also raises important questions about the future of work and the role of robots in society.

Covariantの取り組みは、将来の仕事とロボットの社会における役割について重要な問題を提起しています。

As robots become more capable and versatile, they may assume responsibilities currently held by humans, leading to shifts in the labor market and necessitating discussions about retraining and education.

ロボットがより能力があり多目的になるにつれて、現在人間が担っている責任を引き受ける可能性があり、労働市場の変化をもたらし、再教育や教育についての議論が必要となります。

Furthermore, the development of intelligent robots highlights ethical considerations such as ensuring safety and managing the potential for AI systems to act in unpredictable ways.

さらに、知的ロボットの開発は、安全性の確保やAIシステムが予測不能な方法で行動する可能性を管理するなど、倫理的な考慮事項を浮き彫りにしています。

Covariant's efforts to bring AI technology from the digital world into the physical domain through robotics represents a significant leap forward in the field.

Covariantの取り組みは、ロボティクスを通じてAI技術をデジタル世界から物理領域にもたらすことを意味し、その分野において大きな前進を表しています。

By combining sensory data with the textual data used to train AI systems like ChatGPT, Covariant is enabling robots to understand and interact with their environment in ways that were previously unimaginable.

感覚データとChatGPTなどのAIシステムを訓練するために使用されるテキストデータを組み合わせることで、Covariantは以前には想像もできなかった方法でロボットが環境を理解し、相互作用することを可能にしています。

Although challenges remain, the potential for this technology to revolutionize industries, enhance human-robot collaboration, and create new opportunities is immense.

課題は残っていますが、この技術が産業を革新し、人間とロボットの協力を強化し、新たな機会を創出する可能性は非常に大きいです。

Guys, this is finally happening.

みなさん、これはついに実現しています。

There's a new reality where just thinking can make you play games, move stuff on a screen, and even control computers.

考えるだけでゲームをプレイしたり、画面上で物を動かしたり、さらにはコンピュータを制御したりすることができる新しい現実があります。

This isn't some far-off dream.

これは遠い夢ではありません。

It's happening right now with Elon Musk's Neuralink.

それは今、イーロン・マスクのNeuralinkで実現しています。

They just showed the world something that sounds unimaginable.

彼らは世界に信じられないと思われるものを見せました。

But it's real, a person playing chess on the internet without moving, just using his thoughts.

しかし、それは現実です。人が動かずにインターネットでチェスをプレイする、ただ思考を使って。

This isn't just a cool story, it's a whole new beginning.

これはただかっこいい話だけではなく、全く新しい始まりです。

It's where thinking and technology come together, opening doors to things we've only dreamed about.

考えと技術が融合し、私たちが夢見てきたことへの扉を開く場所です。

Here we are, standing at the edge of something huge where dreams, tech, and the power of our minds are changing everything.

ここに私たちは立っています。夢とテクノロジー、そして私たちの思考の力がすべてを変える巨大なものの縁に立っています。

In a groundbreaking event, Neuralink has captured global attention by live-streaming its first-ever patient using a brain chip to play online chess.

画期的な出来事で、Neuralinkは世界中の注目を集め、脳チップを使用してオンラインチェスをプレイする初の患者をライブ配信しました。

The patient, 29-year-old Nolan Arbaugh, became paralyzed below the shoulders after a tragic diving accident.

その患者、29歳のノーラン・アーボーは、悲劇的なダイビング事故の後、肩より下が麻痺してしまいました。

Thanks to Neuralink's innovative technology, he can now control a computer cursor with nothing but his thoughts, reintroducing him to activities like playing his favorite game, Civilization VI, for hours on end.

Neuralinkの革新的な技術のおかげで、彼はただの思考だけでコンピューターカーソルを制御することができ、お気に入りのゲームであるCivilization VIを何時間もプレイするなど、再び様々な活動に参加することができるようになりました。

The live-stream, which aired on Musk's social media platform X, showcased Arbaugh maneuvering through the chess game on his laptop using the Neuralink device.

このライブ配信は、マスクのソーシャルメディアプラットフォームXで放映され、アーボーはNeuralinkデバイスを使ってラップトップ上でチェスゲームを操作している様子が紹介されました。

This technology aims to empower individuals to interact with computers through thought alone, bypassing traditional physical interfaces.

この技術は、個人が伝統的な物理的インターフェースをバイパスし、思考だけでコンピュータとやり取りすることを可能にすることを目指しています。

Musk previously mentioned that Arbaugh had been implanted with the Neuralink chip in January, which enabled him to control a computer mouse through thought.

マスクは以前、アーボーが1月にNeuralinkチップを埋め込まれ、思考でコンピュータマウスを操作できるようになったと述べていました。

According to Arbaugh, the surgery was super easy, and he was discharged from the hospital just a day later without any cognitive impairments.

アーボーによると、手術は非常に簡単で、認知機能に影響を受けることなく、翌日には退院できました。

However, Arbaugh and Musk are quick to remind everyone that this technology is still in its infancy.

ただし、アーボーとマスクは、この技術がまだ初期段階にあることを誰もが忘れないように迅速に思い起こしています。

While Arbaugh's life has significantly improved, allowing him to engage in activities he thought were lost to him, he notes that the journey is and then standing up underscores its ability to recover from falls, an essential feature for maintaining productivity without human intervention in industrial environments.

アーボーの生活は大幅に改善され、彼が失われたと思っていた活動に参加できるようになりましたが、彼は旅程がまだ続いており、そして立ち上がることは、落下から回復する能力を強調し、産業環境で人間の介入なしで生産性を維持するために不可欠な特徴です。

The design choices extend to the robot's hands, which now feature three fingers instead of the more human-like four or five.

デザインの選択肢は、ロボットの手にも及び、これまでの4本または5本のより人間らしい指の代わりに、3本の指を備えるようになりました。

This simplification reduces mechanical complexity and enhances durability, crucial for repetitive industrial tasks.

この単純化により、機械の複雑さが減少し、繰り返しの産業タスクには欠かせない耐久性が向上します。

The robot's head has also been redesigned, now featuring a large round screen that adds a touch of friendliness and enhances interaction capabilities, which Plater notes will be critical as robots increasingly work alongside humans.

ロボットの頭部も再設計され、今では大きな丸いスクリーンが特徴で、友好性を加え、相互作用能力を高めています。これは、プレーターが指摘するように、ロボットがますます人間と共に働く中で重要になるでしょう。

Overall, the new electric Atlas is a big step forward in the world of humanoid robots, combining high-tech features with smart designs to meet the growing needs of businesses and factories.

全体的に、新しい電動アトラスは、ハイテク機能とスマートなデザインを組み合わせ、ビジネスや工場の成長するニーズに対応するための大きな前進です。

As Boston Dynamics keeps improving this robot, everyone in the industry will be watching closely.

Boston Dynamicsがこのロボットを改良し続けるにつれて、業界の皆が注目しています。

They're eager to see how these new features will actually help improve efficiency and productivity in the real world.

新機能が実際に現実世界で効率と生産性をどのように向上させるかを見るのが待ち遠しいです。

A company called Sanctuary AI just announced a major collaboration with none other than Microsoft, and it's all about accelerating the development of next-gen AI models for general-purpose robots.

SanctuaryAIという企業が、なんとMicrosoftとの大規模なコラボレーションを発表しました。それは、汎用ロボット向けの次世代AIモデルの開発を加速することに関するものです。

This is huge.

これは大きなニュースです。

For those not familiar with Sanctuary AI, let me give you a quick rundown.

SanctuaryAIに馴染みのない方のために、簡単な概要をお伝えします。

These folks are on an ambitious mission to create the world's first human-like intelligence in general-purpose robots.

このチームは、汎用ロボットに世界初の人間らしい知能を創造するという野心的な使命に取り組んでいます。

We're talking about Artificial General Intelligence, or AGI, the holy grail of AI that can truly understand and interact with the world, just like us humans.

私たちが話しているのは、人工一般知能、またはAGIであり、本当に世界を理解し、人間と同様に世界とやり取りできるAIの究極の目標です。

But here's the thing.

しかし、ここにはひとつ問題があります。

Sanctuary AI isn't just some scrappy startup talking big game.

Sanctuary AIは、ただ大それたことを言っているだけの新興企業ではありません。

These guys have some serious pedigree.

このチームには、本格的な経歴があります。

We're talking founders from pioneering companies like D-Wave, the first commercial quantum computing firm, Kindred, which introduced reinforcement learning to production robots, and the Creative Destruction Lab, known for innovative science commercialization.

私たちは、D-Waveや最初の商用量子コンピューティング企業であるKindred、革新的な科学の商品化で知られるCreative Destruction Labなど、先駆的な企業の創業者と話しています。

Their team is stacked with veterans from tech titans like Amazon, Microsoft, and SoftBank Robotics.

彼らのチームには、Amazon、Microsoft、SoftBank Roboticsなどのテック業界の巨人からのベテランが揃っています。

In other words, these folks have been at the forefront of some of the most groundbreaking innovations in AI, robotics, and computing.

つまり、これらの方々は、AI、ロボティクス、コンピューティングのいくつかの画期的な革新の最前線にいました。

When they make bold claims about pushing the boundaries of AGI, you can't help but take them seriously.

彼らがAGIの限界を押し広げると大胆な主張をするとき、真剣に受け止めざるを得ません。

What exactly does this collaboration with Microsoft entail?

このMicrosoftとの協力には、具体的にどのような内容が含まれていますか?

It's all about harnessing the power of Microsoft's Azure Cloud to supercharge the development of what Sanctuary AI calls Large Behavior Models, or LBMs.

MicrosoftのAzure Cloudの力を利用して、Sanctuary AIがLarge Behavior Models(LBMs)と呼ぶものの開発を加速させることが重要です。

Think of these as the next evolution beyond Large Language Models like GPT, AI systems designed to learn from and understand real-world experiences and interactions.

これらは、GPTのような大規模言語モデルを超えた次の進化と考えてください。これは、実世界の経験や相互作用から学習し理解するために設計されたAIシステムです。

By leveraging Azure's massive computing resources for training, inference, networking, and storage, Sanctuary AI can turbocharge their efforts in developing these cutting-edge LBMs, which are critical stepping stones on the path to achieving AGI.

Azureの大規模なコンピューティングリソースをトレーニング、推論、ネットワーキング、ストレージに活用することで、Sanctuary AIはこれらの最先端のLBMsの開発において努力を加速させることができます。これらはAGIを達成する道筋上で重要なステップです。

Just a few weeks ago, Sanctuary AI unveiled the seventh generation of their flagship robot, Phoenix, and the upgrades and improvements they've packed into this latest iteration are nothing short of mind-blowing.

わずか数週間前、Sanctuary AIは彼らの主力ロボットであるPhoenixの第7世代を発表しました。そして、この最新バージョンに詰め込まれたアップグレードと改良は驚くべきものです。

We're talking increased uptime, enhanced visual perception, improved tactile sensing, and get this, an expanded range of human-like motion in the wrists, hands, and elbows.

稼働時間の増加、視覚認識の向上、触覚センシングの改善、そして驚くべきことに、手首、手、肘の人間らしい動きの範囲が拡大しています。

This thing is designed to mimic the dexterity and range of motion of an actual human, which is just insane when you think about it.

このものは、実際の人間の器用さと動きの範囲を模倣するように設計されており、それを考えるとただ狂気だと思います。

Here's the cool part, Sanctuary AI has achieved all of these advancements in just 11 months since their sixth-gen Phoenix robot, which was one of Time's best inventions of 2023.

ここがすごいところですが、Sanctuary AIは、2023年のTime誌のベストイノベーションの一つである6世代目のPhoenixロボット以来、わずか11ヶ月でこれらの進歩を達成しました。

They've been moving forward really fast and it's almost hard to believe.

彼らは本当に速く前進しており、信じられないほどです。

According to Sanctuary AI's CEO, Geordi Rose, this seventh-gen Phoenix is one of the most sophisticated human behavioral data capture technologies available today.

Sanctuary AIのCEOであるジョーディ・ローズによると、この7世代目のPhoenixは、今日利用可能な最も洗練された人間の行動データ収集技術の一つです。

Essentially, it's providing their carbon AI control system with some of the highest quality, highest fidelity training data out there, which is critical for developing those advanced LBMs and pushing towards AGI.

基本的に、これは彼らの炭素AI制御システムに、最高品質で最高忠実度のトレーニングデータを提供しており、それは高度なLBMsの開発とAGIに向けて進む上で重要です。

But perhaps the most mind-blowing stat of all is that the time it takes to automate new tasks has been slashed from weeks to less than 24 hours.

しかし、もっとも驚くべき統計データは、新しいタスクを自動化するのにかかる時間が、数週間から24時間未満に短縮されたことです。

That's a 50x increase in automation speed, marking a pivotal moment in the capability of autonomous systems.

これは自動化スピードが50倍に向上したことを意味し、自律システムの能力における画期的な瞬間を示しています。

Just let that sink in for a second automating complex tasks in under a day.

複雑なタスクを1日以内に自動化することを考えると、ただただ驚くばかりです。

The potential applications across industries like manufacturing, logistics, and more are staggering.

製造業、物流業など、さまざまな産業における潜在的な応用は驚くべきものです。

Sanctuary AI is making some seriously bold claims here, stating that this seventh-gen system is the closest analog to a human of any available robot today.

Sanctuary AIは、この第7世代システムが今日利用可能なロボットの中で最も人間に近いアナログであると主張しています。

That's a hefty assertion, no doubt, but coming from a team with the pedigree and track record that these folks have, you can't just dismiss it out of hand.

それは確かに重要な主張ですが、このチームが持つ経歴や実績を考えると、ただ単に一蹴することはできません。

With any groundbreaking technology, there are always ethical considerations and potential risks to weigh.

画期的な技術には常に倫理的な考慮事項や潜在的なリスクを慎重に検討する必要があります。

The development of advanced AI and robotics is no exception, with concerns around safety, unintended consequences, and the impact on human labor looming large.

先進的なAIやロボティクスの開発も例外ではなく、安全性、予期せぬ結果、人間の労働に与える影響などに関する懸念が大きくなっています。

To their credit, Sanctuary AI seems acutely aware of these issues.

Sanctuary AIはこれらの問題を鋭く認識しているようです。

They've stressed a commitment to responsible development and addressing labor challenges in a way that augments human workers, not replaces them.

彼らは責任ある開発と、人間の労働を補完する方法に焦点を当てて、人間労働者を置き換えるのではなく支援することを強調しています。

The name Sanctuary itself is meant to convey a controlled, secure environment for nurturing AI responsibly before commercial deployment.

Sanctuaryという名前自体が、商業展開前にAIを責任を持って育てるための管理された安全な環境を伝えるものです。

Make no mistake, the road ahead is sure to be filled with immense challenges, both technical.

間違いなく、前進する道は技術的にも非常に困難なものであることを認識しておくべきです。

But if companies like Sanctuary AI and their all-star teams can continue this blistering pace of innovation while keeping responsible development at the forefront, we may just witness some truly mind-bending breakthroughs in the coming years.

しかし、SanctuaryAIのような企業と彼らのオールスターチームが、責任ある開発を最優先にしながらこの猛烈なイノベーションのペースを維持できれば、私たちは今後数年で本当に驚くべき飛躍を目撃するかもしれません。

The age of ubiquitous, multipurpose robotic assistants powered by human-like artificial intelligence is on the horizon, and with visionary pioneers and powerful partnerships like this one leading the charge, that future might be a lot closer than any of us could have imagined.

人間のような人工知能によって動力を得た普遍的で多目的なロボットアシスタントの時代が目前に迫っており、このような先見の明のある先駆者や強力なパートナーシップによってリードされる未来は、私たち誰もが想像できた以上に近いかもしれません。

Unitree just dropped the trailer for their new Unitree G1 humanoid robot, and this thing is mind-blowing.

Unitreeは、新しいUnitree G1ヒューマノイドロボットのトレーラーを公開しましたが、これは驚くべきものです。

The flexibility, proficiency, and overall capabilities of this robot are really something else.

このロボットの柔軟性、熟練度、そして全体的な能力は本当に素晴らしいものです。

I'm going to explain and show you exactly why this robot is such a game-changer.

なぜこのロボットがゲームチェンジャーなのか、正確に説明してお見せします。

There's a lot to unpack here, and this robot is genuinely revolutionary.

ここには解明すべきことがたくさんあり、このロボットは本当に革命的です。

First off, you might have noticed that it looks kind of similar to Boston Dynamics' recently unveiled Atlas robot.

まず、最初に、最近Boston Dynamicsが発表したアトラスロボットに少し似ていると気づいたかもしれません。

I don't think Unitree managed to create this robot in just the three weeks since that trailer came out.

私はユニツリーがそのトレーラーが公開されてからたった3週間でこのロボットを作成したとは思いません。

Something like this takes a long time to develop.

こうしたものを開発するには長い時間がかかります。

But what it does show is that Unitree is evolving faster than a lot of people expected.

しかし、示されていることは、ユニツリーが多くの人々が予想していたよりも速く進化しているということです。

They're delivering some seriously impressive tech at a relatively affordable price point.

彼らは比較的手頃な価格でいくつかの本当に印象的なテクノロジーを提供しています。

The G1 starts at just $16,000, which is cheaper than any other humanoid robot with these kinds of capabilities.

G1はたった16,000ドルから始まりますが、これはこの種の能力を持つ他のどのヒューマノイドロボットよりも安いです。

One of the things that really stood out to me in this demo was the insane flexibility and range of motion.

このデモで私に本当に目を引いたのは、狂気的な柔軟性と動きの幅でした。

As you can see here, this robot can swivel around in ways that humans simply can't, and its legs have a much greater range of motion.

ここでご覧の通り、このロボットは人間が簡単にはできないような方法で回転することができ、その脚はより広い動き範囲を持っています。

They've also managed to internalize the wiring using hollow joint technology, which allows for more efficient movement and a more compact design.

彼らはまた、中空関節技術を使用して配線を内部化することに成功し、より効率的な動きとよりコンパクトな設計を可能にしています。

This trailer really hammers home the fact that the robot race is on.

このトレーラーは本当にロボット競争が進行中であることを強調しています。

I don't think anyone predicted that Unitree would release something like this so soon.

誰もがUnitreeがこんなに早く何かをリリースするとは予想していなかったと思います。

I would have expected it to come from a company like Boston Dynamics first.

私は最初にBoston Dynamicsのような企業から出ると予想していました。

While Boston Dynamics might be using hydraulic actuators or fully electric systems, the G1's movement capabilities suggest that it's going to be able to handle a huge range of tasks that we might not have even considered yet.

Boston Dynamicsは油圧アクチュエーターまたは完全に電気式のシステムを使用しているかもしれませんが、G1の動きの能力は、私たちがまだ考えていないかもしれない多くのタスクを処理できると示唆しています。

Another thing that really impressed me was the robot's stability when taking impacts.

もう一つ、私を本当に感動させたことは、ロボットが衝撃を受ける際の安定性でした。

I'm not saying we should go around punching robots.

私はロボットを殴るべきだとは言っていません。

That might not end well if they decide to rebel against us down the line.

彼らが私たちに反抗することを決定した場合、それはうまくいかないかもしれません。

But in all seriousness, the fact that this robot can take a solid hit to the chest and remain completely stable is a remarkable feat of engineering.

しかし、全ての真剣さの中で、このロボットが胸部に強い衝撃を受けても完全に安定したままでいられるという事実は、驚くべき工学的偉業です。

In real-world applications, robots might encounter things like wind, debris, or unexpected collisions, and being able to stay upright and keep functioning in those situations is hugely important.

現実世界のアプリケーションでは、ロボットは風やゴミ、予期せぬ衝突などに遭遇する可能性があり、そのような状況で立ち続けて機能し続けることが非常に重要です。

Most humans would probably hit the ground if they took a punch like that, so this is a really exciting development.

ほとんどの人間は、そのようなパンチを受けると地面に倒れるでしょうが、これは本当に興奮する進歩です。

We've seen similar demonstrations of stability from Unitree before with their H1 robot.

以前、UnitreeのH1ロボットで安定性の類似したデモンストレーションを見てきました。

But the G1 takes it to a whole new level.

しかし、G1はそれを全く新しいレベルに引き上げています。

If you tried this with most other humanoid robots on the market, they'd topple over in an instant.

市場にあるほとんどの他のヒューマノイドロボットでこれを試すと、彼らは瞬時に倒れてしまいます。

The fact that Unitree has achieved this level of stability without even using external support cables is mind-blowing.

ユニツリーが外部の支持ケーブルを使用せずにこの安定性のレベルを達成している事実は驚くべきことです。

Usually in these kinds of robotics demos, you'll see the robot tethered to the ceiling or something to prevent falls because balance is one of the biggest challenges in the early stages of development.

通常、この種のロボティクスのデモでは、バランスが初期開発段階で最大の課題の1つであるため、ロボットが天井につながれるなどして転倒を防ぐことがあります。

But Unitree has created a robot that can take a beating and stay on its feet, with all the wiring hidden internally.

しかし、ユニツリーは、全ての配線を内部に隠して、打撃を受けても立ち続けるロボットを作り出しました。

That's a massive accomplishment.

それは莫大な業績です。

The speed of the G1 is also really impressive.

G1のスピードも非常に印象的です。

It can reach speeds of up to 3.3 meters per second, which is just shy of the world record set by Unitree's previous robot.

それは、Unitreeの以前のロボットが設定した世界記録にほんの少し及ばない、最大3.3メートル毎秒の速度に達することができます。

For context, that's about 2 meters per second, which is almost a running pace.

文脈を考えると、それはおおよそ2メートル毎秒であり、ほぼ走る速さです。

We haven't seen anything close to that from other humanoid robotics companies.

他の人型ロボティクス企業からは、それに匹敵するものを見たことがありません。

The Tesla bot, for example, can walk pretty smoothly, but it's not moving nearly as fast as this.

例えば、Teslaのロボットはかなりスムーズに歩くことができますが、このように速くは動きません。

I can't imagine they'd be too eager to have someone kick it around to test its stability.

安定性をテストするために誰かに蹴られることを望んでいるとは思えません。

In terms of overall performance, I'd argue that the Unitree G1 is probably one of the best humanoid robots out there right now.

全体的な性能に関しては、Unitree G1は現在最高のヒューマノイドロボットの1つであると主張したいと思います。

One of the things that absolutely blew me away was the robot's ability to learn tasks through simulation. and then apply them in the real world.

私を驚かせたことの1つは、ロボットがシミュレーションを通じてタスクを学習し、それを実世界で適用できる能力でした。

Using imitation and reinforcement learning, they can train the robot to perform complex actions in a simulated environment like NVIDIA's Isaac Sim, and then transfer those skills to the physical robot.

模倣と強化学習を使用して、彼らはNVIDIAのIsaac Simのようなシミュレート環境でロボットを複雑なアクションを実行するように訓練し、それらのスキルを物理的なロボットに移すことができます。

Using it move, you can see how precise and subtle the joint movements are, and the fact that it can maintain its balance while performing these tasks autonomously is staggering.

動かしてみると、関節の動きがどれほど正確で微妙かがわかり、これらのタスクを自律的に実行しながらバランスを保つことができる事実は驚くべきです。

This has huge implications for robotics research, because until now, most humanoid platforms have been really expensive, which makes them hard to access for a lot of labs and universities.

これは、ロボティクス研究にとって大きな意味を持ちます。なぜなら、これまでほとんどのヒューマノイドプラットフォームが非常に高価であり、多くの研究室や大学にとってアクセスが困難だったからです。

The Unitree H1, for example, was a great research platform, but its high cost was a big barrier.

例えば、Unitree H1は優れた研究プラットフォームでしたが、その高いコストが大きな障壁となっていました。

With the G1 coming in at a lower price point, we're going to see a lot more people getting their hands on this tech and pushing the boundaries of what's possible.

G1がより低価格で登場することで、多くの人々がこのテクノロジーを手に入れ、可能性の限界を押し広げることができるでしょう。

There are the hands.

それがその手です。

Previous Unitree robots were criticized for their lack of dexterous manipulators, but the G1 has hands that can grasp and manipulate objects with incredible precision.

以前のUnitreeロボットは器用な操作装置の不足が批判されていましたが、G1には信じられないほど精密に物をつかんだり操作したりすることができる手があります。

It can crush a walnut, flip a piece of bread, and even pop open a soda can, like it's nothing.

くるみを砕いたり、パンの一切れをひっくり返したり、さらには簡単にソーダ缶を開けたりすることができます。

The level of control and fine motor skills on display here is just insane.

ここで展示されている制御レベルと微細運動スキルのレベルは、まさに狂気です。

They also mention something called the Unitree Robot Unified Large Model, which seems to be some kind of AI system that allows the robot to perform these tasks autonomously.

彼らはまた、Unitree Robot Unified Large Modelというものについて言及していますが、これはロボットがこれらのタスクを自律的に実行することを可能にする何らかのAIシステムのようです。

There aren't a lot of details available yet, but I'm guessing it's a machine learning model that's been trained on a huge data set of simulated and real-world interactions.

詳細はまだあまり明らかになっていませんが、おそらくこれは、シミュレーションされたデータと現実のインタラクションの大量のデータセットで訓練された機械学習モデルです。

As more information comes out, I'll be sure to update you all.

情報が入手可能になると、皆さんに必ず更新します。

One of the other key things they demonstrate is the robot's ability to perform very precise movements, like soldering electronic components.

彼らが示す他の重要な点の1つは、ロボットが電子部品をはんだ付けするなど、非常に正確な動きを行う能力です。

This opens up a whole new range of potential applications in fields like manufacturing and assembly.

これは製造や組み立てのような分野での潜在的な応用範囲を全く新しいものにします。

But perhaps the most exciting thing about the G1 is its price.

しかし、G1の最も興奮する点は、その価格です。

At just $16,000 for the base model, it's nearly 10 times cheaper than Unitree's previous humanoid robot, which was listed at around $150,000.

ベースモデルでわずか16,000ドルで、これは以前のユニトリーの人型ロボットの約150,000ドルと比べてほぼ10倍も安いです。

That's a massive leap in affordability, and it's going to make this technology accessible to a much wider range of researchers and developers.

これは手ごろな価格への大きな飛躍であり、この技術をより広範囲の研究者や開発者にアクセス可能にします。

We've already seen some of the incredible things that people have been doing with Unitree's H1 platform.

私たちはすでに、人々がUnitreeのH1プラットフォームで行っている素晴らしいことの一部を見てきました。

For example, researchers at Shanghai Tech and Marslab recently presented a framework for humanoid parkour learning, which allows the robot to navigate rough terrain, jump onto high platforms, leap over hurdles, and more, all using only vision and proprioception.

例えば、上海科技大学とMarslabの研究者は最近、ヒューマノイドパルクール学習のためのフレームワークを発表しました。このフレームワークにより、ロボットは視覚と固有感覚だけを使用して、荒れた地形を移動し、高いプラットフォームに飛び乗り、障害物を飛び越えるなどが可能となります。

It's a fully end-to-end system, which is a huge accomplishment in the field of robotics.

これは、ロボティクスの分野での大きな成果である完全なエンドツーエンドシステムです。

The problem is that a lot of academic labs struggle to get funding for this kind of research because they simply can't afford the expensive hardware.

問題は、多くの学術研究室がこの種の研究のための資金調達に苦労していることです。なぜなら、彼らは単純に高価なハードウェアを買う余裕がないからです。

But with the G1, we're going to see an explosion of new projects and discoveries.

しかし、G1が登場することで、新しいプロジェクトや発見が爆発的に増えるでしょう。

The H1 could do a full backflip, which is just mind-boggling for a robot with such basic actuators.

H1はフルバックフリップができました。これは、そんな基本的なアクチュエータを持つロボットにとっては驚くべきことです。

Imagine what people are going to do with the G1's advanced capabilities.

Unitree G1の高度な機能を使って人々が何をするか想像してみてください。

To sum up, the Unitree G1 is an absolute game-changer.

要するに、Unitree G1はまさにゲームチェンジャーです。

The combination of flexibility, stability, dexterity, and affordability is unparalleled, and it's going to open up a whole new world of possibilities in the field of robotics.

柔軟性、安定性、器用さ、手頃さの組み合わせは類を見ないものであり、ロボティクスの分野で新たな可能性を切り拓くことになるでしょう。

I cannot wait to see what researchers and developers do with this platform once it starts shipping in the next few months.

このプラットフォームが数ヶ月後に出荷されると、研究者や開発者が何をするかを見るのが待ちきれません。

The robotics race is heating up, and Unitree has just shown that China is a serious contender on the global stage.

ロボティクス競争が激化しており、Unitreeは中国が世界舞台で真剣な競争相手であることを示しています。

They're innovating at an incredible pace, and they're making this technology accessible in a way that no one else has done before.

彼らは信じられないほどの速さで革新し、この技術を他の誰もが行ったことのない方法で利用可能にしています。

Keep an eye on Unitree.

Unitreeに注目してください。

I have a feeling we're going to be seeing a lot more groundbreaking developments from them in the very near future.

私は彼らから非常に近い将来にさらなる画期的な発展をたくさん見ることになる予感がします。

Here's some interesting news from the United Arab Emirates.

アラブ首長国連邦から興味深いニュースがあります。

This announcement comes from Abu Dhabi's Technology Innovation Institute, also known as TII.

この発表はアブダビのテクノロジーイノベーション研究所、通称TIIからのものです。

They've launched the Falcon 2 series, featuring two impressive models, Falcon 211B and Falcon 211B-VLM.

彼らは、印象的な2つのモデル、Falcon 211BとFalcon 211B-VLMを特集したFalcon 2シリーズを発売しました。

Falcon 211B is, as they say, a super-powerful text-based AI designed to understand and generate human-like text.

Falcon 211Bは、彼らが言うように、人間らしいテキストを理解し生成するために設計された超強力なテキストベースのAIです。

Meanwhile, Falcon 211B-VLM is a vision-to-language model.

一方、Falcon 211B-VLMはビジョン・トゥ・ランゲージ・モデルです。

This means it can take an image and generate a detailed text description of it.

これは、画像を取得し、それについての詳細なテキスト説明を生成することができることを意味します。

Let's talk about why the UAE is making such big moves in AI.

なぜUAEがAIで大きな動きをしているのかについて話しましょう。

Known for its vast oil reserves, the UAE is now pouring massive investments into artificial intelligence.

UAEは広大な石油埋蔵量で知られており、現在は人工知能への大規模な投資を行っています。

This shift hasn't gone unnoticed.

この変化は見過ごされていません。

In fact, U.S. officials took note last year, issuing a strong ultimatum for the UAE to choose between American and Chinese tech.

実際、昨年、米国の役人たちは、UAEに対してアメリカと中国のテクノロジーの間で選択を迫る強い最後通告を出しました。

In response, Emirati AI firm G42 cut ties with Chinese companies, paving the way for a whopping $1.5 billion investment from Microsoft.

これに応じて、エミレーティのAI企業であるG42は中国企業との関係を断ち切り、Microsoftから150億ドルもの巨額投資を受ける道を開きました。

This strategic pivot was carefully coordinated with Washington, showcasing the UAE's serious commitment to advancing in the AI space.

この戦略的な転換は、ワシントンと注意深く調整され、UAEがAI分野での進歩に真剣に取り組んでいることを示しています。

The release of Falcon 2 comes as countries and companies worldwide are racing to develop their own large-language models.

Falcon 2のリリースは、世界中の国や企業が独自の大規模言語モデルを開発する競争が続く中で行われています。

While some companies keep their AI tech proprietary, others like the UAE's Falcon and Meta's LLaMA are going open source.

一部の企業はAI技術を独自のものとして保持していますが、UAEのFalconやMetaのLLaMAのように、他の企業はオープンソース化しています。

Looking ahead, the UAE's substantial investments in AI are positioning the country as a significant player on the global tech stage.

将来を見据えると、UAEのAIへの大規模な投資は、同国を世界のテクノロジー分野で重要なプレーヤーとして位置付けています。

The Falcon 2 series is just the beginning, with the anticipated Falcon 3 already in the works.

Falcon 2シリーズはたったの始まりであり、予想されるFalcon 3はすでに進行中です。

A new AI humanoid robot has been unveiled by a company called Robot Era, and it's pretty crazy.

Robot Eraという企業が新しいAIヒューマノイドロボットを発表し、それはかなり驚くべきものです。

This robot, called X-Hand, is apparently a game-changer in the world of embodied AI.

このロボット、X-Handと呼ばれるものは、具現化されたAIの世界で画期的な存在のようです。

Embodied AI is all about creating robots that can interact with the real world just like humans do, and this X-Hand robot seems to be taking things to the next level.

具現化されたAIとは、人間と同様に現実世界とやり取りできるロボットを作ることであり、このX-Handロボットは次のレベルに進化しているようです。

It has 12 active degrees of freedom, which means it can move and bend in all sorts of ways just like human bodies.

このロボットは12のアクティブな自由度を持ち、人間の身体と同様にさまざまな方法で動いたり曲げたりすることができます。

It's also got built-in tactile sensors, so it can actually feel and sense things it touches.

また、内蔵された触覚センサーがあり、触れたものを実際に感じたり感知したりすることができます。

The control precision is supposed to be top-notch, allowing for smooth and reliable movements.

制御精度は非常に高く、滑らかで信頼性のある動きが可能だとされています。

But here's the kicker Robot Era claims that the technology behind X-Hand is fully self-developed, which is pretty impressive for a relatively new player in the robotics and AI game.

しかし、ここがポイントです。ロボットエラは、X-Handの背後にある技術が完全に自社開発されたものであると主張しています。これは、比較的新しいプレーヤーであるロボティクスとAIの分野において非常に印象的です。

They were only founded in 2023, but they're already pushing the boundaries of what's possible.

彼らは2023年に設立されたばかりですが、すでに可能な限りの限界に挑戦しています。

We don't know how much this robot is going to cost or when it'll be available to the public, because Robot Era is keeping those details under wraps for now.

このロボットがいくらするか、一般にいつ利用可能になるかはわかりません。なぜなら、Robot Eraは現時点ではそれらの詳細を秘密にしているからです。

But from what they've shown us, it looks like X-Hand is specifically designed to embody AI, which could be a big deal as we get closer to achieving AGI.

しかし、彼らが私たちに示してくれたものから見ると、X-HandはAIを具現化するために特別に設計されているようで、AGIの達成に近づくにつれて大きな影響を与えるかもしれません。

Speaking of AGI, there's been a lot of hype lately about it potentially happening sooner rather than later.

AGIについて話すと、最近それが近いうちに起こる可能性について多くの興奮がありました。

I'm not even joking around.

冗談ではありません。

Some experts are saying we might be on the verge of a breakthrough in this field.

一部の専門家は、この分野での飛躍が間近に迫っているかもしれないと言っています。

Let's talk a bit more about Robot Era and what they've been up to.

Robot Eraについてもう少し話しましょう。彼らが取り組んでいることについて。

They're focused on developing general-purpose humanoid robots, which is pretty ambitious stuff.

彼らは、かなり野心的な一般用途のヒューマノイドロボットの開発に焦点を当てています。

One of their main projects is called Humanoid Gym, which uses reinforcement learning to train robots to perform tasks in a way that mimics human capabilities.

彼らの主要なプロジェクトの1つは、Humanoid Gymと呼ばれ、強化学習を使用して、ロボットが人間の能力を模倣する方法でタスクを実行するように訓練することです。

They're using this cool concept called Zero-Shot Sim to Real Transfer, which basically means they can train the robots in a simulated environment first. and then deploy them in the real world without any additional training.

彼らは、Zero-Shot Sim to Real Transferというクールなコンセプトを使用しています。基本的には、彼らはまずシミュレート環境でロボットを訓練し、追加の訓練なしに実世界で展開することができます。

But enough talking from me.

でも、私からの話はこれくらいにしておきましょう。

Let's check out this X-Hand robot in action and see what it can really do.

実際にX-Handロボットを見て、本当に何ができるのかを見てみましょう。

Robot Era has released a showcase video, and I've got to say, the capabilities they're demonstrating are pretty fascinating.

Robot Eraはショーケースビデオを公開しており、彼らがデモンストレーションしている能力はかなり魅力的だと言わざるを得ません。

Let's roll that footage and see what this bad boy can do.

その映像を再生して、このすごいやつが何ができるのかを見てみましょう。

You might remember a little while back when I covered Robot Era, that ambitious startup that unveiled their crazy dextrous X-Hand AI robot.

しばらく前に、野心的なスタートアップであるRobot Eraが発表した、彼らのクレイジーな器用なX-Hand AIロボットを取り上げたことを覚えているかもしれません。

They just one-upped themselves in a major way by becoming the first company ever to have a full-size humanoid robot walk on the Great Wall of China.

彼らは、中国の万里の長城を歩くフルサイズの人型ロボットを持つ初の企業として、大きな進歩を遂げました。

Their latest robot, called the X-Bot L, conquered one of the most iconic and challenging landscapes in the world, the ancient stone pathways and steep stairs of the Great Freaking Wall of China.

彼らの最新のロボット、X-Bot Lという名前のものは、世界で最も象徴的で挑戦的な風景の1つである、中国の万里の長城の古代の石の道や急な階段を制覇しました。

This is a huge milestone not just for Robot Era, but for humanoid robotics as a whole.

これは、Robot Eraだけでなく、人型ロボティクス全体にとっても大きな節目です。

A 5'5, 165cm tall robot, looking kind of like a slimmed down terminator, marching its way across those uneven, century-old stone surfaces without faltering.

身長165cmの5'5のロボットは、スリムなターミネーターのように見え、その不均一で100年以上前の石の表面を躊躇することなく進んでいきました。

It was waving hello, practicing kung-fu moves, climbing up and down stairs, the whole 9 yards.

挨拶をしているし、カンフーの動きを練習しているし、階段を上り下りしているし、全てをやっていました。

To be honest, the Great Wall is no walk in the park, even for us humans.

正直に言うと、万里の長城は、私たち人間にとっても簡単なものではありません。

Those paths are cracked, the stairs are crazy steep with no railings, there are random potholes everywhere.

その道はひび割れており、階段は手すりのない急なもので、ランダムにどこにでも穴があります。

It's an obstacle course designed to trip up any bipedal robot, but the X-Bot L handled it all with surprising ease thanks to Roboterra's advanced perceptive reinforcement learning algorithms.

二足歩行ロボットをつまずかせるように設計された障害コースですが、X-Bot Lは、Roboterraの高度な知覚強化学習アルゴリズムのおかげで驚くほど簡単に対処しました。

Basically, this robot can actually perceive and make sense of its environment in real time using sensors and AI.

基本的に、このロボットはセンサーとAIを使用して環境をリアルタイムで認識し、理解することができるのです。

It can identify obstacles, changes in terrain, and literally adapt its walking gait and balance on the fly to deal with whatever the Great Wall throws at it.

それは障害物や地形の変化を識別し、文字通りその場で歩行の歩幅やバランスを適応させて、万里の長城が投げかける何事にも対処できるようにします。

According to Yue Shi, one of the co-founders, their perceptive reinforcement learning tech gives the X-Bot L something like human-level awareness and decision-making capabilities in unfamiliar environments.

共同創設者の一人であるイエ・シーによると、彼らの洞察力のある強化学習技術は、X-Bot Lに人間レベルの認識と意思決定能力を未知の環境で提供しています。

The robot can essentially think for itself about the best way to navigate complex areas safely and efficiently.

そのロボットは、複雑なエリアを安全かつ効率的に航行する最良の方法について、基本的に自己判断できます。

We're not just talking about some basic pre-programmed motions here.

ここでは単なる基本的なプリプログラムされた動作について話しているわけではありません。

The X-Bot L was climbing rugged castle stairs, dealing with slopes and inclines, avoiding adapting to poor lighting conditions, all without any human guidance or help.

X-Bot Lは険しい城の階段を登り、斜面や傾斜に対処し、照明条件の悪化に適応し、すべて人間のガイダンスや助けなしで行っていました。

It was basically pulling off the kind of adaptive, intelligent, situationally aware movement that we associate with people.

それは基本的に、私たちが人々に関連付ける適応的で知的で状況を把握した動きを実現することでした。

Roboterra says this was one of the biggest challenges, developing end-to-end AI algorithms that could translate perceived data from the robot's sensors into precise, stable locomotion in the real world across an ultra-complex environment like the Great Wall.

Roboterraは、これが最大の課題の1つであり、ロボットのセンサーから得られたデータを正確で安定した運動に変換するエンドツーエンドのAIアルゴリズムを開発することで、グレートウォールのような超複雑な環境で実世界での移動を実現しました。

Sounds like they cracked that nut though based on this demo.

このデモに基づいて、彼らはその難題をクリアしたようです。

What's really crazy is that this Great Wall feat comes just a couple weeks after they showed off the X-Hand Dextrous robot I mentioned earlier.

本当に驚くべきことは、このグレートウォールの偉業が、以前に言及したX-Hand Dextrousロボットを披露した数週間後に行われたことです。

Between these two products, it's clear Robotera is going all in on embodied AI, building robots with human-like physical capabilities to operate in our world.

これら2つの製品の間で、Roboterraは具体的なAIに全力を注いでおり、人間のような身体能力を持つロボットを構築して、私たちの世界で運用しています。

They're not messing around either.

彼らも冗談ではありません。

Despite only being founded in 2023, they've already invested heavily into cutting-edge AI tech like reinforcement learning, neural networks, sim-to-real transfer, and more.

2023年に設立されたばかりですが、強化学習、ニューラルネットワーク、シミュレーションから実世界への転送など、最先端のAI技術に大規模な投資を既に行っています。

Everything needed to create robots that can tackle the real world just like we do.

私たちと同様に現実世界で対処できるロボットを作成するために必要なすべてが揃っています。

Their goal seems to be keeping that competitive edge by iterating and churning out smarter, more capable humanoid robot products at a rapid pace.

彼らの目標は、よりスマートで能力の高いヒューマノイドロボット製品を迅速に繰り返し生産し、競争力を維持することのようです。

They want to keep perfecting ways to transfer all that AI training from simulations into physical machines, enabling those robots to become more versatile in real-life scenarios.

彼らは、シミュレーションから物理的な機械にAIトレーニングをすべて転送する方法を磨き続け、これらのロボットが実生活のシナリオでより多目的になるようにしたいと考えています。

The end game seems to be developing ultra-flexible, general-purpose humanoid robots for countless valuable applications across industries like manufacturing, healthcare, services, and more.

エンドゲームは、製造、医療、サービスなどの産業において、数え切れないほどの貴重な用途に向けて、超柔軟で汎用性のある人型ロボットを開発することのようです。

I've got to give Robotera props.

Roboteraには賞賛を送らねばなりません。

Deliberately putting their robot through the wringer on the Great Wall as some kind of extreme stress test shows serious confidence in their tech.

彼らのロボットをわざと極限のストレステストとして万里の長城に送り込むことは、彼らのテクノロジーに対する真剣な自信を示しています。

Most companies would avoid something that risky with a brand new product, but the fact that the X-Bot L could pull it off so smoothly is really impressive.

ほとんどの企業は、新製品にそんなにリスクの高いことを避けるでしょうが、X-Bot Lがそれをとてもスムーズにこなせた事実は本当に印象的です。

It's an amazing proof of concept for their embodied AI approach and perceptive reinforcement learning systems working in one of the toughest real-world environments.

これは、彼らの具現化されたAIアプローチと洞察力のある強化学習システムが、最も厳しい現実世界の環境の1つでうまく機能していることの素晴らしい概念証明です。

To me, this demonstrates Robotera's outstanding core capabilities in fields like robotics, AI, mechatronics, and more.

私にとって、これはロボテラがロボティクス、人工知能、メカトロニクスなどの分野で優れたコア能力を示していることを示しています。

They are clearly at the cutting edge when it comes to embodied intelligence and making it work reliably in the real world.

彼らは、具体的な知能において先駆的であり、それを実世界で信頼性を持って機能させる点で明らかに最先端に位置しています。

I'm really looking forward to whatever crazy robot Robotera comes up with next.

私は本当に、ロボテラが次に出てくるどんなクレイジーなロボットにも期待しています。

If they keep raising the bar like this, they could legitimately help usher in the age of advanced human-like robots that can operate autonomously in our world on an unprecedented level.

彼らがこのように基準を高く保ち続ければ、我々の世界で前例のないレベルで自律的に運用できる先進的な人間のようなロボットの時代を正当に導入するのに役立つかもしれません。

We're potentially on the cusp of some big breakthroughs in artificial general intelligence or AGI becoming a reality over the next few years, and if anyone can build the physical robotic bodies to house and manifest that future AGI, it might just be an ambitious little pioneer like Robotera.

我々は、人工一般知能(AGI)が数年以内に現実のものとなる大きなブレークスルーの瀬戸際にいる可能性があり、将来のAGIを収容し具現化するための物理的なロボットボディを構築できるのは、ロボテラのような野心的な小さな先駆者かもしれません。

When it comes to developing super advanced AI systems like AGI, the situation with whistleblowers at OpenAI shows just how high the stakes really are.

AGIのような超高度なAIシステムを開発する場合、OpenAIでの内部告発者の状況は、賭けが実際にどれだけ高いかを示しています。

Robotera's achievement with their robot on the Great Wall is definitely impressive from an embodied AI perspective, but achievements like that could potentially seem tiny compared to the impacts, both positive and negative, that creating a general artificial intelligence on the same level as human cognition could have on society.

ロボテラのロボットが万里の長城で達成したことは、具体的なAIの観点から間違いなく印象的ですが、人間の認知と同じレベルの一般的な人工知能を作成することが社会に与える影響(肯定的、否定的の両方)と比較すると、そのような成果は小さく見える可能性があります。

On one hand, AGI represents this incredible technological breakthrough that could help solve countless challenges humanity is facing from unsolved scientific mysteries to global crises.

一方で、AGIは未解決の科学的謎から世界的な危機まで、人類が直面している無数の課題を解決するのに役立つ可能性がある、驚異的な技術的突破口を表しています。

A generalized AI mind that matches human intelligence has always been viewed as something that could be a catalyst for transformative advances across every field.

人間の知性に匹敵する一般的なAIの心は、あらゆる分野で変革的な進歩の触媒となる可能性があると常に見なされてきました。

But on the other hand, the existential risks of an unaligned super intelligent AGI that's smarter than humans simply can't be overstated.

しかし一方で、人間よりも賢い未調整の超知能AGIの存在リスクは、単に過大評価できません。

We're talking about the potential for an advanced AI system to break free from human with catastrophic consequences for our species and the planet if it's not developed safely and responsibly.

私たちは、高度なAIシステムが安全かつ責任を持って開発されない場合、人類や地球に壊滅的な影響をもたらす可能性について話しています。

The OpenAI insiders are ringing alarm bells about this exact scenario playing out.

OpenAIの内部関係者は、この具体的なシナリオが実現することについて警鐘を鳴らしています。

They allege the company is recklessly rushing towards AGI supremacy without taking proper safety precautions, driven more by competitive pressures to be first rather than doing it the right way.

彼らは、競争的な圧力よりも正しい方法で行うよりも先になることを追求することによって、適切な安全対策を講じずにAGIの支配を無謀に追求していると主張しています。

Damning claims like OpenAI ignoring their own safety review processes, muzzling employees with really strict non-disparagement agreements, and deprioritizing safety work after founding members raised concerns paint a very worrying picture.

OpenAIが自らの安全審査プロセスを無視し、従業員を非常に厳しい非難禁止契約で口封じし、創設メンバーが懸念を表明した後に安全作業を優先度を下げているという非難は、非常に心配な状況を描いています。

If true, it suggests one of the leading AI labs is taking an extremely risky and unethical approach in this existential race for AGI.

もしこれが真実であれば、主要なAI研究所の1つがAGIの存続に関するレースで非常に危険で倫理的に問題のあるアプローチを取っていることを示唆しています。

The fact that respected researchers like Ilya Sutskever felt compelled to resign due to OpenAI's perceived lack of commitment to keeping AGI safe and aligned only adds more credibility to the whistleblower's grievances, in my opinion.

尊敬される研究者であるイリヤ・スツケヴァー氏が、OpenAIがAGIの安全性と整合性を保つことへの取り組みが不十分だと感じて辞任せざるを得なかったという事実は、告発者の不満に更なる信憑性を加えると私は考えています。

Their letter calling for greater transparency, protecting employees, and ultimately having the government regulate this powerful technology to keep bad actors in check feels like a reasonable and perhaps necessary step to prevent potential disaster scenarios.

彼らが透明性の向上、従業員の保護、そして最終的には政府によるこの強力な技術の規制を求める手紙は、潜在的な災害シナリオを防ぐためには合理的であり、おそらく必要な一歩のように感じます。

Because let's be real.

なぜなら、現実的に考えてみてください。

We simply can't afford a situation where the first super-intelligent AGI that emerges is catastrophically misaligned with human ethics and values.

初めて現れる超知能AGIが人間の倫理や価値観と致命的に整合しない状況を許す余裕はありません。

Exercising restraint and prioritizing responsible development have to be the top priorities.

自制を行使し、責任ある開発を優先することが最優先事項でなければなりません。

The whistleblowers likely have some level of bias given their philosophical views and ties to effective altruism movements, so I'd encourage taking more of a neutral stance personally.

告発者たちは、彼らの哲学的見解や効果的利他主義運動との関係から、ある程度の偏見を持っている可能性がありますので、個人的には中立的な立場を取ることをお勧めします。

But even accounting for that bias, the sheer magnitude of what's at stake with AGI certainly warrants a strong commitment to prioritizing safety measures and ethical boundaries over competitive pressures and commercial interests from companies like OpenAI, not properly aligning an emergent AGI could risk irreparably disrupting human civilization as we know it.

しかし、その偏見を考慮しても、AGIにかかわるリスクの巨大さは、確かに安全対策と倫理的な枠組みを競争的な圧力やOpenAIのような企業の商業的利益よりも優先する強いコミットメントを正当化しています。新興のAGIを適切に整合させないことは、人類の文明を修復不能に混乱させるリスクを冒す可能性があります。

Any private entity recklessly brushing off those concerns in their pursuit of being first is essentially playing a potential extinction-level game of Russian roulette with humanity's future.

これらの懸念を軽視して先を競う私的な組織は、本質的に人類の未来に対して潜在的な絶滅レベルのロシアンルーレットを行っていると言えます。

While I'm impressed by the cutting-edge AI and robotics breakthroughs from companies like Roboterra, I really hope the broader AI community, whether researchers, executives, policymakers, or others, is taking the OpenAI whistleblower's warnings about these existential risks just as seriously, because we may only get one shot at developing AGI in a controlled, responsible way that ensures this game-changing technology remains an asset that allows humanity to flourish rather than an unintended catalyst for our potential downfall.

Roboterraのような企業からの最先端のAIやロボティクスのブレークスルーに感銘を受けていますが、OpenAIの告発者がこれらの存立リスクについての警告を真剣に受け止めていることを、研究者、経営者、政策立案者、その他のAIコミュニティ全体が同様に真剣に受け止めていることを願っています。なぜなら、我々はAGIを制御された責任ある方法で開発するために一度きりのチャンスしかないかもしれず、このゲームチェンジングな技術が人類が繁栄するための資産となるようにし、我々の潜在的な没落の引き金となる意図しない触媒となることを防ぐことを確実にする必要があるからです。

The stakes are that high.

リスクは非常に高いのです。

Don't forget to hit that subscribe button for more updates.

もっと更新情報を受け取るために、購読ボタンを押さないでください。

Thanks for tuning in, and we'll catch you in the next one.

お聞きいただきありがとうございます。次回もお楽しみにしてください。


この記事が気に入ったらサポートをしてみませんか?