見出し画像

【Google I/O】英語スピーチを日本語で読む【2023年5月11日|@Google】

Google I/O 2023 keynoteのスピーチです。
公開日:2023年5月11日
※動画を再生してから、インタビューを読むのがオススメです。


Since day one, we set out to significantly improve the lives of as many people as possible.

初日から、私たちはできるだけ多くの人々の生活を大きく改善することを目指しました。

And with a little help, you found new answers, discovered new places.

そして、少しの助けで、新しい答えを見つけ、新しい場所を発見しました。

The right words came at just the right time.

適切な言葉が適切なタイミングで出てきた。

And we even learned how to spell the word epicurean.

そして、epicureanという言葉の綴り方さえも学びました。

Life got a little easier.

人生は少し楽になった。

Our photos got a little better.

写真も少し良くなった。

And we got closer to a world where we all belong.

そして、私たちみんなが属する世界に近づいたのです。

All stations ready to resume count, 3 2 1...

全ステーションでカウント再開の準備が整いました 3 2 1...

we have liftoff!

離陸です

So as we stand on the cusp of a new area, new breakthroughs in AI will reimagine the ways we can help.

私たちは新たな領域の入り口に立ち、AIの新たなブレークスルーによって、私たちが支援できる方法を再構築します。

We will have the chance to improve the lives of billions of people.

何十億人もの人々の生活を向上させるチャンスを得ることができます。

We will give businesses the opportunity to thrive and grow, and help society answer the toughest questions we have to face.

また、企業が繁栄し成長する機会を与え、私たちが直面する最も困難な問題に社会が答えるのを助けることができるでしょう。

Now, we don't take this for granted.

今、私たちはこのことを当然だと考えてはいません。

So while our ambition is bold, our approach will always be responsible, because our goal is to make AI helpful for everyone.

なぜなら、私たちの目標は、AIをすべての人の役に立つものにすることだからです。

Good morning, everyone.

皆さん、おはようございます。

Welcome to Google I/O.

Google I/Oへようこそ。

It's great to see so many of you here at Shoreline, so many developers, and a huge thanks to the millions joining from around the world.

ショアラインで多くの皆さんとお会いでき、多くの開発者の皆さん、そして世界中から参加している数百万人の皆さんに心から感謝します。

From Bangladesh to Brazil to our new Bay View Campus right next door.

バングラデシュからブラジル、そしてすぐ隣の新しいベイビューキャンパスまで。

It's so great to have you, as always.

いつもながら、お集まりいただき、本当にありがとうございます。

As you may have heard, AI is having a very busy year, so we've got lots to talk about.

ご存知のように、AIはとても忙しい年なので、たくさんお話することがあります。

Let's get started.

さっそく始めましょう。

Seven years into our journey, as an AI first company, we are at an exciting inflection point.

AIファーストの企業として歩み始めて7年、私たちは今、エキサイティングな変曲点にいます。

We have an opportunity to make AI even more helpful for people, for businesses, for communities, for everyone.

私たちは、AIを人々、企業、コミュニティ、すべての人のためにさらに役立つものにする機会を得ています。

We have been applying AI to make our products radically more helpful for a while.

私たちは、以前からAIを応用して、自社製品を根本的に便利なものにしてきました。

With generative AI, we're taking the next step.

ジェネレイティブAIで、私たちは次のステップに進もうとしています。

With a bold and responsible approach, we're re imagining all our core products, including Search.

大胆かつ責任あるアプローチで、検索を含むすべてのコアプロダクトを想像しています。

You will hear more later in the keynote.

詳しくは、基調講演の後半でお聞きください。

Let me start with a few examples of how generative AI is helping to evolve our products, starting with G mail.

まずはGメールから、ジェネレーティブAIがどのように私たちの製品の進化に役立っているのか、いくつかの事例をご紹介します。

In 2017, we launched Smart Reply, short responses you could select with just one click.

2017年、私たちはSmart Replyを発表し、ワンクリックで選択できる短い返信を提供しました。

Next came Smart Compose, which offered writing suggestions as you type.

次に登場したのが、入力中に文章の候補を提示するSmart Composeです。

Smart Compose led to more advanced writing features powered by AI.

Smart Composeは、AIを活用したより高度な文章作成機能へとつながっていきました。

They've been used in WorkSpace over 180 billion times in the past year alone.

WorkSpaceでは、この1年だけで1800億回以上も利用されています。

And now, with a much more powerful generative model, we are taking the next step in G mail with "Help me write."

そして今、より強力な生成モデルによって、私たちはGメールの次のステップである "Help me write "に挑戦しています。

Let's say you got this E mail that your flight was cancelled.

例えば、飛行機がキャンセルになったというこのEメールを受け取ったとしましょう。

The airline has sent you a voucher, but what you really want is a full refund.

航空会社からバウチャーが送られてきましたが、あなたが本当に欲しいのは全額払い戻しです。

You could reply and use Help Me Write.

このメールに返信して、Help Me Writeを利用することができます。

Just type in the prompt of what you want, and E mail to ask for a full refund, hit create, and a full draft appears.

Eメールで全額返金を求める」と入力し、「作成」をクリックすると、下書きが表示されます。

As you can see, it conveniently pulled in flight details from the previous E mail.

ご覧のように、前のEメールから便宜的に詳細を取り込んでいます。

And it looks pretty close to what you want to send.

そして、あなたが送りたいものにかなり近いように見えます。

Maybe you want to refine it further.

しかし、さらに改良を加えたい場合もあるでしょう。

In this case, a more elaborate E mail might increase the chances of getting the refund.

この場合、より精巧なEメールにすることで、返金を受けられる可能性が高くなるかもしれません。

And there you go.

そして、これで完成です。

I think it's ready to send!

これで送信の準備は整いました!

Help me write will start rolling out as part of our WorkSpace updates.

Help me writeは、WorkSpaceのアップデートの一環として展開される予定です。

And just like with Smart Compose, you will see it get better over time.

Smart Composeと同じように、時間の経過とともにより良くなっていくのがわかるでしょう。

The next example is Maps.

次に、マップの例です。

Since the early days of Street View, AI has stitched together billions of panoramic images so people can explore the world from their device.

ストリートビューの初期から、AIは何十億枚ものパノラマ画像をつなぎ合わせて、人々が自分のデバイスから世界を探索できるようにしました。

At last year's I/O, we introduced Immersive View, which uses AI to create a high fidelity representation of a place so you can experience it before you visit.

昨年のI/Oでは、AIを使ってその場所を忠実に再現し、訪れる前に体験できる「イマーシブビュー」を発表しました。

Now we are expanding that same technology to do what Maps does best: Help you get where you want to go.

そして今、私たちは同じテクノロジーを、マップが得意とすることに拡張しています: それは、あなたが行きたい場所に行くのを助けることです。

Google Maps provides 20 billion kilometers of directions every day.

Google Mapsは、毎日200億キロメートルの道案内をしています。

That's a lot of trips.

これは膨大な数の旅行です。

Imagine if you could see your whole trip in advance.

もし、旅行の全行程を事前に見ることができたらと想像してみてください。

With Immersive View for routes, now you can, whether you're walking, cycling or driving.

イマーシブビューを使えば、徒歩でも、自転車でも、車でも、ルートが見えるようになります。

Let me show you what I mean.

どういうことか、お見せしましょう。

Say I'm in New York City and I want to go on a bike ride.

ニューヨークにいるとき、サイクリングに出かけたいと思います。

Maps has given me a couple of options close to where I am.

マップは、今いる場所の近くにあるいくつかの選択肢を提示してくれました。

I like the one on the waterfront, so let's go with that.

ウォーターフロントにあるのが気に入ったので、それにしよう。

Looks scenic.

景色が良さそうだ。

And I want to get a feel for it first.

そして、まずはその感触を確かめたい。

Click on immersive view for routes.

ルートはイマーシブビューをクリックしてください。

And it's an entirely new way to look at my journey.

旅先での見方がまったく変わりました。

I can zoom in to get an incredible bird's eye view of the ride.

ズームインして鳥瞰図を見ることができるんです。

And as we turn, we get on to a great bike path.

そして曲がると、素晴らしいサイクリングロードに出ます。

It looks like it's going to be a beautiful ride.

美しいライドになりそうだ。

You can also check today's air quality.

また、今日の空気の状態も確認することができます。

Looks really AQI is 43.

AQIは43だそうです。

Pretty good.

なかなかいい感じだ。

And if I want to check traffic and weather and see how they might change over the next few hours, I can do that.

また、交通状況や天候を確認し、数時間後にどのように変化するかを確認したい場合にも、それが可能です。

Looks like it's going to pour later, so maybe I want to get going now.

この後、土砂降りになるようなので、今すぐ出発した方がいいかもしれませんね。

Immersive View for routes will begin to roll out over the summer and launch in 15 cities by the end of the year.

Immersive View for routesは、夏から展開し、年内に15都市で開始する予定です。

These include London, New York, Tokyo, and San Francisco.

その中には、ロンドン、ニューヨーク、東京、サンフランシスコが含まれます。

Another product made better by AI is Google Photos.

AIによってより良くなったもう一つのプロダクトは、Googleフォトです。

We introduced it at I/O in 2015, and it was one of our first AI native products.

2015年のI/Oで発表したもので、私たちの最初のAIネイティブ製品の1つでした。

Breakthroughs in machine learning made it possible to search your photos for things like people, sunsets or waterfalls.

機械学習のブレークスルーにより、人物や夕日、滝などの写真を検索することが可能になりました。

Of course, we want you to do more than just search photos.

もちろん、写真を検索するだけでなく、それ以上のことをやってもらいたいと考えています。

We also want to help you make them better.

もちろん、写真を検索するだけでなく、より良い写真にするためのお手伝いもしたいと考えています。

In fact, every month, 1.7 billion images are edited in Google photos.

実際、Googleフォトでは、毎月17億枚の画像が編集されています。

AI advancements give us more powerful ways to do this.

AIの進化により、より強力な編集ができるようになりました。

For example, Magic Eraser, launched first on Pixel, uses AI powered computational photography to remove unwanted distractions.

例えば、Pixelで最初にリリースされたMagic Eraserは、AIを搭載した計算写真を使って、不要な雑念を取り除きます。

And later this year, using a combination of semantic understanding and generative AI, you can do much more with the new experience called Magic Editor.

そして今年の後半には、意味理解と生成AIの組み合わせを使って、Magic Editorと呼ばれる新しい体験で、もっと多くのことができるようになります。

Let's have a look.

ちょっと見てみましょう。

Say you're on a hike and stop to take a photo in front of a waterfall.

ハイキング中に滝の前で写真を撮るために立ち止まったとします。

You wish you had taken your bag off for the photo, so let's go ahead and remove that bag strap.

バッグを脱いで撮りたかったと思うので、そのバッグのストラップを外してみましょう。

The photo feels a bit dark, so you can improve the lighting.

写真が少し暗く感じるので、ライティングを改善しよう。

And maybe you want to even get rid of some clouds to make it feel as sunny as you remember it.

さらに、雲を消して、思い出の晴れ姿にしてみるのもいいかもしれません。

Looking even closer, you wish you had posed so it looks like you're really catching the water in your hand.

さらによく見ると、手に水を受け止めるようなポーズをとればよかった。

No problem.

大丈夫です。

You can adjust that.

調整すればいいんです。

There you go.

これでOKです。

Let's look at one more photo.

もう1枚、見てみましょう。

This is a great photo, but as a parent, you always want your kid at the center of it all.

これは素晴らしい写真ですが、親としては、常に子供を中心に置きたいものです。

And it looks like the balloons got cut off in this one.

この写真では風船が切れてしまっているように見えます。

So you can go ahead and reposition the birthday boy.

そこで、誕生日の男の子の位置を変えてきてください。

Magic Editor automatically re creates parts of the bench and balloons that were not captured in the original shot.

Magic Editorは、元の写真に写っていないベンチや風船の部分を自動的に作り直します。

And as a finishing touch, you can punch up the sky.

そして、仕上げに空をパンチアップします。

This also changes the lighting in the rest of the photo so the edit feels consistent.

このとき、他の部分の照明も変更されるので、編集に一貫性が生まれます。

It's truly magical.

まさに魔法のようです。

We are excited to roll out Magic Editor in Google Photos later this year.

今年後半には、GoogleフォトでMagic Editorを展開できることを楽しみにしています。

From G mail and Photos to Maps, these are just a few examples of how AI can help you in moments that matter.

Gメールや写真からマップまで、これらはAIが重要な瞬間にあなたを支援する方法のほんの一例にすぎません。

And there is so much more we can do to deliver the full potential of AI across the products you know and love.

そして、みなさんが愛してやまない製品に、AIの可能性を最大限に引き出すために、私たちができることはまだまだたくさんあります。

Today, we have 15 products that each serve more than half a billion people and businesses, and six of those products serve over two billion users each.

現在、私たちは5億人以上の人々や企業にサービスを提供する15の製品を持ち、そのうちの6つの製品はそれぞれ20億人以上のユーザーにサービスを提供しています。

This gives us so many opportunities to deliver on our mission, to organize the world's information and make it universally accessible and useful.

このことは、「世界中の情報を整理し、普遍的にアクセス可能で有用なものにする」という私たちの使命を実現するための多くの機会を与えてくれます。

It's a timeless mission that feels more relevant with each passing year.

これは時代を超えたミッションであり、年を追うごとに関連性を増していると感じています。

And looking ahead, making AI helpful for everyone, is the most profound way we will advance our mission.

そして、先を見据えて、すべての人に役立つAIを作ることが、私たちの使命を前進させる最も深い方法です。

And we are doing this in four important ways.

そして、私たちはこれを4つの重要な方法で行っています。

First, by improving your knowledge and learning, and deepening your understanding of the world.

第一に、あなたの知識と学習を向上させ、世界に対する理解を深めることです。

Second, by boosting creativity and productivity so you can express yourself and get things done.

第二に、創造性と生産性を高めることで、自分を表現し、物事を成し遂げることができるようにすることです。

Third, by enabling developers and businesses to build their own transformative products and services.

3つ目は、開発者や企業が革新的な製品やサービスを構築できるようにすることです。

And finally, by building and deploying AI responsibly so that everyone can benefit equally.

そして最後に、誰もが平等に恩恵を受けることができるよう、責任を持ってAIを構築し、導入することです。

We are so excited by the opportunities ahead.

私たちは、この先のチャンスにとても興奮しています。

Our ability to make AI helpful for everyone relies on continuously advancing our foundation models.

AIをすべての人の役に立つものにするためには、私たちの基盤モデルを継続的に進化させることが重要です。

So I want to take a moment to share how we are approaching them.

そこで、私たちがどのようにアプローチしているのか、この場を借りてお伝えしたいと思います。

Last year, you heard us talk about PaLM, which led to many improvements across our products.

昨年、私たちがPaLMについて話し、それが私たちの製品全体の多くの改善につながったことをお聞きいただきました。

Today, we are ready to announce our latest PaLM model in production, PaLM 2.

そして今日、製品化された最新のPaLMモデル「PaLM 2」を発表する準備が整いました。

PaLM 2 builds on our fundamental research and our latest infrastructure.

PaLM 2は、私たちの基礎研究と最新のインフラを基盤としています。

It's highly capable at a wide range of tasks, and easy to deploy.

さまざまなタスクに高い能力を発揮し、導入も簡単です。

We are announcing over 25 products and features powered by PaLM 2 today.

本日、PaLM 2を搭載した25以上の製品および機能を発表します。

PaLM 2 models deliver excellent foundational capabilities across a wide range of sizes.

PaLM 2のモデルは、幅広いサイズで優れた基盤機能を提供します。

We have affectionately named them Gecko, Otter, Bison and Unicorn.

私たちは、Gecko、Otter、Bison、Unicornと愛情を込めて名付けました。

Gecko is so light weight that it can work on mobile devices, fast enough for great interactive applications on device, even when offline.

Geckoは、モバイルデバイスでも動作するほど軽量で、オフライン時でもデバイス上で素晴らしいインタラクティブなアプリケーションを実現できるほど高速です。

PaLM 2 models are stronger in logic and reasoning, thanks to broad training on scientific and mathematical topics.

PaLM 2のモデルは、科学や数学のトピックに関する幅広いトレーニングにより、論理や推論に強くなっています。

It's also trained on multi lingual texts, spanning over 100 languages so it understands and generates nuanced results.

また、100以上の言語にまたがる多言語テキストでトレーニングされているため、ニュアンスの異なる結果を理解し、生成することができます。

Combined with powerful coding capabilities, PaLM 2 can also help developers collaborating around the world.

強力なコーディング機能と組み合わせることで、PaLM 2は、世界中でコラボレーションする開発者を支援することができます。

Let's look at this example.

この例を見てみましょう。

Let's say you're working with a colleague in Seoul and you're debugging code.

ソウルにいる同僚と一緒に、コードをデバッグしているとします。

You can ask it to fix a bug and help out your teammate by adding comments in Korean to the code.

コードに韓国語のコメントを追加することで、バグの修正やチームメイトを助けることを依頼することができます。

It first recognizes the code is recursive, suggests a fix and even explains the reasoning behind the fix.

まずコードが再帰的であることを認識し、修正を提案し、さらに修正の理由も説明してくれます。

And as you can see, it added comments in Korean, just like you asked.

そして、ご覧のように、あなたが頼んだように韓国語でコメントを付けてくれました。

While PaLM 2 is highly capable, it really shines when fine tuned on domain specific knowledge.

PaLM 2は高い能力を備えていますが、ドメイン固有の知識で微調整することで、本当に輝きを増します。

We recently released Sec PaLM, a version of PaLM 2, fine tuned for security use cases.

私たちは最近、PaLM 2をセキュリティのユースケース向けに微調整したバージョンであるSec PaLMをリリースしました。

It uses AI to better detect malicious scripts and can help security experts understand and resolve threats.

これは、AIを使って悪意のあるスクリプトをよりよく検出し、セキュリティ専門家が脅威を理解し解決するのを助けることができるものです。

Another example is Med PaLM 2.

もう一つの例は、Med PaLM 2です。

In this case, it's fine tuned on medical knowledge.

この場合、医学的な知識でファインチューニングされています。

This fine tuning achieved a 9x reduction in inaccurate reasoning when compared to the model, approaching the performance of clinician experts who answered the same set of questions.

このファインチューニングにより、モデルと比較した場合、不正確な推論を9倍削減し、同じ質問セットに回答した臨床医の専門家のパフォーマンスに近づけることを達成しました。

In fact, Med PaLM 2 was the first language model to perform at "expert level" on medical licensing exam style questions, and is currently the state of the art.

実際、Med PaLM 2は、医療ライセンス試験形式の問題で「専門家レベル」の性能を発揮した最初の言語モデルであり、現在では最先端を行くものです。

We are also working to add capabilities to Med PaLM 2 so that it can synthesize information from medical imaging like plain films and mammograms.

また、プレーンフィルムやマンモグラムなどの医療画像から情報を合成できるように、Med PaLM 2に機能を追加する作業も行っています。

You can imagine an AI collaborator that helps radiologists, interpret images and communicate the results.

放射線科医を助け、画像を解釈し、結果を伝えるAIコラボレーターを想像してみてください。

These are some examples of PaLM 2 being used in specialized domains.

これらは、PaLM 2が専門的な領域で使用されている例です。

We can't wait to see it used in more.

もっと多くの分野で使われるのが待ち遠しいですね。

That's why I'm pleased announce that it is now available in preview.

そのため、プレビュー版の提供を開始したことをお知らせします。

And I'll let Thomas share more.

そして、トーマにもっと話してもらうことにしよう。

PaLM 2 is the latest step in our decade long journey to bring AI in responsible ways to billions of people.

PaLM 2は、何十億もの人々に責任ある方法でAIを届けるという、私たちの10年にわたる旅の最新ステップです。

It builds on progress made by two world class teams, the Brain Team and DeepMind.

Brain TeamとDeepMindという2つの世界的なチームによる進歩の上に成り立っています。

Looking back at the defining AI breakthroughs over the last decade, these teams have contributed to a significant number of them.

過去10年間の決定的なAIのブレークスルーを振り返ってみると、これらのチームはかなりの数に貢献していることがわかります。

AlphaGo, Transformers, sequence to sequence models, and so on.

AlphaGo、Transformers、sequence to sequence modelなどなど。

All this helped set the stage for the inflection point we are at today.

これらはすべて、私たちが今日いる変曲点の舞台を整えるのに貢献しました。

We recently brought these two teams together in to a single unit, Google DeepMind.

私たちは最近、この2つのチームを1つのユニット、Google DeepMindにまとめました。

Using the computational resources of Google, they are focused on building more capable systems safely and responsibly.

Googleの計算資源を使い、より高性能なシステムを安全かつ責任を持って構築することに専念しています。

This includes our next generation foundation model, Gemini, which is still in training.

これには、現在もトレーニング中の次世代基盤モデル「Gemini」も含まれています。

Gemini was created from the ground up to be multi modal, highly efficient at tool and API integrations, and built to enable future innovations like memory and planning.

Geminiは、マルチモーダルであること、ツールやAPIの統合が非常に効率的であること、そして記憶や計画といった将来のイノベーションを可能にするために一から作られました。

While still early, we're already seeing impressive multi modal capabilities not seen in prior models.

まだ初期の段階ですが、すでに、以前のモデルにはなかった印象的なマルチモード機能を目の当たりにしています。

Once fine tuned and rigorously tested for safety, Gemini will be available at various sizes and capabilities just like PaLM 2.

Geminiは、PaLM 2のように、さまざまなサイズと機能を提供できるようになります。

As we invest in more advanced models, we are also deeply investing in AI responsibility.

より高度なモデルへの投資と同時に、私たちはAIへの責任にも深く投資しています。

This includes having the tools to identify synthetically generated content whenever you encounter it.

これには、合成的に生成されたコンテンツに遭遇したときに、それを識別するためのツールを持つことが含まれます。

Two important approaches are watermarking and metadata.

重要なアプローチとして、電子透かしとメタデータがあります。

Watermarking embeds information directly into content in ways that are maintained even through modest image editing.

電子透かしは、適度な画像編集でも維持される方法で、コンテンツに直接情報を埋め込みます。

Moving forward, we are building our models to include watermarking and other techniques from the start.

今後は、電子透かしやその他の技術を最初から含むようにモデルを構築していきます。

So if you look at this synthetic image, it's impressive how real it looks, so you can imagine how important this is going to be in the future.

この合成画像を見ると、リアルに見えるのが印象的ですが、これが将来的にどれだけ重要になるか想像できますね。

Metadata allows content creators to associate additional context with original files, giving you more information whenever you encounter an image.

メタデータは、コンテンツ制作者がオリジナルのファイルに追加のコンテキストを関連付けることを可能にし、画像に遭遇するたびに、より多くの情報を提供します。

We'll ensure every one of our AI generated images has that metadata.

私たちは、AIが生成した画像のすべてにメタデータを付与することを保証します。

James will talk about our responsible approach to AI later.

AIに対する私たちの責任あるアプローチについては、後ほどジェームスがお話しします。

As models get better and more capable, one of the most exciting opportunities is making them available for people to engage with directly.

モデルがより良く、より高性能になるにつれて、最もエキサイティングな機会のひとつは、人々が直接関わることができるようにすることです。

That's the opportunity we have with Bard, our experiment for conversational AI.

会話型AIの実験であるBardは、そのチャンスです。

We are rapidly evolving Bard.

私たちは、Bardを急速に進化させています。

It now supports a wide range of programming capabilities, and it's gotten much smarter at reasoning and math prompts.

現在では、さまざまなプログラミング機能をサポートし、推論や数学のプロンプトをよりスマートにこなすようになりました。

And as of today, it is now fully running on PaLM 2.

そして今日、PaLM 2で完全に動作するようになりました。

To share more about what's coming, let me turn it over to Sissie.

今後の展開については、シシーに話を譲りましょう。

Thanks, Sundar.

ありがとう、スンダル。

Large language models have captured the world's imagination, changing how we think about the future of computing.

大規模言語モデルは世界の想像力をかき立て、コンピューティングの未来についての考え方を変えてきました。

We launched Bard as a limited access experiment on a lightweight large language model to get feedback and iterate.

私たちはBardを、軽量な大規模言語モデルでの限定的なアクセス実験として立ち上げ、フィードバックを得て反復しています。

Since then, the team has been working hard to make rapid improvements,and launch them quickly.

それ以来、チームは迅速な改良と迅速な立ち上げに努めています。

With PaLM 2 Bard's math, logic and reasoning skills made a huge leap forward, underpinning its ability to help developers with programming.

PaLM 2では、Bardの数学、論理、推論のスキルが飛躍的に向上し、開発者のプログラミングを支援する能力を支えることになりました。

Bard can now collaborate on tasks like code generation, debugging and explaining code snippets.

Bardは、コードの生成、デバッグ、コードスニペットの説明などの作業を共同で行うことができるようになりました。

Bard has already learned more than 20 programming languages, including C++, Go, JavaScript, Python, Kotlin, and even Google Sheets functions.

Bardはすでに、C++、Go、JavaScript、Python、Kotlin、さらにはGoogle Sheetsの関数など、20以上のプログラミング言語を習得しています。

And we're thrilled to see that coding has quickly become one of the most popular things people are doing with Bard.

そして、コーディングがすぐに、人々がBardで行っている最も人気のあることの1つになったことに、私たちは感激しています。

So let's take a look at an example.

では、例を見てみましょう。

I've recently been learning chess, and, for fun, I thought I'd see if I can program a move in Python.

最近チェスを習っているのですが、面白半分に、Pythonで手をプログラムできるかどうか試してみようと思いました。

How would I use Python to generate the "Scholar's Mate" move in chess?

Pythonを使って、チェスの「Scholar's Mate」という手を生成するにはどうしたらいいでしょうか?

Okay.

わかりました。

Here, Bard created a script to re create this chess move in Python.

ここでバルドは、Pythonでこのチェスの手を再作成するスクリプトを作成しました。

And notice how it also formatted the code nicely, making it easy to read.

そして、コードをきれいに整形して、読みやすくしていることにも注目してください。

We've also heard great feedback from developers about how Bard provides code citations.

また、Bardがコードの引用を提供する方法について、開発者から大きなフィードバックを得ています。

And starting next week, you'll notice something right here.

そして来週からは、ここにあるものに注目してください。

We're making code citations even more precise.

コードの引用をより正確にするためです。

If Bard brings in a block of code, just click this annotation and Bard will underline the block and link to the source.

Bardがコードのブロックを持ってきたら、この注釈をクリックするだけで、Bardはそのブロックに下線を引き、ソースにリンクします。

Now, Bard can also help me understand the code.

また、Bardはコードを理解する手助けもしてくれます。

Could you tell me what 'chess.Board([)]' does in this code?

このコードで『chess.Board([)]』が何をしているのか、教えてもらえますか?

Now, this is a super helpful explanation of what it's doing and makes things more clear.

さて、これは何をしているのかの超便利な説明で、物事をより明確にすることができます。

All right.

よしっ。

Let's see if we can make this code a little better.

このコードをもう少し良くできないか考えてみましょう。

How would I improve this code?

このコードをどのように改善すればいいのでしょうか?

Okay.

そうですね。

Let's see, there's a list comprehension, creating a function, and using a generator.

リスト理解、関数の作成、ジェネレーターの使用などですね。

Those are great suggestions!

これらは素晴らしい提案です!

Now, could you join them in to one single Python code block?

では、これらを1つのPythonコードブロックにまとめることができるでしょうか?

Okay.

わかりました。

Bard is rebuilding the code with these improvements.

バルドはこれらの改良を加えてコードを再構築しています。

Okay.

そうですか。

Great.

素晴らしい。

How easy was that?

なんて簡単なんでしょう?

And in a couple clicks, I can move this directly into Colab.

そして、2回クリックするだけで、これを直接Colabに移動させることができます。

Developers love the ability to bring code from Bard into their workflow, like Colab, so coming soon, we're adding the ability to export and run code with our partner Replit, starting with Python.

開発者は、BardのコードをColabのようなワークフローに取り込む機能が大好きです。そこで、近々、Pythonを始めとするパートナーReplitでコードをエクスポートして実行する機能を追加する予定です。

We've also heard that you want Dark theme, so starting today, you can activate it You can activate it right in Bard or let it follow your OS settings.

また、Darkテーマが欲しいという声もありましたので、本日よりDarkテーマを有効にすることができます。Bardでそのまま有効にすることもできますし、OSの設定に従わせることもできます。

Speaking of exporting things, people often ask Bard for a head start drafting E mails and documents.

エクスポートといえば、Eメールやドキュメントの下書きをBardでやってみたいという声がよく聞かれます。

So today we're launching two more Export Actions, making it easy to move Bard's responses right in to G mail and Docs.

そこで、今日、さらに2つのエクスポートアクションを発表し、Bardの回答をGメールやDocsに簡単に移動できるようにしました。

So we're excited by how quickly Bard and the underlying models are improving, but we're not stopping there.

このように、Bardとその基礎となるモデルが急速に改善されていることに興奮していますが、私たちはこれにとどまるつもりはありません。

We want to bring more capabilities to Bard to fuel your curiosity and imagination.

私たちは、皆さんの好奇心や想像力を刺激するために、Bardにさらなる機能を持たせたいと考えています。

And so, I'm excited to announce that tools are coming to Bard.

そこで、Bardにツールを導入することを発表します。

As you collaborate with Bard, you'll be able to tap into services from Google and extensions with partners to let you do things never before possible.

Bardとのコラボレーションでは、Googleのサービスやパートナーとの拡張機能を活用することで、これまで不可能だったことを可能にすることができます。

And of course, we'll approach this responsibly, in a secure and private way, letting you always stay in control.

もちろん、安全でプライベートな方法で、責任を持ってアプローチし、常にコントロールできるようにします。

We're starting with some of the Google apps that people love and use every day.

まずは、みんなが大好きで毎日使っているGoogleのアプリをいくつか紹介します。

It's incredible what Bard can already do with text, but images are such a fundamental part of how we learn and express.

Bardがすでにテキストでできることは信じられないほどですが、画像は私たちが学び、表現するための基本的な部分です。

So in the next few weeks, Bard will become more visual, both in its responses, and your prompts.

ですから、今後数週間は、Bardのレスポンスも、あなたのプロンプトも、より視覚的になっていきます。

So if you ask, What are some must see sights in New Orleans?

例えば、「ニューオリンズで必見の観光スポットは?

Bard's going to use Google Search and the Knowledge Graph to find the most relevant images.

BardはGoogle検索とKnowledge Graphを使って、最も関連性の高い画像を探します。

Okay.

なるほど。

Here we go.

これだ。

Hmmm, the French Quarter, the Garden District.

フレンチクォーター、ガーデンディストリクト。

These images really give me a much better sense of what I’m exploring.

この画像を見ていると、自分が何を探索しているのかがよくわかりますね。

We'll also make it easy for you to prompt Bard with images, giving you even more ways to explore and create.

さらに、画像を使ってBardにプロンプトを出すことも簡単にできるようになり、探索と創造の方法がさらに広がります。

People love Google Lens, and in coming months, we're bringing the powers of Lens to Bard.

Google Lensは多くの人に愛用されていますが、数カ月後にはBardにもLensの機能を導入する予定です。

So if you're looking to have some fun with your fur babies, you might upload an image and ask Bard to "Write a funny caption about these two."

ですから、毛皮の赤ちゃんとの楽しい時間を過ごしたいなら、画像をアップロードして、Bardに「この2人について面白いキャプションを書いてください」とお願いしてみましょう。

Lens detects this is a photo of a goofy German Shepherd and a Golden Retriever.

Lensは、これがおちゃめなジャーマンシェパードとゴールデンレトリバーの写真であることを検出します。

And then Bard uses that to create some funny captions.

そして、Bardはそれをもとに、面白いキャプションを作成するのです。

If you ask me, I think they're both good boys.

私に言わせれば、2人ともいい子だと思うんですけどね。

Okay.

なるほど。

Let's do another one.

もうひとつやってみましょう。

Imagine I'm 18 and I need to apply to college.

私が18歳で、大学に出願する必要があると想像してください。

I won't date myself with how long it's been, but it's still an overwhelming process.

もう何年も前のことだから日付は変えないけど、それでも圧倒的なプロセスだ。

So I'm thinking about colleges, but I'm not sure what I want to focus on.

それで、大学について考えているのですが、何に焦点を当てたいのかがわかりません。

I'm into video games.

僕はビデオゲームに夢中なんだ。

And what kinds of programs might be interesting?

そして、どんなプログラムが面白そうなのか。

Okay.

わかりました。

This is a really helpful head start.

これは本当に役に立つ頭脳戦です。

Hmmm, animation looks pretty interesting.

うーん、アニメーションはかなり面白そうだ。

Now I could ask, help me find colleges with animation programs in Pennsylvania.

ペンシルベニアでアニメーションのプログラムがある大学を探すのを手伝ってください」と頼めるようになりました。

Okay.

なるほど。

Great.

素晴らしい。

That's a good list of schools.

これはいい学校のリストですね。

Now, to see where these are, I might now say, show these on a map.

さて、これらの学校がどこにあるのかを確認するために、今度は地図上に表示するように言ってみましょう。

Here, Bard's using Google Maps to visualize where these schools are.

ここでは、バルドがGoogleマップを使って、これらの学校の場所を視覚化しています。

This is super helpful, and exciting to see that plenty of options are not too far from home.

これは非常に便利で、家からそれほど遠くないところにたくさんの選択肢があることがわかり、わくわくします。

Now, let's start organizing things a bit.

では、もう少し整理してみましょう。

Show these options as a table.

これらの選択肢を表として表示します。

Nice.

いいですね。

Structured and organized.

構造化され、整理されています。

But there's more I want to know.

でも、もっと知りたいことがあります。

Add a column showing whether they are public or private schools.

公立か私立かを示す列を追加する。

Perfect.

完璧です。

This is a great start to build on.

これをベースにすれば、素晴らしいスタートを切ることができます。

And now, let's move this to Google Sheets so my family can jump in later to help me with my search.

そして、これをGoogle Sheetsに移し、後で家族が検索を手伝えるようにしましょう。

You can see how easy it will be to get a jump start in Bard and quickly have something useful to move over to apps like Docs or Sheets to build on with others.

このように、Bardでスタートダッシュを決め、DocsやSheetsのようなアプリケーションに移行して、他の人と一緒に作り上げるのに役立つものをすぐに作ることができるのです。

Okay.

なるほど。

Now, that's a taste of what's possible when Bard meets some of Google's apps, but that's just the start.

BardがGoogleのアプリケーションと出会うことで、どんなことが可能になるかをご紹介しましたが、これはほんの始まりにすぎません。

Bard will be able to tap into all kinds of services from across the Web, with extensions from incredible partners like Instacart, Indeed, Khan Academy and many more.

Bardは、Instacart、Indeed、Khan Academyなどの素晴らしいパートナーからの拡張機能を使って、ウェブ上のあらゆる種類のサービスを利用することができるようになります。

Here's a look at one coming in the next couple months.

ここでは、今後数カ月で登場する拡張機能を紹介します。

With Adobe Firefly, you'll be able to generate completely new images from your imagination, right in Bard.

Adobe Fireflyを使えば、あなたの想像力からまったく新しい画像をBard上で生成できるようになります。

Now, let's say I'm planning a birthday party for my seven year old who loves unicorns.

例えば、ユニコーンが大好きな7歳の子供の誕生日パーティーを計画しているとしましょう。

I want a fun image to send out with the invitations.

招待状には、楽しい画像を使いたいですね。

Make an image of a unicorn and a cake at a kid's party.

キッズパーティーでユニコーンとケーキを食べるイメージを作ろう。

Okay.

なるほど。

Now Bard is working with Firefly to bring what I imagined to life.

今、バルドはホタルと協力して、私がイメージしたものを実現してくれています。

How amazing is that?

なんてすごいことなんでしょう。

This will unlock all kinds of ways that you can take your creativity further and faster.

これによって、あなたのクリエイティビティをより遠く、より速く発揮するためのあらゆる方法が開かれていくでしょう。

And we are so excited for this partnership.

そして、私たちはこのパートナーシップにとても興奮しています。

Bard continues to rapidly improve and learn new abilities, and we want to let people around the world try it out and share their feedback.

Bardは急速に改良され、新しい能力を身につけ続けているので、世界中の人々に試してもらい、フィードバックを共有したいのです。

And so today, we are removing the wait list and opening up Bard to over 180 countries and territories.

そして、本日、ウェイティングリストを削除し、180以上の国と地域にBardを開放することになりました。

With more coming soon.

さらに多くの国や地域で利用できるようになります。

Bard is also becoming available in more languages.

また、Bardは、より多くの言語で利用できるようになります。

Beyond English, starting today, you'll be able to talk to Bard in Japanese and Korean.

英語だけでなく、今日から日本語と韓国語でもバルドに話しかけられるようになります。

Adding languages responsibly involves deep work to get things like quality and local nuances right, and we're pleased to share that we're on track to support 40 languages soon!

責任を持って言語を追加するには、品質や地域のニュアンスなどを正しく理解するための深い作業が必要ですが、まもなく40言語をサポートする予定であることをお伝えできるのは喜ばしいことです!

It's amazing to see the rate of progress so far.

これまでの進歩の速さには驚かされます。

More advanced models, so many new capabilities, and the ability for even more people to collaborate with Bard.

より高度なモデル、多くの新機能、そしてより多くの人々がバルドとコラボレーションできるようになりました。

And when we're ready to move Bard to our Gemini model, I'm really excited about more advancements to come.

そして、BardをGeminiモデルに移行する準備が整えば、さらなる進化が待っていると思うと、本当に楽しみです。

So that's where we're going with Bard, connecting tools from Google and amazing services across the Web, to help you do and create anything you can imagine.

Googleのツールやウェブ上の素晴らしいサービスと連携し、あなたが想像するあらゆることを実現し、創造することを支援する、それがBardの目指すところです。

Through a fluid collaboration with our most capable large language models.

私たちの最も有能な大規模言語モデルとの流動的なコラボレーションを通じて。

There's so much to share in the days ahead.

これから、たくさんのことをお伝えしていきます。

And now, to hear more about how large language models are enabling next-generation productivity features right in WorkSpace, I'll hand it over to Aparna.

では、大規模言語モデルがWorkSpaceの次世代生産性機能をどのように実現しているのか、Aparnaに話を聞きます。

From the very beginning, Workspace was built to allow you to collaborate in real-time with other people.

WorkSpaceは最初から、他の人とリアルタイムでコラボレーションできるように作られています。

Now you can collaborate in real time with AI.

今、あなたはAIとリアルタイムでコラボレーションすることができます。

AI can act as a coach, a thought partner, source of inspiration, as well as a productivity booster across all of the apps of Workspace.

AIは、Workspaceのすべてのアプリにおいて、コーチ、思考のパートナー、インスピレーションの源、そして生産性を高める存在として機能することができます。

Our first steps with AI as a collaborator were via the help me write feature in G mail and Docs, which launched to trusted testers in March.

AIをコラボレーターとして使う最初のステップは、GメールとDocsのhelp me write機能で、3月に信頼できるテスターに提供されました。

We've been truly blown away by the clever and creative ways these features are being used, from writing essays, sales pitches, project plans, client outreach, and so much more.

この機能は、エッセイ、セールストーク、プロジェクト計画、クライアントへの働きかけなど、さまざまな場面で巧妙かつクリエイティブに活用されており、私たちは本当に驚いています。

Since then, we've been busy expanding these helpful features across more surfaces.

それ以来、私たちはこれらの便利な機能をより多くの面に広げていくことに躍起になっています。

Let me show you a few examples.

いくつかの例をご紹介しましょう。

One of our most popular use cases is the trusty job description.

最も人気のある使用例の1つは、信頼できる職務経歴書です。

Every business, big or small, needs to hire people.

大企業でも中小企業でも、人を雇う必要があります。

A good job description can make all the difference.

優れた職務経歴書は、すべての違いを生み出すことができます。

Here's how Docs has been helping.

Docsがどのように役立っているのかを紹介しましょう。

Say you run a fashion boutique and need to hire a textile designer.

例えば、ファッションブティックを経営していて、テキスタイルデザイナーを雇う必要があるとします。

To get started, you enter just a few words as a prompt, "Senior level job description for textile designer."

まずは、「テキスタイルデザイナーの上級職の仕事内容」というプロンプトを数語だけ入力します。

Docs will take that prompt and send it to our PaLM 2 based model.

Docsはそのプロンプトを受け取り、PaLM 2ベースのモデルに送信します。

And let's see what I get back.

そして、どんな結果が返ってくるか見てみましょう。

Nod bad.

頷けません。

With just seven words, the model came back with a good starting point, written out really nicely.

たった7つの単語で、このモデルは良い出発点を示し、とてもきれいに書き出されました。

Now, you can take that and customize it for the kind of experience, education and skill set that this role needs, saving you a ton of time and effort.

これをもとに、この職務に必要な経験、教育、スキルセットに合わせてカスタマイズすれば、時間と労力を大幅に節約できます。

Next, let me show you how you can get more organized with Sheets.

次に、Sheetsを使った整理整頓の方法を紹介します。

Imagine you run a dog walking business and need to keep track of things like your clients, logistics about the dogs, like what time they need to be walked, for how long, et cetera.

例えば、犬の散歩のビジネスを営んでいて、顧客や犬に関するロジスティクス(何時に散歩させるか、何分散歩させるか、など)を記録する必要があると想像してください。

Sheets can help you get organized.

そんなとき、「シート」を使えば、整理整頓ができます。

In a new Sheet, simply type something like,"Client and pet roster for a dog walking business with rates," and hit Create.

新しいシートに、「犬の散歩ビジネスの顧客とペットの名簿と料金」などと入力して、「作成」をクリックします。

Sheets sends this input to a fine tuned model that we've been training with all sorts of Sheets specific use cases.

Sheetsはこの入力を、Sheets特有のあらゆるユースケースを想定してトレーニングしてきた、微調整されたモデルに送ります。

Look at that!

見てください!

The model figured out what you might need.

このモデルは、あなたが必要としそうなものを見つけ出してくれました。

The again rated table has things like the dog's name, client info, notes, et cetera.

再び評価されたテーブルには、犬の名前、クライアントの情報、メモ、などのようなものがあります。

This is a good start for you to tinker with.

これは、あなたがいじくり回すのに良いスタート地点です。

Sheets made it easy for you to get started, so you can get back to doing what you love.

Sheetsは、あなたが好きなことに戻れるように、簡単に始められるようにしました。

Speaking of getting back to things you love, let's talk about Google Slides.

好きなことに戻る」といえば、Google Slidesの話をしましょう。

People use Slides for storytelling all the time, whether at work or in their personal lives.

仕事でもプライベートでも、人々は常にストーリーテリングのためにSlidesを使っています。

For example, you get your extended family to collect anecdotes/haikus/jokes for your parents' 50th wedding anniversary in a slide deck.

例えば、両親の結婚50周年記念のために、親戚に逸話や俳句、ジョークを集めてもらい、スライドデッキにまとめたとします。

Everyone does their bit, but maybe this deck could have more pizzazz.

しかし、このデッキにはもっと華やかさがあってもいいのではないでしょうか。

Let's pick one of the slides and use the poem on there as a prompt for image generation.

そこで、スライドの中から1枚を選び、そこに書かれている詩を画像生成のためのプロンプトとして使ってみましょう。

Mom loves her pizza cheesy and true, while Dad's favorite treat is a warm pot of fondue.

ママはピザが大好き、そしてパパは温かい鍋でフォンデュをするのがお気に入り。

Let's hit create and see what it comes up with.

さあ、どんなものが出来上がるか、見てみましょう。

Behind the scenes, that quote is sent as input to our text 2 image models.

裏では、この引用文がテキスト2画像モデルへの入力として送られています。

And we know it's unlikely that the user will be happy with just one option so we generate six to eight images so that you have the ability to choose and refine.

そして、ユーザーが1つの選択肢だけで満足することはないだろうと考え、6~8枚の画像を生成し、ユーザーが選択し、改良できるようにしています。

Whoa!

あれ?

I have some oddly delicious looking fondue pizza images!

妙に美味しそうなフォンデュピザの画像ができました!

Now, the style is a little too cartoony for me.

さて、このスタイルは私にとってはちょっとアニメチックすぎる。

So I'm going to ask it to try again.

そこで、もう一度試してもらうことにします。

Let's change the style to "photography."

スタイルを "写真 "に変えてみましょう。

And give it a whirl.

そして、試しにやってみましょう。

Just as weird, but it works for me.

同じように奇妙ですが、私の場合はうまくいきました。

You can have endless fun with this, with no limits on cheesiness or creativity.

このように、チープさやクリエイティビティを制限することなく、無限の楽しみを味わうことができます。

Starting next month, trusted testers will be able to try this and six more generative AI features across Workspace.

来月から、信頼できるテスターは、Workspace全体で、この機能とさらに6つの生成AI機能を試すことができるようになる予定です。

And later this year, all of this will be generally available to business and consumer Workspace users.

そして今年の後半には、このすべてがビジネスとコンシューマのWorkspaceユーザーに一般的に提供される予定です。

It will be via a new service called Duet AI for Workspace.

これは、Duet AI for Workspaceという新しいサービスを通じて行われる予定です。

Stepping back a bit, I showed you a few powerful examples of how Workspace can help you get more done with just a few words as prompts.

少し前になりますが、Workspaceがプロンプトとしていくつかの言葉を発するだけで、より多くの仕事をこなすことができるパワフルな例をいくつかご紹介しました。

Prompts are a powerful way of collaborating with AI.

プロンプトは、AIとコラボレーションするための強力な方法です。

The right prompt can unlock far more from these models.

適切なプロンプトは、これらのモデルからはるかに多くのことを引き出すことができます。

However, it can be daunting for many of us to even know where to start.

しかし、私たちの多くにとって、何から始めればいいのかさえも、気が遠くなるようなことかもしれません。

Well, what if we could solve that for you?

もし、私たちがそれを解決できるとしたらどうでしょう?

What if AI could proactively offer you prompts?

AIがプロアクティブにプロンプトを提示してくれるとしたらどうでしょう。

Even better, what if these prompts were actually contextual and changed based on what you are working on?

さらに、このプロンプトが文脈に応じて変化し、あなたが取り組んでいることに基づいて変化するとしたらどうでしょう?

I am super excited to show you a preview of just that.

そのプレビューをお見せできることを、とてもうれしく思います。

This is how we see the future of collaboration with AI coming to life.

このように、AIとのコラボレーションの未来が見えてきました。

Let's switch to a live demo so I can show you what I mean.

ライブデモに切り替えて、私が言いたいことをお見せしましょう。

Tony's here to help with that.

トニーがそのお手伝いをします。

Hey, Tony.

やあ、トニー。

Hey, Aparna.

やあ、アパルナ。

My niece, Meera, and I are working on a spooky story together for summer camp.

姪のミーラと私は、サマーキャンプのために一緒に不気味な物語を作っているところです。

We've already written a few paragraphs, but now we're stuck.

もう何段か書いたんだけど、今行き詰っている。

Let's get some help.

手伝ってもらおう。

As you can see, we launched a side panel, something the team fondly calls Sidekick.

ご覧のように、私たちはサイドパネルを立ち上げ、チームでは「Sidekick」と呼んでいます。

Sidekick instantly reads and processes the document, and offers some really neat suggestions, along with an open prompt dialogue.

Sidekickは、ドキュメントを瞬時に読み取って処理し、オープンなプロンプトダイアログとともに、実に巧妙な提案をしてくれます。

If we look closely, we can see some of the suggestions, like, what happened to the golden seashell?

よく見ると、「金の貝殻はどうなったのか?

What are common mystery plot twists?

ミステリーのプロットでよくあるひねりは何ですか?

Let's try the seashell option and see what it comes back with.

貝殻の選択肢を試してみて、どんな答えが返ってくるか見てみましょう。

What's happening behind the scenes is that we've provided the document as context to the model, along with the suggested prompt.

裏で起こっていることは、提案されたプロンプトとともに、モデルのコンテキストとしてドキュメントを提供したことです。

Let's see what we got.

では、その結果をご覧ください。

The golden seashell was eaten by a giant squid that lives in the cove?

黄金の貝殻は、入り江に住むダイオウイカに食べられた?

This is a good start.

これは良いスタートです。

Let's insert these ideas as notes so we can continue our little project.

このアイデアをメモとして挿入して、この小さなプロジェクトを続けられるようにしましょう。

Now, one of the interesting observations we have is that it's actually easier to react to something or perhaps use that to say, hmmm, I want to go in a different direction.

さて、私たちの興味深い観察のひとつに、何かに反応したり、それを使って「うーん、違う方向に行きたい」と言ったりするのは、実はもっと簡単だということがあります。

And this is exactly what AI can help with.

そして、これこそまさにAIが手助けしてくれることなのです。

I see a new suggestion for generating images.

画像を生成するための新しい提案ですね。

Let’s see what this does.

どんなことができるのか見てみましょう。

This story has a village, a golden seashell and some other details.

この物語には村があり、黄金の貝殻があり、その他にもいくつかの詳細があります。

Instead of having to type all that out, the model picks up these details from the document and generates images.

それをすべて入力する代わりに、このモデルは文書からこれらの詳細を拾い上げ、画像を生成します。

These are some cool pictures, and I bet my niece will love these.

姪っ子はきっとこれを気に入るに違いない。

let's insert them into the doc for fun.

姪っ子が喜ぶこと間違いなしです。

Thank you, Tony!

ありがとうございます、トニーさん!

I'm going to walk you through some more examples, and this will help you see how this powerful new contextual collaboration is such a remarkable boost to productivity and creativity.

この強力な新しいコンテクスチュアル・コラボレーションが、いかに生産性と創造性を著しく向上させるものであるかをご理解いただくために、さらにいくつかの例をご紹介します。

Say you are writing to your neighbors about an upcoming potluck.

例えば、あなたが近所の人たちに、今度開催されるポットラックについて手紙を書くとします。

Now, as you can see, Sidekick has summarized what this conversation is about.

さて、Sidekickはこの会話の内容を要約しています。

Last year, everyone brought hummus.

去年は、みんながフムスを持ってきました。

Who doesn't love hummus!

フムスが好きでない人はいないでしょう!

But this year, you want a little more variety.

でも、今年はもう少しバリエーションを増やしたいですよね。

Let's see what people signed up to bring.

では、みんながどんなものを持ってくるか、見てみましょう。

Now, somewhere in this thread is a Google sheet, where you've collected that information.

さて、このスレッドのどこかにGoogleシートがあり、そこであなたはその情報を集めました。

You can get some help by typing, "Write a note about the main dishes people are bringing."

みんなが持ってくる主な料理について書いてください と入力すれば、手伝ってもらえるかもしれません。

And let's see what we get back.

そして、何が返ってくるか見てみましょう。

Awesome!

素晴らしい!

It found the right sheet and cited the source, in the "Found in" section, giving you confidence that this is not made up.

正しいシートが見つかり、"Found in "セクションで出典を引用しているので、これが作り物でないことを確信できます。

Looks good.

いい感じです。

You can insert it directly into your E mail.

これをそのままEメールに挿入することができます。

Let's end with an example of how this can help you at work.

最後に、これが仕事でどのように役立つのか、例を挙げてみましょう。

Say you are about to give an important presentation, and you've been so focused on the content that you forgot to prepare speaker notes.

重要なプレゼンを控えているのに、内容に集中するあまり、スピーカーのメモを用意するのを忘れてしまったとします。

The presentation is in an hour.

プレゼンは1時間後です。

Uh oh.

あーあ。

No need to panic.

慌てる必要はありません。

Look at what one of the suggestions is: Create speaker notes for each slide.

提案のひとつが何か見てください: 各スライドにスピーカーノートを作成するのです。

Let's see what happens.

何が起こるか見てみましょう。

What happened behind the scenes here is that the presentation and other relevant context is sent to the model to help create these notes.

この裏側では、プレゼンテーションやその他の関連するコンテキストがモデルに送信され、これらのノートを作成するのに役立っているのです。

Once you've reviewed them, you can hit insert and edit the notes to convey what you intended.

それを確認したら、挿入を押してメモを編集し、意図したことを伝えることができます。

So you can now deliver the presentation without worrying about the notes.

これで、メモを気にすることなくプレゼンを行うことができます。

As you can see, we've been having a ton of fun playing with this.

このように、私たちはとても楽しく遊んでいます。

We can see the true potential of AI as a collaborator, and will be bringing this experience to Duet AI for Workspace.

この体験は、Duet AI for Workspaceにも反映される予定です。

With that, I'll hand it back to Sundar.

それでは、Sundarにバトンタッチします。

Thanks, Aparna.

ありがとう、Aparna。

It's exciting to see all the innovation coming to Google WorkSpace.

Google WorkSpaceにやってくるすべてのイノベーションを見るのは、とてもエキサイティングなことです。

As AI continues to improve rapidly, we are focused on giving helpful features to our users.

AIが急速に向上し続ける中、私たちはユーザーに役立つ機能を提供することに注力しています。

And starting today, we are giving you a new way to preview some of the experiences across WorkSpace and other products.

そして今日から、WorkSpaceや他の製品にまたがる体験のいくつかをプレビューする新しい方法を提供します。

It's called Labs.

それはLabsと呼ばれるものです。

I say new, but Google has a long history of bringing labs, and, you know, we've made it available throughout our history as well.

新しいといっても、Googleにはラボを導入してきた長い歴史がありますし、私たちの歴史の中でも利用できるようにしてきました。

You can check it out at Google.com/labs.

Google.com/labsで確認することができます。

Next up, we're going to talk about Search.

次は、「検索」についてです。

Search has been our founding product from our earliest days.

検索は、Googleが創業した当初からある製品です。

And we've always approached it placing user trust about everything else.

そして、私たちは常に、ユーザーの信頼を第一に考えて取り組んできました。

To give you a sense of how we are bringing generating AI on to search, I'm going to invite Cathy on to stage.

私たちがどのように検索にAIを導入しているかを感じていただくために、キャシーをステージにお招きしようと思います。

Cathy.

キャシーです。

Thanks, Sundar.

ありがとう、スンダル。

I've been working on Search for many years, and what inspires me so much is how it continues to be an unsolved problem.

私は長年検索に携わってきましたが、検索がいかに未解決の問題であり続けているかということが、私をとても刺激しています。

That's why I'm just so excited by the potential of bringing generative AI into Search.

だからこそ、生成AIをサーチに導入する可能性に、とても興奮しているのです。

Let's give it a whirl.

さっそく試してみましょう。

So let's start with a search for what's better for a family with kids under three and a dog, Bryce Canyon or Arches.

まず、3歳以下の子供と犬を連れた家族にとって、ブライスキャニオンとアーチーズのどちらが良いかを検索してみます。

Now, although this is the question you have, you probably wouldn't ask it in this way today.

さて、この質問ですが、おそらく今日このような形で質問することはないでしょう。

You'd break it down into smaller ones, sift through information, and then piece things together yourself.

もっと小さな問題に分解して、情報を吟味し、自分で組み立てていくのでしょう。

Now, Search does the heavy lifting for you.

それが、検索で解決できるようになったのです。

What you see here looks pretty different, so let me first give you a quick tour.

ここで見るものはかなり変わっているので、まず簡単に説明しましょう。

You'll notice a new integrated search results page so you can get even more out of a single search.

新しい検索結果ページが統合され、1回の検索でより多くの情報を得られるようになったことがおわかりいただけるでしょう。

There's an AI powered snapshot that quickly gives you the lay of the land on a topic.

AIを搭載したスナップショットで、トピックの概要を素早く知ることができます。

And so here you can see that while both parks are kid friendly, only Bryce Canyon has more options for your furry friend.

両パークとも子供に優しいが、ブライスキャニオンのみ毛皮の友達向けのオプションが充実していることがわかる。

If you want to dig deeper, there are links included in the snapshot.

さらに詳しく知りたい場合は、スナップショットにリンクが貼られています。

You can also click to expand your view.

また、クリックすると拡大表示されます。

And you'll see how information is corroborated, so you can check out more details and really explore the richness of the topic.

さらに、情報の裏付けを確認できるので、より詳細な情報をチェックし、トピックの豊かさを探求することができます。

This new experience builds on Google's ranking and safety systems that we've been fine tuning for decades.

この新しい体験は、私たちが何十年もかけて微調整してきたGoogleのランキングと安全性のシステムを基盤としています。

Search will continue to be your jumping off point to what makes the Web so special, its diverse range of content, from publishers to creators, businesses, and even people like you and me.

検索は、出版社、クリエイター、企業、そしてあなたや私のような人々まで、ウェブの多様なコンテンツにアクセスできる、特別な存在であることに変わりはありません。

So you can check out recommendations from experts like the National Park Service, and learn from authentic, first hand experiences like the MOM Trotter blog.

だから、国立公園局のような専門家のおすすめをチェックしたり、MOM Trotterブログのような本物の実体験から学んだりすることができるのです。

Because even in a world where AI can provide insights, we know that people will always value the input of other people, and a thriving Web is essential to that.

なぜなら、AIが洞察を提供できる世界であっても、人々は常に他の人々のインプットを大切にすることがわかっており、そのためには繁栄するウェブが不可欠だからです。

These new generative AI Thank you!

これらの新しいジェネレーティブAI ありがとうございます!

These new generative AI capabilities will make Search smarter, and searching simpler.

これらの新しいジェネレーティブAI機能は、Searchをよりスマートにし、検索をよりシンプルにします。

And as you've seen, this is especially helpful when you need to make sense of something complex, with multiple angles to explore.

そして、お分かりのように、これは複雑なものを理解し、複数の角度から探求する必要があるときに、特に役立ちます。

You know, those times when even your question has questions.

質問にも疑問があるような場合です。

So, for example, let's say you're searching for a good bike for a five mile commute with hills.

例えば、坂道のある5マイルの通勤に適した自転車を探すとします。

This can be a big purchase.

これは大きな買い物になる可能性があります。

So you want to do some research.

そこで、少し調べてみたいと思うわけです。

In the AI powered snapshot, you'll see important considerations like motor and battery for taking on those hills, and suspension for a comfortable ride.

AIを搭載したスナップショットでは、坂道で活躍するモーターやバッテリー、快適な乗り心地を実現するサスペンションなど、重要な検討事項が表示されます。

Right below, you'll see products that fit the bill, each with images, reviews, helpful descriptions and current pricing.

そのすぐ下には、その条件に合う商品が、画像、レビュー、役立つ説明、現在の価格とともに表示されます。

This is built on Google's Shopping Graph, the world's most comprehensive dataset of constantly changing products, sellers, brands, reviews and inventory out there, with over 35 billion listings.

これは、常に変化する商品、販売者、ブランド、レビュー、在庫に関する世界で最も包括的なデータセットであるGoogleのショッピンググラフを基盤としており、350億以上のリストが存在するそうです。

In fact, there are 1.8 billion live updates to our Shopping Graph every hour.

実際、ショッピンググラフのライブ更新は1時間に18億件も行われています。

So you can shop with confidence in this new experience, knowing that you'll get fresh, relevant results.

ですから、この新しいエクスペリエンスでは、新鮮で適切な結果を得られると確信しながら、安心して買い物ができます。

And for commercial queries like this, we also know that ads can be especially helpful to connect people with useful information and help businesses get discovered online.

また、このような商業的なクエリでは、広告が、人々を有益な情報と結びつけ、ビジネスをオンラインで発見するために特に役立つことも分かっています。

They're here, clearly labeled, and we're exploring different ways to integrate them as we roll out new experiences in Search.

私たちは、検索で新しい体験を展開する際に、広告を統合するさまざまな方法を模索しています。

And now that you've done some research, you might want to explore more.

そして、ある程度調べたら、もっと調べたくなるかもしれません。

So right under the snapshot, you'll see the option to ask a follow up question, or select a suggested next step.

そこで、スナップショットのすぐ下に、次の質問をしたり、次のステップを選択したりするオプションが表示されています。

Tapping any of these options will bring you into our brand new conversational mode.

これらのオプションのいずれかをタップすると、新しい会話モードに移行します。

In this case, maybe you want to ask a follow up about eBikes, so you look for one in your favorite color, red.

この場合、eBikeについて質問したいので、好きな色である赤を探します。

And without having to go back to square one, Google Search understands your full intent, and that you’re looking specifically for eBikes in red that would be good for a five mile commute with hills.

そして、振り出しに戻らなくても、Google検索はあなたの意図を完全に理解し、坂のある5マイルの通勤に適した赤のeBikeを探していることを理解します。

And even when you're in this conversational mode, it’s an integrated experience, so you can simply scroll to see other search results.

また、会話モードであっても、統合された体験なので、スクロールするだけで他の検索結果を見ることができます。

Now, maybe this eBike seems to be a good fit for your commute.

さて、このeBikeはあなたの通勤にぴったりかもしれませんね。

With just a click, you're able to see a variety of retailers that have it in stock, and some that offer free delivery or returns.

クリックするだけで、在庫のある販売店や、配送や返品が無料になる販売店が表示されます。

You'll also see current prices, including deals, and can seamlessly go to a merchant's site, check out, and turn your attention to what really matters, getting ready to ride.

また、現在の価格も表示され、お買い得な商品も表示されます。シームレスに販売店のサイトに移動してチェックアウトし、本当に大切なライドの準備に集中することができます。

These new generative AI capabilities also unlock a whole new category of experiences on Search.

これらの新しいジェネレーティブAI機能は、検索におけるまったく新しいカテゴリーの体験も解放します。

It could help you create a clever name for your cycling club, craft the perfect social post to show off your new wheels, or even test your knowledge on bicycle hand signals.

サイクリングクラブの名前を考えたり、新しいホイールを披露するための完璧なソーシャルポストを作ったり、自転車の手信号に関する知識を試すこともできます。

These are things you may never have thought to ask Search for before.

これらのことは、これまで検索に頼もうとは思わなかったことでしょう。

Shopping is just one example of where this can be helpful.

ショッピングは、検索が役立つ一例です。

Let's walk through another one in a live demo.

ライブデモで、別のものを見てみましょう。

What do you say?

なんて言うんですか?

Yeah.

そうですね。

So special shout out to my three year old daughter, who is obsessed with whales.

クジラに夢中になっている3歳の娘に特別なエールを送ります。

I wanted to teach her about whale songs, so let me go to the Google app and ask, why do whales like to sing?

そこで、Googleアプリで「クジラはなぜ歌うのが好きなのか?

And so, here I see a snapshot that organizes the Web results and gets me to key things I want to know.

すると、ウェブ検索結果を整理したスナップショットが表示され、知りたいことが一目瞭然になります。

So, I can understand quickly that oh, they sing for a lot of different reasons.

すると、クジラが歌うのにはさまざまな理由があることがすぐにわかります。

Like to communicate with other whales, but also to find food.

他のクジラとコミュニケーションをとるためとか、餌を探すためとか。

And I can click "see more" to expand here as well.

さらに、「もっと見る」をクリックすると、ここでも拡大表示されます。

Now, if I was actually with my daughter, and not on stage in front of thousands of people, I'd be checking out some of these Web results right now.

もし私が娘と一緒にいて、何千人もの人の前でステージに上がっていないなら、今すぐにでもこのウェブ結果をチェックしていることでしょう。

They look pretty good.

かなりいい感じです。

Now I'm thinking she would get a kick out of seeing one up close, so let me ask, can I see whales in California?

では、カリフォルニアでクジラを見ることはできますか?

And so the LLMs right now are working behind the scenes to generate my snapshot, distilling insights and perspectives from across the Web.

LLMは今、舞台裏で私のスナップショットを作成し、ウェブ全体から洞察や視点を抽出しています。

It looks like in northern California, I can see humpbacks around this time of year.

北カリフォルニアでは、この時期、ザトウクジラを見ることができるようです。

That's cool.

いいなぁ。

I'll have to plan to take her on a trip soon.

近々、彼女を連れて行く計画を立てなければなりませんね。

And again, I can see some really great results from across the Web.

このように、Web上では本当に素晴らしい結果を見ることができます。

And if I want to refer to the results from my previous question, I can just scroll right up.

前の質問の結果を参照したい場合は、すぐ上にスクロールできます。

Now, that's got a birthday coming up, so I can follow up with plush ones for kids under $40.

この子はもうすぐ誕生日なので、40ドル以下の子供用ぬいぐるみでフォローできますね。

Again, the LLMs are organizing this information for me, and this process will get faster over time.

繰り返しますが、LLMは私のためにこの情報を整理してくれていますし、このプロセスは時間が経つにつれて速くなるでしょう。

These seem like some great options.

これらは素晴らしい選択肢のように思えます。

I think she'll really like the second one.

彼女は2つ目の商品をとても気に入ると思います。

She's in to Orcas as well.

彼女はOrcasも好きなんだ。

Phew!

ふぅ!

Live demos are always nerve racking.

ライブデモはいつも緊張するものです。

I'm really glad that one went whale!

でも、うまくいって本当によかった!

What you've seen today is just a first look at how we're experimenting with generative AI in Search.

今日ご覧いただいたのは、私たちが検索でどのように生成AIを試しているのか、その最初の一例です。

We're excited to keep improving with your feedback through our Search Labs Program.

Search Labs Programを通じて皆様からのフィードバックを受けながら、今後も改良を続けていきたいと思います。

This new Search generative experience, also known as SGE, will be available in labs, along with some other experiments.

この新しいSearch Generative Experience(通称SGE)は、他のいくつかの実験と一緒にラボで利用できるようになる予定です。

And they'll be rolling out in the coming weeks.

そして、それらは今後数週間のうちに展開される予定です。

If you're in the U.S., you can join the wait list today by tapping the labs icon in the latest versions of the Google app or Chrome desktop.

米国にお住まいの方は、最新版のGoogleアプリまたはChromeデスクトップでラボのアイコンをタップして、本日から待機リストに参加できます。

This new experience reflects the beginning of a new chapter, and you can think of this evolution as Search, super charged.

この新しい体験は、新しい章の始まりを反映しています。この進化は、「サーチ、スーパーチャージ」と考えることができます。

Search has been at the core of our timeless mission for 25 years.

検索は、25年もの間、私たちの時代を超えたミッションの中核を担ってきました。

And as we build for the future, we're so excited for you to turn to Google for things you never dreamed you could.

そして、未来に向けて構築していく中で、これまで夢にも思わなかったようなことをGoogleで実現できるようになることをとても嬉しく思っています。

Here's an early look at what's to come for AI in Search.

ここでは、検索における AI の未来をいち早くご紹介します。

Hey!

やあ!

I'mma make'em talk like whoa Move fast, move slow Catch me on a roll Come say hello, 3 2 1 let's go Yes.

I'mma make'em talk like whoa Move fast, move slow Catch me on a roll Come say hello, 3 2 1 let's go Yes.

Yes.

そうだ

Yes!

そうだ

Come say hello, 3 2 1 let's go You got this, let's go!

カムセイハロー、3 2 1 レッツゴー これだ、レッツゴー!

Is a hotdog a sandwich?

ホットドッグはサンドイッチか?

And the answer is...

その答えは...

Yes.

そうです。

No.

違う

Yes!

そうだ

No!

違う

I'mma make'em talk like whoa, whoa, whoa, whoa, whoa.

俺は彼らをこうさせるんだ、おっ、おっ、おっ、おっ、おっ。

I'mma make'em talk like.

こんな風にしゃべらせるんだ

I'mma make'em talk like whoa.

俺は奴らにこう言わせるんだ

Is a hotdog a sandwich?

ホットドッグはサンドイッチか?

I think it's more like a taco because the bread goes around it.

パンで囲むからタコスに近いと思う。

That comes from the expert viewpoint of a vegetarian.

ベジタリアンの専門家の意見です。

Thanks, Cathy.

ありがとう キャシー

It's so exciting to see how we are evolving Search and look forward to building it with you.

サーチがどのように進化していくのか、とても楽しみですし、皆さんと一緒に作り上げていくのが楽しみです。

So far today, we have shared how AI can help unlock creativity, productivity and knowledge.

今日はここまで、AIが創造性、生産性、知識を引き出すのにどのように役立つかをお伝えしました。

As you can see, AI is not only a powerful enabler, it's also a big platform shift.

お分かりのように、AIは強力なイネーブラーであるだけでなく、大きなプラットフォームシフトでもあるのです。

Every business and organization is thinking about how to drive transformation.

どの企業や組織も、どのようにトランスフォーメーションを推進するかを考えています。

That's why we are focused on making it easy and scalable for others to innovate with AI.

だからこそ、私たちは、他の人がAIでイノベーションを起こすことを簡単かつスケーラブルにすることに注力しています。

That means providing the most advanced computing infrastructure, including state of the art TPUs and GPUs.

つまり、最先端のTPUやGPUを含む、最先端のコンピューティングインフラを提供することです。

We're also expanding access to Google's latest foundation models that have been rigorously tested in our own products.

また、私たちの製品で厳密にテストされたGoogleの最新の基盤モデルへのアクセスも拡大しています。

We are also working to provide world class tooling so customers can train, fine tune and run their own models, with enterprise grade safety, security and privacy.

また、お客様がエンタープライズグレードの安全性、セキュリティ、プライバシーを確保した上で、独自のモデルのトレーニング、微調整、実行ができるよう、ワールドクラスのツールの提供にも取り組んでいます。

To tell you more about how we are doing this with Google Cloud, please welcome Thomas.

Google Cloudでどのようなことを行っているか、トーマをお迎えして詳しくお話しします。

All of the AI investments you've heard about today are also coming to businesses.

今日お聞きしたAIへの投資は、すべて企業にも導入されます。

So whether you're an individual developer or a full scale enterprise, Google is using the power of AI to transform the way you work.

つまり、個人の開発者であろうと、本格的な企業であろうと、GoogleはAIの力を使って働き方を変えていくのです。

There are already thousands of companies using our generative AI platform to create amazing content.

すでに何千もの企業が、私たちのジェネレーティブAIプラットフォームを使って、素晴らしいコンテンツを作っています。

They synthesize and organize information, automate processes, and build incredible customer experiences.

情報を合成して整理し、プロセスを自動化し、素晴らしいカスタマーエクスペリエンスを構築しています。

And yes, each and every one of you can, too.

そして、あなたたち一人ひとりも、そうすることができるのです。

There are three ways Google Cloud can help you take advantage of the massive opportunity in front of you.

Google Cloud は、目の前にある大きなチャンスを活用するために、3 つの方法を提供します。

First, you can quickly build generative applications using our AI platform, Vertex AI.

まず、Google の AI プラットフォームである Vertex AI を使って、生成的なアプリケーションをすばやく構築することができます。

With Vertex you can access foundation models for chat, text and image.

Vertexでは、チャット、テキスト、イメージの基礎モデルにアクセスできます。

You just select the model you want to use, create prompts to tune the model, and you can even fine tune the model's weights on your own dedicated compute clusters.

使いたいモデルを選択し、モデルを調整するためのプロンプトを作成するだけで、専用の計算クラスタ上でモデルの重みを微調整することも可能です。

To help you retrieve fresh and factual information from your company's databases, your corporate internet, your Web site and enterprise applications, we offer Enterprise Search.

企業のデータベース、企業インターネット、Webサイト、企業アプリケーションから新鮮で事実に基づいた情報を取り出すために、私たちはエンタープライズ・サーチを提供しています。

Our AI platform is so compelling for businesses because it guarantees the privacy of your data.

私たちのAIプラットフォームが企業にとって非常に魅力的なのは、データのプライバシーを保証してくれるからです。

With both Vertex and Enterprise Search, you have sole control of your data and the costs of using generative AI models.

VertexとEnterprise Searchの両方で、お客様はデータと生成AIモデルを使用するコストを単独で管理することができます。

In other words, your data is your data, and no one else's.

つまり、あなたのデータはあなたのものであり、他の誰のものでもありません。

You can also choose the best model for your specific needs across many sizes that have been optimized for cost, latency and quality.

また、コスト、レイテンシー、品質が最適化された多くのサイズの中から、特定のニーズに最適なモデルを選択することができます。

Many leading companies are using our generative AI technologies to build super cool applications, and we've been blown away by what they're doing.

多くの大手企業が、私たちの生成AIテクノロジーを使って、超クールなアプリケーションを構築しています。

Let's hear from a few of them.

そのうちのいくつかから話を聞いてみましょう。

The unique thing about Google Cloud is the expansive offering.

Google Cloudのユニークな点は、拡張性のあるサービスです。

The Google partnership has taught us to lean in, to iterate, to test and learn and have the courage to fail fast where we need to.

Googleとのパートナーシップによって、私たちは、身を乗り出し、反復し、テストして学び、必要なところで素早く失敗する勇気を持つことができるようになりました。

But also Google is a really AI centric company, and so there's a lot for us to learn directly from the engineering team.

また、GoogleはAIを中心とした企業なので、エンジニアリングチームから直接学べることがたくさんあります。

Now with generative AI, you can have a much smarter conversation with our customers.

ジェネレーティブAIを使えば、お客様ともっとスマートに会話することができるようになります。

We have been really enjoying taking the latest and greatest technology and making that accessible to our entire community.

私たちは、最新で最高の技術を取り入れ、それを私たちのコミュニティ全体が利用できるようにすることをとても楽しんでいます。

Getting early access to Vertex APIs opens a lot of doors for us to be most efficient and productive in the way we create experiences for Uber customers.

Vertex APIへの早期アクセスを得ることで、私たちがUberのお客様のための体験を創造する方法において、最も効率的かつ生産的になるための多くの扉が開かれます。

The act of making software is really suddenly open up to everyone.

ソフトウェアを作るという行為は、本当に突然、誰にでも開放されるのです。

Now you can talk to the AI on the Replit app and tell it,

リプリットアプリのAIに話しかけて、こう言うことができるんです、

“Make me a workout program.” And with one click, we can deploy it to a Google Cloud VM and you have an app that you just talked into existence.

ワークアウトプログラムを作ってくれ と。そして、ワンクリックでGoogle CloudのVMにデプロイすることができ、自分が話しただけのアプリが存在することになるのです。

We have an extraordinarily exciting feature in the pipeline.

現在、非常にエキサイティングな機能を準備中です。

It’s called Magic Video, and it enables you to take your videos and images, and with just a couple of clicks, turn that into a cohesive story.

Magic Videoと呼ばれるもので、ビデオや画像を撮影し、数回クリックするだけで、それをまとまったストーリーにすることができるのです。

It is powered by Google's PaLM technology, and it truly empowers everyone to be able to create a video with absolute ease.

GoogleのPaLMテクノロジーを搭載しており、誰もが簡単にビデオを作成できるようになるのです。

Folks come to a Wendy's, and a lot of times they use some of our acronyms.

ウェンディーズに来るお客さまは、私たちの頭字語をよく使います。

The Junior Bacon Cheeseburger, they'll come in and, “Give me a JBC.” We need to understand what that really means, and voice AI can help make sure that order is accurate every single time.

例えば、ジュニアベーコンチーズバーガーは、「JBCをくれ」と言われることもあります。その意味を理解する必要があり、音声AIがあれば、毎回正確な注文ができるようになります。

Generative AI can be incorporated in all the business processes Deutsche Bank is running.

生成AIは、ドイツ銀行が行っているすべてのビジネスプロセスに取り入れることができます。

The partnership with Google has inspired us to leverage technology, to truly transform the whole restaurant experience.

Googleとのパートナーシップは、テクノロジーを活用し、レストランでの体験全体を真に変革することを鼓舞しています。

There is no limitations.

限界はありません。

There's no other way to describe it.

それ以外に表現しようがない。

Google's just living in the future.

グーグルはまさに未来に生きているんです。

We're also doing this with partners like Character AI.

私たちは、Character AIのようなパートナーとも、このような取り組みを行っています。

We provide Character with the world's most performant and cost efficient infrastructure for training and serving their models.

私たちはCharacterに、彼らのモデルをトレーニングし、サービスを提供するための、世界で最もパフォーマンスとコスト効率の高いインフラを提供しています。

By combining its own AI capabilities with those of Google Cloud, consumers can create their own deeply personalized characters and interact with them.

自社のAI機能とGoogle Cloudの機能を組み合わせることで、消費者は深くパーソナライズされた自分だけのキャラクターを作り、彼らと対話することができます。

We're also partnering with Salesforce to integrate Google Cloud's AI models and Big Query with their data cloud and Einstein, their AI infused CRM assistant.

また、Salesforceとも提携し、Google CloudのAIモデルやBig Queryを同社のデータクラウドやAIを搭載したCRMアシスタントであるEinsteinと統合しています。

In fact, we are working with many other incredible partners, including consultancies, software as a service leaders, and consumer internet companies to build remarkable experiences with our AI technologies.

その他にも、コンサルタント会社、SaaS(Software as a Service)リーダー、コンシューマー・インターネット企業など、多くの素晴らしいパートナーと協力し、当社のAI技術で驚くべき体験を構築しています。

In addition to PaLM 2, we are excited to introduce three new models in Vertex, including Imagine, which powers image generation editing and customization from text inputs.

PaLM2に加え、Vertexでは、テキスト入力からの画像生成編集やカスタマイズを強力に支援するImagineを含む3つの新モデルを紹介できることを嬉しく思います。

Codey for code completion and generation, which you can train on your own code base, helps you build applications faster.

コード補完と生成のためのCodeyは、自分のコードベースでトレーニングすることができ、アプリケーションの迅速な構築を支援します。

Chirp, a universal speech model, brings speech to text accuracy for over 300 languages.

ユニバーサルスピーチモデルであるChirpは、300以上の言語に対応したSpeech to Textの精度を実現します。

We're also introducing Reinforcement Learning From Human Feedback into Vertex AI.

また、Vertex AIには、人間のフィードバックによる強化学習も導入しています。

You can fine tune pre trained models by incorporating human feedback to further improve the model's results.

人間のフィードバックを取り入れることで、事前に学習させたモデルを微調整し、モデルの結果をさらに向上させることができます。

You can also fine tune a model on domain or industry specific data, as we have with Sec PaLM and Med PaLM, so they become even more powerful.

また、Sec PaLMやMed PaLMのように、ドメインや業界固有のデータでモデルを微調整することも可能で、より強力になります。

All of these features are now in preview, and I encourage each and every one of you to try them.

これらの機能はすべて現在プレビュー版として提供されていますので、ぜひ一度試してみてください。

The second way we're helping you take advantage of this opportunity is by introducing Duet AI for Google Cloud.

2つ目は、Duet AI for Google Cloudの導入による、このチャンスへの貢献です。

Earlier, Aparna told you about Duet AI for Google Workspace and how it is an always on AI collaborator to help people get things done.

以前、AparnaはDuet AI for Google Workspaceについて、人々が物事を成し遂げるのを助ける常時稼働のAIコラボレーターであることをお伝えしました。

Well, the same thing is true with Duet AI for Google Cloud, which serves as an AI expert pair programmer.

さて、同じことがDuet AI for Google Cloudにも当てはまり、AIエキスパートとプログラマーのペアとして機能します。

Duet uses generative AI to provide developers assistance wherever you need it within the IDE, the Cloud console, or directly within chat.

Duetは、生成的なAIを使用して、IDE内、Cloudコンソール、またはチャット内で必要な場所で開発者の支援を提供します。

It can provide contextual code completion, offer suggestions tuned to your code base, And generate entire functions in real time.

文脈に沿ったコード補完、コードベースに合わせた提案、リアルタイムでの関数全体の生成などが可能です。

It can even assist you with code reviews and code inspection.

さらに、コードレビューやコード点検もサポートします。

Chen will show you more in the developer keynote.

Chenは、開発者向け基調講演でさらに詳しく紹介します。

The third way we are helping you seize this moment is by building all of these capabilities on our AI optimized infrastructure.

3つ目の方法は、AIに最適化されたインフラにこれらの機能をすべて構築することで、お客様がこの瞬間を捉えることを支援することです。

This infrastructure makes large scale training workloads up to 80 percent faster, and up to 50 percent cheaper compared to any alternatives out there.

このインフラは、大規模なトレーニングワークロードを最大80%高速化し、世の中の代替品と比較して最大50%安価にすることができます。

Look, when you nearly double performance When you nearly double performance for less than half the cost, amazing things can happen.

見てください、パフォーマンスをほぼ2倍にするとき 半分以下のコストでパフォーマンスをほぼ2倍にするとき、驚くべきことが起こる可能性があります。

Today, we are excited to announce a new addition to this infrastructure family, the A3 Virtual Machines based on NVIDIA's H100 GPUs.

本日、このインフラ・ファミリーに新たに加わった、NVIDIAのH100 GPUをベースとしたA3仮想マシンを発表できることを嬉しく思います。

We provide the widest choice of compute options for leading AI companies like Anthropic and Midjourney to build their future on Google Cloud.

AnthropicやMidjourneyのような大手AI企業がGoogle Cloudで未来を築くために、最も幅広い選択肢のコンピュートオプションを提供します。

And yes, there's so much more to come.

そして、そう、まだまだたくさんあるのです。

Next, Josh is here to show you exactly how we're making it easy and scalable for every developer to innovate with AI and PaLM 2.

次はジョシュが、AIとPaLM 2でイノベーションを起こすために、すべての開発者が簡単かつスケーラブルにできるようにする方法を紹介します。

Thanks, Thomas.

ありがとう、トーマ。

Developers Our work is enabling businesses and it's also empowering developers.

開発者たち 私たちの仕事はビジネスを可能にし、開発者たちにも力を与えています。

PaLM 2, our most capable next generation language model that Sundar talked about, powers the PaLM API.

PaLM 2は、Sundarが話したように、私たちの最も高性能な次世代言語モデルで、PaLM APIを駆動しています。

Since March, we've been running a private preview with our PaLM API, and it's been amazing to see how quickly developers have used it in their applications.

3月からPaLM APIのプライベート・プレビューを実施していますが、開発者の方々のアプリケーションへの活用の早さには驚かされます。

Like CHAPTR, who are generating stories so you can choose your own adventure, forever changing storytime.

例えば、CHAPTR社は、物語を生成して、自分の冒険を選択できるようにし、ストーリータイムを永遠に変えています。

Or GameOn Technology, a company that makes chat apps for sports fans and retail brands to connect with their audiences.

また、GameOn Technologyは、スポーツファンや小売ブランドがオーディエンスとつながるためのチャットアプリを作っている会社です。

And there's also Wendy's.

そして、ウェンディーズもある。

They're using the PaLM API to help customers place that correct order for the junior bacon they talked about in their talk to menu feature.

彼らはPaLM APIを使って、トーク・トゥ・メニュー機能で話題になったジュニア・ベーコンを、顧客が正しく注文できるようにしているのです。

But I'm most excited by the response we've gotten from the developer tools community.

しかし、私が最も期待しているのは、開発者ツール・コミュニティからの反応です。

Developers want choice when it comes to language models, and we're working with LangChain, Chroma, and many more to add the PaLM API.

開発者は言語モデルに関して選択肢を求めています。私たちはLangChainやChromaなど多くの企業と協力して、PaLM APIを追加しています。

We've also integrated it into Google developer tools like Firebase and Colab.

また、FirebaseやColabといったGoogleの開発者ツールにも統合しています。

You can hear a lot more about the PaLM API in the Developer Keynote, and sign up today.

PaLM APIについては、Developer Keynoteでもっと詳しく聞くことができますし、今すぐ登録してください。

Now, to show you just how powerful the PaLM API is, I want to share one concept that five engineers at Google put together over the last few weeks.

さて、PaLM APIのパワフルさを知っていただくために、Googleの5人のエンジニアがここ数週間でまとめたあるコンセプトを紹介したいと思います。

The idea is called Project Tailwind, and we think of it as an AI first Notebook that helps you learn faster.

このアイデアはProject Tailwindと呼ばれ、私たちはこれを、より速く学習するためのAIファーストノートブックだと考えています。

Like a real notebook, your notes and your sources power Tailwind.

本物のノートのように、あなたのノートとソースがTailwindのパワーになります。

How it works is you can simply pick the files from Google Drive and it effectively creates a personalized and private AI model that has expertise in the information that you give it.

その仕組みは、Google Driveからファイルを選ぶだけで、あなたが与えた情報に対して専門知識を持つパーソナライズされたプライベートなAIモデルを効果的に作り出します。

We've been developing this idea with authors like Steven Johnson, and testing it at universities like Arizona State and the University of Oklahoma, where I went to school.

私たちは、スティーブン・ジョンソンのような作家とこのアイデアを開発し、アリゾナ州立大学や私が通っていたオクラホマ大学などの大学でテストしてきました。

Do you want to see how it works?

どう動くか見てみたいですか?

Let's do a live demo.

ライブデモをやってみましょう。

Now, imagine that I'm a student taking a computer history class.

私がコンピュータ史の授業を受けている学生だとします。

I open up tailwind, and I can quickly see all my different notes, assignments and reading.

tailwindを開くと、さまざまなノートや課題、読書をすぐに見ることができます。

I can insert them and what will happen when Tailwind loads up is you can see my different notes and articles on the side.

Tailwindを起動すると、さまざまなノートや記事が横に表示され、それらを挿入することができます。

Here they are in the middle, and it instantly creates a study guide on the right to give me bearings.

そして、右側にスタディガイドが作成され、私の方向性を示してくれます。

You can see it's pulling out key concepts and questions, grounded in the materials that I've given it.

私が提供した資料に基づき、重要な概念と質問を引き出しているのがわかります。

Now, I can come over here and quickly change it to go across all the different sources, and type something like, create glossary for hopper.

ここで、さまざまなソースを横断するように素早く変更し、「ホッパーの用語集を作成する」などと入力することができます。

And what's going to happen behind the scenes is it will automatically compile a glossary associated with all the different notes and articles relating to Grace Hopper, the computer science history pioneer.

すると、コンピュータサイエンスの歴史のパイオニアであるグレース・ホッパーに関連するさまざまなメモや記事に関連する用語集が自動的に作成されるのです。

Look at this.

これを見てください。

Flowmatic, Coval, Compiler, all created based on my notes.

Flowmatic、Coval、Compiler、すべて私のメモに基づいて作成されています。

Now, let's try one more.

では、もう1つ試してみましょう。

I'm going to try something else called different viewpoints on Dynabook.

Dynabookの異なる視点というのをやってみます。

So the Dynabook, this was a concept from Alan Kay.

Dynabookというのは、アラン・ケイのコンセプトですね。

Again, Tailwind, going out, finding all the different things.

これもTailwindで、外に出て、いろいろなものを探します。

You can see how quickly it comes back.

すぐに戻ってくるのがわかると思います。

There it is.

これです。

And what's interesting here is it's helping me think through the concepts so it's giving me different viewpoints.

面白いのは、私がコンセプトを考えるのを助けてくれることで、さまざまな視点を与えてくれることです。

It was a visionary product.

先見の明のある製品でした。

It was a missed opportunity.

機会を逸した。

But my favorite part is it shows its work.

しかし、私の好きなところは、その作品を紹介しているところです。

You can see the citations here.

ここでは引用文献を見ることができます。

When I hover over, here's something from my class notes.

カーソルを合わせると、私の授業で使ったノートが表示されます。

Here's something from an article the teacher assigned.

先生が指定した記事の引用もあります。

It's all right here, grounded in my sources.

すべて、私のソースに基づいたものなのです。

Now, Project Tailwind is still in its early days, but we've had so much fun making this prototype, and we realized it's not just for students.

Project Tailwindはまだ始まったばかりですが、このプロトタイプを作るのはとても楽しくて、学生だけのものではないことに気づきました。

It's helpful for anyone synthesizing information from many different sources that you choose.

自分が選んださまざまな情報源から情報を総合的に判断する人に役立ちます。

Like writers researching an article, or analysts going through earning calls, or even lawyers preparing for a case.

例えば、ライターが記事を書くときや、アナリストが電話をかけてくるとき、あるいは弁護士が裁判の準備をするときなどです。

Imagine collaborating with an AI that's grounded in what you've read and all your notes.

あなたが読んだものやすべてのメモに根拠を持つAIと共同作業をすることを想像してみてください。

We want to make it available to try it out if you want to see it.

見てみたいと思ったら試せるようにしたい。

There's a lot more you can do with PaLM 2, and we can't wait to see what you build using the PaLM API.

PaLM 2でできることはまだまだたくさんありますし、PaLM APIを使ってどんなものを作ってくれるのか、楽しみでなりません。

Because generative AI is changing what it means to develop new products.

なぜなら、ジェネレーティブAIは、新しい製品を開発することの意味を変えてしまうからです。

At Google, we offer the best ML infrastructure, with powerful models including those in Vertex, and APIs and tools to quickly generate your own applications.

Googleでは、Vertexをはじめとする強力なモデルや、独自のアプリケーションを素早く生成するためのAPIやツールなど、最高のMLインフラを提供しています。

And building bold AI also requires a responsible approach, so let me hand it over to James to share more.

そして、大胆なAIを構築するには、責任あるアプローチも必要なので、ジェームスにもっとシェアしてもらうことにしましょう。

Thanks.

ありがとうございます。

Hi, everyone.

皆さん、こんにちは。

I'm James.

私はジェームスです。

In addition to Research, I lead a new area at Google called Technology and Society.

リサーチに加えて、「テクノロジーと社会」というGoogleの新しい分野を率いています。

Growing up in Zimbabwe, I could not have imagined all the amazing and ground breaking innovations that have been presented on this stage today.

ジンバブエで育った私は、今日このステージで発表されたような、驚くべき画期的なイノベーションを想像することができませんでした。

And while I feel it's important to celebrate the incredible progress in AI and the immense potential it has for people in society everywhere, we must also acknowledge that it's an emerging technology.

そして、AIの驚くべき進歩と、それがあらゆる社会の人々にもたらす計り知れない可能性を祝うことは重要だと感じていますが、同時に、AIが新興技術であることも認識しなければなりません。

It's still being developed, and there's still so much more to do.

まだ開発中であり、やるべきことはたくさんあります。

Earlier, you heard Sundar say that our approach to AI must be both bold and responsible.

先ほど、スンダが「AIへのアプローチは大胆かつ責任あるものでなければならない」と言っていましたね。

While there is a natural tension between the two, we believe it's not only possible, but, in fact, critical to embrace that tension productively.

この2つの間には自然な緊張感がありますが、私たちは、この緊張感を生産的に受け入れることは可能であるだけでなく、むしろ重要であると信じています。

The only way to be truly bold in the long term is to be responsible from the start.

長期的に真に大胆であるためには、最初から責任を持つしかないのです。

Our field defining research is helping scientists make bold advances in many scientific fields, including medical breakthroughs.

私たちの研究分野は、医学的なブレークスルーを含む多くの科学分野で、科学者が大胆な進歩を遂げるのを助けています。

Take, for example, Google DeepMind's AlphaFold program, which can accurately predict the 3D shapes of 200 million proteins.

例えば、Google DeepMindのAlphaFoldプログラムでは、2億個のタンパク質の3次元形状を正確に予測することができます。

That's nearly all the cataloged proteins known to science.

これは、科学的に知られているカタログ化されたタンパク質のほぼ全てに相当します。

AlphaFold gave us the equivalent of nearly 400 million years of progress in just weeks.

AlphaFoldは、4億年分の進歩をわずか数週間で実現したのです。

So far, more than one million researchers around the world have used AlphaFold's predictions, including Feng Zhang's pioneering lab at the Broad Institute of MIT and Harvard.

これまでに、マサチューセッツ工科大学とハーバード大学のブロード研究所にあるフェン・チャンの先駆的な研究室を含め、世界中の100万人以上の研究者がAlphaFoldの予測結果を利用しているのです。

In fact, in March this year, Zhang and his colleagues at MIT announced they used AlphaFold to develop a novel molecular syringe.

実際、今年3月、MITのZhang氏らは、AlphaFoldを使って新しい分子注射器を開発したと発表しました。

This could deliver drugs to help improve the effectiveness of treatments for diseases like cancer.

これによって、癌などの病気の治療効果を高めるための薬剤を送り込むことができる。

While it's exhilarating to see such bold and beneficial breakthroughs, AI also has the potential to worsen existing societal challenges like unfair bias.

このように大胆で有益なブレークスルーを目にするのは爽快ですが、AIは不公平な偏見など既存の社会的課題を悪化させる可能性も持っています。

It can also pose new challenges as it becomes more advanced, and new uses emerge.

また、AIがより進化し、新たな用途が生まれると、新たな課題を引き起こす可能性もあります。

That's why we believe it's imperative to take a responsible approach to AI.

だからこそ、私たちは、AIに対して責任あるアプローチを取ることが不可欠だと考えています。

This work centers around our AI Principles that we first established in 2018.

この活動は、2018年に初めて制定した「AI原則」を軸にしています。

These principles guide product development, and they help us assess every AI application.

この原則は製品開発の指針となり、すべてのAIアプリケーションを評価するのに役立ちます。

They prompt questions like, "will it be socially beneficial?"

この原則は、"社会的に有益か"、"害をもたらすか "といった質問を投げかけるものです。

Or, "could it lead to harm in any way?"

あるいは、"何らかの形で害をもたらす可能性があるのか?"といった質問を投げかけます。

One area that is top of mind for us is misinformation.

私たちにとって最も重要な分野のひとつが、誤報です。

Generative AI makes it easier than ever to create new content.

ジェネレーティブAIは、新しいコンテンツをこれまで以上に簡単に作ることができるようになりました。

But it also raises additional questions about its trust worthiness.

しかし、その信頼に値するかどうか、さらなる疑問が生じるのも事実です。

This is why we're developing and providing people with tools to evaluate online information.

そのため、私たちはオンライン情報を評価するためのツールを開発し、人々に提供しています。

For example, have you come across a photo on a Web site, or one shared by a friend, with very little context, like this one of the moon landing, and found yourself wondering, is this reliable?

例えば、ウェブサイト上の写真や、友人が共有した写真で、この月面着陸の写真のように、ほとんど脈絡のないものに出会って、これは信頼できるのだろうかと思ったことはないだろうか。

I have.

私はあります。

And I'm sure many of you have as well.

きっと多くの人がそう思っていることでしょう。

In the coming months, we are adding two new ways for people to evaluate images.

今後数ヶ月の間に、画像を評価するための新しい方法を2つ追加します。

First, with our "About this Image" tool in Google Search.

まず、Google検索の「この画像について」ツールです。

You will be able to see important information such as when and where similar images may have first appeared.

類似の画像がいつ、どこで最初に登場したかなどの重要な情報を見ることができるようになります。

You will also see where else the image has been seen online, including news, fact and social sites.

また、その画像が、ニュース、事実、ソーシャルサイトなど、ネット上のどこで見られたかもわかります。

All this provides you with helpful context to determine if it's reliable.

これらの情報は、その画像が信頼できるかどうかを判断するのに役立つ情報を提供します。

Later this year, you'll also be able to use it if you search for an image or screenshot using Google Lens, or when you're on websites in Chrome.

今年の後半には、Google Lensを使って画像やスクリーンショットを検索した場合や、Chromeでウェブサイトを閲覧している場合にも使えるようになります。

And as we begin to roll out generative image capabilities, like Sundar mentioned, we will ensure that every one of our AI generated images has metadata.

そして、生成画像機能を展開し始めると、スンダが言ったように、AIが生成した画像には必ずメタデータをつけるようにします。

There's a markup in the original file to give you context if you come across it outside of our platforms.

元のファイルにマークアップがあり、私たちのプラットフォームの外でその画像に出会ったときに、文脈を知ることができるのです。

Not only that, Creators and Publishers will be able to add similar metadata, so you'll be able to see a label in images in Google Search, marking them as AI generated.

それだけでなく、クリエイターやパブリッシャーも同様のメタデータを追加できるようになり、Google検索で画像にAIが生成したことを示すラベルが表示されるようになります。

As we apply our AI principles, we also start to see potential tensions when it comes to being bold and responsible.

AIの原則を適用すると、大胆かつ責任ある行動をとるという点で、潜在的な緊張も見えてきます。

Here is an example.

その一例をご紹介しましょう。

Universal Translator is an experimental AI video dubbing service that helps experts translate a speaker's voice while also matching their lip movements.

Universal Translatorは、実験的なAI動画吹き替えサービスで、専門家が話者の声を翻訳しながら、唇の動きも合わせることができるようになっています。

Let me show you how it works with an online college course, created in partnership with Arizona State University.

アリゾナ州立大学と提携して作られた、大学のオンラインコースで、その仕組みを紹介しましょう。

What many college students don't realize is that knowing when to ask for help, and then following through on using helpful resources is actually a hallmark of becoming a productive adult.

多くの大学生が気づいていないのは、助けを求めるタイミングを知り、役立つリソースを利用してフォローすることが、実は生産的な大人になるための特徴であるということです。

We use next-generation translation models to translate what the speaker is saying.

私たちは、次世代翻訳モデルを用いて、話し手が言っていることを翻訳します。

Models replicate the style and the tone, match the speaker's lip movements, and then we bring it all together.

スタイルやトーンを再現し、話者の唇の動きと一致させた上で、すべてを統合しています。

This is an enormous step forward for learning comprehension, and we're seeing promising results with course completion rates.

これは学習理解にとって大きな前進であり、コースの修了率でも有望な結果が得られています。

But there's an inherent tension here.

しかし、これには緊張が伴います。

You can see how this can be incredibly beneficial, but some of the same underlying technology could be misused by bad actors to create deep fakes.

これは非常に有益なことですが、同じ基盤技術を悪用することで、悪質な業者が深い偽物を作ってしまう可能性があるのです。

So, we've built this service with guardrails to help prevent misuse.

そこで私たちは、悪用されないようにガードレールを設けてこのサービスを構築しました。

We make it accessible only to authorized partners.

また、許可されたパートナーにのみアクセスできるようにしています。

And, as Sundar mentioned, soon we'll be integrating our new innovations in watermarking into our latest generative models.

また、Sundarが言ったように、まもなく電子透かしの新機軸を最新の生成モデルに統合する予定です。

This will also help with the challenge of misinformation.

これは、誤報という課題にも役立つことでしょう。

Our AI principles also help guide us on what not to do.

私たちのAIの原則は、やってはいけないことの指針にもなっています。

For instance, years ago, we were the first major company to decide not to make a general purpose facial recognition API commercially available.

例えば、数年前、私たちは大手企業として初めて、汎用的な顔認識APIを市販しないことを決定しました。

We felt there weren't adequate safeguards in place.

十分な保護措置が講じられていないと考えたからです。

Another way we live up to our AI principles is with innovations to tackle challenges as they emerge, like reducing the risk of problematic outputs that may be generated by our models.

私たちがAIの原則を実践するもう一つの方法は、モデルによって生成される可能性のある問題のある出力のリスクを軽減するような、出現する課題に取り組むための革新です。

We are one of the first in the industry to develop and launch automated adversarial testing using large language model technology.

私たちは、大規模言語モデル技術を使った自動敵対テストを業界で初めて開発し、開始しました。

We do this for queries like this, to help us uncover and reduce inaccurate outputs, like the one on the left, and make them better, like the one on the right.

このようなクエリに対して、左のような不正確な出力を発見して減らし、右のような出力をより良いものにするために、このようなテストを行っているのです。

We're doing this at a scale that's never been done before at Google, significantly improving the speed, quality and coverage of testing, allowing safety experts to focus on the most difficult cases.

Googleでは、このようなことをこれまでにない規模で行っており、テストのスピード、品質、カバレッジを大幅に向上させ、安全性の専門家が最も困難なケースに集中できるようにしています。

And we're sharing these innovations with others.

そして、こうしたイノベーションを他者と共有しています。

For example, our "Perspective API", originally created to help publishers mitigate toxicity is now being used in large language models.

たとえば、もともと出版社が毒性を軽減するために作られた私たちの「パースペクティブAPI」は、現在、大規模な言語モデルで使用されています。

Academic researchers have used our perspective API to create an industry evaluation standard.

学術研究者は、私たちのパースペクティブAPIを使用して、業界の評価基準を作成しました。

And today, all significant large language models, including those from OpenAI and Anthropic, incorporate this standard to evaluate toxicity generated by their own models.

そして今日、OpenAIやAnthropicのものを含むすべての重要な大規模言語モデルは、自身のモデルによって生成された毒性を評価するためにこの標準を組み込んでいます。

Building AI responsibly must be a collective effort involving researchers, social scientists, industry experts, governments and everyday people, as well as creators and publishers.

責任あるAIの構築は、クリエイターやパブリッシャーだけでなく、研究者、社会科学者、業界の専門家、政府、日常生活者を巻き込んだ集団的な努力でなければなりません。

Everyone benefits from a vibrant content ecosystem.

活気あるコンテンツのエコシステムから、誰もが利益を得ることができます。

Today and in the future.

現在も、そして将来も。

That's why we're getting feedback and will be working with the Web community on ways to give publishers choice and control over their Web content.

だからこそ、私たちはフィードバックを得て、パブリッシャーにウェブコンテンツに関する選択肢とコントロールを与える方法について、ウェブコミュニティと協力していくつもりです。

It's such an exciting time.

今はとてもエキサイティングな時期です。

There's so much we can accomplish, and so much we must get right together.

私たちが成し遂げられることはたくさんありますし、私たちが一緒になって正さねばならないこともたくさんあります。

We look forward to working with all of you.

皆さんと一緒に仕事ができることを楽しみにしています。

And now I'll hand it off to Sameer, who will speak to you about all the exciting developments we're bringing to Android.

それでは、サミーにバトンタッチして、私たちがAndroidにもたらすエキサイティングな開発についてお話ししていただきます。

Thank you.

ありがとうございました。

Hi, everyone!

皆さん、こんにちは!

It's great to be back at Google I/O.

Google I/Oに戻れてうれしいです。

As you've heard today, our bold and responsible approach to AI can unlock people's creativity and potential.

今日お聞きしたように、私たちのAIに対する大胆で責任あるアプローチは、人々の創造性と可能性を引き出すことができます。

But how can all this helpfulness reach as many people as possible?

しかし、このような便利なものは、どのようにして多くの人に届けることができるのでしょうか?

At Google, our computing platforms and hardware products have been integral to that mission.

Googleでは、そのミッションに、私たちのコンピューティングプラットフォームとハードウェア製品が不可欠です。

From the beginning of Android, we believed that an open OS would enable a whole ecosystem and bring smartphones to everyone.

Androidの開発当初から、オープンなOSがエコシステム全体を実現し、スマートフォンをすべての人に届けると信じていました。

And as we all add more devices to our lives, like tablets, TVs, cars and more, this openness creates the freedom to choose the devices that are best for you.

そして、タブレット、テレビ、自動車など、私たちの生活にさまざまなデバイスが加わる中で、このオープン性が、自分に最適なデバイスを選択する自由を生み出します。

With more than three billion Android devices, we've now seen the benefits of using AI to improve experiences at scale.

30億台以上のAndroidデバイスを持つ私たちは、今、AIを使ってスケールの大きい体験を改善することのメリットを実感しています。

For example, this past year, Android used AI models to protect users from more than 100 billion suspected spam messages and calls.

例えば、この1年、AndroidはAIモデルを使って、1000億件以上のスパムメッセージや電話の疑いからユーザーを保護しました。

We can all agree, that's pretty useful!

これはかなり便利なことだと、私たちは同意できます!

There are so many opportunities where AI can just make things better.

AIが物事をより良くする機会は非常に多くあります。

Today, we'll talk about two big ways Android is bringing that benefit of computing to everyone.

今日は、Androidがコンピューティングの恩恵をみんなにもたらす2つの大きな方法についてお話します。

First, continuing to connect you to the most complete ecosystem of devices, where everything works better together.

1つ目は、最も完全なデバイスのエコシステムに接続し続けることで、すべてがよりよく連携すること。

And second, using AI to make things you love about Android even better, starting with customization and expression.

そしてもうひとつは、AIを活用して、カスタマイズや表現をはじめとするAndroidの魅力をさらに向上させることです。

Let's begin by talking about Android's ecosystem of devices, starting with two of the most important: Tablets and watches.

まず、Androidのエコシステムについて、最も重要な2つのデバイス、タブレットと時計から説明します。

Over the last two years, we've redesigned the experience on large screens, including tablets and foldables.

この2年間で、私たちはタブレットや折りたたみ式端末など、大きな画面での体験を一新しました。

We introduced a new system for multi tasking that makes it so much easier to take advantage of all that extra screen real estate and seamlessly move between apps.

マルチタスクのための新しいシステムを導入し、余分な画面領域をすべて活用し、アプリ間をシームレスに移動することが非常に容易になりました。

We've made huge investments to optimize more than 50 Google apps, including G mail, photos and meet.

Gメール、写真、ミーティングなど、50以上のGoogleアプリを最適化するために、大規模な投資を行ってきました。

And we're working closely with partners such as Minecraft, Spotify and Disney+ to build beautiful experiences that feel intuitive on larger screens.

また、Minecraft、Spotify、Disney+などのパートナーと密接に連携し、大画面でも直感的に操作できる美しい体験を構築しています。

People are falling in love with Android tablets and there are more great devices to pick from than ever.

Androidタブレットの魅力に取り付かれ、これまで以上に多くの素晴らしいデバイスを選ぶことができます。

Stay tuned for our hardware announcements, where you just might see some of the awesome new features we're building for tablets in action.

私たちがタブレット向けに開発している素晴らしい新機能のいくつかを実際に見ることができるかもしれない、ハードウェアの発表にご期待ください。

It's really exciting to see the It's really exciting to see the momentum in smart watches as well.

また、スマートウォッチの勢いもすごいですね。

WearOS is now the fastest growing watch platform, just two years after launching WearOS 3 with Samsung.

WearOSは、サムスンと共にWearOS 3を発表してからわずか2年で、最も急速に成長しているウォッチプラットフォームとなりました。

A top ask from fans has been for more native messaging apps on the watch.

WearOSは、サムスンと共にWearOS 3を発表してからわずか2年で、最も急速に成長しているウォッチプラットフォームです。

I'm excited to share that WhatsApp is bringing their first ever watch app to Wear this summer.

この夏、WhatsAppが初のウォッチアプリをWearに提供することをお知らせできることを嬉しく思います。

I'm really enjoying using WhatsApp on my wrist.

手首でWhatsAppを使うのは本当に楽しいです。

I can start a new conversation, reply to messages by voice and even take calls.

新しい会話を始めたり、音声でメッセージに返信したり、電話を受けたりすることも可能です。

I can't wait for you to try it.

早く試してみたいですね。

Our partnership on WearOS with Samsung has been amazing, and I'm excited about our new Android collaboration on immersive XR.

サムスンとのWearOSでのパートナーシップは素晴らしいものでしたが、没入感のあるXRでの新しいAndroidとのコラボレーションにも期待しています。

We'll share more later this year.

今年後半には、さらに多くのことをお伝えする予定です。

Now, we all know that to get the best experience, all these devices need to work seamlessly together.

さて、最高の体験を得るためには、これらすべてのデバイスがシームレスに連動する必要があることは、誰もが知っています。

It's got to be simple.

そのためには、シンプルでなければなりません。

That's why we built Fast Pair, which lets you easily connect more than 300 headphones.

だから、300以上のヘッドホンを簡単に接続できるFast Pairを開発しました。

And it's why we have Nearby Share to easily move files between your phone, tablet or windows in Chrome OS computer.

また、携帯電話、タブレット、Chrome OSコンピュータのウィンドウ間でファイルを簡単に移動できる「Nearby Share」も、そのためです。

And Cast, to make streaming video and audio to your devices ultra simple, with support for over 3,000 apps.

さらに、3,000以上のアプリに対応し、ビデオやオーディオのストリーミングを超簡単にできるCastもあります。

It's great to have all of our devices connected, but if you're anything like me, it can be hard to keep track of all the stuff.

すべてのデバイスがつながるのは素晴らしいことですが、私のように、すべてのものを把握するのは難しいかもしれません。

Just ask my family.

私の家族に聞いてみてください。

I misplace my earbuds at least three times a day, which is why we're launching a major update to our Find My Device experience.

そんなわけで、「Find My Device」のメジャーアップデートを実施することになりました。

It will support a wide range of devices in your life, including headphones, tablets, and more.

ヘッドホンやタブレットなど、あなたの生活に密着したさまざまなデバイスをサポートします。

It's powered by a network of billions of Android devices around the world, so if you leave your earbuds at the gym, other nearby Android devices can help you locate them.

世界中の何十億台ものAndroidデバイスのネットワークによって提供されるため、イヤホンをジムに忘れても、近くにある他のAndroidデバイスがその位置を特定する手助けをしてくれます。

And for other important things in your life, like your bicycle or suitcase, Tile, Chipolo, and others, will have tracker tags.

また、自転車やスーツケースなど、生活の中で重要なものについては、TileやChipoloなどがトラッカータグを用意する予定です。

They will work with the Find My Device Network as well.

これらは「Find My Device Network」とも連動します。

Now, we took some time to really get this right because protecting your privacy and safety is vital.

あなたのプライバシーと安全を守ることは非常に重要なことなので、私たちは、時間をかけて、これを正しく理解することに努めました。

From the start, we designed the network in a privacy preserving way, where location information is encrypted.

最初から、プライバシーを守る形でネットワークを設計しており、位置情報は暗号化されています。

No one else can tell where your devices are located, not even Google.

あなたのデバイスがどこにあるのか、Googleでさえも、他の誰にもわかりません。

This is also why we are introducing Unknown Tracker Alerts.

Unknown Tracker Alertsを導入したのもこのためです。

Your phone will tell you if an unrecognized tracking tag is moving with you, and help you locate it.

未認識の追跡タグがあなたと一緒に移動している場合、あなたの携帯電話が教えてくれ、その位置を特定するのに役立ちます。

It's important that these warnings work on your Android phone, but on other types of phones as well.

この警告は、Android端末だけでなく、他の種類の端末でも機能することが重要です。

That's why last week, we published a new industry stander with Apple, outlining how unknown tracker alerts will work across all smartphones.

そのため、先週、私たちはAppleと新しい業界標準を発表し、すべてのスマートフォンで未知の追跡タグの警告がどのように機能するかを概説しました。

Both the new Find My Device experience and Unknown Tracker Alerts are coming later this summer.

新しい「端末を探す」エクスペリエンスと「未知の追跡者」アラートの両方が、この夏の終わりに登場する予定です。

Now, we've talked a lot about connecting devices, but Android is also about connecting people.

さて、これまでデバイスの接続についてたくさん説明してきましたが、Androidは人の接続も目的としています。

After all, phones were created for us to communicate with our friends and family.

結局のところ、携帯電話は友人や家族とコミュニケーションをとるために作られたものです。

When you are texting in a group chat, you shouldn't have to worry about whether everyone is using the same type of phone.

グループチャットでテキストを送るとき、みんなが同じ種類の携帯電話を使っているかどうかを心配する必要はありません。

Sending high quality images and video, getting typing notifications and end to end encryption should all just work.

高画質な画像やビデオの送信、タイピングの通知、エンドツーエンドの暗号化など、すべてがうまくいくはずです。

That's why we've worked with our partners on upgrading old SMS and MMS technology to a modern standard called RCS.

そのため、私たちはパートナーと協力して、古いSMSやMMSの技術をRCSと呼ばれる最新の標準にアップグレードしてきました。

That makes all of this possible, and there are now over 800 million people with RCS.

その結果、現在では8億人以上の人がRCSを利用しています。

On our way to over a billion by the end of the year.

年末には10億人を超える勢いです。

We hope every mobile operating System gets the message and adopts RCS.

すべてのモバイルOSがこのメッセージを受け取り、RCSを採用することを願っています。

So we can all hang out in the group chat together, no matter what device we're using.

そうすれば、どんなデバイスを使っていても、みんなで一緒にグループチャットに参加できるようになります。

Whether it's connecting with your loved ones or connecting all of your devices, Android's complete ecosystem makes it easy.

大切な人とつながることも、すべてのデバイスをつなぐことも、Androidの完全なエコシステムなら簡単です。

Another thing people love about Android is the ability to customize their devices and express themselves.

Androidのもうひとつの魅力は、デバイスをカスタマイズして自分らしさを表現できることです。

Here's Dave to tell you how we are taking this to the next level with generative AI.

ここでデイブが、私たちがジェネレーティブAIでどのようにこれを次のレベルに引き上げようとしているのかをお話しします。

Thanks, Sameer.

ありがとう、サミール。

And hello, everyone.

そして、みなさん、こんにちは。

Android: Expression So here's the thing.

Androidです: 表現」 これが問題なのです。

People want to express With Google's advances in generative AI so your phone can feel even more personal.

Googleの進化したジェネレーティブAIを使えば、あなたのスマホがもっとパーソナルなものに感じられるようになります。

So let me show you what this looks like.

では、これがどのようなものなのか、お見せしましょう。

To start, messages and conversation can be so much more expressive, fun and playful with Magic Compose.

まず、Magic Composeを使えば、メッセージや会話はもっともっと表現豊かに、楽しく、遊び心たっぷりになります。

It's a new feature coming to Google Messages powered by generative AI that helps you add that extra spark of personality to your conversation.

ジェネレーティブAIを搭載したGoogleメッセージの新機能で、会話に個性をプラスすることができるのです。

Just type your message like you normally would, and choose how you want to sound.

いつものようにメッセージを入力し、どのように聞こえるかを選択するだけ。

Magic Compose will do the rest.

あとはMagic Composeにおまかせください。

So your messages give off more positivity, more rhymes, more professionalism.

あなたのメッセージは、よりポジティブに、より韻を踏んで、よりプロフェッショナルなものになります。

Or if you want, in the style of a certain playwright.

あるいは、ある劇作家のようなスタイルにすることもできます。

To try or not to try this feature, that is the question.

この機能を試すか試さないか、それが問題です。

Now, we also have new personalizations coming to the OS layer.

さて、OSレイヤーにも新しいパーソナライゼーションがやってきました。

At Google I/O two years ago, we introduced Material You.

2年前のGoogle I/Oで、私たちはMaterial Youを発表しました。

It's a design system which combines user inspiration with dynamic color science for a fully personalized experience.

これは、ユーザーのインスピレーションとダイナミックな色彩科学を組み合わせて、完全にパーソナライズされた体験を提供するデザインシステムです。

We're continuing to expand on this in Android 14 with all new customization options coming to your lockscreen.

Android 14では、これをさらに発展させ、ロックスクリーンに新しいカスタマイズオプションを追加しています。

Now, I can add my own personalized style to the lockscreen clock so that it looks just the way I want.

ロックスクリーンの時計に自分好みのスタイルを追加して、思い通りに見せることができるようになりました。

And what's more, with the new customizable lockscreen shortcuts, I can instantly jump in to my most frequent activities.

さらに、カスタマイズできる新しいロックスクリーンのショートカットを使えば、よく使うアクティビティに即座に飛び込むことができます。

Of course, what really makes your lockscreen and home screen yours is the wallpaper, and it's first thing that many of us set when we get a new phone.

もちろん、ロックスクリーンやホームスクリーンを自分のものにするのは壁紙です。そして、多くの人が新しい携帯電話を手に入れたときに最初に設定するのが壁紙です。

Now, emojis are such a fun and simple way of expressing yourself so we thought wouldn't it be cool to bring them to your wallpaper?

絵文字は、自分を表現するための楽しくてシンプルな方法です。そこで私たちは、絵文字を壁紙に取り入れるのはどうだろうと考えました。

With Emoji wallpapers, you can choose your favorite combination of emojis, pick the perfect pattern, and find just the right color to bring it all together.

絵文字の壁紙なら、好きな絵文字の組み合わせを選び、完璧なパターンを選び、全体をまとめるためにちょうどいい色を見つけることができます。

So let's take a look.

では、見てみましょう。

And I'm not going to use the laptops.

ノートパソコンも使わない。

I'm going to use a phone.

携帯電話を使うつもりです。

All right.

そうですか。

So let's see.

では、見てみましょう。

I'm going to go into the wallpaper picker, and I'm going to tap on the new option for emojis.

壁紙ピッカーに入り、新しいオプションの絵文字をタップしてみます。

And I'm feeling in a kind of, I don't know, zany mood, with all you people looking at me, so I'm going to pick this guy and this guy, and let's see, who else is in here?

みんなに見られながら、なんとなく愉快な気分になってきたので、この人とこの人を選んでみることにします。

This one looks pretty cool.

こいつはなかなかカッコイイな。

I like the ape fit one, and obviously that one.

猿の着ぐるみもいいし、明らかにあれもいい。

And somebody said there was a duck on stage earlier, so let's go find a duck.

そして、誰かがさっきステージにアヒルがいたと言ったので、アヒルを探しに行こう。

Hello, duck.

こんにちは、アヒルさん。

Where's the duck.

アヒルはどこだ。

Anyone see a duck?

誰かアヒルを見ませんでしたか?

Where's the duck?

アヒルはどこだ?

There's the duck.

アヒルがいる

All right.

わかったよ

There it is.

あそこだ

We got some ducks.

アヒルがいる

Okay.

よし

Cool.

いいね

And then pattern wise, we got a bunch of different patterns you can pick.

それから、パターンも、いろいろ選べる。

I'm going to pick mosaic.

私はモザイクを選ぶつもりです。

That's my favorite.

それが一番好きなんだ

I'm going to play with the Zoom.

ズームで遊んでみます。

Let's see.

そうだな

We'll get this just right.

ちょうどいい感じに仕上がるよ

Okay.

よし

I got enough ducks in there.

十分なアヒルが入ったよ

Okay.

よし

Cool.

いい感じだ

And then colors, let's see, ooh, let's go with the more muted one.

それから、色ですが、おお、もっと淡い色にしましょうか。

That one.

これだ

No, that looks good.

いや、いい感じだ。

I like that one.

私はあれが好きです。

All right.

そうですね。

Select that, set the wallpaper, and then I go, boom!

それを選んで、壁紙に設定すると、ドーン!

Looks pretty cool, huh?

かなりクールだろ?

And the little emojis, they react when you tap them, which I find unusually satisfying.

絵文字はタップすると反応するんだけど、それが異様に嬉しいんだよね。

How much time have I got?

時間はどれくらいある?

Okay.

そうですね。

Now, of course, so many of us like to use a favorite photo for our wallpaper.

さて、壁紙に好きな写真を使いたい人も多いでしょう。

So with the new cinematic wallpaper feature, you can create a stunning 3D image from any regular photo and then use it as your wallpaper.

そこで、新機能のシネマティック壁紙を使えば、普通の写真から見事な3D画像を作って、壁紙にすることができるんです。

So let's take a look.

では、早速見てみましょう。

So this time I'm going to go into my photos.

今回は写真の中に入ってみます。

And I really like this photo of my daughter, so let me select that.

娘の写真が気に入ったので、それを選択します。

And you'll notice there's a sparkle icon at the top.

上部にキラキラしたアイコンがあるのがわかると思います。

So if I tap that, I then get an option for cinematic wallpaper.

それをタップすると、シネマティック壁紙というオプションが表示されます。

So let me tap that, and wait for it.

それをタップして、待つことにしましょう。

Boom.

ドキッ。

Now, under the hood, we're using an on device convolutional neural network to estimate depth, and a generative adversarial network for inpainting as the background moves.

さて、その裏側では、深度を推定するためにオンデバイスの畳み込みニューラルネットワークを使い、背景の動きに合わせてインペイントするために生成的敵対ネットワークを使用しています。

The result is a beautiful cinematic 3D photo.

その結果、映画のような美しい3D写真が出来上がりました。

So now let me set the wallpaper.

それでは、壁紙を設定してみましょう。

And then I'm going to return home.

そして、家に帰ります。

And check out the parallax effect as I tilt the device.

デバイスを傾けたときの視差効果を見てください。

It literally jumps off the screen.

文字通り、画面から飛び出してくるようです。

Both Cinematic Wallpapers and Emoji Wallpapers are coming first to Pixel devices next month.

シネマティック壁紙と絵文字壁紙は、どちらも来月からPixel端末に先行提供されます。

So let's say you don't have the perfect wallpaper photo handy, or you just want to have fun and create something new.

では、完璧な壁紙写真が手元にない、あるいは楽しみながら新しいものを作りたい、と考えてみましょう。

With our new Generative AI wallpapers, you choose what inspires you, and we create a beautiful wallpaper to fit your vision.

新しいGenerative AI壁紙では、あなたがインスピレーションを受けるものを選ぶと、私たちがあなたのビジョンに合った美しい壁紙を作成します。

So let's take a look.

では、さっそく見てみましょう。

So this time, I'm going to go and select create a wallpaper with AI.

今回は、「AIで壁紙を作成する」を選んでみます。

And I like classic art, so let me tap that.

そして、私はクラシックなアートが好きなので、それをタップしてみます。

Now, you'll notice at the bottom we use structured prompts to make it easier to create.

さて、下の方に、より簡単に作成できるよう、構造化されたプロンプトが表示されていることにお気づきでしょうか。

So for example, I can pick what am I going to do?

例えば、「どうしようかな?

City by the bay in a post impressionist style.

ポスト印象派のスタイルで、湾岸の街。

Cool.

かっこいいですね。

And I type tap create wallpaper.

そして、「壁紙の作成」をタップします。

Nice.

いい感じです。

Now, behind the scenes, we're using Google's text to image diffusion models to generate completely new and original wallpapers.

さて、その裏では、Googleのテキストから画像への拡散モデルを使って、まったく新しいオリジナルの壁紙を生成しています。

And I can swipe through and see different options that it's created.

そして、スワイプして、作成されたさまざまなオプションを見ることができます。

And some of these look really cool, right?

中には、とてもクールなものもありますね。

So let me pick this one.

では、これを選んでみましょう。

I like this one.

この壁紙が好きです。

So I'll select that.

というわけで、これを選びます。

Set the wallpaper.

壁紙に設定します。

And then return home.

そして、家に戻る。

Cool.

かっこいい。

So now, out of billions of Android phones in the world, no other phone will be quite like mine.

これで、世界中に何十億台とあるAndroid携帯の中で、私の携帯とまったく同じものは他にないでしょう。

And thanks to Material You, you can see the system's color palette automatically adapts to match the wallpaper I created.

そして、Material Youのおかげで、私が作った壁紙に合わせて、システムのカラーパレットが自動的に適応しているのがわかりますね。

Generative AI Wallpapers will be coming this fall.

Generative AI Wallpapersは、この秋に登場する予定です。

So from a thriving ecosystem of devices to AI powered expression, there's so much going on right now in Android.

というわけで、盛んなデバイスのエコシステムからAIを使った表現まで、Androidには今、たくさんのことが起こっています。

Okay.

なるほど。

Rick is up next to show you how this Android innovation is coming to life in the Pixel family of devices.

次はリックが、このAndroidのイノベーションがPixelファミリーのデバイスでどのように実現されているかを紹介します。

Thank you.

ありがとうございました。

The pace of AI innovation over the past year Hardware: Intro and Pixel 7a has been astounding.

過去1年間のAIイノベーションのペースは驚異的でした。

As you heard Sundar talk about earlier, new advances are transforming everything from creativity and productivity to knowledge and learning.

先ほどSundarが話したように、新しい進歩は、創造性や生産性から知識や学習まで、あらゆるものを変革しています。

Now, let's talk about what that innovation means for Pixel, which has been leading the way in AI driven hardware experiences for years.

では、そのイノベーションが、長年AI駆動のハードウェア体験をリードしてきたPixelにとって、どのような意味を持つのかについてお話しましょう。

Now, from the beginning, Pixel was conceived as an AI-first mobile computer.

さて、Pixelは当初から、AIファーストのモバイルコンピューターとして構想されていました。

It brings together all the amazing breakthroughs across the company and puts them into a Google device you can hold in your hand.

会社全体の素晴らしいブレークスルーをまとめて、手に取れるGoogleのデバイスに落とし込んだのです。

Other phones have AI features, but Pixel is the only phone with AI at the center.

他の携帯電話にもAI機能はありますが、PixelはAIを中心に据えた唯一の携帯電話です。

And I mean that literally.

しかも、文字通りの意味です。

The Google Tensor G2 chip is custom designed to put Google's leading edge AI research to work in our Pixel devices.

Google Tensor G2チップは、Googleの最先端のAI研究をPixelデバイスで活用するためにカスタム設計されています。

By combining Tensor's on device intelligence with Google's AI in the cloud, Pixel delivers truly personal AI.

Tensorのデバイス上のインテリジェンスとクラウド上のGoogleのAIを組み合わせることで、Pixelは真のパーソナルAIを提供します。

Your device adapts to your own needs and preferences, and anticipates how it can help you save time and get more done.

あなたのデバイスは、あなた自身のニーズや好みに適応し、あなたが時間を節約し、より多くのことを成し遂げるために、どのように役立つかを予測することができます。

This Personal AI enables all those helpful experiences that Pixel is known for that aren't available on any other mobile device.

このパーソナルAIは、Pixelが誇る、他のモバイルデバイスにはない便利な体験をすべて可能にします。

on any other mobile device.

他のどのモバイルデバイスでも利用できません。

Like pixel Call Assist, which helps you avoid long hold times, navigate phone tree menus, ignore the calls you don't want and get better sound quality on the calls you do want.

例えば、Pixel Call Assistは、長時間の保留を避け、フォーンツリーのメニューをナビゲートし、不要な電話を無視し、必要な電話でより良い音質を得ることを支援します。

Personal AI also enables helpful Pixel Speech capabilities.

パーソナルAIは、Pixel Speechの便利な機能も実現します。

On device machine learning translates different languages for you, transcribes conversations in real time, and understands how you talk and type.

デバイス上の機械学習があなたに代わってさまざまな言語を翻訳し、会話をリアルタイムで書き起こし、あなたの話し方や入力方法を理解します。

And you're protected with Pixel Safe, a collection of features that keep you safe online and in the real world.

さらに、オンラインでも現実世界でもあなたの安全を守る機能の集合体であるPixel Safeであなたを守ります。

And of course, there's Pixel Camera It understands faces, expressions and skin tones to better depict you and the people you care about, so your photos will always look amazing.

もちろん、Pixel Cameraもあります。顔、表情、肌の色などを理解して、あなたやあなたの大切な人たちをよりよく表現するので、あなたの写真はいつも素晴らしいものになります。

We're also constantly working to make Pixel Camera more inclusive and more accessible, with features like Real Tone and Guided Frame.

また、リアルトーンやガイド付きフレームなどの機能により、Pixel Cameraをより包括的で、より身近なものにするための取り組みも常に行っています。

Pixel experiences continue to be completely unique in mobile computing.

Pixelの体験は、モバイルコンピューティングにおいて完全にユニークであり続けます。

That's because Pixel is the only phone engineered end to end by Google, and the only phone that combines Google Tensor, Android and AI.

それは、PixelがGoogleによってエンドツーエンドで設計された唯一の携帯電話であり、Google Tensor、Android、AIを組み合わせた唯一の携帯電話であるからです。

With this combination of hardware and software, Pixel lets you experience all those incredible new AI powered features you saw today, all in one place.

このハードウェアとソフトウェアの組み合わせにより、Pixelでは、今日ご覧いただいたAIを搭載した驚くべき新機能をすべて一度に体験することができます。

For example, the new Magic Editor in Google Photos that Sundar showed you will be available for early access to select Pixel phones later this year.

例えば、Sundarがお見せしたGoogleフォトの新しいMagic Editorは、今年後半に一部のPixel携帯で早期利用が可能になります。

It opens up a whole new avenue of creativity with your photos.

これは、写真のクリエイティビティにまったく新しい道を開くものです。

Dave just showed you how Android is adding depth to how you can express yourself.

Daveは、Androidが自己表現に深みを与えていることを紹介しました。

With new Generative AI wallpapers, and across Search, Workspace, and Bard, new features powered by large language models can spark your imagination.

新しいGenerative AIの壁紙や、検索、ワークスペース、Bardでは、大規模な言語モデルによる新機能が、あなたの想像力をかきたてます。

They make big tasks more manageable, and help you find better answers to everyday questions - all from your Pixel device.

これらの機能は、大きなタスクをより管理しやすくし、日常の疑問に対するより良い答えを見つける手助けをします。

We have so many more exciting developments in this space.

この分野では、まだまだたくさんのエキサイティングな開発があります。

And we can't wait to show you more in the coming months.

今後数カ月でさらに多くのことをお見せするのが楽しみです。

Now, it's probably no surprise that as AI keeps getting more and more helpful, our Pixel portfolio keeps growing in popularity.

さて、AIがますます役立つようになるにつれて、Pixelのポートフォリオが人気を集め続けていることは、おそらく驚くことではありません。

Last year's Pixel devices are our most popular generation yet, with both users and respected reviewers and analysts.

昨年のPixelデバイスは、ユーザーと尊敬するレビュアーやアナリストの両方から、私たちの最も人気のある世代です。

Our Pixel phones won multiple Phone of the Year awards.

私たちのPixel携帯は、複数のPhone of the Year賞を受賞しました。

Yes.

はい。

Thank you.

ありがとうございます。

And in the premium smartphone category, Google is the fastest growing OEM in our markets.

また、プレミアムスマートフォンのカテゴリーでは、グーグルは、私たちの市場で最も急速に成長しているOEMです。

One of our more popular products is the Pixel A series, which delivers incredible Thank you.

当社の人気製品のひとつがPixel Aシリーズで、驚くほどの性能を発揮しています。

I'm glad you like it.

お気に召していただけたようで、とてもうれしいです。

It delivers incredible Pixel performance in a very affordable device.

この製品は、非常に手頃な価格のデバイスで、信じられないほどのPixelの性能を実現しています。

And to continue the I/O tradition, let me show you the newest member of our A series.

そして、I/Oの伝統を受け継ぎ、Aシリーズの最新作をお見せしましょう。

Today, we're completely upgrading everything you love about our A series with the gorgeous new Pixel 7a.

今日、私たちは、あなたが愛するAシリーズのすべてを、ゴージャスな新しいPixel 7aで完全にアップグレードします。

Like all Pixel 7 series devices, the Pixel 7a is powered by our flagship Google Tensor G2 chip.

他のPixel 7シリーズと同様に、Pixel 7aはフラッグシップのGoogle Tensor G2チップを搭載しています。

It's paired with eight gigabytes of ram, which ensures Pixel 7a delivers best in class performance and intelligence.

8ギガバイトのRAMと組み合わせて、Pixel 7aはクラス最高のパフォーマンスとインテリジェンスを提供します。

And you're going to love the camera.

そして、カメラを気に入ることでしょう。

The 7a takes the crown from 6a as the highest rated camera in its class, with the biggest upgrade ever to our A series camera hardware, including a 72 percent bigger main camera sensor.

7aは、メインカメラセンサーを72パーセント大きくするなど、Aシリーズのカメラハードウェアをこれまでで最も大きくアップグレードし、このクラスで最も評価の高いカメラとして6aから王座を奪還しました。

Now, here's the best part.

さて、ここからが一番の見どころです。

Pixel 7a is available today, starting at $499.

Pixel 7aは本日、499ドルから発売されます。

It's an unbeatable combination of design, performance and photography, all at a great value.

デザイン、パフォーマンス、フォトグラフィーのすべてを兼ね備えた、圧倒的な価値を持つ製品です。

You can check out the entire Pixel 7a lineup on the Google Store, including our exclusive Coral color.

Google Storeでは、当店限定のコーラルカラーを含むPixel 7aの全ラインナップをチェックできます。

Now, next up, we're going to show you how we're continuing to expand the Pixel portfolio into new form factors.

さて、次は、Pixelのポートフォリオを新しいフォームファクターに拡大し続ける様子をお見せしましょう。

Yeah.

そうですね。

Like foldables and tablets.

折りたたみ式やタブレットのようなものです。

You can see them right there.

ご覧の通りです。

It's a complete ecosystem of AI powered devices engineered by Google.

Googleが開発したAI搭載デバイスの完全なエコシステムです。

Here's Rose to share what a larger screen Pixel can do for you.

ここでは、より大きな画面のPixelで何ができるかを、ローズがお伝えします。

Okay.

はい、どうぞ。

Hardware: Pixel Tablet Let's talk tablets.

ハードウェアの話です: Pixel Tablet タブレットの話をしましょう。

Which have been a little bit frustrating.

これまで少し不満があったのはどれでしょう。

It has always been hard to know where they fit in, and they haven't really changed the past ten years.

この10年、タブレットの位置づけはずっと変わっていません。

A lot of the time, they are sitting, forgotten in a drawer, and that one moment you need it, it is out of battery.

多くの場合、引き出しの中で忘れ去られ、必要なときに限ってバッテリー切れになっているのです。

We believe tablets, and large screens in general, still have a lot of potential.

私たちは、タブレット端末や大画面は、まだまだ多くの可能性を秘めていると信じています。

So we set out to build something different, making big investments across Google apps, Android and Pixel, to reimagine how large screens can deliver a more helpful experience.

そこで私たちは、Googleのアプリ、Android、Pixelに大きな投資を行い、大画面でより役立つ体験を提供する方法を再考し、これまでとは違うものを作ることにしました。

Pixel Tablet is the only tablet engineered by Google and designed specifically to be helpful in your hand and in the place they are used the most, the home.

Pixel Tabletは、Googleが設計した唯一のタブレットで、手に持って、最も使われる場所である家庭で役立つように特別に設計されています。

We designed the Pixel Tablet to uniquely deliver helpful Pixel experiences, and that starts with great hardware.

私たちは、Pixel Tabletを、Pixelの役に立つ体験を提供するために独自に設計し、それは優れたハードウェアから始まります。

A beautiful 11 inch, high resolution display with crisp audio from the four built in speakers.

11インチの美しい高解像度ディスプレイと、4つの内蔵スピーカーによる鮮明なオーディオ。

A premium aluminum enclosure with a nanoceramic coating that feels great in the hand and is cool to the touch.

ナノセラミックコーティングを施したプレミアムアルミニウムの筐体は、手になじむ感触とひんやりとした手触りが特徴です。

The world's best Android experience on a tablet, powered by Google Tensor G2, for long lasting battery life and cutting edge personal AI.

Google Tensor G2を搭載したタブレットで、長持ちするバッテリーライフと最先端のパーソナルAIを実現する、世界最高のAndroid体験。

For example, with Tensor G2, we optimize the Pixel Camera specifically for video calling.

例えば、Tensor G2によって、Pixel Cameraをビデオ通話に特化して最適化します。

Tablets are fantastic video calling devices.

タブレットは素晴らしいビデオ通話デバイスです。

And with Pixel Tablet, you are always in frame, in focus and looking your best.

Pixel Tabletなら、常にフレームに収まり、ピントが合い、最高の状態で通話できます。

The large screen makes Pixel Tablet the best Pixel device for editing photos, with AI powered tools like Magic Eraser, and Photo Unblur.

大画面のPixel Tabletは、Magic EraserやPhoto UnblurなどのAIを搭載した、写真編集に最適なPixelデバイスです。

Now, typing on a tablet can be so frustrating.

タブレットで文字を入力するのは、とてもイライラするものです。

With Pixel Speech and Tensor G2, we have the best voice recognition, making voice typing nearly three times faster than tapping.

Pixel SpeechとTensor G2があれば、最高の音声認識を実現し、音声入力はタップするよりも3倍近く速くなります。

And as Sameer mentioned, we've been making huge investments to create great app experiences for larger screens, including more than 50 of our own apps.

また、Sameerが言ったように、私たちは大画面向けの素晴らしいアプリ体験を生み出すために、50以上の自社製アプリを含む膨大な投資を行ってきました。

With Pixel tablet, you're getting great tablet hardware with great tablet apps, but we saw an opportunity to make the tablet even more helpful in the home.

Pixelタブレットでは、優れたタブレット用ハードウェアと優れたタブレット用アプリケーションを手に入れることができますが、私たちは、タブレットを家庭でさらに役立つものにする機会があると考えました。

So we engineered a first of its kind charging speaker dock.

そこで私たちは、世界初の充電式スピーカードックを開発しました。

It gives the tablet a home.

これにより、タブレットが家庭で使えるようになりました。

And now, you never have to worry about it being charged.

これで、充電の心配をする必要はありません。

Pixel Tablet is always ready to help, 24/7.

Pixel Tabletは、24時間365日、いつでもサポートできるように準備されています。

When it's docked, the new Hub Mode turns Pixel Tablet into a beautiful digital photo frame, a powerful smart home controller, a voice activated helper, and a shared entertainment device.

ドッキングしているとき、新しいハブモードはPixel Tabletを美しいデジタルフォトフレーム、パワフルなスマートホームコントローラー、音声起動ヘルパー、共有エンターテインメントデバイスに変身させます。

It feels like a smart display, but it has one huge advantage.

まるでスマートなディスプレイのような感覚ですが、1つ大きな利点があります。

With the ultra fast fingerprint sensor, I can quickly unlock the device and get immediate access to all of my favorite Android apps.

超高速の指紋センサーを使えば、デバイスのロックをすばやく解除して、お気に入りのAndroidアプリすべてにすぐにアクセスできるんです。

So I can quickly find a recipe with Side Chef, or discover a new podcast on Spotify, or find something to watch with the tablet optimized Google TV app.

だから、Side Chefでレシピを探したり、Spotifyで新しいポッドキャストを発見したり、タブレットに最適化されたGoogle TVアプリで見たいものをすぐに見つけることができるのです。

Your media is going to look and sound great with room filling sound from the charging speaker dock.

また、タブレットに最適化されたGoogle TVアプリで視聴することもできます。充電用スピーカードックから部屋いっぱいに広がるサウンドで、あなたのメディアを素敵に演出します。

Pixel Tablet is also the ultimate way to control your smart home.

Pixel Tabletは、スマートホームをコントロールする究極の方法でもあります。

And that starts with the new, redesigned Google Home App.

Google Homeアプリのデザインも一新。

It looks great on Pixel Tablet, and it brings together over 80,000 supported smart home devices, including all of your Matter Enabled devices.

Pixel Tabletでは、見た目も美しく、Matter対応機器を含む8万台以上のスマートホームデバイスを一元管理できます。

We also made it really easy to access your smart home controls directly from Hub Mode.

また、Hub Modeから直接スマートホームコントロールにアクセスするのも、とても簡単になりました。

With the new home panel, any family member can quickly adjust the lights, lock the doors or see if a package was delivered.

新しいホームパネルがあれば、家族の誰もがすぐに照明を調整したり、ドアをロックしたり、荷物が届いたかどうかを確認したりできます。

Or, if you're lazy, like me, you can just use your voice.

また、私のように無精者であれば、音声で操作することも可能です。

Now, we know that tablets are often shared, so a tablet for the home needs to support multiple users.

タブレットは共有することが多いので、家庭用のタブレットは複数のユーザーをサポートする必要があります。

Pixel Tablet makes switching between users super easy, so you get your own apps and your own content while maintaining your privacy.

Pixel Tabletは、ユーザー間の切り替えがとても簡単なので、プライバシーを守りながら、自分だけのアプリとコンテンツを手に入れることができます。

And my favorite part, it is so easy to move content between devices.

また、私の一番のお気に入りは、デバイス間でコンテンツを移動するのがとても簡単なことです。

Pixel Tablet is the first tablet with Chromecast built in, so with a few taps I can easily cast some music or my favorite show from the phone to the tablet.

Pixel TabletはChromecastを内蔵した初めてのタブレットなので、数回タップするだけで、音楽やお気に入りの番組を携帯電話からタブレットに簡単にキャストすることができます。

And then I can just take the tablet off the dock and keep listening or watching all around the house.

そして、タブレットをドックから取り出せば、家中で音楽を聴いたり、見たりすることができます。

We designed a new type of case for Pixel Tablet that solves the pain of flimsy tablet cases.

私たちはPixel Tabletのために、薄っぺらいタブレット用ケースの欠点を解消する新しいタイプのケースをデザインしました。

It has a built in stand that provides continuous flexibility and is sturdy at all angles, so you can confidently use your tablet anywhere, on a plane, in bed or in the kitchen.

連続的な柔軟性を提供し、あらゆる角度で頑丈なスタンドが内蔵されているので、飛行機の中、ベッド、キッチンなど、どこでも自信を持ってタブレットを使用することができます。

The case easily docks, so you never have to take it off to charge.

ケースは簡単にドッキングできるので、充電のためにケースを外す必要はありません。

It's just another example of how we can make the tablet experience even more helpful.

これは、タブレットの体験をさらに役立つものにするための、もう一つの例です。

The new Pixel Tablet comes in three colors.

新しいPixel Tabletは3色展開です。

It is available for pre-order today and ships next month, starting at just $499.

本日より予約受付を開始し、来月出荷、価格はわずか499ドルです。

And the best part, every Pixel Tablet comes bundled with a $129 charging speaker dock for free!

そして何より、すべてのPixel Tabletに129ドルの充電用スピーカードックが無料でバンドルされています!

It is truly the best tablet in your hand and in your home.

まさに、あなたの手元で、あなたの家で、最高のタブレットになります。

To give you an idea of just how helpful Pixel Tablet can be, we asked TV personality Michelle Buteau to put it to the test.

Pixel Tabletがどれだけ役立つかを知っていただくために、テレビパーソナリティのミシェル・ビュトーさんにテストしてもらいました。

Let's see how that went.

その様子をご覧ください。

When Google asked me to spend the day with this tablet, I was a little apprehensive, because I'm not a tech person.

Googleからこのタブレットで一日過ごしてみないかと誘われたとき、私は技術者ではないので少し不安でした。

I don't know how things work all the time.

私は技術者ではないからです。

But I'm a woman in STEM now.

でも、私は今、STEMの女性なんです。

Some days I could barely find the floor, let alone the charger for something.

ある日は、何かの充電器はおろか、床を見つけるのもやっとでした。

So when the Google folks said something about a tablet that docks, I was like, okay then, Google, prove it!

だから、Googleの人たちがドッキングするタブレットについて何か言ったとき、私は、じゃあ、Google、証明してよ、という感じでした!

I'm on average two to five meetings a day.

私は1日に平均2~5件のミーティングをこなしています。

Today I got stuck on all these features, honey, the 360 of it all!

今日、私はこれらの機能、ハニー、そのすべての360にはまりました!

The last time I was around this much sand, some of it got caught in my belly button, and I had a pearl two weeks later.

この前、これだけの砂に囲まれて、その一部がヘソに引っかかって、2週間後に真珠ができたんだ。

Look, it's a bird!

見てください、鳥です!

So this is what I love about my me time today.

今日の私の時間は、こんな感じです。

Six shows just popped up based off of my preferences.

私の好みに合わせて6つの番組が出てきたんです。

And they were like, hey, girl!

そして、私の好みに合わせて6つの番組が出てきたんです!

I would have made it funnier, but that was good.

私ならもっと面白くするのに...と思いましたが、それはそれでよかったです。

My husband is actually a photographer, so I have to rely on him to make everything nice and pretty.

実は夫がカメラマンなので、何でもかんでも素敵に可愛くしてくれる夫に頼らざるを得ないんです。

But now, I love this picture of me and my son, but there's a boom mic there.

でも今、私と息子のこの写真はとても気に入っているのですが、そこにブームマイクがあるんです。

Look.

見てください。

It's right here.

ここにあるんです。

You see this one?

これが見えるか?

Get this mic.

このマイクを使え

You see that?

これが見えるか?

Magic Eraser, I can circle or brush.

マジックイレーザーは、丸でもブラシでもできる。

I'm going to do both.

両方やるつもりだ

Boom!

ブームだ

How cute is that!

なんてかわいいんでしょう!

And so I hope not only you guys are happy with me reviewing this, but that you'll also give me one, because, I mean You're getting tired, right?

というわけで、私がこれをレビューすることで皆さんが満足するだけでなく、私にもプレゼントしてくれることを願っています。

No, I'm not!

いや、疲れてないよ!

You're not?

疲れてない?

Okay. 'Cause I am.

そうだ。

That's a pretty good first review.

これはなかなか良いファーストレビューですね。

Now, tablets aren't the only large screen device we want to show you today.

さて、今日ご紹介したい大画面デバイスは、タブレットだけではありません。

It's been really exciting to see foldables take off over the past few years.

ここ数年、折りたたみ式端末が急速に普及しているのを目の当たりにして、とても興奮しています。

Android's driven so much innovation in this new form factor, and we see tremendous potential here.

Androidは、この新しいフォームファクターに多くのイノベーションをもたらし、私たちはここに大きな可能性を見出しています。

We've heard from our users that the dream foldable should have a versatile form factor, making it great to use both folded and unfolded.

私たちは、ユーザーから、夢のフォールダブルは、折りたたんでも広げても使える、汎用性の高いフォームファクターであるべきだと聞いています。

It should also have a flagship level camera system that truly takes advantage of the unique design.

また、ユニークなデザインを生かしたフラッグシップクラスのカメラシステムも必要です。

And an app experience that's fluid and seamless across both screens.

そして、どちらの画面でもスムーズでシームレスなアプリ体験ができること。

Creating a foldable like that it really means pushing the envelope with state of the art technology, and that means an ultra premium $1799 device.

このような折りたたみ式端末を作るには、最先端のテクノロジーで限界に挑戦することが必要です。

Now, to get there, we've been working closely with our Android colleagues to create a new standard for foldable technology.

そのために、私たちはAndroidの仲間たちと緊密に協力し、折りたたみ式テクノロジーの新しい基準を作り上げました。

Introducing Google Pixel Fold.

Google Pixel Foldの登場です。

It combines Tensor G2 Android innovation and AI for an incredible phone that unfolds into an incredible compact tablet.

Tensor G2 AndroidのイノベーションとAIを組み合わせることで、驚くほどコンパクトなタブレットに展開する、素晴らしい携帯電話を実現しました。

It's the only foldable engineered by Google to adapt to how you want to use it, with a familiar front display that works great when it's folded.

Google Pixel Foldは、あなたの使い方に適応するようにGoogleが設計した唯一の折りたたみ式で、使い慣れたフロントディスプレイは、折りたたんだ状態でも素晴らしい機能を発揮します。

And when it's unfolded, it's our thinnest phone yet and the thinnest foldable on the market.

そして、折りたたんだ状態では、私たちの携帯電話の中で最も薄く、市場で最も薄い折りたたみ式端末となるのです。

Now, to get there, we had to pack a flagship level phone into nearly half the thickness, which meant completely redesigning components like the telephoto lens and the battery, and a lot more.

この薄さを実現するためには、フラッグシップ機並みの薄さをほぼ半分の厚さにする必要があり、望遠レンズやバッテリーなど、さまざまなコンポーネントを完全に再設計する必要がありました。

So it can fold up and it can fit in your pocket, and retain that familiar smartphone silhouette when it's in your hand, but Pixel Fold has three times the screen space of a normal phone.

そのため、折りたたんでポケットに入れることができ、手にしたときのスマートフォンのシルエットはそのままに、Pixel Foldには通常の携帯電話の3倍の画面スペースがあります。

You unfold it and you're treated to an expansive I 7.6 inch display that opens flat with a custom 180 degree fluid friction hinge.

しかし、Pixel Foldは通常の携帯電話の3倍の画面スペースを備えています。広々とした7.6インチのディスプレイは、カスタムメイドの180度流体摩擦ヒンジでフラットに開くことができます。

So you're getting the best of both worlds.

つまり、両方のメリットを享受できるのです。

It's a powerful smartphone when it's convenient and an immersive tablet when you need one.

便利なときはパワフルなスマートフォンとして、必要なときは没入感のあるタブレットとして。

And like every phone we make, Pixel Fold is built to last.

そして、私たちがつくるすべての携帯電話のように、Pixel Foldは長く使えるようにつくられています。

We've extensively tested the hinge to be the most durable of any foldable.

私たちは、折りたたみ式の中で最も耐久性のあるヒンジを広範囲に渡ってテストしてきました。

Corning Gorilla Glass Victus protects it from exterior scratches, while the IPX8 water resistant design safeguards against the weather.

コーニング・ゴリラ・グラス・ヴィクタスが外装の傷から守り、IPX8防水設計が天候から守ります。

And as you'd expect from a Pixel device, Pixel Fold gives you entirely new ways to take stunning photos and videos with Pixel Camera.

さらに、Pixelデバイスに期待されるように、Pixel Foldでは、Pixel Cameraで美しい写真やビデオを撮るためのまったく新しい方法を提供します。

Put the camera in tabletop mode to capture the stars.

カメラを卓上モードにすれば、星空を撮影することもできます。

And you can get closer with the best zoom on a foldable.

そして、折りたたみ式で最高のズームでもっと近くに寄ることができます。

And use the best camera on the phone for your selfies.

そして、自撮りにはスマホの最高のカメラを使いましょう。

The unique combination of form factor, triple rear camera hardware, and Personal AI with Tensor G2 make it the best foldable camera system.

フォームファクター、トリプルリアカメラハードウェア、Tensor G2によるパーソナルAIというユニークな組み合わせが、最高のフォールダブルカメラシステムを実現しています。

Now, there are so many experiences that feel even more natural with a Pixel fold.

さて、Pixelの折りたたみでさらに自然に感じられる体験がたくさんあります。

One is the Dual Screen Interpreter Mode.

ひとつは、デュアルスクリーン通訳モードです。

Your Pixel Fold can use both displays, both displays, to provide a live translation to you and the person you're talking to.

Pixel Foldは、両方のディスプレイを使って、あなたと話している相手にライブで翻訳を提供することができます。

So it's really easy to connect across languages.

だから、言語を超えてつながることが本当に簡単にできるのです。

And powering all of this is Google Tensor G2.

そして、これらすべてを動かしているのが、Google Tensor G2です。

Pixel Fold has all of the Personal AI features you would expect from a top of the line Pixel device, across safety, speech and call assist.

Pixel Foldは、安全、スピーチ、通話アシストなど、Pixelの最上位機種に期待されるパーソナルAI機能をすべて備えています。

Plus, great performance for on the go multi tasking and entertainment.

さらに、外出先でのマルチタスクやエンターテインメントのための優れたパフォーマンスも備えています。

And the entire foldable experience is built on Android.

そして、折りたたみ式の体験は、すべてAndroidで構築されています。

Let's get Dave back out here to show you the latest improvements to Android that you'll get to experience on Pixel Fold.

それでは、Pixel Foldで体験できるAndroidの最新の改良を紹介するために、Daveに戻ってきてもらいましょう。

Thanks, Rick.

ありがとう、リック。

From new form factors and customizability to biometrics and computational photography, Android has always been at the forefront of mobile industry breakthroughs.

新しいフォームファクターやカスタマイズ性から、生体認証や計算写真に至るまで、Androidは常にモバイル業界のブレークスルーの最前線にいます。

Recently, we've been working on a ton of features and improvements for large screen devices like tablets and foldables.

最近では、タブレットや折りたたみ式端末のような大画面のデバイス向けの機能や改良に数多く取り組んでいます。

So who thinks we should try a bunch of live demos on the new Pixel Fold?

では、新しいPixel Foldでライブデモをたくさんやってみようと思う人はいますか?

All right.

わかったよ。

It starts the second I unfold the device with this stunning wallpaper animation.

この見事な壁紙アニメーションで、デバイスを広げた瞬間に始まるんだ。

The hinge sensor is actually driving the animation, and it's a subtle thing, but it makes the device feel so dynamic and alive.

ヒンジセンサーがこのアニメーションを動かしているのですが、これが微妙なところで、デバイスをダイナミックで生き生きとしたものにしているんです。

Yeah, I just love that.

そう、これが大好きなんです。

All right.

そうですね。

So let's go back to the folded state.

では、折りたたんだ状態に戻りましょう。

And I'm looking through Google photos at a recent snowboarding trip.

最近行ったスノーボードの写真をGoogleフォトで見ているところです。

Now, the scenery is really beautiful so I want to show you on the big screen.

景色がとてもきれいなので、大きなスクリーンでお見せしたいと思います。

I just open my phone, and the video instantly expands into this gorgeous full screen view.

スマホを開くと、動画は瞬時にこのような豪華なフルスクリーン表示に拡大されます。

We call this continuity, and we've obsessed over every millisecond it takes for apps to seamlessly adapt from the smaller screen to the larger screen.

私たちはこれを「連続性」と呼び、アプリが小さなスクリーンから大きなスクリーンへシームレスに適応するために必要なミリ秒単位にこだわってきました。

Now, all work and no play makes Davey a dull boy, so I'm going to message my buddy about getting back out on the mountain.

さて、仕事ばかりで遊びのないデイビーは退屈な子なので、山に戻ることを相棒にメッセージで伝えようと思います。

I can just swipe to bring up the new Android taskbar, and then drag Google messages to the side to enter split screen mode like so.

スワイプしてAndroidの新しいタスクバーを表示させ、Googleメッセージを横にドラッグすると、こんなふうに画面分割モードになります。

I'll send my buddy a photo to try to inspire him.

相棒にインスピレーションを与えるために写真を送ります。

I just drag and drop straight from Google Photos right into my message.

Googleフォトから直接、メッセージにドラッグ&ドロップするだけです。

Like so.

こんな感じです。

And thanks to the new Jetpack drag and drop library, this is now supported in a wide variety of apps from WorkSpace to WhatsApp.

Jetpackの新しいドラッグ&ドロップライブラリのおかげで、WorkSpaceからWhatsAppまで、さまざまなアプリでこの機能がサポートされるようになりました。

You'll notice we've made a bunch of improvements throughout the OS to take advantage of the larger screen.

大きな画面を活用するために、OSのいたるところでさまざまな改良が加えられていることにお気づきでしょうか。

So for example, here's the new split keyboard for faster typing.

例えば、タイピングをより速くするための新しいスプリットキーボードがあります。

And if I pull down from the top, you'll notice the new two panel shade showing about my notifications and my quick settings at the same time.

そして、上から下に引っ張ると、通知とクイック設定を同時に表示する新しい2つのパネルシェードがあることに気づくでしょう。

Now, Pixel Fold is great for productivity on the go.

Pixel Foldは、外出先での生産性を高めるのに最適なツールです。

And if I swipe up into Overview, you'll notice that we now keep the multi tasking windows paired.

スワイプアップして「概要」を表示すると、マルチタスクウィンドウがペアリングされていることに気づきます。

And for example, I was working on a Google Docs and Slides earlier to prep for this keynote, and I think I've I think I've followed most of these tips so far, but I'm not quite done yet.

例えば、私はこの基調講演の準備のために、先ほどGoogle DocsとSlidesで作業をしていたのですが、これまでのところ、これらのヒントのほとんどに従ったつもりですが、まだ終わっていません。

I can even adjust the split to suit the content that I'm viewing, and, you know, working this way, it's like having a dual monitor set up in the palm of my hand, allowing me to do two things at once.

見ているコンテンツに合わせて分割を調整することもできますし、こうして作業していると、手のひらにデュアルモニターがあるようなもので、一度に2つのことをこなせるようになります。

Which reminds me, I should probably send Rick a quick note, so I'll open G mail and I don't have a lot of time so I'm going to use the new help me write feature, so let's try this out.

そういえば、リックに簡単なメモを送らないといけないので、Gメールを開いて、時間がないので、新しいhelp me write機能を使ってみようと思います。

Don't cheer yet.

まだ応援しないでね。

Let's see if it works.

うまくいくかどうか見てみましょう。

Okay.

よし。

Rick, congrats on what are we going to call this, Pixel Fold's launch, amazing with Android.

リック、Pixel Foldの発売、おめでとうございます。

Okay.

そうだな

And then I probably should say, Dave not Andrew, Android.

それから、Androidはアンドリューじゃなくてデイブと言うべきかな。

Dave.

デイブです。

It's hard to type with all you people looking at me.

みんなに見られながら打つのは大変だ

All right.

そうですね。

Now, by the power of large language models, allow me to elaborate.

では、大規模な言語モデルの力を借りて、詳しく説明させてください。

Dear Rick, congratulations on the successful launch of Pixel Fold, I'm really impressed with the device and how well it works with Android.

親愛なるリック、Pixel Foldの成功的な発売おめでとうございます。

The foldable screen is a game changer, and I can't wait to see what you do All right.

折りたたみ式の画面はゲームチェンジャーです。私はあなたが何をするか見るのが待ち遠しいです。

That's productivity.

これが生産性です。

But there's more.

でも、それだけではありません。

The Pixel Fold is also an awesome entertainment device, and YouTube is just a really great showcase for this so let's start watching this video on the big screen.

PixelFoldは素晴らしいエンターテイメントデバイスでもあります。YouTubeはまさにその素晴らしいショーケースです。

Now, look what happens when I fold the device at right angles.

さて、デバイスを直角に折りたたむとどうなるか見てみましょう。

YouTube enters what we call tabletop mode so that the video plays on the top half and we're working on adding playback controls on the bottom half for an awesome single handed lean back experience.

YouTubeはテーブルトップモードと呼ばれる状態になり、動画は上半分で再生され、下半分には再生コントロールを追加して、片手でもたれかかれるような素晴らしい体験ができるよう、現在開発中です。

And the video just keeps playing fluidly through these transitions without losing a beat.

そして、このような移行を経ても、動画は途切れることなく流れるように再生されます。

Okay.

なるほど。

One last thing.

最後にもうひとつ。

We're adding support for switching displays within an app, and Pixel Fold's camera is a really great example of that.

Pixel Foldのカメラは、その素晴らしい例です。

Now, by the way, say hi to Julie behind me.

ところで、私の後ろにいるジュリーにもご挨拶を。

She's the real star of the show.

彼女はこのショーの本当の主役です。

So Pixel Fold has this new button on the bottom right so I'm going to tap this and it means I can move the view finder to the outside screen.

Pixel Foldには右下に新しいボタンがあるので、これをタップすると、ビューファインダーを外側の画面に移動させることができます。

So let me turn the device around.

では、デバイスの向きを変えてみます。

Okay.

なるほど。

So why is this interesting?

では、なぜこれが面白いのでしょうか?

Well, it means that the view finder is now beside the rear camera system and that means I can get a high quality, ultra wide, amazing selfie with the best camera on the device.

つまり、ビューファインダーがリアカメラシステムの横にあることで、このデバイスの最高のカメラで高画質、超ワイド、素晴らしいセルフィーを撮ることができるのです。

Speaking of which, and you knew where this was going!

そういえば、この先がどうなるかわかっていましたね!

Smile, everybody!

皆さん、笑ってください!

You look awesome!

すごい顔してますね!

I always wanted to do that on Google I/O keynote.

Google I/Oの基調講演でずっとやりたかったんです。

All right.

というわけで。

So what you're seeing here is the culmination of several years of work, in fact, on large screens, spanning the Android OS and the most popular apps on the play store.

この映像は、Android OSとPlayストアの人気アプリを大画面で楽しめる、数年にわたる制作の集大成です。

All this where it comes alive on the amazing new Pixel Tablet and Pixel Fold, check out this video.

そのすべてが、新しいPixel TabletとPixel Foldで生きています。このビデオをご覧ください。

Thank you.

ありがとうございました。

They ain't never seen it like.

こんなの見たことない。

This ain't never seen it like this.

こんなの見たことない。

This, this, this like this.

こんなの、こんなの、こんなの。

Never seen it like this, this, this, this, this, like this.

こんなの見たことない、こんなの見たことない、こんなの見たことない、こんなの見たことない。

They ain't never seen it like this.

こんなの見たことないって。

This.

これだ

Like this.

こんな感じ。

They ain't never seen it like this.

こんなの見たことないって。

That demo is awesome.

このデモはすごいですね。

Across Pixel and Android, we're making huge strides with large screen devices, and we can't wait to get Pixel Tablet and Pixel Fold into your hands.

PixelとAndroid全体で、私たちは大画面デバイスを大きく前進させています。Pixel TabletとPixel Foldをあなたの手に届けるのが待ちきれません。

And you're not going to have to wait too long.

Pixel TabletとPixel Foldが皆様のお手元に届くのが待ち遠しいです。

You can pre order Pixel Fold starting today and it will ship next month.

Pixel Foldは本日から予約注文が可能で、来月には出荷される予定です。

And you'll get the most out of our first ultra premium foldable by pairing it with Pixel Watch.

Pixel Watchと組み合わせることで、私たち初のウルトラプレミアムフォールダブルを最大限に活用できます。

So when you pre order a Pixel Fold, you'll also get a Pixel Watch on us.

だから、Pixel Foldを予約注文すると、Pixel Watchもついてくるのです。

The Pixel family continues to grow into the most dynamic mobile hardware portfolio in the market today.

Pixelファミリーは、今日の市場で最もダイナミックなモバイルハードウェアポートフォリオに成長し続けています。

From a broad selection of smartphones to watches, earbuds, and now tablets and foldables, there are more ways than ever to experience the helpfulness Pixel is known for whenever and wherever you need it.

スマートフォンから腕時計、イヤホン、そしてタブレットやフォールダブルまで、Pixelが誇る便利な機能をいつでもどこでも体験できる方法が、これまで以上に充実しています。

Now let me pass it back to Sundar.

それでは、スンダにバトンタッチします。

Thanks, everyone!

みなさん、ありがとうございました!

Thanks, Rick.

ありがとう、リック。

I'm really enjoying the new tablet and the first Pixel foldable phone, and am proud of the progress Android is driving across the ecosystem.

私は新しいタブレットとPixel初の折りたたみ式携帯電話をとても楽しんでいますし、Androidがエコシステム全体で推進している進歩を誇りに思っています。

As we wrap up, I've been reflecting on the big technology shifts that we have all been a part of.

最後に、私は、私たち全員が参加してきた大きなテクノロジーのシフトについて振り返ってきました。

The shift with AI is as big as they come, and that's why it's so important that we make AI helpful for everyone.

AIによるシフトは、それに匹敵するほど大きなもので、だからこそ、AIを誰にとっても役立つものにすることがとても重要なのです。

We are approaching it boldly with a sense of excitement, and because as we look ahead, Google's deep understanding of information, combined with the capabilities of generative AI, can transform Search and all of our products yet again.

私たちは、ワクワク感をもって大胆に取り組んでいます。なぜなら、先を見据えて、Googleの情報に対する深い理解と、生成型AIの能力を組み合わせることで、検索や私たちのすべての製品をさらに大きく変えられるからです。

And we are doing this responsibly in a way that underscores the deep commitment we feel to get it right.

そして、私たちは、これを正しく行うために感じている深いコミットメントを強調する方法で、責任を持ってこれを実行しています。

No one company can do this alone.

これは一社だけでできることではありません。

Our developer community will be key to unlocking the enormous opportunities ahead.

私たちの開発者コミュニティが、この先の大きなチャンスを引き出すカギとなるでしょう。

We look forward to working together and building together.

私たちは、共に働き、共に築いていくことを楽しみにしています。

So on behalf of all of us at Google, thank you, and enjoy the rest of I/O.

それでは、Googleの社員一同を代表して、ありがとうございました!残りのI/Oをお楽しみください。

この記事が気に入ったらサポートをしてみませんか?