見出し画像

【AIニュース】英語解説を日本語で読む【2023年5月23日|@AI Explained】

コードインタプリターの動画公開後、著者は48時間以内に新たな12の使い方を発見しました。3Dサーフェスプロット作成やテキストの感情分析、書籍に基づくエッセイ生成、複数データセットの相関関係の発見などが含まれます。コードインタプリターは有望な結果を示し、正確な出力を得るためには文脈と具体的な指示が重要です。モデルがデータ不足の場合には誤った結果が生じる可能性もあります。全体として、コードインタプリターは多様なアプリケーションにおいて強力なツールであることが証明されました。
公開日:2023年5月23日
※動画を再生してから読むのがオススメです。


In the 48 hours since I released my first code interpreter video, I believe I have found another 12 use cases that showcase its power.

最初のコードインタプリタのビデオを公開してから48時間で、そのパワーを示す12の使用例を見つけたと思います。

From finding errors in data sets to reading Anna Karenina ASCII art to image captioning, most of these I haven't seen anyone else mention.

データセットのエラーの発見から、アンナ・カレーニナのアスキーアートの読み取り、画像のキャプション付けまで、そのほとんどが他の誰も言及しているのを見たことがないものです。

So let's begin.

では、はじめましょう。

First, creating a 3D surface plot, which you can see on the left from the image on the right.

まず、3Dサーフェスプロットの作成ですが、これは右の画像から左をご覧ください。

I know, I will get two professional uses in a second, but I was personally very impressed that all of this that you can see can be done through the interface of ChatGPT.

すぐにプロの使い方が2つ出てきますが、個人的には、ご覧のようなことがChatGPTのインターフェイスですべてできることに非常に感動しました。

You can even see the little buildings at the bottom left reflected in this 3D surface plot.

左下の小さな建物も、この3Dサーフェスプロットに反映されているのがわかりますね。

To give you an idea of how it works, you click on the button to the left of the chat box and then it analyzes whatever you've uploaded.

仕組みとしては、チャットボックスの左側にあるボタンをクリックすると、アップロードしたものを解析してくれます。

And all I said was, analyze the RGB of the pixels and output a 3D surface map of the colors of the image.

そして、ピクセルのRGBを分析し、画像の色の3Dサーフェスマップを出力するというだけです。

Now, I will admit, it doesn't do a perfect job immediately.

さて、正直なところ、すぐに完璧な仕事ができるわけではありません。

At first, it wasn't downloadable and then it wasn't big enough.

最初はダウンロードできなかったし、サイズも足りなかった。

But eventually, I got it to work.

でも、最終的には、うまくいくようになりました。

But it's time for the next example.

でも、そろそろ次の例題が必要です。

And what I wondered was, what is the biggest document I could upload to get it to analyze?

そして私が考えたのは、アップロードして解析させることができる最大の文書は何だろうということです。

The longest book that I've ever read is Anna Karenina.

私が今まで読んだ中で一番長い本は「アンナ・カレーニナ」です。

I think it's about a thousand pages long, and I pasted it into a Word doc, and it's about 340,000 words.

1000ページくらいあると思うのですが、それをWordのドキュメントに貼り付けたら、34万字くらいになりました。

I uploaded it, and then I asked, as you can see, find all mentions of England and analyze them to discover the tone in which the country is perceived in the book.

それをアップロードして、ご覧のように、イギリスに関するすべての言及を見つけ、それを分析して、この本の中でこの国がどのようなトーンで捉えられているかを発見するよう依頼しました。

Now, I know what some of you may be wondering.

さて、疑問に思われる方もいらっしゃると思います。

Is it just using its stored knowledge of the book?

それは、この本に関する蓄積された知識を利用しているだけなのでしょうか?

And I'll get to that in a second.

それについては、また後ほど。

But look at what it did.

しかし、このソフトがやったことを見てください。

It went through and found the relevant quotes.

このソフトは、関連する引用を探し出しました。

There are seven of them.

その数は7つです。

There, I checked the document, and these were legitimate quotes.

その文書を確認したところ、これらは正当な引用であることがわかりました。

But here's where we get to something that you can't just do with Ctrl+F in a Word document.

しかし、ここで、Word文書でCtrl+Fだけではできないことがあります。

It analyzed the tone and sentiment of each of these passages, and you can see the analysis here.

これらの文章のトーンや感情を分析したものです。

Then I asked, Drawing on your own knowledge of the 19th century and the finding above, write a 2,000-word reflection on the presentation of England in Anna Karenina.

そして、「19世紀に関する自分の知識と上記の結果をもとに、『アンナ・カレーニナ』におけるイギリスの表現について、2,000字で考察してください」とお願いしました。

Now, I know many of you won't be interested in that book, but imagine your own text.

さて、あの本に興味がない人も多いと思いますが、自分の文章を想像してみてください。

This is 340,000 words.

これは34万字です。

It then created a somewhat beautiful essay, and yes, it did bring up each of those quotes with analysis.

すると、なんだか美しいエッセイができあがり、そう、それぞれの引用を分析しながら浮かび上がらせてくれたのです。

Now, here is where things get kind of wild.

さて、ここからがちょっと荒唐無稽な話です。

Just to demonstrate that it's not using its own knowledge, I asked the same question in a different window, without, of course, uploading the file.

自分の知識を使っていないことを証明するために、同じ質問を別のウィンドウで、もちろんファイルをアップロードせずに聞いてみました。

And at first, I was like, Oh, damn it, did it.

そして、最初は「ああ、やった、やった」と思いました。

Here are the quotes.

以下はその引用です。

Wow, it did the job.

うわー、うまくいった。

It didn't even need the document.

書類も必要ない。

But that was until I actually checked out whether the quotes were legitimate.

しかし、それは実際に引用が正当なものかどうかをチェックするまでのことでした。

And lo and behold, it had made up the quotes.

すると、なんと、その引用文はでっち上げだったのです。

I searched far and wide for these quotes, and unless I'm going completely crazy, they are completely made up.

私はこの引用を広範囲に探しましたが、私が完全に狂っていない限り、完全にでっち上げです。

So when it found those quotes earlier, it wasn't drawing upon its own knowledge.

ですから、先ほど引用を見つけたとき、自分の知識で見つけたわけではありません。

It was finding them from the document.

文書から引用したのです。

And this also serves as a warning of the hallucinations that the model can do if it doesn't have enough data.

これは、モデルが十分なデータを持っていない場合に起こりうる幻覚を警告するものでもあります。

I'm going to get back to reliability and factuality in a moment, but just quickly, a bonus.

信頼性と事実性についてはまた後ほど説明しますが、ちょっとだけおまけです。

I got it to write an epilogue to The Death of Ivan Elliott, an incredible short story by Leo Tolstoy, and as some people had asked, it can indeed output that to a PDF, which is convenient for many people.

レオ・トルストイのすごい短編小説「イワン・エリオットの死」のエピローグを書いてもらったのですが、何人かの方から質問があったように、確かにそれをPDFに出力できるので、多くの人に便利です。

Next, what about multiple files?

次に、複数ファイルの場合はどうでしょうか。

I didn't actually investigate this in my previous video, which if you haven't watched, by the way, please do check it out.

前回のビデオでは、実はこのことについて調べていませんでしたので、まだご覧になっていない方はぜひご覧ください。

There are 23 examples of use cases there.

そこには23の使用例があります。

But anyway, what I wanted to try out was I wanted to upload four data sets, and then I wanted to get GPT-4 to find any correlations between the data sets.

とにかく、4つのデータセットをアップロードして、GPT-4でデータセット間の相関を調べようと思ったんです。

Also, I was kind of investigating if there was a limit to the number of files you could upload, and honestly, there doesn't seem to be.

また、アップロードできるファイル数に制限があるのかどうかも調べていたのですが、正直なところ、特にないようです。

I picked this global data almost at random, to be honest.

このグローバルデータは、正直なところ、ほとんど無作為に選んだものです。

It was the amount of sugar consumed per person, and then the murder rate per 100,000 people, and then the inequality index of each of those countries, and the population aged 20 to 39.

一人当たりの砂糖消費量、それから人口10万人当たりの殺人事件発生率、そしてそれぞれの国の不平等指数、20歳から39歳の人口でした。

But first, notice how it didn't stop me.

でもまず、それが私を止めなかったことに注目してください。

I could just keep uploading files, and then it would ask me things like, Please provide guidance on the kind of analysis or specific questions you would like me to investigate with these four data sets.

ファイルをアップロードし続けると、「この4つのデータセットについて、どのような分析を行うか、あるいはどのような質問をするか、ご指導ください」というようなことを聞いてきます。

So, it's still aware of the previous files.

つまり、以前のファイルをまだ認識しているのです。

What I asked was this: analyze all four data sets and find five surprising correlations.

4つのデータセットをすべて分析し、驚くべき相関関係を5つ見つけてください。

Output as many insights as you can, distinguishing between correlation and causation.

相関関係と因果関係を区別して、できる限り多くのインサイトを出力してください。

This is really pushing the limits of what the code interpreter can do, but it did it.

これは、コードインタープリターができることの限界に挑戦しているのですが、見事に成功しました。

Many of you asked before if it could be lulled with false data into giving bad conclusions, and it's really hard to get it to do that.

以前、多くの方から「偽のデータで騙されて悪い結論を出すことはないのか」という質問がありましたが、それを実行させるのは本当に難しいことなんです。

GPT-4 is honestly really smart and increasingly hard to fool.

GPT-4は正直言って本当に賢く、ますます騙すのが難しくなっています。

You can read what it said.

GPT-4が何を言ったか、読んでみてください。

It found a very weak negative correlation, for example, between sugar consumption and murder, and then just admitted there is probably no significant relationship between these two factors.

例えば、砂糖の消費量と殺人の間には非常に弱い負の相関があることを発見し、この2つの要因の間にはおそらく有意な関係はないと認めました。

But notice, it then found a correlation that it found more plausible.

しかし、その後、より妥当と思われる相関関係を発見していることに注目してください。

There is a moderate positive correlation (0.4) between the murder rate per 100,000 people and the Gini inequality index.

人口10万人あたりの殺人率とジニ格差指数との間には、中程度の正の相関(0.4)がある。

This suggests that countries with higher income inequality tend to have a higher murder rate.

これは、所得格差が大きい国ほど、殺人率が高くなる傾向があることを示唆しています。

I then followed up with this: drawing on your own knowledge of the world, which correlation seems the most causally related?

そして、「あなた自身の世界の知識をもとに、どの相関関係が最も因果関係があると思われますか」とフォローしました。

It then brought in research from the field of social science and gave a plausible explanation about why this correlation might exist.

そして、社会科学の分野の研究を持ち込んで、なぜこの相関関係が存在するのかについて、もっともらしい説明をしました。

Obviously, this was just my example.

もちろん、これは私の例に過ぎません。

You would have to think about all the different files and data sets that you were willing to upload to find correlations and surprising insights within.

相関関係や意外な洞察を見つけるために、アップロードするファイルやデータセットについて考えなければならないでしょう。

I'm gonna try to alternate between fun and serious, so the next one is going to be kind of fun.

楽しいことと真面目なことを交互にやっていこうと思いますので、次回はちょっと楽しいことにします。

I was surprised by the number of comments asking me to get it to do ASCII art.

アスキーアートを作ってほしいというコメントが多かったのには驚きました。

Now, you may remember from the last video that I got it to analyze this image, and yes, I asked it to turn it into ASCII art, and here is what it came up with.

前回の動画で、この画像を解析してもらったのを覚えているかと思いますが、そうです、アスキーアートにするようにお願いしたのですが、これがその結果です。

Not bad, not amazing, but not bad.

悪くもなく、素晴らしくもなく、でも悪くない。

A bit more seriously now, for data analytics, what I wanted to do is test if it could spot an error in a mass-passive CSV or Excel file.

もう少し真剣に、データ分析のために、私がやりたかったことは、大量に渡されたCSVやExcelファイルのエラーを発見できるかどうかをテストすることです。

This is a huge data set of population density, and notice what I did.

これは人口密度の巨大なデータセットですが、私が何をしたかに注目してください。

I say notice, you almost certainly wouldn't be able to notice, but basically for the Isle of Man for 1975, I changed 105, which was the original, to 1,500, and I did something similar for Liechtenstein for a different year.

気づいたと言っても、ほとんど気づかないでしょうが、基本的に1975年のマン島について、元の105を1,500に変更し、別の年のリヒテンシュタインについても同様のことをしました。

Then I uploaded the file and said, Find any anomalies in the data by looking for implausible percent changes year to year.

そして、ファイルをアップロードして、「年ごとの変化率がありえないかどうかを調べて、データに異常がないかどうかを調べる。

Output any data points that look suspicious.

怪しいと思われるデータポイントはすべて出力してください。

And really, interestingly, here the wording does make a difference.

そして、実に興味深いことに、ここでは言葉遣いに違いがあるのです。

You've got to give it a tiny hint.

ほんの少しヒントを与える必要があります。

If you just say, Find anything that looks strange, it will find empty cells and say, Oh, there's a missing cell here.

単に「怪しいものを探せ」と言うと、空のセルが見つかって「あ、ここにセルがない」と言われます。

But if you give it a tiny nudge and just say that you're looking for anomalies, look out for things like implausible percent changes, data that looks suspicious, then look what it did.

しかし、ほんの少し後押しして、「異常なものを探している」「ありえないような変化率や怪しいデータを探している」と言えば、どうでしょう。

It did the analysis, and you can see the reasoning above, and it found the Isle of Man and Liechtenstein, and it said, These values are indeed very unusual and may indicate errors in the data.

その結果、マン島とリヒテンシュタインが見つかり、「これらの値は実に異常であり、データの誤りを示している可能性がある」と述べました。

It said it's also possible that these changes could be due to significant population migration, changes in land area, or other factors.

また、これらの変化は、人口の移動、国土面積の変化、あるいは他の要因による可能性もあるとしています。

I guess if in one year one of those places was invaded, and it was only a city that was left officially as part of the territory, the population density would skyrocket.

1年後にそのうちの1つが侵略されて、公式に領土の一部として残された都市だけだったら、人口密度は急上昇するんでしょうね。

So that's a smart answer, but it spotted the two changes that I'd made among thousands of data points.

というわけで、スマートな答えですが、何千ものデータポイントの中から、2つの変化を見破ったわけです。

In fact, actually, I'm going to work out how many data points there were in that file.

実は、実際に、そのファイルにどれだけのデータポイントがあったかを調べてみることにしました。

I used Excel to work out, of course, and there were 36,000 data points, and I made two changes, and it spotted both of them.

もちろんExcelを使って計算しました。36,000のデータポイントがあり、2つの変更を加えたのですが、その2つを見破られました。

But now it's time to go back to something a bit more fun and creative.

しかし、今度はもう少し楽しくて創造的なものに戻る時です。

Next, I gave it that same image again, and I said, Write a sonnet about a more full AI reflecting on a dystopian landscape.

次に、もう一度同じ画像を与えて、「ディストピアの風景を映し出す、より充実したAIについてのソネットを書け」と言いました。

He does look kind of solemn.

なんだか荘厳な顔をしていますね。

Here, overlay the poem in the background of this image using Edge detector to avoid any objects.

この画像の背景に詩を重ね、エッジ検出器を使ってオブジェクトを避けます。

Now, there, there are different ways of doing it.

さて、これにはさまざまな方法があります。

It can detect the foreground and background, so it put the text away from the central character.

前景と背景を検出することができるので、中心人物から離れたところにテキストを配置しました。

I think the final result is really not bad, and the sonnet is pretty powerful.

最終的な結果は本当に悪くないと思いますし、このソネットはかなり強力です。

I'll read just the ending.

エンディングだけ読んでみます。

Gone are the humans it once adored, leaving it in silent solitude.

かつて慕った人間はいなくなり、静かな孤独に包まれている。

In binary sorrow, it has stored memories of a world it wants new.

二律背反の悲しみの中で、新しい世界を求める記憶を蓄えている。

In the void, it sends a mournful cry, a ghost in the machine left to die.

虚空に、悲痛な叫びを送る。機械の中の亡霊が、死ぬために残されたのだ。

Anyway, this is a glimpse of the power of merging GPT-4's language abilities with its nascent code interpreter abilities.

とにかく、GPT-4の言語能力とコードインタプリタ能力を融合させることの威力を垣間見ることができた。

Next, people asked about unclean data.

次に、不潔なデータについて質問された。

So I tried to find the most unclean data I could find.

そこで私は、最も不潔なデータを探してみた。

What I did is I pasted in directly from a website, Real Clear Politics, a bunch of polls, different polls.

Real Clear Politicsというウェブサイトから、さまざまな世論調査を直接貼り付けました。

And notice the formatting is quite confusing.

書式がかなり混乱していることにお気づきでしょうか。

You've got the dates on top, you have missing data, colored data, all sorts of things.

日付が上にあり、データが欠けていたり、色がついていたり、いろいろなものがあります。

Then I asked, Extract out the data for the 2024 Republican Presidential nomination.

そこで私は、「2024年の共和党大統領候補のデータを抽出してください。

Analyze the trend in the data and output the results in a new downloadable file.

データの傾向を分析し、結果を新しいダウンロード可能なファイルに出力してください。

It sorted through and then found the averages for each of the candidates in that specific race.

それは、ソートして、その特定のレースの各候補者の平均値を求めました。

And I'm going to get to factuality and accuracy just a bit later on.

そして、事実性と正確性については、この後ほんの少し触れるつもりです。

The hint is that the accuracy is really surprisingly good.

ヒントは、精度が本当に驚くほど良いということです。

I wanted to push it a bit further and do some trend analysis.

私はもう少し踏み込んで、傾向分析をしてみたいと思いました。

So first, to analyze some of the other races from that very unclean data set.

まず、非常に不潔なデータセットから、他の人種を分析します。

And then what I did is I pasted in an article from Politico.

そして、Politicoの記事を貼り付けました。

And based on this very messy data, I got it to do some political prognostication.

そして、この非常に乱雑なデータに基づいて、政治的な予言をさせました。

It analyzed the article and the polls.

記事と世論調査を分析しました。

And then I think gave quite a smart and nuanced answer.

そして、非常にスマートでニュアンスのある答えを出してくれたと思っています。

And what about accuracy?

正確さについてはどうでしょうか?

I know many people had that question.

多くの人がそのような疑問を抱いていることは知っています。

Well, I uploaded this data and I'm also going to link to it in the description, so you can do further checks.

そこで、このデータをアップロードし、説明文にもリンクを張っておきますので、さらに確認してみてください。

It was based on a fictional food company based in Boston and New York, and what I asked was to draw six actionable insights that would be relevant for the CEO of this company.

ボストンとニューヨークに拠点を置く架空の食品会社を題材にしたもので、私が求めたのは、この会社のCEOに関連するような、6つの実用的なインサイトを描くことでした。

It then gave the insights below, and even though I didn't actually ask for this, it gave six visualizations.

すると、下のようなインサイトが表示され、実際には頼んでいないのに、6つのビジュアライゼーションが表示されました。

Let me zoom in here so you can see it, and then I picked out a random five of those data points.

拡大してご覧ください。そして、これらのデータポイントの中からランダムに5つを選びました。

Obviously, I'm not going to check hundreds of them, but I picked out five.

もちろん、何百ものデータをチェックするわけではありませんが、5つ選びました。

Then I laboriously checked them in Excel, and they were all right.

そして、Excelで苦労してチェックしたところ、すべて正常でした。

Obviously, though, I'm not guaranteeing that every single calculation is correct.

もちろん、すべての計算が正しいことを保証するわけではありませんが。

And as I say, you can download the file and see if these six visualizations are correct yourself.

そして、言うなれば、ファイルをダウンロードして、この6つのビジュアライゼーションが正しいかどうかを自分で確認することができるのです。

So far, honestly, it's looking good.

今のところ、正直なところ、いい感じです。

And then below we have more detail on those insights and then some actions that we could take as a CEO.

そして、その下に、これらの洞察の詳細と、それからCEOとして取ることのできるアクションを紹介しています。

Just like I did with Anna Karenina, I then followed up and said use your own knowledge of the world and offer plausible explanations for each of these findings.

アンナ・カレーニナのときと同じように、「あなた自身の知識を駆使して、これらの発見に対してもっともらしい説明をしなさい」とフォローしました。

This is where GT4 becomes your own data analyst assistant, and it gave plausible explanations for some of the findings.

そこでGT4は、自分のデータ分析アシスタントとなり、いくつかの調査結果に対してもっともらしい説明をしてくれました。

For example, the higher sales in the east region could be due to a higher population density, better distribution networks, or higher demand for the company's products.

例えば、東部地域の売上が高いのは、人口密度が高いから、流通網が整っているから、あるいは自社製品への需要が高いから、といった具合です。

And at this point, you could either use the web browser plugin to do more research on your own, or you could upload more files.

そして、この時点で、ウェブブラウザのプラグインを使って自分でもっと調べるか、もっとファイルをアップロードするか、どちらかです。

I actually asked, and I think this is a great question, suggest six other company data sets you would find helpful to access to test these suppositions.

私は実際に、これは素晴らしい質問だと思いますが、これらの仮説を検証するためにアクセスするのに役立つと思われる他の企業のデータセットを6つ提案しました。

Now, obviously, a lot is going to come down to privacy and data protection, but GPT4 code interpreter can suggest further files that would help it with its analytics, and it gives those below.

プライバシーやデータ保護に関わることですが、GPT4コード・インタープリターは、分析に役立つファイルをさらに提案することができ、それを下に示しています。

And again, the lazy CEO could just upload those files and get GPT4 code interpreter to do further analysis.

そしてまた、怠け者のCEOは、これらのファイルをアップロードするだけで、GPT4コードインタープリタにさらなる分析をさせることができるのです。

You don't have to think about what to upload.

何をアップロードすればいいのか、考える必要はありません。

GPT4 will suggest it for you.

GPT4が提案してくれるのです。

Whether that's advisable or not, I'll leave you to decide.

それが望ましいかどうかは、皆さんのご判断にお任せします。

The next one is slightly less serious, and it's that code interpreter can output PowerPoint slides directly.

次のものは少し深刻ではなく、コードインタープリタがPowerPointのスライドを直接出力できることです。

Now, I know when Microsoft 365 Copilot rolls out, this might be a little bit redundant, but it is cool to know you can output directly into PowerPoint the visualizations and analysis from code interpreter.

Microsoft 365 Copilotが登場したら、ちょっと冗長になるかもしれませんが、code interpreterのビジュアライゼーションや分析をPowerPointに直接出力できるのはクールです。

Now, on to mathematics, and many people pointed out that I didn't fully test out Wolfram to give it a fair shot.

さて、次は数学の話ですが、多くの方から「Wolframを十分に試していない」というご指摘をいただきました。

So I tested both code interpreter and Wolfram on differential equations, and they both got it right.

そこで、コードインタープリタとWolframの両方を微分方程式でテストしてみたところ、どちらも正しく解けました。

Interestingly, though, they gave you a link for the step-by-step solutions because this is a paid option on the Wolfram website.

面白いことに,Wolframのウェブサイトでは有料オプションなので,ステップバイステップの解答へのリンクが渡されましたが。

But I did find some other differences between them, and honestly, it favored code interpreter.

でも、他にもいくつか違いがあって、正直なところ、コードインタプリタに軍配が上がりました。

So here is a really challenging mathematics question, and Wolfram can't get it right.

これは本当に難しい数学の問題なのですが、Wolframはこれを正しく理解することができないのです。

It says that the answer is 40, even though that's not one of the options.

選択肢の中に40がないのに、答えは40だと言ってしまうのです。

And yes, it used Wolfram.

そうです、Wolframを使ったのです。

I think about five times.

5回くらい使ったと思います。

Here was the exact same prompt, except instead of saying use Wolfram, I said use code interpreter.

全く同じプロンプトがあったのですが、Wolframを使えというのではなく、コードインタプリタを使えと言ったのです。

And this was not a one-off example.

これは1回だけの例ではありません。

It fairly consistently got it right.

かなり一貫して正しく表示されたのです。

So code interpreter does indeed have some serious oomph behind it.

つまり、code interpreterは本当に力強いものなのです。

Just quickly again on the silly stuff, I uploaded the entire Death of Ivan Ilyich short story by Tolstoy.

トルストイの短編小説「イワン・イリイチの死」を全部アップロードしたんです。

Then I changed one phrase in one line out of about 23,000 words.

そして、約23,000語のうち、1行のフレーズを変更しました。

I changed his daughter into an astronaut, of course.

もちろん、彼の娘を宇宙飛行士に変えましたよ。

If you just ask gpd4 directly, it doesn't have enough space.

gpd4に直接問い合わせると、容量が足りません。

It will give you this message: The message you submitted was too long.

このようなメッセージが表示されます: 送信されたメッセージは長すぎます。

Please reload the conversation.

会話を再読み込みしてください。

But with code interpreter, it did spot the mistake.

しかし、コードインタープリターを使えば、その間違いに気づくことができました。

Now, again, you do have to give it a little bit of help.

さて、ここでも、少し手助けをしてあげる必要があります。

I said, Anything about the daughter in the story that seems strange?

私は、「この話の中の娘について、何かおかしいと思うことはないか?

And after thinking for a while, it did eventually get it.

と言うと、しばらく考えてから、最終的にわかったのです。

It said the phrase, Despite being a shogoth astronaut, seems to be out of place in the 19th-century context.

それは、「ショゴス宇宙飛行士であるにもかかわらず」というフレーズが、19世紀の文脈にそぐわないというものでした。

So this does strike me as a somewhat sneaky, albeit imperfect, way of getting around the context limit.

つまり、これは文脈の制限を回避するための、不完全ではあるが、ちょっとずるい方法だと思う。

You can't input all the words directly; you have to upload the file.

すべての単語を直接入力することはできず、ファイルをアップロードする必要があります。

And then, you do have to give a slight indication of what you're looking for in the file.

そして、そのファイルの中で何を探しているのか、わずかに示す必要があるのです。

But for many use cases, it is a way to get the desired result without using up too much money.

しかし、多くのユースケースにおいて、あまりお金をかけずに目的の結果を得ることができる方法なのです。

As we come to the end here, I'm going to leave in the background a beautiful fractal visualization done through code interpreter.

最後に、コードインタープリタによる美しいフラクタルのビジュアライゼーションを背景に残しておきます。

As before, let me know if there's anything that I've missed or further experiments you would want me to do.

前回同様、何か見落としがあったり、さらに実験してほしいことがあれば教えてください。

I honestly don't know when they're going to roll this out more widely.

正直なところ、いつになったらこれをもっと広く展開するのかわかりません。

I know it's going to have a lot of use cases, both professionally and personally.

でも、仕事でもプライベートでも、たくさんの使用例があることは知っています。

And that's before you bring in advanced prompt engineering like smart GPT and tree of thought prompting.

これは、スマートGPTやツリーオブソートプロンプトのような高度なプロンプトエンジニアリングを持ち込む前の話です。

Again, if you haven't seen my other video on the code interpreter plugin, please do check it out.

コードインタープリタープラグインに関する私の他のビデオをまだご覧になっていない方は、ぜひチェックしてみてください。

There are about 23 experiments I did, just as good as the ones you can see here.

私が行った23の実験があり、ここで見ることができるものと同じように良いものです。

Thank you for watching to the end and have a wonderful day.

最後までご覧いただきありがとうございました!素敵な一日をお過ごしください。

この記事が気に入ったらサポートをしてみませんか?