![見出し画像](https://assets.st-note.com/production/uploads/images/100635018/rectangle_large_type_2_bad6da8858fb631d9eeecede359af361.png?width=800)
次世代検索エンジンBingに搭載されているAIはGPT-4でした
うわさのBingにGPT-4搭載説を聞いてみました
AI搭載の次世代検索エンジンであるBingですが、GPT-4を搭載しているという噂があります。
以前にBingで検索した時は非公開とされていましたが、
今回再度Bingに聞いてみました。
Bingに搭載されるAIは、マイクロソフトが開発したBing AIというものです。Bing AIは、次のような特徴を持っています。
1・検索ブラウザ上でチャットAIに対して質問をすることができる
2・より優れた検索、より完全な回答、新しいチャット体験、コンテンツ生成機能を提供する
3・OpenAIの次世代言語モデルGPT-4を採用し、検索専用にカスタマイズされた強力なAIモデルで稼働する
4・有害なコンテンツから防御するためのセーフガードを意図的に導入する
Bing AIはまだプレビュー版ですが、今後も進化していく予定です。😊
やはりGPT-4が搭載されていました。
噂は本当だったようですね。
コレによって何が変わるのでしょうか?
ひとつだけ気がついたことがあります。
それは、チャット画面で質問できる回数が8回から15回へ変わっています。
![](https://assets.st-note.com/img/1679199420869-yO7MHtn0qN.png)
GPT-4のキャパの大きさからくるものでしょうか。
かなり深掘りして検索できそうです。
GPT-3.5からGPT-4変更で何が変わるのか
Bingの搭載AIがGPT-3.5からGPT-4へ変わって何が
これもBingに直接聞いてみます。
BingはGPT-3.5からGPT-4に変わって、以下のような変化があります。
1・GPT-4はGPT-3.5よりも大規模なモデルで、より複雑なタスクを処理できる能力が向上しました。
2・GPT-4はGPT-3.5よりも新しいデータセットで学習されており、最新の情報やトレンドに関する知識がより豊富になりました。
3・GPT-4はGPT-3.5と比較して、ゼロショット学習(訓練データで見たことないタスクに対しても適応できる能力)や文法や事実に関する誤りの軽減などが改善されました。
4・GPT-4はGPT-3.5と比較して、音楽やアートなどの創作系の質問にも柔軟に対応できるようになっており、創造性が高まりました。
5・GPT-4はGPT-3.5と比較して、プライバシー保護やセキュリティ機能が向上しており、ユーザーのデータをより安全に扱い、信頼性が向上しました。
6・GPT-4はGPT-3.5と比較して、画像に関する質問にも対応できるようになっており、テキストだけでなく画像も入力として使えるようになりました。
以上のように、BingはGPT-3.5からGPT-4に変わって多くの点で進化しました。😊
複雑な処理をこなして新しい情報も取り入れることでAIの弱点である
過去情報だけの学びから抜け出しそうです。
また、知らない処理に対応できて誤りも軽減するということから
突拍子もない回答が変えることも減りそうです。
画像が入力できて創造性が増したという部分はいちばんGPT-4の能力を
表している部分ですね。
GPT-4はチャットだけだったAIをマルチモーダル化しました。
マルチモーダルは複数のデータ形式に対応するという意味ですが
言葉だけでなく画像や動画など様々な形で情報をやり取りできるようになりました。
マルチモーダルでどんなことができるのか
Bingに聞いてみます。
マルチモーダル情報処理の応用例は、以下のようなものがあります。
1・防犯カメラやセキュリティシステムで、映像だけでなく音声や騒音などの情報も組み合わせて、迷惑行為や危険行動を検出する。
2・フリマアプリやマッチングアプリで、画像やテキストだけでなくメタデータやユーザー情報などの情報も組み合わせて、偽物や詐欺を検出する。
3・ロボットやAIアシスタントで、画像や音声だけでなく触覚や嗅覚などの情報も組み合わせて、人間の感情やニーズを認識する。
4・アートやエンターテインメントで、テキストから画像を生成したり、画像から音声を生成したりする。
なんか一気に人間らしい動きに見えませんか?
テキストだけの2次元から3次元に飛び出したかのようなイメージを持ちます。
身近なものでは自動車の自動運転はこのマルチモーダルAIの特徴的な事例になります。
AIが五感で情報を処理する人間に近づいている証です。
人間の身振り手振りや表情、声質などからコミュニケーションする
マルチモーダルコミュニケーションも実現するのではないでしょうか。
テキストチャットでのChatGPTの凄さが話題になってきましたが
このあたりでマルチモーダルの新しい凄さが話題になりそうです。
マルチモーダルが変える世界とは
では、そのマルチモーダルが世の中をどう変えていくのでしょうか?
Bingに聞いてみます。
マルチモーダルAIとは、複数の種類のデータを入力として、統合的に処理する深層学習の手法です。
人間が五感を使って情報を処理するように、マルチモーダルAIは視覚、聴覚、嗅覚などの様々な情報を利用して高度な判断を行うことができます。
マルチモーダルAIは、1986年から音声や画像から言語を認識する研究が始まりました。その後、画像に対する説明文の自動生成や画像から音声の自動生成などの技術が登場しました。
現在では、ディープラーニングの発展やデータ収集・処理のコスト低減により、様々なビジネス用途にマルチモーダルAIが活用されています。
例えば、フリマアプリでは出品された商品の写真や説明文やタグから偽物を検出したり、防犯カメラでは監視映像と騒音計から迷惑行為を検出したりすることができます。これらはシングルモーダルAIでは判別困難なタスクですが、マルチモーダルAIであれば適切な認識が可能になります。
マルチモーダルAIは今後も進化し続ける技術であり、人間に近い感覚で情報を処理する能力によって新たな価値を創造していくと考えられます。
いろいろ凄いマルチモーダルAIですが、そのマルチモーダルの
Bingは検索を変えますか?
Bingでは、マルチモーダルAIを活用して、より良い検索体験を提供することを目指しています。
例えば、検索結果には画像や動画などの視覚情報だけでなく、音声やテキストなどの聴覚情報も含まれることがあります。これらの情報を統合的に処理することで、ユーザーのニーズに応えるより適切な回答を生成することができます。
他の検索エンジンと比べて、マルチモーダルAIは以下の点で優れています。
1・ユーザーの意図やニーズをより正確に理解することができます。
例えば、登山靴の写真を撮って「富士山に登れるか」と質問した場合、マルチモーダルAIは写真から登山靴のタイプや状態を判断し、富士山の気候や地形なども考慮して回答することができます。
2・ユーザーにより多くの情報や選択肢を提供することができます。
例えば、「美しい山の景色が見られるドライブルート」を探索した場合、マルチモーダルAIは画像だけでなく動画や音声も含めた複数の候補を提示することができます。
3・ユーザーとより自然な対話を行うことができます。
例えば、「LaMDA」というマルチモーダルAIは、話題に応じて柔軟に会話を変えつつ、人間らしい応答を行うことができます。
以上のように、マルチモーダルAIは他の検索エンジンと比べてより便利で豊かな検索体験を提供する技術です。
どうもGPT-4は今までのGPT‐3.5とは別次元の世界を見せてくれそうです。
やっぱりワクワクが止まりませんね。
新しいテクノロジーを楽しむ日々が続きそうです。
大きく進化したBingにも期待しましょう。
【マガジン】レベル60から稼ぐためのヒント
【マガジン】情報書籍
【㏚】読書嫌いなあなたのための新読書法
サポート頂ければモチベーションになります。