sharp_engineer

AI関連をはじめとしたシャープ開発内容やニュースについて共有していきます。コメント、質…

sharp_engineer

AI関連をはじめとしたシャープ開発内容やニュースについて共有していきます。コメント、質問や共創のお声がけなど大歓迎です!

最近の記事

生成系AI活用の形 絶賛提案中!    in ジャンボびっくり見本市2024

Platform事業推進室 廣澤慶二 研究開発本部 吉田茂人 シャープでは、次々に登場する新たなAI技術をどのように社会実装していくべきか?という観点で、日々研鑽しており、今年の2月には東京ビッグサイトにて開催されたホテルレストランショーにて、ホテル客室内でのAI活用というテーマで自然対話と室内機器連携による新しいホテルライフの提案を出展致しました。 そして、この4月は、インテックス大阪と東京ビッグサイトの2か所で実施されております、ジャンボびっくり見本市2024にて、「

    • LLM評価データセット概観

      研究開発本部 海老原樹 はじめにこのような記事を書くときは、最近では ChatGPT をはじめとした大規模言語モデル(Large Language Model: LLM) の力を大いに借りています。真面目な評価をしなくても、文章力において私はChatGPTに白旗を挙げています。。。 ただ、どのLLMを使うかを決めるときには、LLMの性能を調べる必要があります。特に自分でLLMを開発するときはLLMの性能評価は必須ですよね。社内でもLLMの評価について調査を進めています。今回

      • GPT Storeをいろいろ使ってみた ~ビジネスにも使えるGPT~

        研究開発本部 吉田茂人 はじめにGPT Storeは、OpenAIによって先月1月10日に公開された、カスタムAIアシスタントを作成、共有できるプラットフォームです。これは「AIのためのApp Store」とも称され、ユーザーが特定のニーズや興味に合わせたGPT(Generative Pretrained Transformer)を簡単に作成できるようにすることで、AI技術のパーソナライゼーションとアクセシビリティを大幅に向上させています。このプラットフォームは、教育、プロ

        • こんなところに泊まりたい!!LLM+家電連携で変わるスマートなホテルとは?

          Platform事業推進部 田上文俊、中田尋経 はじめに(おそらく)はじめまして。 いきなりですが、皆さんホテルは好きですか?  私は、根っからの旅好きなので大好きな空間です。 今日のテーマは、未来のホテルライフです。 シャープのさまざまな取り組みをもとに、ホテルでのソリューション提案を紐解いていきます。 ネットワーク接続された家電ってどのくらいあるの?実はシャープは、2016年からAIoTのコンセプトを掲げ、現在までに910種類以上のAIoT家電をリリースしています。こ

        生成系AI活用の形 絶賛提案中!    in ジャンボびっくり見本市2024

          小規模なLLMのキャラ付け能力を定量的に評価してみた

          研究開発本部 後藤裕也 はじめに近年、キャラ付けされたチャットボットが登場しています。 弊社が2023年のTECH-DAYで展示したAIアバター"サラ"[1]も「優秀で親切なアシスタント」というキャラ付けがなされています。 キャラ付けされたLLM(Large Language Model)はより人間らしい回答が可能になり、人々の日常に寄り添うパートナーになる可能性を秘めています。一方で、大規模で高性能なLLMを動作させるには高いマシンスペックが必要です。実生活での応用を考

          小規模なLLMのキャラ付け能力を定量的に評価してみた

          2024 CES探訪

          研究開発本部 伊藤、山本、海老原 はじめに 皆さん、新年おめでとうございます。本連載は今年も勢力的に続けますので、よろしくお願いいたします。 さて、シャープのAIチームの一部は今アメリカにおります。そう、CES(Consumer Electronics Show)に参加しているのです。 CES概況 CESについては、すでに多くの記事でその詳細が日本でも報道されていると思いますので、重要な発表などは皆さんも把握されていると思います。同じ内容を共有してもしょうがないので

          2024 CES探訪

          LLMと仲良くなろう:LLMの個性を知って連携する ~桃太郎ってどんな話~

          研究開発本部 塩見誠 はじめに 本稿では、我々が開発しているエッジデバイス上で動作するCE-LLMの回答精度を改善するためのアプローチについて紹介します。CE-LLMは複数のLLMがユーザーからの質問に応じて選択したり、連携したりして回答を生成する特徴があります。 今回は、その前段階としてLLMのプロンプト理解における個性を把握して、連携の可能性を探ってみます。 LLMの個性とはどういうこと LLMの特徴は、学習内容と学習量に依存してきまる回答の正確さや、信頼性などが、最

          LLMと仲良くなろう:LLMの個性を知って連携する ~桃太郎ってどんな話~

          【速報】Google Gemini Proの実力拝見

          研究開発本部 塩見誠 はじめにシリーズ投稿から外れますが、2023年12月7日にGoogleより高性能AIモデルGeminiが発表されました。 最初のバージョンであるGemini1.0はUltra、Pro、Nanoの3つのサイズに最適化されていて、Bardにおいて一部のProの機能を試すことができます。 Geminiはマルチモーダルに対応しており、多くの新しい機能を提供していますが、今回はLLMとしての性能をBardでチェックしました。(この記事は、2023年12月7日時点

          【速報】Google Gemini Proの実力拝見

          小さくて速いLLMを作りたい ~LLM-Prunerを使ってLlama2-7b-chatをプルーニングしてみた~

          研究開発本部 鈴木拓矢 はじめに現在、シャープでは家電や小型デバイスで動くLLM(Large Language Model)の実現に向けて、CE-LLM(Communication Edge-Large Language Model)の開発を進めています。本記事では、CE-LLMと関連性が深い重要技術であるプルーニング技術について紹介します。 プルーニングとは、ニューラルネットワークのニューロン(重み)を削除してメモリと計算量を削減する技術です。プルーニングの概要はこちらの

          小さくて速いLLMを作りたい ~LLM-Prunerを使ってLlama2-7b-chatをプルーニングしてみた~

          LLMキャラ付けファインチューニング:プロンプトエンジニアリングとの比較

          研究開発本部 海老原樹 はじめにエッジデバイスで動作するLLM(Large Language Model)に関する、シリーズ記事の第二回目は、LLMのファインチューニングについてです。ChatGPTやLLMを触ったことのある皆さんの中には、もっと賢くしたい、自分好みキャラ付けしたいと思った方は多いのではないでしょうか。そんな、「LLMの出力を賢くしたり、キャラ付けする」方法の一つに、ファインチューニングがあります。 今回は実際にローカル環境でLLMのファインチューニングを

          LLMキャラ付けファインチューニング:プロンプトエンジニアリングとの比較

          ローカル環境でRAGを用いた文書生成とCTranslate2を用いた高速化

          研究開発本部 海老原樹、後藤裕也 はじめにシャープでは現在、LLM(Large Language Model)の開発、特にエッジデバイスで動作するLLM(以下、ローカルLLM)に関する様々な取り組みを行っております。本シリーズ記事ではそれらの取り組みの中から一部をご紹介させて頂きたいと考えております。(本シリーズのオープニング記事はこちら) 本シリーズ記事の第一回は、「RAG(Retrieval Augmented Generation)」についてです。LLMを外部のデー

          ローカル環境でRAGを用いた文書生成とCTranslate2を用いた高速化

          生成AIの話題が尽きません。

          研究開発本部 伊藤典男 5年後の生成AIの世界 生成AIの話題が尽きません。 皆さんは5年後、10年後がどのようになっていると思いますか? LLM(Large Language Model)の能力はデータと適切な計算機リソースがあれば、単体でも向上すると思います。機能もどんどん追加されていくと思います。 一方、単体のLLMは電力的な観点で必要以上に大きくすると、電力消費とコストとがバランスできなくなると言われておりますし、各企業が、様々な視点でLLMを設計しています。

          生成AIの話題が尽きません。