sharp_engineer

AI関連をはじめとしたシャープ開発内容やニュースについて共有していきます。コメント、質…

sharp_engineer

AI関連をはじめとしたシャープ開発内容やニュースについて共有していきます。コメント、質問や共創のお声がけなど大歓迎です!

最近の記事

色々なライブラリでLLMを量子化してみる

研究開発本部 海老原樹 はじめにPCに言語モデルが搭載される時代になりました。シャープも LLM(大規模言語モデル)を実装したスマホを7月中旬以降に発売予定で、LLM によって留守番電話に録音された内容を要約して、利用者が要件を一目で確認できる機能を実現しています。 サイズの大きい LLM をスマホのような限られたリソースで動かすにはいくつかの方法がありますが、代表的なものは量子化です。量子化はモデルのパラメータをより少ないビットで表現することにより、いくらかの精度低下を

    • LLMを使った会話で使える映像システム with アストロデザイン

      シャープ株式会社 研究開発本部 山本智幸 アストロデザイン株式会社 遠山健一郎 はじめに大規模言語モデル(LLM)などの生成AIを利用して会話で色々なものが便利に使える世の中の実現に向けて研究に取り組んでいます。直近ではAppleからApple Intelligenceが発表され、スマホを中心により多くの人が会話で様々なタスクが実現できる将来もかなり近づいてきたかなと感じています。 さて、シャープでは家電を中心にデバイスへの生成AI搭載を検討していますが、他のデバイスも会

      • 小型LLMでマルチモーダル学習~推論を試してみた

        研究開発本部 樋口栄作 はじめに最近GPT-4oが発表され、紹介動画を見ているとAIが画像を当たり前に見て、答えるようになっていますね。一緒に散歩したり、買い物したり、ボードゲームをAIと遊ぶなんて日も遠くないのかもしれない、そんな期待のある最近のLLM界隈ですが、この画像を見て回答する、という技術は一体どうやっているのか?気になりますね。 技術を学ぶにも、手元で動かせるものがあるとやりやすい&わかりやすい、ということは往々にあるかと思います。本記事では、画像+テキストな

        • 生成系AI活用の形 絶賛提案中!    in ジャンボびっくり見本市2024

          Platform事業推進室 廣澤慶二 研究開発本部 吉田茂人 シャープでは、次々に登場する新たなAI技術をどのように社会実装していくべきか?という観点で、日々研鑽しており、今年の2月には東京ビッグサイトにて開催されたホテルレストランショーにて、ホテル客室内でのAI活用というテーマで自然対話と室内機器連携による新しいホテルライフの提案を出展致しました。 そして、この4月は、インテックス大阪と東京ビッグサイトの2か所で実施されております、ジャンボびっくり見本市2024にて、「

        色々なライブラリでLLMを量子化してみる

          LLM評価データセット概観

          研究開発本部 海老原樹 はじめにこのような記事を書くときは、最近では ChatGPT をはじめとした大規模言語モデル(Large Language Model: LLM) の力を大いに借りています。真面目な評価をしなくても、文章力において私はChatGPTに白旗を挙げています。。。 ただ、どのLLMを使うかを決めるときには、LLMの性能を調べる必要があります。特に自分でLLMを開発するときはLLMの性能評価は必須ですよね。社内でもLLMの評価について調査を進めています。今回

          LLM評価データセット概観

          GPT Storeをいろいろ使ってみた ~ビジネスにも使えるGPT~

          研究開発本部 吉田茂人 はじめにGPT Storeは、OpenAIによって先月1月10日に公開された、カスタムAIアシスタントを作成、共有できるプラットフォームです。これは「AIのためのApp Store」とも称され、ユーザーが特定のニーズや興味に合わせたGPT(Generative Pretrained Transformer)を簡単に作成できるようにすることで、AI技術のパーソナライゼーションとアクセシビリティを大幅に向上させています。このプラットフォームは、教育、プロ

          GPT Storeをいろいろ使ってみた ~ビジネスにも使えるGPT~

          こんなところに泊まりたい!!LLM+家電連携で変わるスマートなホテルとは?

          Platform事業推進部 田上文俊、中田尋経 はじめに(おそらく)はじめまして。 いきなりですが、皆さんホテルは好きですか?  私は、根っからの旅好きなので大好きな空間です。 今日のテーマは、未来のホテルライフです。 シャープのさまざまな取り組みをもとに、ホテルでのソリューション提案を紐解いていきます。 ネットワーク接続された家電ってどのくらいあるの?実はシャープは、2016年からAIoTのコンセプトを掲げ、現在までに910種類以上のAIoT家電をリリースしています。こ

          こんなところに泊まりたい!!LLM+家電連携で変わるスマートなホテルとは?

          小規模なLLMのキャラ付け能力を定量的に評価してみた

          研究開発本部 後藤裕也 はじめに近年、キャラ付けされたチャットボットが登場しています。 弊社が2023年のTECH-DAYで展示したAIアバター"サラ"[1]も「優秀で親切なアシスタント」というキャラ付けがなされています。 キャラ付けされたLLM(Large Language Model)はより人間らしい回答が可能になり、人々の日常に寄り添うパートナーになる可能性を秘めています。一方で、大規模で高性能なLLMを動作させるには高いマシンスペックが必要です。実生活での応用を考

          小規模なLLMのキャラ付け能力を定量的に評価してみた

          2024 CES探訪

          研究開発本部 伊藤、山本、海老原 はじめに 皆さん、新年おめでとうございます。本連載は今年も勢力的に続けますので、よろしくお願いいたします。 さて、シャープのAIチームの一部は今アメリカにおります。そう、CES(Consumer Electronics Show)に参加しているのです。 CES概況 CESについては、すでに多くの記事でその詳細が日本でも報道されていると思いますので、重要な発表などは皆さんも把握されていると思います。同じ内容を共有してもしょうがないので

          2024 CES探訪

          LLMと仲良くなろう:LLMの個性を知って連携する ~桃太郎ってどんな話~

          研究開発本部 塩見誠 はじめに 本稿では、我々が開発しているエッジデバイス上で動作するCE-LLMの回答精度を改善するためのアプローチについて紹介します。CE-LLMは複数のLLMがユーザーからの質問に応じて選択したり、連携したりして回答を生成する特徴があります。 今回は、その前段階としてLLMのプロンプト理解における個性を把握して、連携の可能性を探ってみます。 LLMの個性とはどういうこと LLMの特徴は、学習内容と学習量に依存してきまる回答の正確さや、信頼性などが、最

          LLMと仲良くなろう:LLMの個性を知って連携する ~桃太郎ってどんな話~

          【速報】Google Gemini Proの実力拝見

          研究開発本部 塩見誠 はじめにシリーズ投稿から外れますが、2023年12月7日にGoogleより高性能AIモデルGeminiが発表されました。 最初のバージョンであるGemini1.0はUltra、Pro、Nanoの3つのサイズに最適化されていて、Bardにおいて一部のProの機能を試すことができます。 Geminiはマルチモーダルに対応しており、多くの新しい機能を提供していますが、今回はLLMとしての性能をBardでチェックしました。(この記事は、2023年12月7日時点

          【速報】Google Gemini Proの実力拝見

          小さくて速いLLMを作りたい ~LLM-Prunerを使ってLlama2-7b-chatをプルーニングしてみた~

          研究開発本部 鈴木拓矢 はじめに現在、シャープでは家電や小型デバイスで動くLLM(Large Language Model)の実現に向けて、CE-LLM(Communication Edge-Large Language Model)の開発を進めています。本記事では、CE-LLMと関連性が深い重要技術であるプルーニング技術について紹介します。 プルーニングとは、ニューラルネットワークのニューロン(重み)を削除してメモリと計算量を削減する技術です。プルーニングの概要はこちらの

          小さくて速いLLMを作りたい ~LLM-Prunerを使ってLlama2-7b-chatをプルーニングしてみた~

          LLMキャラ付けファインチューニング:プロンプトエンジニアリングとの比較

          研究開発本部 海老原樹 はじめにエッジデバイスで動作するLLM(Large Language Model)に関する、シリーズ記事の第二回目は、LLMのファインチューニングについてです。ChatGPTやLLMを触ったことのある皆さんの中には、もっと賢くしたい、自分好みキャラ付けしたいと思った方は多いのではないでしょうか。そんな、「LLMの出力を賢くしたり、キャラ付けする」方法の一つに、ファインチューニングがあります。 今回は実際にローカル環境でLLMのファインチューニングを

          LLMキャラ付けファインチューニング:プロンプトエンジニアリングとの比較

          ローカル環境でRAGを用いた文書生成とCTranslate2を用いた高速化

          研究開発本部 海老原樹、後藤裕也 はじめにシャープでは現在、LLM(Large Language Model)の開発、特にエッジデバイスで動作するLLM(以下、ローカルLLM)に関する様々な取り組みを行っております。本シリーズ記事ではそれらの取り組みの中から一部をご紹介させて頂きたいと考えております。(本シリーズのオープニング記事はこちら) 本シリーズ記事の第一回は、「RAG(Retrieval Augmented Generation)」についてです。LLMを外部のデー

          ローカル環境でRAGを用いた文書生成とCTranslate2を用いた高速化

          生成AIの話題が尽きません。

          研究開発本部 伊藤典男 5年後の生成AIの世界 生成AIの話題が尽きません。 皆さんは5年後、10年後がどのようになっていると思いますか? LLM(Large Language Model)の能力はデータと適切な計算機リソースがあれば、単体でも向上すると思います。機能もどんどん追加されていくと思います。 一方、単体のLLMは電力的な観点で必要以上に大きくすると、電力消費とコストとがバランスできなくなると言われておりますし、各企業が、様々な視点でLLMを設計しています。

          生成AIの話題が尽きません。