Tkrite inc.

株式会社ツクリテのオフィシャルノートです。 自社サービスに関連している要素技術である3…

Tkrite inc.

株式会社ツクリテのオフィシャルノートです。 自社サービスに関連している要素技術である3D、AR、機械学習、ノーコード・ローコードについての「やってみた」をメインとした記事を上げていきます。

最近の記事

Reality Composerについて検証してみた - その1 アンカーに関して

前回、NeRFで作成した3DデータをReality Composerにアップロードしてみましたが、Reality Composerの操作が思った以上に理解できず。。 今回はAR作成のためにReality Composerの操作方法について色々と試してみました。 Mac版とiOS版について Reality ComposerにはMac版とiOS版があります。プロジェクトファイルは共通して使えますが、アプリの機能に若干の違いがあります。その若干の部分に面白い違いがあるので、Ma

    • NeRFで生成したデータを3Dプリントできるデータに変換してみた

      今回はLumaAIを利用してNeRFで作成した3Dデータを3Dプリント用のデータに変換してみました。 データをOBJでサイトからダウンロードし、その後カラー3Dプリント用のモデルに変換するところまでを対応してみます。 CG目的で使うことがメインで製造目的の3Dデータ生成が目的ではないこともあり、LumaAIで撮影した3Dデータは以下の画像のように断片化されたメッシュに複数のマテリアルとそのマテリアルにアサインされたテクスチャで構成された状態のため、このまま3Dプリントするのは

      • NeRFで生成したデータをReality ComposerでARで表示してみた。

        Luma AIのNeRFで生成された3Dデータの中で自分で作成したデータはダウンロード可能です。(共有されたモデルをブラウザで見ることは他の人が作ったデータも可能です)ダウンロード可能な形式は現時点では以下の4つになります。 OBJ GLTF USDZ PLY なんとその中にはUSDZというiPadやiPhoneでそのままAR目的で使用できるデータ形式があるではないですか。 ということで今回は生成されたUSDZファイルを用いてReality Composerというi

        • NeRFで透明や光沢の物体がどの様に撮れるか試してみた

          今回はNeRFは透明のオブジェクトや光沢品も3Dデータ化できるという情報を元にどこまで撮れるか試してみました。 まずはパターン投影による3Dスキャン 今回もまずは前回と同様にパターン投影で透明部分や光沢がある部分がどの様な結果で出力されるかと比較しました。手元にある車のプラモデルがちょうど透明部分(ウインドウ)と光沢部分(ロゴやホイール)どちらもある物だったので、まずはそれを用いて実験してみました。 本来は塗装して楽しむ様なプラモデルを未塗装の状態で組み上げたというプラモ

        Reality Composerについて検証してみた - その1 アンカーに関して

          NeRFと市販の3Dスキャナーを比較してみた - その2

          今回はパターン投影で撮影しやすい物を選択し、主にスキャンデータのビジュアル面(CG)ではなくメッシュデータの状態を比較してみたいと思います。撮影対象には手元にあるマウスを選択しました。 まずはパターン投影による3Dスキャン 以下の画像がパターン投影で撮影した結果をCAD(Rhino8-WIP)で見た結果です。色校正が不十分だったのでテクスチャー色が緑方向に振れてしまいましたが、メッシュは非常にきれいに取れています。 前回のF35の模型と異なり、非常に精巧に撮ることができ

          NeRFと市販の3Dスキャナーを比較してみた - その2

          OpenAIのAPIを使ってみた

          昨年11月に公開されたChatGPT。AIが提案したものがどんなに優れた内容でも最後に選ぶのは人間なのでコピーライターや作家など文章を書く人は是非とも有効活用した方が良いサービスだと思ってます。 プロンプトに入力する形の対話形式でのチャットやコードの補完など日々の業務に取り入れることにもある程度慣れてきたのでこのテキスト補完機能を是非自社サービスにも実装してみたいと考えました。 大変ありがたいことにOpenAIが作成した学習モデルをAPIを通して利用できるため、まず第一歩とし

          OpenAIのAPIを使ってみた

          クレカ登録不要! - 機械学習を無料で学習するAWSのサービス

          機械学習を自己学習で学ぼうとすると環境構築に時間がかかったり、モデル生成にマシンパワーを要求されたりと何かと手間がかかるものです。 「ちょっと試してみたい」と思っても上記の理由からなかなか手が出ない人も多いと思います。 そんな状況の中で朗報です。AWSが無料で学習できる環境を提供しています。その名も「amazon SageMaker Studio Lab」。今から勉強したいという人は是非活用しましょう。 今回は登録から利用までの一連の流れを解説します。 最大の利点。クレカ登

          クレカ登録不要! - 機械学習を無料で学習するAWSのサービス

          画像生成AIサービスを比較してみたStable Diffusion 対 DALL•E

          画像生成AI、絵やイラストを描く人、写真を取る人。それらの人たちにとって神となるか悪魔となるか。。今回は2つの画像生成AIを試してみました。 (カバー画像はDALL•Eで作成した画像になります) Stable DiffusionとDALL・Eの共通部分 どちらの画像生成AIも入力したテキストに基づいて自然言語(英語)から画像を生成するAIになります。何らかの写真を入力情報として提供する必要がなく、短文をテキストボックスに入力するだけで3-4枚の画像を生成するという点で2つ

          画像生成AIサービスを比較してみたStable Diffusion 対 DALL•E

          NeRFと市販の3Dスキャナーを比較してみた - その1

          2022年後半にChatGPTのような多くの人が驚愕する実用的なAIが出てきましたが、3D技術関連でもブレイクスルーとなる機械学習関連の技術が表出してきました。 その名もNeRF(Neural Radiance Fields) 3次元空間のオブジェクトや地形を表現するためのニューラルネットワークモデルとのことです。 NeRFは、入力としての2D画像とその画像に対応する3次元的な位置との対応関係を学習し、学習したNeRFモデルは新しい画像を入力したときにその画像に対応する3D表

          NeRFと市販の3Dスキャナーを比較してみた - その1