マガジンのカバー画像

日々の学びメモ

技術的なメモやサンプルコード、思いついたアイデア、考えたこと、お金の話等々、頭をよぎった諸々を気軽に垂れ流しています。
文章やサンプルコードは多少荒削りかもしれませんが、ブログや書籍にはまだ書いていないことを日々大量に… もっと詳しく
¥400 / 月
運営しているクリエイター

#swift

MLX版ローカルLLMをiOSで動かす

Apple Siliconに最適化された機械学習フレームワークMLXには、"mlx-swift-examples" というMLX…

shu223
3日前
9

macOSオンデバイスでLLMを動かすアプリの比較 -LM studio, Ol…

iOSオンデバイスで動くLLMを試すために、LLMFarmというOSSを使ったり、その実装を見たりしてい…

shu223
4週間前
5

iOSローカルで動くLLMを試す

LLMFarmという、iOS/macOSローカルでLLMモデルを動かせるOSSがある。 これを試したときのメモ…

shu223
1か月前
9

Slack APIの絵文字名からSwiftの文字(列)を生成したい

※ 厳密にはSlack APIをたたいてるのではなく、Slackの管理画面からエクスポートしたアーカイ…

shu223
1か月前
1

Core NFCで「書き込み」の最小実装

iOS 13からNDEFの書き込みが可能になった。 数年前の話なので既に記事はたくさん出ているが、…

shu223
1か月前
2

ChatGPTに聞いて勉強になったことのメモ 2024年1月〜2月

「個別の記事にするほどでもないが、どこかに書き留めておきたい」と思ったものを一定期間ごと…

shu223
1か月前
3

Nearby Interactionを久々に触ったメモ

UWBについてはNearby Interaction登場前から注目していて、WWDC20でNearby Interactionフレームワークが登場してすぐに記事を書いたりもしたが、まだ実戦投入したことはなかった。 最近ひさびさに触る機会があったので、実機で動かしてみての気付きや、改めて調べたことについて雑多にメモを書いておく。 これまでに書いたNearby Interactionの記事Nearby Interactionの情報は公式ドキュメントと過去のWWDCセッション3

Google AI SDK for Swift を試す

先日発表された Gemini API 等のGoogleの生成AIモデルをSwiftから使えるようにするSDKが公開さ…

shu223
3か月前
26

visionOSでARKitで検出したシーンのメッシュを可視化する

本記事でやりたいこと: visionOSで、ARKitのScene Reconstructionで検出したシーンのメッシュ…

shu223
3か月前
7

[visionOS] RealityKitコンテンツとのインタラクション

Appleの "Adding 3D content to your app" と題されたドキュメントに、visionOSにおけるコンテ…

shu223
4か月前
4

非公開となったWWDC17の"What's New in Core Blueto…

WWDC17のセッション動画は以下で閲覧可能、 ・・・のように一見見えるが、実は既に一部の動画…

shu223
4か月前
11

Core ML Stable Diffusionリポジトリを読み解く

Stable Diffusion の Core ML版が2022年12月に公開され、登場当初は話題になり日本語記事も多…

shu223
5か月前
7

NLEmbedding の revision 一覧

iOS 17では Natural Processing フレームワークに NLContextualEmbedding というクラスが追加…

shu223
5か月前
3

iOS/macOSで「空」をセグメンテーションするための試行錯誤

iOS/macOSで使える Object Capture API の PhotogrammetrySession を利用してフォトグラメトリを行っていて、建物や地面のメッシュ・テクスチャの復元は概ねいい感じにいけるのだが、空の部分にメッシュが生成されてしまうのが気になる。 こういうのはちゃんとしたフォトグラメトリのワークフローであれば点群やメッシュの段階できれいにするのかもしれないが、なるべくiOS/macOSのAPIを使って、自動で解決できないかなぁと。 Object