shu223

フリーランスiOSエンジニア。エンジニアと人生コミュニティ運営。YouTube・Pod…

shu223

フリーランスiOSエンジニア。エンジニアと人生コミュニティ運営。YouTube・Podcastパーソナリティ。著書「iOS×BLE」「Metal入門」「実践ARKit」「iOSデプス詳解」他。GitHubでさまざまなOSSを公開。

ウィジェット

マガジン

  • 日々の学びメモ

    技術的なメモやサンプルコード、思いついたアイデア、考えたこと、お金の話等々、頭をよぎった諸々を気軽に垂れ流しています。

  • #エンジニア 系記事まとめ

    • 1,109本

    noteに投稿されたエンジニア系の記事のまとめ。コーディングTIPSよりは、考察や意見などを中心に。

  • #WWDC24 の勉強メモ

    WWDC 2024やiOS 18, visionOS 2についてセッションやサンプルを見つつ勉強したことを記事にしていくマガジンです。 NDAの都合上、Apple Developer Program にご登録している方以外は購読をお控えください。また同じ会社内であっても回し読み(内容の共有)はお控えください。

  • #WWDC23 の勉強メモ

    WWDC 2023やiOS 17についてセッションやサンプルを見つつ勉強したことを記事にしていくマガジンです。また昨年キャッチアップをお休みしたWWDC22についてもこちらに投稿していきます。 NDAの都合上、Apple Developer Program にご登録している方以外は購読をお控えください。また同じ会社内であっても回し読み(内容の共有)はお控えください。

  • フリーランスの収益公開シリーズ全部入りパック

    2019年1月〜6月にかけて書いていたフリーランスの収益公開シリーズの記事全部入りパックです。 おまけとして、2021年〜の株式投資や不労所得(非労働集約売り上げ)の集計結果の記事も追加しています。

  • 【エンジニアのための発信講座】#1 発信をはじめ…
  • 【エンジニアのための発信講座】#2 ネタの見つけ…
  • 【エンジニアのための発信講座】#3 発信を習慣化…

最近の記事

  • 固定された記事

フリーランス単価の変遷を公開する

先ほど「フリーランスエンジニアがコード書いて稼げる上限」という記事を書きました。で、その話をするにあたって、自分の今の単価はいくらか、その前はいくらだったのか、みたいな具体的な数字を書くと参考値になるかなと思ったので2013年〜現在の単価の変遷をこちらで公開してみます。「なぜその値段に設定したのか?」という理由つき。 購入者の皆様の声: ※デリケートな内容なので、ご購入いただいた方はここで知った情報は内緒にしておいてくださいね。回し読みもご容赦ください。。

有料
1,500
    • PyTorch MPS バックエンドの改良点 #WWDC24

      WWDC24のセッション "Train your machine learning and AI models on Apple GPUs" を見たメモ。 "PyTorch improvements" パートで紹介されていた、PyTorch MPSバックエンドに関する部分を抜粋してまとめる。

      • "What’s new in Create ML" を見たメモ

        WWDC24のセッション "What’s new in Create ML" を見たメモ。

        • MLComputePlan APIを使ってみた

          下記記事に書いたやつを使ってみた。 なおWWDC24のセッションでNEWと発表されていたが、iOS 17.4, macOS 14.4, watchOS 10.4から利用できる。つまりベータではなく今すぐ正式版が利用できる。

        • 固定された記事

        フリーランス単価の変遷を公開する

        マガジン

        • 日々の学びメモ
          ¥400 / 月
        • #エンジニア 系記事まとめ
          1,109本
        • #WWDC24 の勉強メモ
          18本
          ¥800
        • #WWDC23 の勉強メモ
          25本
          ¥980
        • フリーランスの収益公開シリーズ全部入りパック
          10本
          ¥1,280
        • visionOSの勉強メモ
          8本
          ¥500

        記事

          iOS 18でのMapKitの新機能 #WWDC24

          この記事はマガジンを購入した人だけが読めます

          iOS 18でのMapKitの新機能 #WWDC24

          マガジン限定

          "What’s new in DockKit" のまとめ #WWDC24

          DockKitは、iOS 17で追加されたフレームワークで、対応デバイスが今年に入ってやっと発売されたところ。 こうやってiPhoneとペアリングして、 あとはiPhoneをドッキングするだけで、 ドックが自動的に動いて被写体をフレームに収めてくれる、というもの。 たったこれだけのことではあるが、かなり色々な用途に使える: なおiOS 17までのDockKitフレームワークについてはこちらの記事に詳しい そんなDockKitの新機能について解説したWWDC24のセ

          "What’s new in DockKit" のまとめ #WWDC24

          ロック画面からのカメラ起動における制約とデータ永続化の方法 - Locked Camera Capture Extension その2

          WWDC24のセッション "Build a great Lock Screen camera capture experience" を見たメモ ロックを解除する必要すらなく、アクションボタン、コントロールセンター、ロック画面からカメラ(サードパーティーアプリの撮影機能)を起動できる、という熱い新機能についてのセッション。 前回記事ではLocked Camera Capture Extensionとそのライフサイクルについて書いた: 本記事では、Locked Camer

          ロック画面からのカメラ起動における制約とデータ永続化の方法 - Locked Camera Capture Extension その2

          ロック画面から撮影機能を起動する - Locked Camera Capture Extension #WWDC24

          WWDC24のセッション "Build a great Lock Screen camera capture experience" を見たメモ iOS 18から可能になった、iPhoneのロック画面やアクションボタンからサードパーティアプリの撮影機能を起動できるようになった件について解説するセッション。 セッションのアジェンダGreat capture experiences Lifecycle of a capture extension Running on a

          ロック画面から撮影機能を起動する - Locked Camera Capture Extension #WWDC24

          【Core ML】 coremltools 8 / iOS 18の新しいモデル圧縮手法 #WWDC24

          WWDC24のセッション "Bring your machine learning and AI models to Apple silicon" のセッション内で、Core MLモデルのさまざまな最適化手法について解説されている。 本記事ではその中の「モデル圧縮」についてまとめる。 なおセッション全体の概要はこちら: モデル圧縮の重要性ローカルLLMやCore ML版Stable DiffusionをiOSデバイスで動かすことを試みているときにこの課題は強く感じた。

          【Core ML】 coremltools 8 / iOS 18の新しいモデル圧縮手法 #WWDC24

          "Bring your machine learning and AI models to Apple silicon"セッション概要 #WWDC24

          WWDC24のセッション "Bring your machine learning and AI models to Apple silicon" のセッションについて。 本セッションのスコープCore MLモデルをデプロイするワークフローにTrain(学習), Prepare, Integrate(アプリへの組み込み)があるとして、 本セッションでは "Prepare" 段階にフォーカスして、多くの最適化手法について解説する、とのこと。 TrainをiOSエンジニアで

          "Bring your machine learning and AI models to Apple silicon"セッション概要 #WWDC24

          iOS 18, visionOS 2のVisionフレームワークの新機能

          WWDC24のセッション "Discover Swift enhancements in the Vision framework" を見たメモ。 (なお当初本記事のタイトルを「VisionのiOS 18での新機能」と書いていて自分でも空目しそうになったので変更したのだが、"visionOS" ではなく "Vision" フレームワークの話です) セッションのアジェンダNew Vision API Optimize with Swift Concurrency Upd

          iOS 18, visionOS 2のVisionフレームワークの新機能

          Object Captureのエリアモード - 空間のスキャンが可能に #WWDC24

          セッション公開前の期待WWDC24の "Discover area mode for Object Capture" というセッションタイトルを見て、「エリアモード」という命名から、もしやObject Captureでオブジェクトだけではなく空間/シーンのキャプチャーを正式サポートしたのか、とWWDC初日からこのセッションの公開を楽しみにしていた。 ちなみにこちらが昨年Object Captureで空間のキャプチャーを試みたもの: やっと昨日同セッションが公開されたので見

          Object Captureのエリアモード - 空間のスキャンが可能に #WWDC24

          1行で翻訳機能を追加できる Translation API #WWDC24

          WWDC24のセッション "Meet the Translation API" を見たメモ アプリに翻訳機能を入れられますよ、というもの。iOS, iPadOS, macOSで利用可能。 フレームワークのドキュメントはこちら: 2つのオプションアプリ内で翻訳を提供するための選択肢として、以下の2つがある: Simple overlay Flexible translation 1行で書けるオーバーレイ翻訳たった1行 `translationPresentation

          1行で翻訳機能を追加できる Translation API #WWDC24

          "Bring your app’s core features to users with App Intents" を見たメモ① #WWDC24

          WWDC24のセッション "Bring your app’s core features to users with App Intents" を見たメモ

          "Bring your app’s core features to users with App Intents" を見たメモ① #WWDC24

          Transferable と IntentFile - "What’s new in App Intents" を見たメモ②

          この記事はマガジンを購入した人だけが読めます

          Transferable と IntentFile - "What’s new in App Intents" を見たメモ②

          マガジン限定

          Spotlight integration - "What’s new in App Intents" を見たメモ①

          WWDC24のセッション "What’s new in App Intents" を見たメモ セッション概要↑のはセッションページに置いてある概要テキストだが、セッション冒頭の話が「App Intentsのこれまでとこれから」を簡潔に説明していて良いなと思ったのでそちらも引用しておく↓ セッションのアジェンダSpotlight integration Entities and files Universal links Developer improvements

          Spotlight integration - "What’s new in App Intents" を見たメモ①