しばやん雑記

Azure とメイドさんが大好きなフリーランスのプログラマーのブログ

AI Toolkit for VS Code が macOS (Apple Silicon) に対応したので M2 MacBook Air で試した

Visual Studio Code があれば簡単に Phi-3 などの SLM が試せる AI Toolkit for VS Code を便利に使っています。x64 の Windows であれば DirectML 経由での GPU アクセラレーションにも対応しているので、高速な推論が利用できてさらに便利です。

そんな便利な AI Toolkit for VS Code ですが macOS だけサポートされていなかったため、手持ちの M2 搭載の MacBook AIr では試せなかったのですが、つい先日リリースされた v0.4.0 で Apple Silicon の macOS へのサポートが追加されていました。

Intel Mac への対応は not yet supported と書かれてはいますが、正直今後も行われないと思っています。追加で AI PC (Copilot PC) のサポートも謳われているのは気になりますね。

早速 M2 MacBook AIr で AI Toolkit を試していきます。macOS 上の VS Code で AI Toolkit を検索すると、今はインストールが出来るようになっていますので、サクッとインストールしてしまいます。

Model Catalog には Windows と同じく Mistral-7B と Phi-3 mini が表示されますので、ダウンロードすればすぐに Model Playground で試せます。

現時点では CPU で推論を行う専用のモデルのみ表示されます。M2 にも GPU や NPU 相当の Neural Engine が載っているので、その辺りを使ったアクセラレーションが有効になればかなり良いですね。

今回は Phi-3 mini 4k をダウンロードして Model Playground で試しましたが、CPU を使った推論としてはかなり速いように感じました。以前に試した Surface Laptop 4 の推論よりは数倍速いという印象を持ちました。

生成 AI の推論は CPU の性能よりもメモリ帯域の方が重要になるという話を Build 2024 で聞いたので、M2 の広いメモリ帯域がかなり活きているのかと思っています。

それを裏付けるかのように、推論実行時の CPU 使用率は 50% 弱と思ったよりも高くありません。高性能コアに負荷が偏っている可能性はありますが、思ったより負荷は低いという印象です。

とはいえ GPU / NPU でのアクセラレーションは期待したいので、このあたりはもうちょっと標準でアクセラレーションを利用できる仕組みが出来ればよいのになと思います。

ちなみに "AI PC (Copilot PC) is supported" と書いていましたが、元々 0.4.0 より前のバージョンでも使えていたのと、特に NPU が使われるようになったという訳でも無さそうでした。

そろそろ NPU に対応した DirectML が使えるようになって欲しいのですが、全然情報が出てきませんね。Phi-Silica も早く試したいのですが、こちらも SDK が公開されていないので困ります。