人工知能エンジンを搭載した画像生成装置が流行していることには議論の余地がありません。多くの専門家やアマチュアが精緻な説明から画像を生成し始めており、 本当に印象的な結果が得られています。

これらのジェネレーターの 1 つは Stable Diffusion で、 Mac 上でローカルにインストールして実行できるという特徴があります。このことは Apple のオフィスでも注目されており、同社の開発者はStable Diffusion をより効率的に実行できるように iOS と macOS を最適化することを決定しました。特に M1 または M2 チップを搭載した Mac では。

Apple Silicon、Core ML、そして大きな可能性

Apple は、機械学習セクションでこの発表を正式に行い、Stable Diffusion のローカルでの実行は、このジェネレーターを使って実験を行うためのよりプライベートな方法であり、サーバーを雇うコストを節約できると擁護しました。

Apple 開発者が CoreML エンジンに適用したいくつかの変更のおかげで、 iOS 16.2 と macOS 13.1 では最適化が行われています。これにより、通常は非常に長いイメージングの待ち時間が短縮されます (私は基本的なMacBook Air M2でイメージングを試しましたが、待ち時間は約 6 ~ 8 分でした)。

この時間を改善するには、これらのアップデートを待つ必要があり、今年のクリスマスに間に合うように準備する必要があります。最長でも 2 週間です。この時間がどこまで改善されるかは興味深いところです。人工知能を使用した画像の生成は非常に集中的なプロセスであり、Apple Silicon は非常に大きなメリットを得ることができます。

iOS 16.2 と macOS 13.1 は安定した拡散のために最適化されます: Apple Silicon はそれを実行するのに最適なプラットフォームになりたいと考えています・関連動画