iPhone が新世代になるたびに、変更する価値があるのかという同じ疑問が生じます。この質問に答えるには、「はい」か「いいえ」で答えられるものではないため、それぞれの特定のケースを分析する必要があります。ソーシャル ネットワークから私によく寄せられる質問 (または変更を正当化するかどうかの議論) の 1 つは、CPU が A12 よりも「わずか」 20% 高速であり、それほど悪くないというものです。そして、同じ二分法に戻ります。増加が正当化される人もいれば、そうでない人もいます。
問題は、増加した速度で CPU を測定するのは、車の最高速度で測定するようなものであるということです。そうすることで、車はただ走るだけのものではないことを忘れてしまいます。車には消費量があり、おそらく最高速度が 10Km/h 上がる「だけ」のより効率的なエンジンでも、燃料消費量は 20% 少ないことがわかります。この新しいモデルは、より快適なシート、Apple Car によるより優れたマルチメディア システムを備え、事故に対する受動的安全性評価が向上し、LTE インターネット接続が可能になります…考慮すべき要素は他にもたくさんありますが、最も重要なのは特定のタスクを実行する際のその能力。
CPU は速度以上のものであり、この基準だけで CPU を評価することは、評価に含めるべき多くの改善点の 1 つにすぎません。
アルゴリズム
A13 について直接話し始める前に、今日行われている使い古された比較を整理し、主にその公正な尺度の変化を評価できるように十分な知識をテーブルに置くことにします。 A13 について知るだけでなく、前世代との違いも理解してください。
最も重要な質問は、 「新しい A13 が 20% 高速なだけなら、なぜ A12 を搭載した XS は iPhone 11 のようにナイトモードで写真を撮影できないのですか?」です。 。シンプル: CPU のアルゴリズムと機能。これは Apple の気まぐれではありません。Apple がこの機能を実装したように、A12 には夜間写真を撮影する機能がないのです。あなたのアルゴリズムは、速度ではなく容量の点で A12 では機能しません。
アルゴリズムとは、コンピューターに何かを実行させるための一連の命令です。
夜間撮影モードの場合(具体的な例を挙げると)、さまざまな方法があります。さまざまなアルゴリズム: このモードで写真を取得するために、写真のすべてのピクセルとレンズから与えられる情報を使用して実行される計算操作。
アルゴリズム間の違いと、同じ目的を (異なるレベルの効率で) 達成するためにどのように多くのソリューションがあるのかを簡単に説明します。 (Swift で) シーケンス内のすべての数値を追加したいと想像してみましょう。次のようにすることができます:
ただし、ループを使用することもできます。
後者はより効率的なアルゴリズムです。しかし、関数型プログラミングを使用して次のことを行う場合は、さらにそうです。
var suma = array.reduce(0, +)
これらの命令はすべてまったく同じことを行います。同じ結果が得られます。しかし、いくつかは他のものよりも最適です。彼らはより多くのターンをするかどうか、より多くの指示を必要とするか、より少なくする必要があります。
ニューラルカメラ vs iPhone 11 (A13)
これを見て理解したら、次のステップに進みます。新しい iPhone またはよく知られた Neural Cam アプリを使用して、ナイトモードで写真を撮影します。 「Neural Cam アプリが iPhone 6 で作られるのなら、なぜ Apple は A13 でのみそれを許可するのでしょうか?」と考える人もいるかもしれません。 。問題は、最終結果 (およびその品質) によって 2 つの異なるプロセスが同じになるとは決して考えられないことです。
同じ(または類似した)最終結果は、使用されたアルゴリズムまたはメソッドが同じであることを意味するものではありません。ローマに行く方法は無限にあります。
Neural Cam と新しい iPhone が写真をどのように撮影するかを簡単に分析して、違いを見てみましょう。
Neural Cam アプリは、写真を撮りたい場所に焦点を合わせるように要求し、(たとえ暗い場所であっても) 焦点を合わせようとします。彼は焦点を合わせて私たちに写真を撮るように頼みました。次に、レンズを開いて 2 秒間キャプチャを実行します。この場合、携帯電話を動かさずに持つ必要があります。ここで、携帯電話の光学安定化能力が鍵となります。完了すると、約 10 秒かかるプロセス (携帯電話が古い場合はさらに時間がかかる可能性があります) で、その 2 秒間に取得したすべての情報が取得され、写真のサイズが縮小されます。何のためにあるのでしょうか。その中での動きの可能性を排除するため。
Neural Cam は機械学習を使用しますが、Apple チップのコンポーネントは使用しません。 CPU を使用するため、1 枚の写真を処理するのに 10 秒以上かかります。
これは、特定のコンポーネントを使用せずに、すべてに CPU の総当たり力を使用する優れたアルゴリズムです。デバイスでは撮影できない夜の写真を撮るために 3.49 ユーロのアプリをダウンロードし、撮影されるまでに 10 秒以上待たなければならない場合、これはネイティブ機能ではないため、それは理解できるでしょう。これはサードパーティのアプリなので、より寛容です。 Apple がこれを現在のデバイスに搭載した場合、Apple Park のゲートにたいまつが置かれることになります。
そして、これを理解することが重要です。これは機械学習を使用しますが、Apple 開発キットが提供する機能でのみ動作する最新世代の Apple プロセッサのニューラル エンジンは使用しません。モデルを実行するには CPU に総当たり攻撃を実行するため、10 秒以上かかります。それが、iOS 12 を搭載したどのデバイスでも動作する理由です。どのようなアルゴリズムであっても、常に CPU に対して実行できることを理解する必要があります。ただし、より多くのエネルギーを消費し、速度が遅くなります。
ただし、iOS ではナイト モードはネイティブで自動的に行われます。撮影内容にもよりますが、平均して 2 ~ 3 秒かかりますが、結果はわずか 1 秒以内に得られます。ただし、手動で最大 30 秒の露出を設定できます。写真を起動するとき、デバイスのプレビューで何が表示されているかに応じて、写真の撮影方法が変わります。
ナイトモードで写真を撮る方法はたくさんあります。 Neural Cam は写真の撮影に 2 秒かかり、その処理に 10 秒かかります。Pixel 3 は写真の撮影に最大 6 秒かかり、すぐに結果が得られます。iPhone 11 は写真の撮影に平均 2 ~ 3 秒かかります。結果も瞬時に。良いか悪いかはありますが、Apple は、写真を撮影するプロセスを改善し、エクスペリエンスを向上させるために、A13 チップを搭載したコンポーネントを使用し、その他のコンポーネントは使用しないことを決定しました。それが気に入らない場合は、いつでも Neural Cam を使用するか、Pixel を購入することができます。
この世代の iPhone では、写真を公開する前に表示されるフィードを分析して結果を取得することができます。カメラが見ているものをそのままリアルタイムでビデオにしたフィード。大きく動く被写体でも、少し動く被写体でも、何を見るか、どう見るかで写真の撮り方は変わります。カメラを固定された物体の前に置き、画像を静止したままにすると、システムは長時間露光で同時に複数の写真を撮影します。ただし、私たちが動いていること、またはカメラのプレビューを通過するオブジェクトがより速く動いていることを検出した場合は、さまざまな露出でより高速に写真を撮影し、さまざまな露出でさらに多くの結果を追加します。
したがって、新しい iPhone の iOS 13 ナイト モードは、機械学習を利用して写真のセマンティクスを検出します。つまり、写真に何が映っているのか、影、何が動くのか、何が動かないのか、カメラの配置方法、固定面かそうでないか、距離はどれくらいか、撮影しているものは静止しているのか動いているのか…これは画像セマンティクスと呼ばれるもので、A13 チップのみがそのニューラル エンジンに持つ特性です。デバイスでは不可能だった、プレビュー モードであってもコンテンツを認識して分析する機能。
A13 自体について話す前に、この違いを理解することが不可欠であると思われました。 Appleは、A13に搭載されているこれらの機能を使用せず、下位互換性のあるナイトモードを作成できるでしょうか?そうした場合、モードは遅くなり、たとえば60 フレーム/秒でのカメラ プレビューのセマンティクスを認識できなくなり、Neural Cam など、おそらく効率性の低い別のソリューションを探すことになります。そのため、ユーザーエクスペリエンスが悪くなることになりますが、これは周知のとおり、Apple が避けていることです。
A13
A13 は建築における大きな進歩です。最低でも 20% 高速になったわけではありません。前述したように、(ネイティブ開発を使用する場合) 全体を支援するのは、コンポーネントと新しい小さなパーツの数です。
Apple チップ チームは、Apple が PA Semi 社を買収した 2008 年 4 月から、そして 2010 年 1 月に Apple 独自のチップを搭載した最初のデバイスである iPad が発表されて以来、約 10 年間活動してきました。これは、より多くの CPU または GPU コアのみを組み込んだ一部の世代の X 個のバリエーションを除けば、同社がリリースした 10 番目のチップです。
あらゆるコンポーネントが改良され、いくつかの新しいコンポーネントが追加された A13 Bionic は、 CPU だけではありません。分析する時間ができたので、次のコンポーネントを確認できます。
- 24 ビット オーディオをサポートする高効率サウンド プロセッサ。高度なフォーマット AAC または HE-AAC をサポートする DAC (バージョン 1 と 2 の両方)。また、MP3、FLAC、およびその他の多くのオーディオ フォーマットを再生することもできます。新しい iPhone の空間音波変化を計算することもできるプロセッサーで、HomePod のような計算サラウンド サウンドを作成します。また、 Dolby Atmos ファイルをデコードする機能もサウンド レベルでサポートされています。そしてもう一つの機能は、音のスペクトルの特定の要素の音を拡張することができます。ビデオ内の何かに焦点を合わせると、焦点が当てられてサウンドが生成されると、そのサウンドを生成する要素の音量 (ズーム サウンド) が増加する可能性があります。
- 画面管理プロセッサとその周波数。新しいiPhone Proの画面はPro Display XDRモニターと同じであることを忘れてはなりません。拡張 HDR モード、平均輝度 800 nit、ピーク 1,200、コントラスト 1:2,000,000 を備えています。このプロセッサは画面の動的なリフレッシュ レートを確立するため、一部のピクセルのコンテンツが変更されない場合はリフレッシュ レートが低くなり、バッテリ効率が大幅に向上します。 iPhone Pro の Retina Pro XDR 画面も同様の機能を備えており、コンテンツが変更されていない場合は画面にリフレッシュ信号を送信しないことでバッテリーを節約できます。 XS または XS Max よりもエネルギー効率が最大 15% 優れています。 OLED ディスプレイ処理プロセッサーと連携してピクセルとその点灯方法を管理し、ディスプレイの Pro エンジンを使用してリフレッシュまたはペイントします。
- 高性能ユニファイド メモリ プロセッサ。これは、Nvidia が CUDA ライブラリと GPU で使用しているテクノロジーです。基本的に、メモリ システム全体の任意の部分にアクセスできると同時に、ブロードバンド アクセスにより、オンデマンドでデータを各コンポーネントの専用メモリに移行できます。このようにして、単一の操作で、汎用メモリ内のコンテンツにアクセスするコンポーネントは、このデータを独自のメモリ領域またはレジスタに直接移行します。
- HDR 画像プロセッサ。画像を受信し、強化された SmartHDR プロセスを直接計算します。この方法では、CPU プロセスが不要になり、処理は瞬時に行われます。これが、以前のモデルがこの改良された HDR を実行できない理由です。これは、別のコンピューターに組み込むことができるソフトウェア アルゴリズムによって実行されるのではなく、そのために特別にプログラムされたチップによって実行されるからです。
- コンピューテーショナル フォトグラフィー プロセッサー。画像の内容を解釈し、実行されるプロセスとフュージョン操作を調整するのに役立ちます。指示付きの写真を受け取り、フュージョンを計算する役割を担う別のコンポーネントにそれらの操作を委託します。
- 常にオンになっており、低電力モードで動作する必要があるプロセッサ コンポーネント。デバイスがロックされているとき、継続的に受信される GPS 信号、またはバックグラウンドで聞こえる音のときにBluetooth接続を管理する方法。これにより、バックグラウンドで実行されるため消費量がはるかに少ないと考えられる操作で CPU 全体を使用しなくても済みます。
- ニューラル エンジン: トレーニングされた機械学習モデルを実行できます。すべての AI プロセスは、ニューラル ネットワーク、畳み込みネットワーク、およびデータを処理して確率的結果を取得するあらゆる種類のネットワークのプロセスに関して AI に依存しています。
- Secure Enclave 、iPhone セキュリティの重要な部分。生体認証データを保存し、ブラック ボックス内で透過的にデータの暗号化と復号化を行います。ブラック ボックスでは、暗号化されたデータをそのまま返す場合を除き、暗号化キーが公開されることはありません。また、プロセスの署名の検証を確認することもできます。 A13 は、より高速な復号化、暗号化、および計算のための暗号計算アクセラレータである Secure Enclave もサポートしています。
- 汎用の高性能 CPU コア、特に 2 つはより高速で、容量とパフォーマンスが向上します。より多くの負荷を必要とする最も複雑な操作専用です。
- エネルギー効率の高いコア: 4 つのコアは、それほど多くの要求を必要としない、より基本的で単純な操作を実行するため、低速でコンポーネントが少ないため、これらで基本的な操作を実行すると、要求の少ない操作をより高性能のコアで実行する場合に比べてバッテリーを節約できます。 。
- ニューラル エンジンの外部にある機械学習コンポーネントに依存するパフォーマンス プロセッサ。各プロセスとその要求を分析し、どの命令やプロセスが CPU 負荷の多寡を必要とするかを分類します。学習エンジンが、このプロセスに必要な電力が少ないことを理解した場合は、エネルギー効率の高いコアに送信し、そうでない場合は、高性能のコアに送信します。 AI エンジンにこのタスクを直接担当させる Apple プロセッサはありませんでした。彼らはそれに依存してきましたが、今では 100% AI です。
- H264 および H265 マトリックスのビデオ エンコードおよびデコード プロセッサ。最大 60fps の HD または 4K ビデオを処理します。ビデオには、ビデオ内の HDR 情報を処理して返すプロセッサも含まれています。
- 深度エンジン: 写真または画像のさまざまな深度レイヤーを計算します。
- ストレージ プロセッサは、 USB アダプタを備えたLightningポートを介して、内部および外部の両方でストレージを直接管理します。
- 行列乗算アクセラレータ、少し前にすでに説明した専用チップで、さまざまな次元の行列の乗算計算を最大6倍高速化できます。
最後に、最も重要なものの 1 つである電源マネージャーまたは PMU (電源管理ユニット)です。この PMU は、各コンポーネントの要求とその動作に基づいて CPU 全体に電力を分配する特定のチップです。
各 CPU コンポーネントは物理的に電源ゾーンに分割されています。これは、チップの使用時に、おそらくトランジスタの特定の領域のみが使用されている場合でも、過去のようにチップ全体に電力が供給されることはなくなることを意味します。現在、閉鎖ゾーンと隔離ゾーンに分割されているPMU は、各動作の正確なエネルギーを正確なゾーンに送信するようにチップに指示し、これが完了すると、オンのままにならないように供給を停止します。
これは、まるで家にたくさんの部屋があり、中に誰かがいるために必要なときだけ照明を点灯しますが、その人が外出すると、存在感知器が報告し、PMU が照明を消すようなものです。これは、(OLED スクリーンの効率の向上と合わせて)以前のモデルよりわずかに大きいバッテリーで、11 Pro と 11 Pro Max の 5 時間(または 1 時間)の自律性の向上を実現する鍵の 1 つです。 iPhone 11では1時間)。
間違いなく、このチップは第 2 世代プロセスによる 7nm プリンティングの素晴らしいエンジニアリング作品であり、CPU、GPU、ニューラル エンジン セットに加えて、さまざまな特殊コンポーネントに命を吹き込む合計 85 億個のトランジスタを備えています。この世代では単一のグループとして機能します。
この記事を読んだ後、この A13 チップが表す、新しい iPhone の頭脳である驚くべきイノベーションの取り組みをもう少し評価していただければ幸いです。 RAE によれば、イノベーションとは「製品の作成または変更、およびその市場への導入」であることを思い出してください。 。明確ではない場合のために説明しますが、革新とは「何かを変更または変更すること、新しいものを導入すること」です。 。もっと澄んだ水よ。