先週、 Apple による DarwinAI の買収について知りましたが、ここ数日でApple が次期システムへの Gemini の統合について Google と交渉していることを知りました。また、 Apple 独自の AI 言語モデルのプレゼンテーションについても警告しましたが、それについてはすでに詳細がわかっています。これらはすべて、同社がこの分野でデビューするカンファレンスである WWDC 2024 の日程を発表する前の状況でもある。
なぜなら、そうです、 Apple は 2024 年に生成 AI の流行に乗りたいと考えているからです。同社の広報担当者はこれを何度か認めており、あまり詳細ではないものの、リークでもそれが指摘されている。発表された、MM1 (M1 チップと混同しないでください) と呼ばれる新しいモデルの機能を考えると、彼らは Siri の改善に全力で取り組んでいます。
MM1 は自然な画像とテキストを理解できるように訓練されています
LLM は Large Language Models の頭字語で、スペイン語では Long (または Large) Language Model のように翻訳できます。これは本質的に、人間の言語を認識するだけでなく、自然な方法で言語を生成できる人工知能言語モデルです。ここでの最良の例は、OpenAI の LLM である GPT に基づくChatGPTです。
MM1 は Apple のモデルであり、実際には MLLM (マルチモーダル長言語モデルとして知られている) であるため、それよりも先験的に野心的です。 Appleはこれを大きなイベントなどで発表したことはない。これは、その動作を広範に説明する記事の中で静かに提示されており、実際には30,000 万個のパラメータをサポートできるマルチモーダル モデルのセットであることが強調されています。
そこで際立っているすべての機能の中でも、画像分析、視覚的反応の作成、正確な言語の生成の機能が特に重要です。 iPhone のユーザー向けにどのような具体的な方法で実装できるかについては詳細は明らかにされていませんが、意味があると思われる可能性の 1 つは、カメラによるリアルタイム キャプチャを通じて現実世界を理解できることです。あるいは写真の分析。
不明なのは、このモデルがAjax プロジェクトの一部であるかどうかです。これは、Apple が人工知能の分野での進歩を社内で呼んでいる方法であり、OpenAI と同様のチャットボットがテストされたことも内部的に報告されています。 、彼らはAppleGPTと呼んでいました。実のところ、私たちは多くのことを知っていると同時に、何も知らないのです。
Apple は AI に関して実際のところどのような状況にあるのでしょうか?
私たちが知っているのは、自分が何も知らないということだけです。ここ数か月間、私たちはリークだけでなく、Apple による AI プロジェクトの暴露も目撃しました。たとえば、一部の従業員が顧客の問題を解決するために使用する社内チャットボットとしての「Ask」ツール。あるいは、単純なテキストプロンプトを使用して画像を編集できる、Apple とカリフォルニア大学サンタバーバラ校の共同開発によるオープン ソースプロジェクトMGIEで発表されたものもあります。
明らかに、すべてが関連しているはずです。しかし、すでに数行前に示したように、確実なことは何もわかりません。 Siri は、最も改善が必要なだけでなく、これらの進歩の多くを受け取ることを目指しています。それが最終的にAppleモデルで実現するのか、それともGoogle AIの統合で実現するのかは謎だ。私たちがこれほど多くの秘密を抱えた WWDC を目の前にしたことはめったにありませんが、控えめに言ってもそれが興味深いのは事実です。
もちろん、OpenAI と Microsoft が他の企業よりも明らかな優位性を持っているように見えることを観察すると、この分野での地位を獲得するための Apple の挑戦は非常に大きなものになります。この 2 社を下回る Google ですら、すでに Apple の AI を第 3 段階に残すのに十分な進歩を遂げているようだ。しかし、Apple からは何も証明されていないため、リーク内容を超えて判断を下すのは時期尚早です。
