約2時間にわたるメインフォーラムの講演のうち、Appleは半分の時間を人工知能に費やした。 北京時間6月11日午前1時、Appleの2024年世界開発者会議(WWDC)がクパチーノで開幕しました。昨年の会議はVision Pro MRデバイスが主役でしたが、今年は人工知能(AI)開発競争で競合他社に遅れをとっていると批判されていたAppleが、ついにAI関連製品や機能を多数発表しました。 たとえば、新しい Siri は、コンテキストを理解してマルチターンの会話を行ったり、複数のアプリ間での情報の流れを促進したり、ChatGPT 機能と統合したりできます。また、電子メールを自動的に分類して返信を生成したり、音声メモをテキストと要約に書き起こしたり、画像検索と画像削除をサポートしたり、自動ビデオ編集をサポートしたりすることもできます... Apple は、これらの AI 機能を携帯電話のさまざまなアプリやシナリオに統合しています。 画期的なイノベーションは多くないものの、Appleをはじめとするデバイスメーカーには大きなアドバンテージがあります。それは、需要やシナリオを新たに生み出す必要がないということです。AIを活用してスマートフォンの既存の問題点を解消し、新たなユーザーエクスペリエンスを提供することで、新たな体験を提供できるのです。 Apple は、これらの AI 機能を「Apple Intelligence」という巧妙な言葉で要約し、ユーザーに「Apple Intelligence は人工知能と同じだ」と思わせようとしています。 01 AIはiPhoneの体験をどのように変えるのでしょうか?プレゼンテーション開始から1時間後、AppleはついにApple Intelligenceの発表を開始し、最初にアプリケーションシナリオを紹介した。 まず、絵文字と画像を生成します。伝えたいことを表現するのに適切な絵文字が見つからない場合、自然言語を使って自由に絵文字を作成できます。さらに、友達にメッセージを送信する際には、友達の写真を使って様々なスタイルの画像を生成できるため、チャットがより楽しくなります。現在、スケッチ、イラスト、アニメーションの3種類の画像スタイルをサポートしています。 次に、通話の文字起こしと要約機能があります。これまでiPhoneはプライバシー上の理由から通話録音に対応していませんでしたが、今後のバージョンではこの機能に対応し、スマート要約機能も提供される予定です。ただし、ユーザーが録音を開始すると相手に通知が届くため、使いづらい状況になる可能性があります。 3つ目は、情報の抽出と生成です。Safariブラウザのウェブページからの情報抽出、メールの分類と要約、メールの返信の生成、テキストの調整などが含まれます。さらに、Apple AIはモバイルアプリからのプッシュ通知から重要な情報を要約し、後で使用するために優先順位を付けます。 4つ目に、画像の削除とVlog生成をサポートします。ユーザーは説明を入力するだけで、Appleのシステムが既存の画像ライブラリを用いて「独自の物語性を持つ動画」を作成します。また、ユーザーが画像に求める特徴を端末に直接伝えると、システムは膨大な画像ライブラリから対応する画像を検索します。さらに、画像から不要な要素を削除することで、ワンクリックで効果を実感できます。 第五に、Siriはより賢くなり、自然言語による複数回の会話、文脈の理解、そしてテキスト入力もサポートするようになります。Siriは10年以上も音声アシスタントとして活躍してきましたが、十分な知性を備えていませんでした。「タイマーの設定」や「リマインダーの作成」といった単純なタスクしか処理できず、多くの質問に対しては検索リンクを羅列するだけで、全く知性を発揮していません。 大型モデルのサポートにより、Siri のロゴが新しくなり、ユーザーが Siri を呼び出すと、以前のように円形のリングが表示されなくなり、代わりに画面全体が光の効果に囲まれます。 さらに、AppleはOpenAIとの提携を正式に発表し、SiriがChatGPTの機能に直接アクセスできるようになりました。例えば、庭に適した植物を知りたい場合、写真を撮れば、SiriはChatGPTを使って答えを見つけることができます。ただし、Appleは、このサービスを利用する前に、ユーザーにChatGPTを使用するかどうかを尋ねるとも述べています。Appleユーザーはアカウントを作成せずにGPT-4oを無料で利用できますが、ChatGPTの加入者はアカウントを接続し、Appleシステム内で直接有料機能にアクセスできます。 しかし、中国ではChatGPTサービスに直接アクセスできないため、Siriの機能は制限される可能性があります。これに先立ち、AppleがBaiduと交渉し、文心易言のサービスをiPhoneに統合するとの噂がありましたが、このニュースは双方から確認されていません。 もう一つの残念な点は、大型モデルではより多くの計算能力が必要になるため、多くのiPhoneモデルではこれらのAI機能を利用できないことです。現在、これらのAI機能を利用できるのは、M1以降のチップを搭載したiPhone 15 Pro、iPad、Macのみのようです。 つまり、買い替えサイクルがますます長くなる中で、AppleはAIを活用して新型iPhoneの売上を伸ばしたいと考えているのかもしれない。 AIのハイライトに加え、Appleはスマートフォン、パソコン、タブレット、スマートウォッチ向けのOSにも定期的なアップデートを提供しました。例えば、iOSにはアプリロック、衛星通信、スマートフォンとパソコン間のクロスデバイスサポートが追加されました。また、iPadに電卓が導入され、スタイラスペンで様々な数式をメモできるようになったのも大きな魅力です。電卓は様々な式を認識し、答えを直接表示したり、放物線グラフを作成したり、さらには手書きの文字を模倣したりすることも可能です。 02. アプリ全体でのシステムレベルの使用を強調します。AppleがリリースしたAI機能を見てみると、どれも特に画期的なものではありません。通話要約、画像編集、画像消去といった機能は、Samsung、OPPO、その他のメーカーのAndroidスマートフォンに既に実装されています。しかし、他メーカーの断片的なアップデートと比較すると、Appleは生成AIに対してシステムレベルのアプローチを示しています。 このイベントで、AppleはAIの5つのコア原則を明確に示しました。それは、パワフル、直感的、深い統合、パーソナル、そしてプライバシーへの配慮です。これは、AppleのAIが、多くの大規模な製品開発のように多くのクールな機能を提供するのではなく、システム全体のユーザーエクスペリエンスの向上に重点を置くことを意味します。 「それはあなたを理解し、あなたの日常生活、人間関係、コミュニケーションなど、あなたの個人的な状況に根ざしたものでなければなりません。それは人工知能の域を超え、パーソナルインテリジェンスなのです」とクック氏は述べた。 Appleはアプリ間の連携を重視してきましたが、その背景には、Appleがユーザーの個人情報とコンテキストにアクセスしていることが挙げられます。Appleは、様々な検索から最も関連性の高いコンテンツを分析できるだけでなく、閲覧中のメールやカレンダーなど、画面上のコンテンツも参照できます。 例えば、Siriに大切な人の飛行機の着陸予定時刻を尋ねると、Siriはテキストメッセージやメールで共有されているフライトデータと照合して教えてくれます。また、Siriはランチの予約状況などの他の情報も統合できるので、空港からレストランまでの所要時間をアプリを切り替えることなく尋ねることができます。 例えば、誰かが住所を記載したテキストメッセージを送ってきた場合、Siriにその住所を対応する連絡先に追加するよう頼むことができます。また、画面認識機能を使えば、特定の場所にいる友人の写真をリクエストし、Siriにその写真をメモに追加してもらうことも可能です。つまり、Siriは写真とメモの両方を同時に見ていることになります。 例えば、会議が夕方に延期され、会議後に娘さんの公演に行けるかどうか知りたい場合、Apple Intelligenceは関連する個人データを処理してサポートします。まず、娘さんが誰なのか、数日前の公演内容、会議の時間と場所を把握し、オフィスから劇場までの移動手段を推定します。 新バージョンのSiriは、100以上のアクションを実行できるようになりました。これらの機能は、メール、メモ、Safari、Pages、Keynote、さらにはサードパーティ製アプリでも利用できます。 もちろん、国内ユーザーがAppleのAI機能に抱く認識は非常に限定的かもしれません。ChatGPTにアクセスできないことに加え、これは国内ユーザーの使用習慣にも大きく起因しています。第一に、多くの国内ユーザーは海外ユーザーとは異なる使用習慣を持っています。例えば、プレゼンテーションではメールの取り扱いについて繰り返し言及されていましたが、国内ユーザーの仕事習慣においてメールは必須ではありません。第二に、iMessageのような機能は中国では普及しておらず、人々は依然としてWeChatでのコミュニケーションを好んでおり、システムが個人情報を取得することは困難です。 03 エンドツークラウド展開でユーザーのプライバシーとセキュリティをテストAppleは自社のAI機能をパーソナライズされたインテリジェントシステムと定義しており、インテリジェンスを実現するための前提条件は、写真、メモ、メッセージ、電子メールなど、大量の個人データと環境情報の取得です。 Appleは現在、サーバーへのデータアップロードを回避し、デバイス上でAI計算をローカルに実行することを目指しています。データはスマートフォンやパソコンで処理できます。しかし、デバイスの計算能力には限界があり、AppleのAI機能をサポートできるのはA16 ProおよびM1以上のプロセッサを搭載したスマートフォンとパソコンのみです。さらに、これらのモデルであっても、大規模なタスクを処理する際にはクラウド機能へのアクセスが必要になる場合があります。 実際、スマートフォンメーカーとPCメーカーの両社は現在、エッジからクラウドまでの連携機能を重視しています。しかし、Appleは具体的にどのタスクをクラウドで実行する必要があるかを明らかにしていません。しかし、少なくともChatGPTを呼び出す部分は、ChatGPTのクラウドサービスにアクセスする必要があることは間違いありません。 データがクラウドにアップロードされると、自分の携帯電話に保存されている場合ほど安心できないため、ユーザーには常にさらなる不安が生じます。 エッジコンピューティング能力の限界とクラウドにおけるデータセキュリティという課題に対処するため、Appleはプライベートクラウドコンピューティングを導入しました。この技術は、Appleチップを搭載した特別なApple Siliconサーバーを活用します。クラウドサーバーにリクエストを送信する必要がある場合、Appleはタスク関連データのみを「暗号化」された安全な方法で送信するとしています。 Appleは、データは保存されることはなく、Apple自身もアクセスできないと主張しています。データはリクエストの実行にのみ使用されます。Appleのデータセキュリティとユーザープライバシーに関する取り組みは、国内の携帯電話メーカーにとって学ぶべき点です。将来的には、携帯電話メーカーとPCメーカーの両方が、パブリッククラウドサービスに頼るのではなく、AIリクエストを処理するための専用データセンターを構築する必要が出てくるかもしれません。 もちろん、これによってデータセキュリティに関する人々の懸念が完全に払拭されるわけではありません。 OpenAIの強力なライバルであるイーロン・マスク氏は、クック氏のツイートのすぐ下にコメントした。「もしAppleがOpenAIをOSレベルで統合すれば、当社はAppleデバイスの使用を禁止する。これは許されないセキュリティ違反だ。」 |