Jpdenchi.comはお客様に様々な高品質バッテリーを提供するオンラインショップです
CNBC によると、Apple の機械学習および人工知能担当シニアディレクターの Benoit Dupin 氏は、ラスベガスで開催された Amazon の AWS re:Invent カンファレンスで、Apple が多くのクラウドサービスで Amazon Web Services のカスタム AI チップをどのように使用しているかについて講演した。Apple はまた、Amazon の最新 AI チップを使用して Apple Intelligence モデルを事前トレーニングすることも検討している。
「私たちは強力な関係を築いており、インフラストラクチャは信頼性が高く、世界中のお客様にサービスを提供できます」と Apple の Dupin 氏は述べた。
Apple が Amazon のカンファレンスに登場し、同社のチップを採用したことは、AI 支出で Microsoft Azure や Google Cloud と競い合う中で、このクラウドサービスに対する強力な支持を示すものである。Apple もこれらのクラウドサービスを利用している。
イベントで講演した Dupin 氏は、Apple が Graviton や Inferntia などの AWS チップを 10 年以上使用して、Siri や検索、App Store、Apple Music、Apple Maps などの機能を強化してきたことを宣伝した。これにより、Apple は Intel や AMD の x86 チップと比較して 40% の効率向上を実現した。
Dupin氏はまた、Appleが現在、最新のAWS AIトレーニングチップであるTrainium2を評価していることを確認した。出演中、デュビン氏はAppleがTrainium2チップで「事前トレーニングの効率が最大50%向上する」と予想していると述べた。
AWSのCEOマット・ガーマン氏は火曜日のCNBCとのインタビューで、Appleは同社のTrainiumチップの早期導入者でありベータテスターだったと語った。
「Appleは私たちのところに来て、『私たちのジェネレーティブAI機能でどう支援してくれるのか、構築するにはインフラが必要だ』と言って、Apple Intelligenceを構築するというビジョンを持っていた」とAWSのCEOマット・ガーマン氏はCNBCのケイト・ルーニー氏に語った。
Appleは今秋、初のメジャーなジェネレーティブAI製品をリリースした。Apple Intelligenceは、通知を要約したり、メールを書き換えたり、新しい絵文字を生成したりできる一連のサービスである。同社によると、今月下旬にはOpenAIのChatGPTと統合され、来年にはSiriがアプリを制御し自然に話す新しい機能を獲得するという。
OpenAI の ChatGPT のような主要なチャットボットとは異なり、Apple の AI へのアプローチは、クラウド内の Nvidia ベースのサーバーの大規模なクラスターに基づいていません。代わりに、Apple は iPhone、iPad、または Mac のチップを使用して可能な限り多くの処理を行い、その後、独自の M シリーズ チップを使用して Apple が運営するサーバーに複雑なクエリを送信します。
Apple が現在、血圧を測定する方法の開発に取り組んでいることは周知の事実です。少なくとも2022年4月には、ブルームバーグのMark Gurman氏は、Apple Watchに血圧監視機能が追加される可能性があると報じている。ガーマン氏は、Appleがこの機能を2024年に導入すると予想したが、それは実現しなかった。
この度、米国特許庁は、血圧監視機能を備えた Apple Watch を対象とした Apple の特許出願を公開しました。
Appleは、収縮期血圧や拡張期血圧などの従来の血圧パラメータは、オシロメトリック測定技術を使用して正確に測定するのが難しいと指摘しています。圧迫測定中の血管の閉鎖および/または開口を含む、血圧測定に関連するイベントをより正確に判定することが望ましい場合がある。
Apple の特許は、液体で満たされた感知チャンバーを使用してユーザーの血圧を測定する血圧測定デバイスを対象としています。
まずプレナムチャンバーが満たされ、感知チャンバーおよび圧力センサーとともにユーザーの血流内で発生する「振動」を検出します。簡単に言えば、血圧は血流を止めるために必要な外部から加えられる圧力です。非侵襲的処置によって血流に圧力が加えられたときに発せられる音または「振動」であるコロトコフ音を測定することができます。
この特許では、チャンバーが液体で満たされていると述べられているが、液体は気体(最終的には空気)とは異なり非圧縮性と考えられているため、液体が空気に対してどのような利点があるのかは不明である。
この特許は、11年の経験を持つAppleのハードウェアエンジニアであるCaleb Hanによって作成されました。しかし、いつものように、Apple が特定のテクノロジーの特許を取得しているからといって、それが次の Apple Watch に実装されるとは限らず、さらにはまったく実装されるわけでもありません。
Apple は、Apple Intelligence によって、Siri をこれまで以上に賢くすることを目指しています。パーソナル アシスタントは、ユーザーについてより多くを学び、アプリでより多くのことを実行し、必要に応じてより賢い仮想アシスタントに権限を委譲できるようになります。
一部の新しい Siri 機能は現在利用可能ですが、一部は 2025 年まで利用できません。このガイドでは、Apple Intelligence によって Siri に新しく追加された機能をすべて紹介します。
Siri は、Apple Intelligence をサポートするデバイスでデザインが刷新されました。Siri を起動したときに表示されていた小さな波長ではなく、iPhone 全体を包み込むピンク/紫/青/オレンジの多彩な光が、Siri がコマンドを聞くと色が変化します。
Siri は会話の言語やリクエストをよりよく理解できるため、言葉につっかえたり、文の途中で考えが変わったりしても、Siri はあなたの言っていることを理解できます。
Siri はリクエスト間のコンテキストも維持できるため、前のリクエストの内容を参照でき、Siri はあなたが話していることを理解します。そのため、Siri を使用してカレンダー イベントを作成する場合、「そこの天気はどうですか?」と尋ねるだけで、Siri は「そこ」がどこにあるかがわかります。
Siri の新しい音声は、より自然な響きです。
Siri に入力する機能が組み込まれているため、Siri に話しかけなくてもパーソナル アシスタントとやり取りできます。この機能を使用するには、iPhone または iPad の下部をダブルタップしてテキスト バーを表示し、そこからリクエストを入力します。
Siri に入力は、Siri に話しかけるのと同じように使用でき、Siri は声を出さずに情報を提供できます。これは、話すことができず、Siri に話しかけてもらいたくない公共の場で便利な機能です。
Apple は Siri に自社のすべての製品について教えているので、機能の使い方やタスクの完了方法を知りたい場合は、Siri に助けを求めることができます。Siri は、iPhone、iPad、Mac の機能の使い方をステップバイステップで説明できます。
iOS 18.2 では、Siri との ChatGPT 統合が利用できます。ユーザーが Siri で処理できないことを質問した場合、ユーザーが許可すれば、ChatGPT が代わりに応答できます。
Siri は ChatGPT を利用し、アプリを切り替えたり他のツールを使用したりすることなく ChatGPT の応答を中継できます。
Siri ChatGPT 統合は、基本的に ChatGPT アプリや Web 上の ChatGPT でできることすべてに使用できます。これは、ChatGPT にアクセスするより簡単な方法です。
画像など、画面上のあらゆるものについて、Siri に質問できます。たとえば、植物の写真がある場合、「これは何ですか?」と尋ねると、Siri は ChatGPT にスクリーンショットを送信し、ChatGPT はコンテキストを提供しようとします。
これは、Web 上の画像、写真、カメラ アプリで表示しているもの、テキストなどで機能します。
ChatGPT はシーンを説明するために使用できます。これは、視力に問題がある可能性のある人にとって便利です。カメラ アプリを開き、Siri を起動して、「これは何ですか?」と尋ねます。目の前にあるものの詳細な説明を提供します。
スクリーンショットから ChatGPT に画像を送信するオプションは、Apple が将来実装する予定の Siri オンスクリーン認識機能とは異なります。
メール、ドキュメント、PDF などについて、ChatGPT は要約を提供できます。「これを要約できますか?」と尋ねると、Siri はスクリーンショットまたはドキュメント全体 (完全な PDF を含む) を送信します。これは、長いドキュメントの内容をすばやく概観するのに便利な機能です。
長い PDF またはドキュメントの場合は、矢印をタップして、スクリーンショットだけでなくドキュメント全体が ChatGPT に送信されるようにしてください。
要約を尋ねる代わりに、ドキュメントに関する具体的な質問をすることができます。保険証券を見ている場合は、「このポリシーの制限は何ですか?」または「除外事項は何ですか?」と尋ねて、よりカスタマイズされた情報を得ることができます。
メールを書いた場合、それを選択してライティング ツールを使用してスペルと文法のエラーをチェックするのではなく、Siri に確認するように頼むことができます。Siri は ChatGPT にスクリーンショットを送信します。「エラーがないか確認してもらえますか?」は、この機能のコマンドとして機能します。
ChatGPT は、書いた内容を書き直したり改良したりするためにも使用できますが、これは Apple 独自のライティング ツールと同じではないことに注意してください。
ChatGPT は、与えられたプロンプトに基づいてテキストをゼロから生成できます。たとえば、Siri に ChatGPT に詩を書いたり、友人に丁寧な手紙を書いたりするように頼むと、ChatGPT はゼロから何かを作成します。
使用できるリクエストの例:
ChatGPT に何かを書いてもらった場合は、コピー アイコンをタップしてクリップボードにコピーし、メモ、メッセージ、ドキュメント、またはメールに貼り付けることができます。
画像を作成することもできます。ChatGPT は Dall-E 3 エンジンを使用して、リアルな AI 生成画像を作成できます。これは、Apple Intelligence では実行できません。画像リクエストの場合、Siri に「[画像を作成したいもの] の画像を作成するように ChatGPT に伝えてください」と指示するのが最も簡単です。なぜなら、Siri に画像を作成するか、画像を生成するように指示するだけでは、多くの場合、Web 画像が表示されるからです。
Siri を介した ChatGPT の最適な使用例の 1 つは、Siri には少々複雑すぎるクエリに対する回答を得ることです。Siri が処理できない質問は、ユーザーの許可を得て ChatGPT に渡されますが、「ChatGPT に質問」と質問を修正することで、Siri に内部 Siri エンジンではなく ChatGPT を使用させることもできます。
たとえば、Xbox コントローラーが使用するバッテリーに関する質問は、ChatGPT ではなく Wikipedia を参照しますが、「Xbox コントローラーが使用するバッテリーについて ChatGPT に質問」と具体的に入力すると、Siri は ChatGPT に質問を提示します。
ChatGPT の回答の方が有益な場合があります。Siri にレシピで卵を置き換える方法を尋ねると、代替案が提示されるだけですが、同じ質問に対する ChatGPT の回答では、卵 1 個に相当する材料を追加したい場合の量が示されます。
Siri が ChatGPT に自動的に問い合わせるクエリの例:
Siri は ChatGPT の助けを借りてこれらすべてのことを行うことができますが、Siri バージョンの ChatGPT には継続性がないため、1 回限りのリクエストではないタスクを完了することが困難です。たとえば、食事プランを作成する場合は、実際の ChatGPT インターフェースを使用すると、1 回のリクエストに頼るのではなく、より多くの会話を行うことができるため、より効果的です。
ChatGPT 統合をオンにする必要があり、その後は各リクエストにユーザーの許可が必要になります。 「ChatGPT リクエストの確認」オプションをオフに切り替えることで、追加の権限をオフにするオプションがあります。
切り替えるには、設定アプリを開き、Apple Intelligence を選択して、ChatGPT をタップします。この機能を無効にすると、Siri は ChatGPT に情報を送信する前に毎回確認しなくなります。
ただし、Siri は、リクエストの確認機能がオフになっている場合でも、ChatGPT にファイルを送信する前に常に許可を求めます。
プライバシーに関しては、ChatGPT を使用するためにログインする必要はなく、Apple も OpenAI もリクエストを記録しません。ただし、有料アカウントでサインインすると、ChatGPT はリクエストのコピーを保持できます。
ChatGPT 統合には、最新バージョンの ChatGPT である ChatGPT-4o を使用する限られた数のリクエストが無料で含まれています。これらが使い果たされると、ChatGPT 統合は、それほど高度ではなく、リソースをあまり消費しない 4o Mini を使用します。
ChatGPT Plus の加入者は、より多くの ChatGPT-4o リクエストを受け取ります。ChatGPT Plus の価格は月額 20 ドルで、ChatGPT Plus をまだ持っていない iPhone ユーザーは、設定アプリの Apple Intelligence セクションから直接サインアップできます。
Apple ユーザーは基本的に ChatGPT の基本プランにアクセスできるため、高度な機能を使用するリクエストは 24 時間ごとにリセットされます。このプランでは、1 日に 2 つの画像を生成できます。
Apple Intelligence で可能なことと ChatGPT 統合でできることには重複する部分もありますが、いくつかの違いもあります。Apple Intelligence には、既に書き込んだ内容を書き直したり編集したりするための Writing Tools がありますが、ChatGPT ではコンテンツを最初から書き込むことができます。
Image Playground、Image Wand、Genmoji では画像を生成できますが、Apple Intelligence ではリアルな画像は生成されません。代わりに、スタイルはアニメーションやスケッチのように見えるものに限定されます。ただし、ChatGPT ではリアルな画像が生成されます。
Apple Intelligence は文書を要約するために使用できますが、テキストを選択し、Writing Tools から [要約] オプションを選択した場合に限ります。Apple Intelligence は PDF や文書に関するより具体的な質問に答えることができないため、ChatGPT はそのようなクエリに対して優位性があります。
Siri を通じて ChatGPT に質問する場合、回答は画面に長く表示されないため、すぐに読む必要があります。Apple は記録も保持しません。
ChatGPT にログインしている場合は、OpenAI アカウントに履歴がありますが、ログインしていない場合は ChatGPT から受け取った情報を保存する方法がなく、ログもありません。
Siri にはまだ開発中の機能がいくつかあり、Apple は来年これらの機能を Siri に追加する予定です。時期はまだ確定していませんが、噂によると春に iOS 18.4 で登場するようです。
Siri はメール、メッセージ、ファイル、写真などを追跡し、ユーザーについてより詳しく学習して、タスクの完了や送信内容の追跡に役立ちます。
Siri は画面に表示されているものを認識し、見ているものに関連するアクションを実行できます。たとえば、誰かが住所をテキストで送信してきた場合、Siri にその住所を連絡先カードに追加するよう指示できます。または、写真を見ていて誰かに送信したい場合は、Siri に頼んで送信してもらうことができます。
Siri はアプリ内やアプリ間でより多くのことができるようになり、現在のパーソナル アシスタントでは不可能なアクションやタスクを実行できるようになります。Siri で何ができるようになるかは完全にはわかりませんが、Apple は期待できる機能の例をいくつか提供しています。
iOS 18 で Siri の Apple Intelligence 機能がすべて実装された後、Apple は大規模言語モデルを利用する次世代の Siri を発表する予定です。Siri の LLM バージョンはすでに開発中であり、ChatGPT などのチャットボットとより競合できるようになります。
LLM Siri は会話を継続することができ、人間と話しているような感覚になります。大規模な言語モデルの統合により、Siri はより複雑なタスクを実行できるようになり、将来的には、Siri は ChatGPT に依存する必要がなくなる可能性があります。
Siri の更新バージョンは、将来的に現在のバージョンの Siri に取って代わります。Apple は、2025 年に iOS 19 の導入と同時に LLM Siri を発表する予定ですが、アップデートは 2026 年春までリリースされない可能性があります。
Apple Intelligence はプライバシーを考慮して設計されており、多くのリクエストはデバイス上で処理されます。たとえば、すべての個人コンテキストの学習はデバイス上のインテリジェンスによって行われ、iPhone または iPad から何も出ません。
クラウドサーバーの処理能力を必要とするリクエストについては、Apple は Apple シリコンマシン上のプライベートクラウドコンピューティングを使用して、ユーザーのプライバシーを保護しながら複雑なタスクを処理します。Apple は、データは保存されず、ユーザーのリクエストにのみ使用されることを約束しています。
Apple Intelligence は、iPhone 15 Pro、iPhone 15 Pro Max、すべての iPhone 16 モデル、A17 Pro チップ搭載の iPad mini、Apple シリコン チップ搭載のすべての iPad、Apple シリコン チップ搭載のすべての Mac で利用できます。
Image Wand 統合を備えた iOS 18.2 と iPadOS 18.2 は 12 月にリリースされる予定で、Apple は 12 月 9 日のソフトウェア リリースを計画しているようです。
Apple の 2024 年秋の Mac 発表には、新しい iMac、Mac mini、MacBook Pro モデルが含まれており、いずれも Apple の M4 チップのバリエーションを搭載してデビューしました。Apple は、今後 12 か月以内に残りの Mac ラインナップを M4 シリーズ プロセッサで更新する予定で、これにより Apple がすべての Mac で同じチップ世代を使用するのは初めてとなります。
つまり、来年には新しい M4 バージョンの MacBook Air、Mac Studio、Mac Pro モデルが期待できます。最新の噂によると、各マシンの発売時期と、どのようなアップグレードが期待できるかについて、次のとおりです。
Apple は 2024 年 3 月に Apple の M3 チップを搭載した更新された 13 インチおよび 15 インチ MacBook Air モデルを発売しました。Bloomberg の Mark Gurman によると、同社は 2025 年初頭の発売に先立ち、まもなく M4 バージョンの生産を開始する予定です。 MacBook Air モデルには新しい設計変更は予定されておらず、焦点は M4 チップに置かれるが、Apple がベース M3 モデルを 8GB から 16GB にアップデートしたため、ベースモデルには少なくとも 16GB の RAM が搭載される。M4 MacBook Air には、新しい 12MP センターステージカメラとデスクビューサポートも搭載される可能性があり、これは現在の 1080p FaceTime HD カメラよりも改善されており、新しい M4 iMac と M4 MacBook Pro モデルの両方がアップグレードされたカメラを搭載してデビューした。これらのマシンは来年の 1 月から 3 月の間に発売される。
Apple は、2025 年初頭に M4 MacBook Air がリリースされた後、Mac Studio をリフレッシュする予定である。M4 プロセッサのバリエーション、おそらく M4 Ultra または Max チップが搭載される。現在のモデルには、M2 Max と M2 Ultra の両方のバリエーションがある。 M4 Proチップを搭載したMac miniとAppleの最新のハイエンドMacBook ProモデルにThunderbolt 5ポートが搭載されていることを考えると、Mac Studioもそれらを採用することは間違いありません。マーク・ガーマン氏は、Mac StudioはMacBook Airと並行してアップデートされる予定だったが、3月から6月の間にリフレッシュされる予定だと主張しています。以前のレポートでは、Mac Studioは2025年半ばに発売されると述べていたため、何が変わったのかは不明です。
Appleは2023年6月にMac Proを最後にアップデートし、M2 Ultraチップを追加してIntelチップからの移行を正式に完了しました。マーク・ガーマン氏によると、Appleは2025年夏にMac Proをリフレッシュする予定です。Mac Studioと同様に、次のMac ProはM3シリーズをスキップします。代わりに、コードネーム「Hidra」のM4チップの最高級バージョンが搭載されます。チップの説明に基づくと、「Ultra」または「Extreme」チップとして位置付けられる可能性があります。ガーマン氏は、次期 Mac Pro の M4 Ultra チップは「おそらく」最大 32 コアの CPU と最大 80 コアの GPU を搭載するだろうと述べている。これは、M4 Max の最大 16 コアの CPU と最大 40 コアの GPU の 2 倍となる。次期 Mac Pro には Thunderbolt 5 ポートが搭載される見込みだ。また、最大 512GB のメモリもサポートされる可能性があり、これは現在の 192GB の制限を大幅に上回る増加となる。
JPdenchi.com では、ビジネスやプロフェッショナルのニーズに最適なバッテリーを入手できます。バッテリーに関するあらゆるニーズについては、今すぐお問い合わせください。
iOS 19は2025年6月まで発表されないと予想されているが、ソフトウェアアップデートの最初の主要な新機能はすでにリークされている。
ブルームバーグのマーク・ガーマン氏は、Power Onニュースレターで、iOS 19では「より高度な大規模言語モデル」を搭載した「より会話的なSiri」が導入されるという以前のレポートを繰り返した。同氏は、このアップグレードによりSiriはOpenAIのChatGPTに似たものになり、「より高度なリクエストを処理」できるようになると述べた。
アップルは来年6月のWWDC 2025でiOS 19を発表する際に、刷新されたSiriを発表する可能性が高いが、ガーマン氏は、早くても2026年春まで利用できないと述べた。これは、この機能がiOS 19.4アップデートの一部としてリリースされることを示唆している。
同氏はニュースレターで、追加機能がiOS 19.4まで「延期」されたことを明らかにした。
「iOS 19に予定されている機能(新しいSiri以外)の多くは、すでに2026年春(iOS 19.4がデビューする時期)まで延期されていると聞いています」と彼は書いている。
彼は、他の計画されている機能についての詳細は明らかにしなかった。
その間、iOS 18.2ではSiriにChatGPTの統合が追加され、Gurman氏はその後のアップデートでGoogleのGeminiとの統合が続くと予想している。Appleは以前、iOS 18.2が12月に一般公開されることを確認している。そしてiOS 18.4では、Siriは画面上の認識、アプリごとのより深いコントロール、その他のいくつかの機能強化を獲得するが、ChatGPTのような本格的な会話機能を直接提供することはない。
新しいSiriがリリースされると、iPhoneユーザーはChatGPTやGeminiなどのサードパーティのサービスをそれほど頻繁に利用する必要がなくなるはずだ。しかし、iOS 19.4のリリースにはまだ1年半ほどかかるため、長い待ち時間が残っている。