Jpdenchi.comはお客様に様々な高品質バッテリーを提供するオンラインショップです
Apple は、Apple Intelligence によって、Siri をこれまで以上に賢くすることを目指しています。パーソナル アシスタントは、ユーザーについてより多くを学び、アプリでより多くのことを実行し、必要に応じてより賢い仮想アシスタントに権限を委譲できるようになります。
一部の新しい Siri 機能は現在利用可能ですが、一部は 2025 年まで利用できません。このガイドでは、Apple Intelligence によって Siri に新しく追加された機能をすべて紹介します。
Siri は、Apple Intelligence をサポートするデバイスでデザインが刷新されました。Siri を起動したときに表示されていた小さな波長ではなく、iPhone 全体を包み込むピンク/紫/青/オレンジの多彩な光が、Siri がコマンドを聞くと色が変化します。
Siri は会話の言語やリクエストをよりよく理解できるため、言葉につっかえたり、文の途中で考えが変わったりしても、Siri はあなたの言っていることを理解できます。
Siri はリクエスト間のコンテキストも維持できるため、前のリクエストの内容を参照でき、Siri はあなたが話していることを理解します。そのため、Siri を使用してカレンダー イベントを作成する場合、「そこの天気はどうですか?」と尋ねるだけで、Siri は「そこ」がどこにあるかがわかります。
Siri の新しい音声は、より自然な響きです。
Siri に入力する機能が組み込まれているため、Siri に話しかけなくてもパーソナル アシスタントとやり取りできます。この機能を使用するには、iPhone または iPad の下部をダブルタップしてテキスト バーを表示し、そこからリクエストを入力します。
Siri に入力は、Siri に話しかけるのと同じように使用でき、Siri は声を出さずに情報を提供できます。これは、話すことができず、Siri に話しかけてもらいたくない公共の場で便利な機能です。
Apple は Siri に自社のすべての製品について教えているので、機能の使い方やタスクの完了方法を知りたい場合は、Siri に助けを求めることができます。Siri は、iPhone、iPad、Mac の機能の使い方をステップバイステップで説明できます。
iOS 18.2 では、Siri との ChatGPT 統合が利用できます。ユーザーが Siri で処理できないことを質問した場合、ユーザーが許可すれば、ChatGPT が代わりに応答できます。
Siri は ChatGPT を利用し、アプリを切り替えたり他のツールを使用したりすることなく ChatGPT の応答を中継できます。
Siri ChatGPT 統合は、基本的に ChatGPT アプリや Web 上の ChatGPT でできることすべてに使用できます。これは、ChatGPT にアクセスするより簡単な方法です。
画像など、画面上のあらゆるものについて、Siri に質問できます。たとえば、植物の写真がある場合、「これは何ですか?」と尋ねると、Siri は ChatGPT にスクリーンショットを送信し、ChatGPT はコンテキストを提供しようとします。
これは、Web 上の画像、写真、カメラ アプリで表示しているもの、テキストなどで機能します。
ChatGPT はシーンを説明するために使用できます。これは、視力に問題がある可能性のある人にとって便利です。カメラ アプリを開き、Siri を起動して、「これは何ですか?」と尋ねます。目の前にあるものの詳細な説明を提供します。
スクリーンショットから ChatGPT に画像を送信するオプションは、Apple が将来実装する予定の Siri オンスクリーン認識機能とは異なります。
メール、ドキュメント、PDF などについて、ChatGPT は要約を提供できます。「これを要約できますか?」と尋ねると、Siri はスクリーンショットまたはドキュメント全体 (完全な PDF を含む) を送信します。これは、長いドキュメントの内容をすばやく概観するのに便利な機能です。
長い PDF またはドキュメントの場合は、矢印をタップして、スクリーンショットだけでなくドキュメント全体が ChatGPT に送信されるようにしてください。
要約を尋ねる代わりに、ドキュメントに関する具体的な質問をすることができます。保険証券を見ている場合は、「このポリシーの制限は何ですか?」または「除外事項は何ですか?」と尋ねて、よりカスタマイズされた情報を得ることができます。
メールを書いた場合、それを選択してライティング ツールを使用してスペルと文法のエラーをチェックするのではなく、Siri に確認するように頼むことができます。Siri は ChatGPT にスクリーンショットを送信します。「エラーがないか確認してもらえますか?」は、この機能のコマンドとして機能します。
ChatGPT は、書いた内容を書き直したり改良したりするためにも使用できますが、これは Apple 独自のライティング ツールと同じではないことに注意してください。
ChatGPT は、与えられたプロンプトに基づいてテキストをゼロから生成できます。たとえば、Siri に ChatGPT に詩を書いたり、友人に丁寧な手紙を書いたりするように頼むと、ChatGPT はゼロから何かを作成します。
使用できるリクエストの例:
ChatGPT に何かを書いてもらった場合は、コピー アイコンをタップしてクリップボードにコピーし、メモ、メッセージ、ドキュメント、またはメールに貼り付けることができます。
画像を作成することもできます。ChatGPT は Dall-E 3 エンジンを使用して、リアルな AI 生成画像を作成できます。これは、Apple Intelligence では実行できません。画像リクエストの場合、Siri に「[画像を作成したいもの] の画像を作成するように ChatGPT に伝えてください」と指示するのが最も簡単です。なぜなら、Siri に画像を作成するか、画像を生成するように指示するだけでは、多くの場合、Web 画像が表示されるからです。
Siri を介した ChatGPT の最適な使用例の 1 つは、Siri には少々複雑すぎるクエリに対する回答を得ることです。Siri が処理できない質問は、ユーザーの許可を得て ChatGPT に渡されますが、「ChatGPT に質問」と質問を修正することで、Siri に内部 Siri エンジンではなく ChatGPT を使用させることもできます。
たとえば、Xbox コントローラーが使用するバッテリーに関する質問は、ChatGPT ではなく Wikipedia を参照しますが、「Xbox コントローラーが使用するバッテリーについて ChatGPT に質問」と具体的に入力すると、Siri は ChatGPT に質問を提示します。
ChatGPT の回答の方が有益な場合があります。Siri にレシピで卵を置き換える方法を尋ねると、代替案が提示されるだけですが、同じ質問に対する ChatGPT の回答では、卵 1 個に相当する材料を追加したい場合の量が示されます。
Siri が ChatGPT に自動的に問い合わせるクエリの例:
Siri は ChatGPT の助けを借りてこれらすべてのことを行うことができますが、Siri バージョンの ChatGPT には継続性がないため、1 回限りのリクエストではないタスクを完了することが困難です。たとえば、食事プランを作成する場合は、実際の ChatGPT インターフェースを使用すると、1 回のリクエストに頼るのではなく、より多くの会話を行うことができるため、より効果的です。
ChatGPT 統合をオンにする必要があり、その後は各リクエストにユーザーの許可が必要になります。 「ChatGPT リクエストの確認」オプションをオフに切り替えることで、追加の権限をオフにするオプションがあります。
切り替えるには、設定アプリを開き、Apple Intelligence を選択して、ChatGPT をタップします。この機能を無効にすると、Siri は ChatGPT に情報を送信する前に毎回確認しなくなります。
ただし、Siri は、リクエストの確認機能がオフになっている場合でも、ChatGPT にファイルを送信する前に常に許可を求めます。
プライバシーに関しては、ChatGPT を使用するためにログインする必要はなく、Apple も OpenAI もリクエストを記録しません。ただし、有料アカウントでサインインすると、ChatGPT はリクエストのコピーを保持できます。
ChatGPT 統合には、最新バージョンの ChatGPT である ChatGPT-4o を使用する限られた数のリクエストが無料で含まれています。これらが使い果たされると、ChatGPT 統合は、それほど高度ではなく、リソースをあまり消費しない 4o Mini を使用します。
ChatGPT Plus の加入者は、より多くの ChatGPT-4o リクエストを受け取ります。ChatGPT Plus の価格は月額 20 ドルで、ChatGPT Plus をまだ持っていない iPhone ユーザーは、設定アプリの Apple Intelligence セクションから直接サインアップできます。
Apple ユーザーは基本的に ChatGPT の基本プランにアクセスできるため、高度な機能を使用するリクエストは 24 時間ごとにリセットされます。このプランでは、1 日に 2 つの画像を生成できます。
Apple Intelligence で可能なことと ChatGPT 統合でできることには重複する部分もありますが、いくつかの違いもあります。Apple Intelligence には、既に書き込んだ内容を書き直したり編集したりするための Writing Tools がありますが、ChatGPT ではコンテンツを最初から書き込むことができます。
Image Playground、Image Wand、Genmoji では画像を生成できますが、Apple Intelligence ではリアルな画像は生成されません。代わりに、スタイルはアニメーションやスケッチのように見えるものに限定されます。ただし、ChatGPT ではリアルな画像が生成されます。
Apple Intelligence は文書を要約するために使用できますが、テキストを選択し、Writing Tools から [要約] オプションを選択した場合に限ります。Apple Intelligence は PDF や文書に関するより具体的な質問に答えることができないため、ChatGPT はそのようなクエリに対して優位性があります。
Siri を通じて ChatGPT に質問する場合、回答は画面に長く表示されないため、すぐに読む必要があります。Apple は記録も保持しません。
ChatGPT にログインしている場合は、OpenAI アカウントに履歴がありますが、ログインしていない場合は ChatGPT から受け取った情報を保存する方法がなく、ログもありません。
Siri にはまだ開発中の機能がいくつかあり、Apple は来年これらの機能を Siri に追加する予定です。時期はまだ確定していませんが、噂によると春に iOS 18.4 で登場するようです。
Siri はメール、メッセージ、ファイル、写真などを追跡し、ユーザーについてより詳しく学習して、タスクの完了や送信内容の追跡に役立ちます。
Siri は画面に表示されているものを認識し、見ているものに関連するアクションを実行できます。たとえば、誰かが住所をテキストで送信してきた場合、Siri にその住所を連絡先カードに追加するよう指示できます。または、写真を見ていて誰かに送信したい場合は、Siri に頼んで送信してもらうことができます。
Siri はアプリ内やアプリ間でより多くのことができるようになり、現在のパーソナル アシスタントでは不可能なアクションやタスクを実行できるようになります。Siri で何ができるようになるかは完全にはわかりませんが、Apple は期待できる機能の例をいくつか提供しています。
iOS 18 で Siri の Apple Intelligence 機能がすべて実装された後、Apple は大規模言語モデルを利用する次世代の Siri を発表する予定です。Siri の LLM バージョンはすでに開発中であり、ChatGPT などのチャットボットとより競合できるようになります。
LLM Siri は会話を継続することができ、人間と話しているような感覚になります。大規模な言語モデルの統合により、Siri はより複雑なタスクを実行できるようになり、将来的には、Siri は ChatGPT に依存する必要がなくなる可能性があります。
Siri の更新バージョンは、将来的に現在のバージョンの Siri に取って代わります。Apple は、2025 年に iOS 19 の導入と同時に LLM Siri を発表する予定ですが、アップデートは 2026 年春までリリースされない可能性があります。
Apple Intelligence はプライバシーを考慮して設計されており、多くのリクエストはデバイス上で処理されます。たとえば、すべての個人コンテキストの学習はデバイス上のインテリジェンスによって行われ、iPhone または iPad から何も出ません。
クラウドサーバーの処理能力を必要とするリクエストについては、Apple は Apple シリコンマシン上のプライベートクラウドコンピューティングを使用して、ユーザーのプライバシーを保護しながら複雑なタスクを処理します。Apple は、データは保存されず、ユーザーのリクエストにのみ使用されることを約束しています。
Apple Intelligence は、iPhone 15 Pro、iPhone 15 Pro Max、すべての iPhone 16 モデル、A17 Pro チップ搭載の iPad mini、Apple シリコン チップ搭載のすべての iPad、Apple シリコン チップ搭載のすべての Mac で利用できます。
Image Wand 統合を備えた iOS 18.2 と iPadOS 18.2 は 12 月にリリースされる予定で、Apple は 12 月 9 日のソフトウェア リリースを計画しているようです。
Apple の 2024 年秋の Mac 発表には、新しい iMac、Mac mini、MacBook Pro モデルが含まれており、いずれも Apple の M4 チップのバリエーションを搭載してデビューしました。Apple は、今後 12 か月以内に残りの Mac ラインナップを M4 シリーズ プロセッサで更新する予定で、これにより Apple がすべての Mac で同じチップ世代を使用するのは初めてとなります。
つまり、来年には新しい M4 バージョンの MacBook Air、Mac Studio、Mac Pro モデルが期待できます。最新の噂によると、各マシンの発売時期と、どのようなアップグレードが期待できるかについて、次のとおりです。
Apple は 2024 年 3 月に Apple の M3 チップを搭載した更新された 13 インチおよび 15 インチ MacBook Air モデルを発売しました。Bloomberg の Mark Gurman によると、同社は 2025 年初頭の発売に先立ち、まもなく M4 バージョンの生産を開始する予定です。 MacBook Air モデルには新しい設計変更は予定されておらず、焦点は M4 チップに置かれるが、Apple がベース M3 モデルを 8GB から 16GB にアップデートしたため、ベースモデルには少なくとも 16GB の RAM が搭載される。M4 MacBook Air には、新しい 12MP センターステージカメラとデスクビューサポートも搭載される可能性があり、これは現在の 1080p FaceTime HD カメラよりも改善されており、新しい M4 iMac と M4 MacBook Pro モデルの両方がアップグレードされたカメラを搭載してデビューした。これらのマシンは来年の 1 月から 3 月の間に発売される。
Apple は、2025 年初頭に M4 MacBook Air がリリースされた後、Mac Studio をリフレッシュする予定である。M4 プロセッサのバリエーション、おそらく M4 Ultra または Max チップが搭載される。現在のモデルには、M2 Max と M2 Ultra の両方のバリエーションがある。 M4 Proチップを搭載したMac miniとAppleの最新のハイエンドMacBook ProモデルにThunderbolt 5ポートが搭載されていることを考えると、Mac Studioもそれらを採用することは間違いありません。マーク・ガーマン氏は、Mac StudioはMacBook Airと並行してアップデートされる予定だったが、3月から6月の間にリフレッシュされる予定だと主張しています。以前のレポートでは、Mac Studioは2025年半ばに発売されると述べていたため、何が変わったのかは不明です。
Appleは2023年6月にMac Proを最後にアップデートし、M2 Ultraチップを追加してIntelチップからの移行を正式に完了しました。マーク・ガーマン氏によると、Appleは2025年夏にMac Proをリフレッシュする予定です。Mac Studioと同様に、次のMac ProはM3シリーズをスキップします。代わりに、コードネーム「Hidra」のM4チップの最高級バージョンが搭載されます。チップの説明に基づくと、「Ultra」または「Extreme」チップとして位置付けられる可能性があります。ガーマン氏は、次期 Mac Pro の M4 Ultra チップは「おそらく」最大 32 コアの CPU と最大 80 コアの GPU を搭載するだろうと述べている。これは、M4 Max の最大 16 コアの CPU と最大 40 コアの GPU の 2 倍となる。次期 Mac Pro には Thunderbolt 5 ポートが搭載される見込みだ。また、最大 512GB のメモリもサポートされる可能性があり、これは現在の 192GB の制限を大幅に上回る増加となる。
JPdenchi.com では、ビジネスやプロフェッショナルのニーズに最適なバッテリーを入手できます。バッテリーに関するあらゆるニーズについては、今すぐお問い合わせください。
iOS 19は2025年6月まで発表されないと予想されているが、ソフトウェアアップデートの最初の主要な新機能はすでにリークされている。
ブルームバーグのマーク・ガーマン氏は、Power Onニュースレターで、iOS 19では「より高度な大規模言語モデル」を搭載した「より会話的なSiri」が導入されるという以前のレポートを繰り返した。同氏は、このアップグレードによりSiriはOpenAIのChatGPTに似たものになり、「より高度なリクエストを処理」できるようになると述べた。
アップルは来年6月のWWDC 2025でiOS 19を発表する際に、刷新されたSiriを発表する可能性が高いが、ガーマン氏は、早くても2026年春まで利用できないと述べた。これは、この機能がiOS 19.4アップデートの一部としてリリースされることを示唆している。
同氏はニュースレターで、追加機能がiOS 19.4まで「延期」されたことを明らかにした。
「iOS 19に予定されている機能(新しいSiri以外)の多くは、すでに2026年春(iOS 19.4がデビューする時期)まで延期されていると聞いています」と彼は書いている。
彼は、他の計画されている機能についての詳細は明らかにしなかった。
その間、iOS 18.2ではSiriにChatGPTの統合が追加され、Gurman氏はその後のアップデートでGoogleのGeminiとの統合が続くと予想している。Appleは以前、iOS 18.2が12月に一般公開されることを確認している。そしてiOS 18.4では、Siriは画面上の認識、アプリごとのより深いコントロール、その他のいくつかの機能強化を獲得するが、ChatGPTのような本格的な会話機能を直接提供することはない。
新しいSiriがリリースされると、iPhoneユーザーはChatGPTやGeminiなどのサードパーティのサービスをそれほど頻繁に利用する必要がなくなるはずだ。しかし、iOS 19.4のリリースにはまだ1年半ほどかかるため、長い待ち時間が残っている。
バークレイズのアナリスト、トム・オマリー氏と彼の同僚は最近、さまざまな電子機器メーカーやサプライヤーと会うためにアジアを訪問した。今週の調査メモでは、この訪問からの主要なポイントをまとめ、アナリストらは、アップル設計の5Gモデムを搭載した第4世代iPhone SEが来年の第1四半期末に発売される予定であることを「確認した」と述べた。これまでの噂と一致して、この時間枠は、新型iPhone SEが現行モデルが2022年に発表されたのと同様に、3月に発表されることを示唆している。
第4世代のiPhone SEは、ベースモデルのiPhone 14と同様のデザインになると予想されており、噂されている機能には、6.1インチのOLEDディスプレイ、Face ID、新しいAシリーズチップ、USB-Cポート、48メガピクセルの背面カメラ1台、Apple Intelligenceのサポートを可能にする8GBのRAM、前述のApple設計の5Gモデムなどがある。
Appleは2018年からiPhone用の独自の5Gモデムの開発に取り組んでいると噂されており、これによりQualcommへの依存を減らし、最終的には排除できるようになる。今年初め、AppleはiPhone発売用のQualcommとの5Gモデム供給契約を2026年まで延長したため、Appleには自社製モデムへの移行を完了する十分な時間がある。Appleアナリストのミンチー・クオ氏は以前、第4世代のiPhone SEとともに、いわゆる「iPhone 17 Air」にはApple設計の5Gモデムが搭載されると語っていた。
アップルの最初の5Gモデムが、クアルコムのモデムに比べて、より高速な速度など消費者に何らかのメリットをもたらすかどうかは不明だ。
2017年、Appleは反競争的慣行と10億ドルの未払いロイヤルティリベートをめぐってQualcommを訴えた。両社は2019年に訴訟を和解し、Appleは同年、Intelのスマートフォンモデム事業の大半を買収した。この買収により、Appleは携帯電話関連の特許ポートフォリオを手に入れ、開発を強化できた。今から4か月後には、ようやくこの努力の成果が見られることになりそうだ。
Appleは2022年3月8日のオンラインイベントで第3世代のiPhone SEを発表した。このデバイスはiPhone 8に似ており、Touch IDボタン、Lightningポート、ディスプレイ周囲の厚いベゼルなど、時代遅れの機能を備えている。米国では、iPhone SEの現在の価格は429ドルからだが、新モデルでは少なくとも若干の値上がりが見られるかもしれない。
Appleアナリストのジェフ・プー氏は本日、香港に拠点を置く投資銀行海通の調査ノートの中で、いわゆる「iPhone 17 Air」の厚さが約6mmになるという最近の噂に同意すると述べた。
「iPhone 17 Slimモデルは厚さ6mmの超薄型デザインになるという最近の噂には同意した」と同氏は書いている。
この測定値が正確であれば、注目すべき点がいくつかある。まず、iPhone 17 AirはiPhone 6の現在の記録である6.9mmを下回り、これまでで最も薄いiPhoneとなる。次に、iPhone 17 AirはiPhone 16やiPhone 16 Proのどのモデルよりも約4分の3の厚さになる。
iPhone 17 Airがさらに薄くなることを期待していた顧客もいるかもしれないが、バッテリーやその他の部品をどれだけ薄くできるかには明らかに限界がある。デバイスの厚さが約6mmになったとしても、過去数年にわたってリリースされてきたますますかさばるモデルと比較すると、それでも驚くほど薄くて軽いものとなるだろう。
iPhone 6以前のモデルはすべて厚さ7.6mmから12.3mmでした。
iPhone 17 Airは史上最薄のiPhoneになる可能性がありますが、Apple製品としては史上最薄ではありません。その記録は2024年版の13インチiPad Proで、厚さはわずか5.1mmです。さらに、前回のiPod nanoの厚さは5.4mmでした。
iPhone 17 Airの噂を追っていない人のために、信頼できる情報筋がいくつか、Appleが来年、再設計された大幅に薄くなったiPhone 17モデルをリリースする予定であると主張しています。デバイスの名前はまだ不明なので、今のところはiPhone 17 Airと呼んでいます。Puは代わりに「iPhone 17 Slim」というニックネームを使用しています。
デバイスのデザインと仕様については相反する噂がありますが、ほとんどの情報筋は、ディスプレイが約6.6インチになることに同意しています。 7月、Appleのサプライチェーンアナリストであるミンチー・クオ氏は、このデバイスには標準のA19チップ、ダイナミックアイランド、シングルリアカメラ、Apple設計の5Gモデムが搭載されると予想していると述べた。
先月、プー氏はiPhone 17 Airのディスプレイが6.6インチになると同意した。同氏はまた、このデバイスにはアルミニウムフレーム、Face ID、シングル48メガピクセルリアカメラ、24メガピクセルフロントカメラ、Apple Intelligence用の8GB RAMが搭載されると予想している。
Appleはおそらく2025年9月にiPhone 17 Airを発表すると思われるため、デバイスの発売はまだ先であり、噂は時間の経過とともに変わる可能性がある。