Jpdenchi.comはお客様に様々な高品質バッテリーを提供するオンラインショップです
Mac がウイルスに感染するかどうか、感染するならウイルス対策ソフトをインストールすべきかどうかという問題は、Apple ファンの間で議論の的となっている。
Mac セキュリティ会社 Moonlock の新しいレポートによると、AI を利用したマルウェアの脅威が高まっているという。しかし一方では、ウイルス対策アプリは脅威レベルが最小限であるにもかかわらずコンピューターの速度を低下させるため、その価値よりも面倒だと考える人もいる。他方では、ハッカーやウイルス作成者の変化し続ける世界に対して警戒を促している人もいる。
すべてが少々混乱しており、どちらの側を信じるべきか判断が難しい場合が多い。しかし、この新しいレポートがハッカーが Mac ユーザーを犠牲にするために使用している戦術の一部に光を当てたことで、すべてが変わりつつあるのかもしれない。これが私たちの判断だ。
Mac はウイルスに感染しないという信念が長年続いており、その信奉者は常識 (たとえば、トレントや海賊版ソフトウェアをダウンロードしない) と Gatekeeper などの macOS 組み込みツールを組み合わせれば、どんな脅威からも保護されると主張しています。
これらの主張には一定の説得力があります。macOS の強力なウイルス対策ツールの組み合わせにより、Mac は Windows PC よりもマルウェアに感染する確率がはるかに低いことは確かです。しかし、Mac がスパイウェア、トロイの木馬、その他のデジタルの悪意に対して完全に無防備であるという考えは的外れです。
実際、過去数年間で Mac ウイルスの脅威が急速に増加しているという報告があり、マルウェア作成者は Apple ファンをターゲットにするためにスキルを磨いています。
人工知能 (AI) チャットボットの同時増加に伴い、ChatGPT などのツールによって初心者のハッカーでも Mac の最も強力な防御を回避できる破壊的なマルウェアを作成できるようになるのではないかという懸念が一部で高まっています。
現在、Mac セキュリティ会社 Moonlock の新しいレポートは、これらの懸念の一部を裏付けているようです。レポートでは、AI チャットボットにコーディングを開始するよう指示するだけでハッカーが機能するマルウェアを作成した事例が挙げられています。
たとえば、Moonlock のレポートには、「barboris」というハッカーが投稿したメッセージが含まれています。このハッカーは、マルウェア フォーラムで ChatGPT によって作成されたコードを掲載しています。そこで barboris は、コーディングの経験はほとんどなかったものの、少し創造的な指示を与えることで ChatGPT に命令を実行させることができたと説明しています。
ただし、パニックになりすぎる前に言っておきますが、ChatGPT は、見た目ほど万能なマルウェア作成ツールではありません。 AI チャットボットを使用する他の経験と同様に、チャットボットは間違いや意味不明な発言をしがちで、ハッカー志望者の 1 日を台無しにする可能性があります。マルウェアの経験がない人が ChatGPT を使用してウイルスを作成した場合、トラブルシューティングして機能するものを作成するのに苦労する可能性があります。
それでも、経験の浅いハッカーが ChatGPT といくつかの効果的なプロンプト、そして十分な忍耐力だけで機能するウイルスをコーディングできることは明らかです。これは今後数年間、注意深く見守る必要があることです。
CNBC によると、Apple の機械学習および人工知能担当シニアディレクターの Benoit Dupin 氏は、ラスベガスで開催された Amazon の AWS re:Invent カンファレンスで、Apple が多くのクラウドサービスで Amazon Web Services のカスタム AI チップをどのように使用しているかについて講演した。Apple はまた、Amazon の最新 AI チップを使用して Apple Intelligence モデルを事前トレーニングすることも検討している。
「私たちは強力な関係を築いており、インフラストラクチャは信頼性が高く、世界中のお客様にサービスを提供できます」と Apple の Dupin 氏は述べた。
Apple が Amazon のカンファレンスに登場し、同社のチップを採用したことは、AI 支出で Microsoft Azure や Google Cloud と競い合う中で、このクラウドサービスに対する強力な支持を示すものである。Apple もこれらのクラウドサービスを利用している。
イベントで講演した Dupin 氏は、Apple が Graviton や Inferntia などの AWS チップを 10 年以上使用して、Siri や検索、App Store、Apple Music、Apple Maps などの機能を強化してきたことを宣伝した。これにより、Apple は Intel や AMD の x86 チップと比較して 40% の効率向上を実現した。
Dupin氏はまた、Appleが現在、最新のAWS AIトレーニングチップであるTrainium2を評価していることを確認した。出演中、デュビン氏はAppleがTrainium2チップで「事前トレーニングの効率が最大50%向上する」と予想していると述べた。
AWSのCEOマット・ガーマン氏は火曜日のCNBCとのインタビューで、Appleは同社のTrainiumチップの早期導入者でありベータテスターだったと語った。
「Appleは私たちのところに来て、『私たちのジェネレーティブAI機能でどう支援してくれるのか、構築するにはインフラが必要だ』と言って、Apple Intelligenceを構築するというビジョンを持っていた」とAWSのCEOマット・ガーマン氏はCNBCのケイト・ルーニー氏に語った。
Appleは今秋、初のメジャーなジェネレーティブAI製品をリリースした。Apple Intelligenceは、通知を要約したり、メールを書き換えたり、新しい絵文字を生成したりできる一連のサービスである。同社によると、今月下旬にはOpenAIのChatGPTと統合され、来年にはSiriがアプリを制御し自然に話す新しい機能を獲得するという。
OpenAI の ChatGPT のような主要なチャットボットとは異なり、Apple の AI へのアプローチは、クラウド内の Nvidia ベースのサーバーの大規模なクラスターに基づいていません。代わりに、Apple は iPhone、iPad、または Mac のチップを使用して可能な限り多くの処理を行い、その後、独自の M シリーズ チップを使用して Apple が運営するサーバーに複雑なクエリを送信します。
Apple が現在、血圧を測定する方法の開発に取り組んでいることは周知の事実です。少なくとも2022年4月には、ブルームバーグのMark Gurman氏は、Apple Watchに血圧監視機能が追加される可能性があると報じている。ガーマン氏は、Appleがこの機能を2024年に導入すると予想したが、それは実現しなかった。
この度、米国特許庁は、血圧監視機能を備えた Apple Watch を対象とした Apple の特許出願を公開しました。
Appleは、収縮期血圧や拡張期血圧などの従来の血圧パラメータは、オシロメトリック測定技術を使用して正確に測定するのが難しいと指摘しています。圧迫測定中の血管の閉鎖および/または開口を含む、血圧測定に関連するイベントをより正確に判定することが望ましい場合がある。
Apple の特許は、液体で満たされた感知チャンバーを使用してユーザーの血圧を測定する血圧測定デバイスを対象としています。
まずプレナムチャンバーが満たされ、感知チャンバーおよび圧力センサーとともにユーザーの血流内で発生する「振動」を検出します。簡単に言えば、血圧は血流を止めるために必要な外部から加えられる圧力です。非侵襲的処置によって血流に圧力が加えられたときに発せられる音または「振動」であるコロトコフ音を測定することができます。
この特許では、チャンバーが液体で満たされていると述べられているが、液体は気体(最終的には空気)とは異なり非圧縮性と考えられているため、液体が空気に対してどのような利点があるのかは不明である。
この特許は、11年の経験を持つAppleのハードウェアエンジニアであるCaleb Hanによって作成されました。しかし、いつものように、Apple が特定のテクノロジーの特許を取得しているからといって、それが次の Apple Watch に実装されるとは限らず、さらにはまったく実装されるわけでもありません。
Apple は、Apple Intelligence によって、Siri をこれまで以上に賢くすることを目指しています。パーソナル アシスタントは、ユーザーについてより多くを学び、アプリでより多くのことを実行し、必要に応じてより賢い仮想アシスタントに権限を委譲できるようになります。
一部の新しい Siri 機能は現在利用可能ですが、一部は 2025 年まで利用できません。このガイドでは、Apple Intelligence によって Siri に新しく追加された機能をすべて紹介します。
Siri は、Apple Intelligence をサポートするデバイスでデザインが刷新されました。Siri を起動したときに表示されていた小さな波長ではなく、iPhone 全体を包み込むピンク/紫/青/オレンジの多彩な光が、Siri がコマンドを聞くと色が変化します。
Siri は会話の言語やリクエストをよりよく理解できるため、言葉につっかえたり、文の途中で考えが変わったりしても、Siri はあなたの言っていることを理解できます。
Siri はリクエスト間のコンテキストも維持できるため、前のリクエストの内容を参照でき、Siri はあなたが話していることを理解します。そのため、Siri を使用してカレンダー イベントを作成する場合、「そこの天気はどうですか?」と尋ねるだけで、Siri は「そこ」がどこにあるかがわかります。
Siri の新しい音声は、より自然な響きです。
Siri に入力する機能が組み込まれているため、Siri に話しかけなくてもパーソナル アシスタントとやり取りできます。この機能を使用するには、iPhone または iPad の下部をダブルタップしてテキスト バーを表示し、そこからリクエストを入力します。
Siri に入力は、Siri に話しかけるのと同じように使用でき、Siri は声を出さずに情報を提供できます。これは、話すことができず、Siri に話しかけてもらいたくない公共の場で便利な機能です。
Apple は Siri に自社のすべての製品について教えているので、機能の使い方やタスクの完了方法を知りたい場合は、Siri に助けを求めることができます。Siri は、iPhone、iPad、Mac の機能の使い方をステップバイステップで説明できます。
iOS 18.2 では、Siri との ChatGPT 統合が利用できます。ユーザーが Siri で処理できないことを質問した場合、ユーザーが許可すれば、ChatGPT が代わりに応答できます。
Siri は ChatGPT を利用し、アプリを切り替えたり他のツールを使用したりすることなく ChatGPT の応答を中継できます。
Siri ChatGPT 統合は、基本的に ChatGPT アプリや Web 上の ChatGPT でできることすべてに使用できます。これは、ChatGPT にアクセスするより簡単な方法です。
画像など、画面上のあらゆるものについて、Siri に質問できます。たとえば、植物の写真がある場合、「これは何ですか?」と尋ねると、Siri は ChatGPT にスクリーンショットを送信し、ChatGPT はコンテキストを提供しようとします。
これは、Web 上の画像、写真、カメラ アプリで表示しているもの、テキストなどで機能します。
ChatGPT はシーンを説明するために使用できます。これは、視力に問題がある可能性のある人にとって便利です。カメラ アプリを開き、Siri を起動して、「これは何ですか?」と尋ねます。目の前にあるものの詳細な説明を提供します。
スクリーンショットから ChatGPT に画像を送信するオプションは、Apple が将来実装する予定の Siri オンスクリーン認識機能とは異なります。
メール、ドキュメント、PDF などについて、ChatGPT は要約を提供できます。「これを要約できますか?」と尋ねると、Siri はスクリーンショットまたはドキュメント全体 (完全な PDF を含む) を送信します。これは、長いドキュメントの内容をすばやく概観するのに便利な機能です。
長い PDF またはドキュメントの場合は、矢印をタップして、スクリーンショットだけでなくドキュメント全体が ChatGPT に送信されるようにしてください。
要約を尋ねる代わりに、ドキュメントに関する具体的な質問をすることができます。保険証券を見ている場合は、「このポリシーの制限は何ですか?」または「除外事項は何ですか?」と尋ねて、よりカスタマイズされた情報を得ることができます。
メールを書いた場合、それを選択してライティング ツールを使用してスペルと文法のエラーをチェックするのではなく、Siri に確認するように頼むことができます。Siri は ChatGPT にスクリーンショットを送信します。「エラーがないか確認してもらえますか?」は、この機能のコマンドとして機能します。
ChatGPT は、書いた内容を書き直したり改良したりするためにも使用できますが、これは Apple 独自のライティング ツールと同じではないことに注意してください。
ChatGPT は、与えられたプロンプトに基づいてテキストをゼロから生成できます。たとえば、Siri に ChatGPT に詩を書いたり、友人に丁寧な手紙を書いたりするように頼むと、ChatGPT はゼロから何かを作成します。
使用できるリクエストの例:
ChatGPT に何かを書いてもらった場合は、コピー アイコンをタップしてクリップボードにコピーし、メモ、メッセージ、ドキュメント、またはメールに貼り付けることができます。
画像を作成することもできます。ChatGPT は Dall-E 3 エンジンを使用して、リアルな AI 生成画像を作成できます。これは、Apple Intelligence では実行できません。画像リクエストの場合、Siri に「[画像を作成したいもの] の画像を作成するように ChatGPT に伝えてください」と指示するのが最も簡単です。なぜなら、Siri に画像を作成するか、画像を生成するように指示するだけでは、多くの場合、Web 画像が表示されるからです。
Siri を介した ChatGPT の最適な使用例の 1 つは、Siri には少々複雑すぎるクエリに対する回答を得ることです。Siri が処理できない質問は、ユーザーの許可を得て ChatGPT に渡されますが、「ChatGPT に質問」と質問を修正することで、Siri に内部 Siri エンジンではなく ChatGPT を使用させることもできます。
たとえば、Xbox コントローラーが使用するバッテリーに関する質問は、ChatGPT ではなく Wikipedia を参照しますが、「Xbox コントローラーが使用するバッテリーについて ChatGPT に質問」と具体的に入力すると、Siri は ChatGPT に質問を提示します。
ChatGPT の回答の方が有益な場合があります。Siri にレシピで卵を置き換える方法を尋ねると、代替案が提示されるだけですが、同じ質問に対する ChatGPT の回答では、卵 1 個に相当する材料を追加したい場合の量が示されます。
Siri が ChatGPT に自動的に問い合わせるクエリの例:
Siri は ChatGPT の助けを借りてこれらすべてのことを行うことができますが、Siri バージョンの ChatGPT には継続性がないため、1 回限りのリクエストではないタスクを完了することが困難です。たとえば、食事プランを作成する場合は、実際の ChatGPT インターフェースを使用すると、1 回のリクエストに頼るのではなく、より多くの会話を行うことができるため、より効果的です。
ChatGPT 統合をオンにする必要があり、その後は各リクエストにユーザーの許可が必要になります。 「ChatGPT リクエストの確認」オプションをオフに切り替えることで、追加の権限をオフにするオプションがあります。
切り替えるには、設定アプリを開き、Apple Intelligence を選択して、ChatGPT をタップします。この機能を無効にすると、Siri は ChatGPT に情報を送信する前に毎回確認しなくなります。
ただし、Siri は、リクエストの確認機能がオフになっている場合でも、ChatGPT にファイルを送信する前に常に許可を求めます。
プライバシーに関しては、ChatGPT を使用するためにログインする必要はなく、Apple も OpenAI もリクエストを記録しません。ただし、有料アカウントでサインインすると、ChatGPT はリクエストのコピーを保持できます。
ChatGPT 統合には、最新バージョンの ChatGPT である ChatGPT-4o を使用する限られた数のリクエストが無料で含まれています。これらが使い果たされると、ChatGPT 統合は、それほど高度ではなく、リソースをあまり消費しない 4o Mini を使用します。
ChatGPT Plus の加入者は、より多くの ChatGPT-4o リクエストを受け取ります。ChatGPT Plus の価格は月額 20 ドルで、ChatGPT Plus をまだ持っていない iPhone ユーザーは、設定アプリの Apple Intelligence セクションから直接サインアップできます。
Apple ユーザーは基本的に ChatGPT の基本プランにアクセスできるため、高度な機能を使用するリクエストは 24 時間ごとにリセットされます。このプランでは、1 日に 2 つの画像を生成できます。
Apple Intelligence で可能なことと ChatGPT 統合でできることには重複する部分もありますが、いくつかの違いもあります。Apple Intelligence には、既に書き込んだ内容を書き直したり編集したりするための Writing Tools がありますが、ChatGPT ではコンテンツを最初から書き込むことができます。
Image Playground、Image Wand、Genmoji では画像を生成できますが、Apple Intelligence ではリアルな画像は生成されません。代わりに、スタイルはアニメーションやスケッチのように見えるものに限定されます。ただし、ChatGPT ではリアルな画像が生成されます。
Apple Intelligence は文書を要約するために使用できますが、テキストを選択し、Writing Tools から [要約] オプションを選択した場合に限ります。Apple Intelligence は PDF や文書に関するより具体的な質問に答えることができないため、ChatGPT はそのようなクエリに対して優位性があります。
Siri を通じて ChatGPT に質問する場合、回答は画面に長く表示されないため、すぐに読む必要があります。Apple は記録も保持しません。
ChatGPT にログインしている場合は、OpenAI アカウントに履歴がありますが、ログインしていない場合は ChatGPT から受け取った情報を保存する方法がなく、ログもありません。
Siri にはまだ開発中の機能がいくつかあり、Apple は来年これらの機能を Siri に追加する予定です。時期はまだ確定していませんが、噂によると春に iOS 18.4 で登場するようです。
Siri はメール、メッセージ、ファイル、写真などを追跡し、ユーザーについてより詳しく学習して、タスクの完了や送信内容の追跡に役立ちます。
Siri は画面に表示されているものを認識し、見ているものに関連するアクションを実行できます。たとえば、誰かが住所をテキストで送信してきた場合、Siri にその住所を連絡先カードに追加するよう指示できます。または、写真を見ていて誰かに送信したい場合は、Siri に頼んで送信してもらうことができます。
Siri はアプリ内やアプリ間でより多くのことができるようになり、現在のパーソナル アシスタントでは不可能なアクションやタスクを実行できるようになります。Siri で何ができるようになるかは完全にはわかりませんが、Apple は期待できる機能の例をいくつか提供しています。
iOS 18 で Siri の Apple Intelligence 機能がすべて実装された後、Apple は大規模言語モデルを利用する次世代の Siri を発表する予定です。Siri の LLM バージョンはすでに開発中であり、ChatGPT などのチャットボットとより競合できるようになります。
LLM Siri は会話を継続することができ、人間と話しているような感覚になります。大規模な言語モデルの統合により、Siri はより複雑なタスクを実行できるようになり、将来的には、Siri は ChatGPT に依存する必要がなくなる可能性があります。
Siri の更新バージョンは、将来的に現在のバージョンの Siri に取って代わります。Apple は、2025 年に iOS 19 の導入と同時に LLM Siri を発表する予定ですが、アップデートは 2026 年春までリリースされない可能性があります。
Apple Intelligence はプライバシーを考慮して設計されており、多くのリクエストはデバイス上で処理されます。たとえば、すべての個人コンテキストの学習はデバイス上のインテリジェンスによって行われ、iPhone または iPad から何も出ません。
クラウドサーバーの処理能力を必要とするリクエストについては、Apple は Apple シリコンマシン上のプライベートクラウドコンピューティングを使用して、ユーザーのプライバシーを保護しながら複雑なタスクを処理します。Apple は、データは保存されず、ユーザーのリクエストにのみ使用されることを約束しています。
Apple Intelligence は、iPhone 15 Pro、iPhone 15 Pro Max、すべての iPhone 16 モデル、A17 Pro チップ搭載の iPad mini、Apple シリコン チップ搭載のすべての iPad、Apple シリコン チップ搭載のすべての Mac で利用できます。
Image Wand 統合を備えた iOS 18.2 と iPadOS 18.2 は 12 月にリリースされる予定で、Apple は 12 月 9 日のソフトウェア リリースを計画しているようです。
Apple の 2024 年秋の Mac 発表には、新しい iMac、Mac mini、MacBook Pro モデルが含まれており、いずれも Apple の M4 チップのバリエーションを搭載してデビューしました。Apple は、今後 12 か月以内に残りの Mac ラインナップを M4 シリーズ プロセッサで更新する予定で、これにより Apple がすべての Mac で同じチップ世代を使用するのは初めてとなります。
つまり、来年には新しい M4 バージョンの MacBook Air、Mac Studio、Mac Pro モデルが期待できます。最新の噂によると、各マシンの発売時期と、どのようなアップグレードが期待できるかについて、次のとおりです。
Apple は 2024 年 3 月に Apple の M3 チップを搭載した更新された 13 インチおよび 15 インチ MacBook Air モデルを発売しました。Bloomberg の Mark Gurman によると、同社は 2025 年初頭の発売に先立ち、まもなく M4 バージョンの生産を開始する予定です。 MacBook Air モデルには新しい設計変更は予定されておらず、焦点は M4 チップに置かれるが、Apple がベース M3 モデルを 8GB から 16GB にアップデートしたため、ベースモデルには少なくとも 16GB の RAM が搭載される。M4 MacBook Air には、新しい 12MP センターステージカメラとデスクビューサポートも搭載される可能性があり、これは現在の 1080p FaceTime HD カメラよりも改善されており、新しい M4 iMac と M4 MacBook Pro モデルの両方がアップグレードされたカメラを搭載してデビューした。これらのマシンは来年の 1 月から 3 月の間に発売される。
Apple は、2025 年初頭に M4 MacBook Air がリリースされた後、Mac Studio をリフレッシュする予定である。M4 プロセッサのバリエーション、おそらく M4 Ultra または Max チップが搭載される。現在のモデルには、M2 Max と M2 Ultra の両方のバリエーションがある。 M4 Proチップを搭載したMac miniとAppleの最新のハイエンドMacBook ProモデルにThunderbolt 5ポートが搭載されていることを考えると、Mac Studioもそれらを採用することは間違いありません。マーク・ガーマン氏は、Mac StudioはMacBook Airと並行してアップデートされる予定だったが、3月から6月の間にリフレッシュされる予定だと主張しています。以前のレポートでは、Mac Studioは2025年半ばに発売されると述べていたため、何が変わったのかは不明です。
Appleは2023年6月にMac Proを最後にアップデートし、M2 Ultraチップを追加してIntelチップからの移行を正式に完了しました。マーク・ガーマン氏によると、Appleは2025年夏にMac Proをリフレッシュする予定です。Mac Studioと同様に、次のMac ProはM3シリーズをスキップします。代わりに、コードネーム「Hidra」のM4チップの最高級バージョンが搭載されます。チップの説明に基づくと、「Ultra」または「Extreme」チップとして位置付けられる可能性があります。ガーマン氏は、次期 Mac Pro の M4 Ultra チップは「おそらく」最大 32 コアの CPU と最大 80 コアの GPU を搭載するだろうと述べている。これは、M4 Max の最大 16 コアの CPU と最大 40 コアの GPU の 2 倍となる。次期 Mac Pro には Thunderbolt 5 ポートが搭載される見込みだ。また、最大 512GB のメモリもサポートされる可能性があり、これは現在の 192GB の制限を大幅に上回る増加となる。
JPdenchi.com では、ビジネスやプロフェッショナルのニーズに最適なバッテリーを入手できます。バッテリーに関するあらゆるニーズについては、今すぐお問い合わせください。