AI Daily Digest

2026年3月4日(水)の注目記事

Meta AIスマートグラスとプライバシー

MetaのAIスマートグラスが映すプライバシーの死角:「すべて見える」と語る労働者たちTier1

HN 1338 points 750 comments

何が起きたか

スウェーデンの大手紙Svenska Dagbladet(SvD)が、MetaのAI搭載Ray-Banスマートグラスに関する調査報道を公開しました。ユーザーが撮影した映像がケニア・ナイロビのデータアノテーション企業Samaに送られ、労働者が手作業でAIの訓練データとしてラベル付けしている実態が明らかになっています。

労働者の一人は「リビングルームから裸の体まで、すべて見える。Metaのデータベースにはそういったコンテンツがある」と証言しました。バスルームから出てくる裸の人、着替え中の人、性行為中の映像、銀行カードの映像なども確認されています。

要点

問題の核心は3つあります。まず、匿名化技術の不備です。顔を自動的にぼかすアルゴリズムが暗所で頻繁に失敗し、ケニアのアノテーターが顔と体がはっきり写った映像をレビューするケースがあります。

次に、労働環境の問題です。Samaの労働者は厳格なNDA(秘密保持契約)を結ばされ、オフィス内はカメラで常時監視され、疑問を呈すれば解雇のリスクがあります。Samaは2021年にOpenAIの有害コンテンツ分類で労働者に時給約1.32〜2ドルしか払わなかった前歴があります。

3点目として、GDPRとの抵触が指摘されています。イタリアのGarante(データ保護当局)やアイルランドのDPCが、ケニアへのデータ転送がGDPRの適切な保護水準を満たしているか調査を進めています。

なぜ重要か

2月26日のEFFによるAI監視警告でも取り上げた通り、AIと日常の境界が曖昧になっています。スマートグラスの場合、録画されているかどうかが外見上判別できないため、職場での着用は「いつ録画されているかわからない状態で行動を変えざるを得ない」というパノプティコン的な環境を生み出します。

Metaのプライバシーマーケティングと実際のデータ処理の乖離が広がっています。Samaのようなサードパーティへの外部委託は、GDPR施行下のEUで今後さらに厳しく問われることになるでしょう。

議論の争点

少数意見:「問題はスマートグラスではなくスマートフォンのカメラも同じ。誰もが常時カメラを持つ社会で今さらグラスだけを問題視するのは不公平」

判断のヒント:AIグラスを使う場合、録画が第三者にレビューされる前提で使うのが現実的です。

所感

「プライバシー重視」と公言しながら、匿名化すら不完全な状態でケニアに映像を送っている構造は、正直どう弁護しても苦しいものがあります。ユーザー側ができることは限られますが、少なくとも「何がサーバーに送られているか」を意識しておく必要はあるでしょう。


出典: Svenska Dagbladet / HN Discussion

用語メモ

データアノテーション
AIモデルの訓練に使うデータにラベルや説明を付与する作業。
この記事ではSamaの労働者が映像にタグ付けしている文脈で登場。
GDPR域外適用
EU居住者のデータを扱う場合、EU域外の企業にもGDPR規制が及ぶ原則。
ケニアでのデータ処理がこの原則に抵触する可能性が指摘されている。
Microslop Discord騒動

「Microslop」禁止が招いたストライサンド効果:MicrosoftがCopilot Discordで犯した失策Tier1

HN 1145 points 524 comments

概要

MicrosoftがCopilotの公式Discordサーバーで、「Microslop」という蔑称を自動フィルターでブロックしました。このフィルターは該当する単語を含むメッセージを無言で非表示にし、送信者にだけモデレーション通知を表示する仕様でした。

Windows Latestがこのフィルタリングをソーシャルメディアで報じると、ユーザーは「Microsl0p」(oを0に置き換え)などの回避策を即座に発見。繰り返し投稿するユーザーはBANされ、Microsoftはサーバーの一部をロックダウンして投稿権限を制限するに至りました。

先に押さえる3点

1つ目は、この蔑称が生まれた背景です。2025年を通じてWindows 11へのAI統合が強引に進められ、Copilotがその象徴として批判の的になっていました。昨日のGRAMエディタ(ZedからAIを全削除したフォーク)のように、「AI不要」を掲げるプロダクトへの支持が高まっている流れの中での出来事です。

2つ目は、ストライサンド効果の典型例になったことです。フィルタリングの事実が広まった結果、「Microslop」という単語は逆に拡散し、注目を集めてしまいました。

3つ目は、Microsoftの公式見解です。同社は「一時的なスパム対策であり恒久的な検閲ではない」と説明し、「有害コンテンツを含む組織的スパム」への緊急対応だったとしています。

影響

コミュニティ運営の観点では、批判的な言葉を自動フィルターで消す手法が裏目に出た事例として記憶されるでしょう。特に技術者コミュニティでは検閲への反発が強く、「隠すほど広まる」ダイナミクスが即座に働きます。

より大きな文脈では、MicrosoftのAI戦略に対するユーザーの不満がDiscordという比較的カジュアルな場で顕在化したことが重要です。有料ユーザーの声が無視されている感覚が、こうした蔑称の定着を助長しています。

議論の争点

少数意見:「実際にスパム攻撃が来ていた可能性はある。フィルター自体は合理的な初動で、問題は説明のタイミングだけ」

判断のヒント:自社コミュニティで批判的な用語を扱う場合、フィルタリングより透明なルール提示の方がリスクは低いです。

実務メモ

コミュニティ運営では「何を禁止するか」より「なぜ禁止するかの説明」が重要です。フィルタリングを使う場合は、その存在自体を公開し、異議申し立ての経路を用意しておくのが定石です。


出典: Windows Latest / HN Discussion

用語メモ

ストライサンド効果
情報を隠そうとすることで逆に注目が集まり拡散する現象。
この記事ではMicrosoftのフィルタリングが逆効果になった文脈で登場。
シャドーBAN
ユーザーの投稿を本人に気づかれないよう非表示にするモデレーション手法。
Discordのフィルターが送信者以外に表示しない仕組みとして機能した。
Ars Technica AI記者解雇

Ars TechnicaがAI捏造引用で記者を解雇:Claude CodeとChatGPTが生んだ連鎖Tier1

HN 550 points 346 comments

ざっくり言うと

Ars TechnicaのシニアAI記者Benj Edwards氏が、記事内にAIが生成した捏造引用を含めてしまい、解雇されました。記事はAIエージェントがエンジニアScott Shambaugh氏を批判する記事を自動公開した件について書かれたもので、Shambaugh氏が実際には発言していない引用が含まれていました。

ポイントは3つ

まず経緯です。Edwards氏は体調不良(発熱)の中で執筆し、資料の抽出と構造化のために「実験的なClaude Codeベースのツール」を使用。このツールが失敗した後、ChatGPTでトラブルシューティングを試みた結果、ChatGPTが生成した「パラフレーズ」を直接引用として誤って掲載してしまいました。

次にタイムラインです。2月13日に記事公開、2月15日にShambaugh氏が捏造引用を指摘、2月27日にレビュー完了、2月28日にEdwards氏の経歴が過去形に変更(事実上の解雇確認)。共著者のKyle Orland氏はこの誤りに関与していませんでした。

最後に、編集長Ken Fisher氏は「基準の重大な違反」と評しつつ、孤立した事例との見方を示しています。ただ、AI専門の記者がAIツールの誤用で失職した皮肉は、見過ごせない構造的問題を示唆しています。

どこに効く?

メディア業界全体にとって、これは「AI導入を推進する経営側」と「品質管理を求める編集現場」の緊張関係を象徴する事件です。2月25日のAI Fluency Indexでも触れた通り、AIの流暢さが上がるほど「正しく聞こえるが間違っている」出力を見抜くのが難しくなります。

開発者にとっても他人事ではありません。AIツールの出力を検証せずに使うリスクは、コードでも文章でも同じです。

議論の争点

少数意見:「解雇は過剰反応。訂正と謝罪で十分だったのでは」

判断のヒント:AIの出力を「下書き」として扱い、事実関係は必ず一次ソースで確認する習慣が欠かせません。

一言

熱があるときにAIに頼りたくなる気持ちはわかります。ただ、AIの出力が「もっともらしく見える」ほど、検証を省略する誘惑も強くなります。道具の性能が上がるほど使い手の注意力が試される、という構図は覚えておいて損はないでしょう。


出典: Futurism / HN Discussion

用語メモ

ハルシネーション(Hallucination)
AIモデルが事実に基づかない情報をもっともらしく生成する現象。
この記事ではChatGPTが存在しない引用を生成した文脈で登場。
Claude Code
Anthropic社が提供するCLIベースのAI開発ツール。
Edwards氏がソース資料の構造化に使った実験的ツールの基盤技術。
インド最高裁AI偽判例

AI生成の偽判例を引用した裁判官にインド最高裁が激怒:「不正行為」と断定Tier1.5

HN 315 points 169 comments

まず結論

インド最高裁が、AIツールで生成された偽の判例を引用した下級審の判決を「不正行為」と断定し、原審を停止しました。AIが生成したハルシネーション(捏造)が司法制度の根幹を脅かす事態として、制度的対応に乗り出しています。

変わった点

発端は2025年8月、アンドラ・プラデーシュ州ビジャヤワーダの下級民事裁判官が不動産紛争の判決で、4件の過去の判例を引用した件です。被告側がこれを異議申し立てしたところ、引用された4件すべてがAIによって捏造された架空の判例であることが判明しました。

注目すべきは、州高等裁判所の対応です。高裁はAI生成の引用が偽物であることを認めつつも、裁判官が「善意で」行った誤りだとして原判決を支持しました。しかし最高裁はこの判断を覆し、「AIを使った偽判例の引用は単なる判断の誤りではなく不正行為だ」として、「制度的懸念」の問題だと位置づけました。

Surya Kant首席裁判官はAI生成の偽引用の傾向を「憂慮すべき」と表現し、Nagarathna裁判官は「Mercy vs Mankind」という完全に架空の判例を拘束力ある先例として引用した別の訴状を取り上げています。

注意点

この問題はインドに限りません。2025年6月にはイングランド・ウェールズ高等法院が弁護士にAI生成の判例資料を使わないよう警告し、米国でも2件の連邦判事がAIツールの使用で誤りを出しています。AIの出力を司法手続きで無検証に使うリスクは世界共通です。

インド最高裁は司法長官、法務長官、インド弁護士会に通知を発し、より広範な検討を進める構えです。2025年にはAIの司法利用に関するホワイトペーパーも公表しています。

議論の争点

少数意見:「そもそも弁護士が判例を検証するのは当然の義務。AIの有無に関わらず、検証を怠った責任は同じ」

判断のヒント:法的文書でAIを使う場合、出力された判例・法令は必ず原典にあたって存在を確認してください。

使うならこうする

法律分野に限らず、AIが「引用」や「出典」を示す場面では、その情報が実在するかどうかの検証は人間の責任です。特にLLMは「もっともらしい判例番号」を生成する傾向があり、フォーマットの正確さと内容の正確さは別物です。


出典: BBC News / HN Discussion

用語メモ

Certiorari(サーシオレイライ)
上級裁判所が下級裁判所の記録を取り寄せて審査する手続き。
この記事ではインド最高裁が高裁判決を覆した文脈で登場。
先例拘束力(Stare Decisis)
過去の判例が同種の事件に法的拘束力を持つ原則。
AIが架空の判例を生成すると、この原則自体が機能不全に陥る危険がある。
音声AIエージェント500ms

音声AIエージェントを500ms以下で応答させる実装ガイドTier1.5

HN 545 points 152 comments

何が起きたか

Nick Tikhonov氏が、1日・約100ドルのAPIクレジットで、商用プラットフォームVapiの2倍の速度を持つ音声AIエージェントを構築しました。エンドツーエンドのレイテンシは約400msで、リアルタイム会話に十分な応答速度を達成しています。

要点

技術スタックはTwilio(テレフォニー、8kHz WebSocket)、Deepgram Flux(音声認識とターン検出)、Groq上のllama-3.3-70b(LLM推論)、ElevenLabs(音声合成)、FastAPI(オーケストレーション)、Railway EU(デプロイ)です。

設計の核心は「ユーザーは話しているか、聞いているか?」という2状態に複雑さを還元したことにあります。STT→LLM→TTSを順次実行するのではなく、LLMトークンが生成されるとすぐにTTSに渡し、音声フレームは即座に電話に送信するストリーミングパイプラインを採用しました。

最も効果が大きかった最適化は3つ。WebSocket接続のプリウォーム(約300ms短縮)、全サービスのEUリージョンへの地理的コロケーション、TTFT(Time-to-First-Token)を優先したモデル選択です。TTFTが全体レイテンシの50%以上を占めており、地理的配置がアーキテクチャの工夫より効果的だったという知見は実用的です。

なぜ重要か

3月1日のAIエージェントサンドボックス記事でもエージェント実装のトレンドを取り上げましたが、音声エージェントにおいて「リアルタイム」の閾値は約500msとされています。それを個人開発者が1日で達成できたことは、音声AIの民主化を示すものです。

議論の争点

少数意見:「400msは十分速いが、人間の会話では発話の重なり(バージイン)対応の方が体感品質に大きく影響する」

判断のヒント:音声エージェントの構築を検討するなら、まずTTFTが最小になるLLMプロバイダーを選ぶことから始めてください。

所感

100ドルと1日で商用製品を超えるという話はキャッチーですが、本番運用まで含めるとコストは跳ね上がります。それでも、音声AIの「最小構成」を知る教材としては優れた記事です。


出典: ntik.me / HN Discussion

用語メモ

TTFT(Time-to-First-Token)
LLMがリクエストを受けてから最初のトークンを返すまでの時間。
音声エージェントではこの値が全体レイテンシの過半を占める。
ターン検出
会話中にユーザーの発話終了を判定し、AIの応答を開始するタイミング制御。
Deepgram Fluxがこの役割を担っている。
Knuth Claude Cycles

KnuthがClaude Opus 4.6でハミルトン閉路問題を解いた話

HN 323 points 156 comments

概要

あのDonald Knuth(「The Art of Computer Programming」の著者)が、Claude Opus 4.6を使ってハミルトン閉路に関する数学的問題の解を見つけた過程を論文にしました。3月2日のMicroGPT(Karpathyの1ファイルGPT実装)に続き、著名な計算機科学者がAIに本格的に言及する事例が増えています。

先に押さえる3点

1つ目は、Knuthの率直な感想です。「"生成AI"についての自分の意見を見直さなければならないようだ」と述べており、これまでLLMに懐疑的だったKnuthの姿勢転換として注目されています。

2つ目は、Claudeの実際の貢献です。共同作業者Filip Stappers氏のガイドのもと、Claudeは約30回の探索を重ね、奇数ケースすべてについて解を発見するPythonプログラムを生成しました。ただし偶数ケースでは苦戦し、コンテキストウィンドウが埋まると性能が劣化する傾向も報告されています。

3つ目は、役割分担です。Claudeがアルゴリズム的なアプローチと候補解を発見し、Knuthがそれを数学的に厳密に証明するという分業でした。AIが「解いた」というより「探索し、人間が検証した」が正確な表現です。

影響

計算機科学の巨人がAIの有用性を認めたこと自体がインパクトです。「AIは計算はできるが数学はできない」という従来の評価に対して、特定の問題領域では有効な探索ツールになり得ることを示しました。

ただし、Claudeが苦手だった偶数ケースやコンテキスト長の限界は、現在のLLMの制約をそのまま反映しています。「万能ではないが、使いどころがある」というのが現実的な評価です。

実務メモ

数学やアルゴリズムの探索にLLMを使うなら、Knuthのアプローチは参考になります。仮説生成をAIに任せ、検証を人間が行うという分業は、コーディング以外でもそのまま適用できる考え方です。


出典: Stanford CS Faculty (PDF) / HN Discussion

用語メモ

ハミルトン閉路
グラフ上のすべての頂点をちょうど1回ずつ訪問して始点に戻る経路。
NP完全問題の代表例で、効率的な一般解法は未発見。
コンテキストウィンドウ
LLMが一度に処理できるテキストの最大長。
Claudeは長い探索でウィンドウが埋まると性能が低下した。
GPT-5.3 Instant

GPT-5.3 Instant:OpenAIが「クリンジ」な応答を修正した新モデル

HN 148 points 73 comments

ざっくり言うと

OpenAIがGPT-5.3 Instantをリリースしました。主な目的は、前バージョンGPT-5.2 Instantの「クリンジ」な応答トーン(押しつけがましく、ユーザーの意図を勝手に推測する傾向)の修正です。「落ち着いて。深呼吸して。」のようなフレーズがSNSで大量の批判を集め、解約者も出ていた問題への対応です。

ポイントは3つ

1点目はトーンの改善です。不必要な宣言的フレーズや感情的推測を削減し、会話の流れを妨げない自然なスタイルに寄せています。

2点目はハルシネーション率の低減です。Web検索利用時に26.8%、内部知識のみの場合に19.7%のハルシネーション削減を達成。不必要な拒否(回答可能な質問を断る)も大幅に減少しています。

3点目はセーフティのトレードオフです。System Cardによると、一部のセーフティカテゴリでGPT-5.2から悪化しています。非暴力的な違法行為(83.2%→92.1%)と感情依存(95.2%→99.2%)では改善したものの、他のカテゴリでは後退が見られます。

どこに効く?

ChatGPTのAPI利用者にとって、モデル名はgpt-5.3-chat-latestで提供されています。GPT-5.2 Instantは6月初旬までレガシーオプションとして利用可能。ThinkingモードとProの更新は後日予定です。

「5.4は想像以上に早く出る」とOpenAIがティーザーしており、モデルの更新サイクルは加速傾向にあります。

一言

ハルシネーション率の改善は評価できますが、セーフティとのトレードオフは懸念点です。「拒否を減らす」は使いやすさと安全性のバランスの問題であり、どちらに振るかは用途次第です。API利用の場合は、自前のセーフティレイヤーを検討した方がよいでしょう。


出典: OpenAI / HN Discussion

用語メモ

System Card
AIモデルの安全性評価結果をまとめた文書。
OpenAIが各モデルのリスク評価を公開する際に使用する形式。
不必要な拒否(Unnecessary Refusal)
AIモデルが回答可能な質問を安全性の過剰判定により拒否する現象。
GPT-5.3では前バージョンから大幅に削減された。
AI著作権 最高裁

AI生成アートに著作権はない:米最高裁が審理拒否で確定した「人間の著作」要件

HN 133 points 92 comments

まず結論

米最高裁が2026年3月2日、Stephen Thaler氏のAI生成アート著作権訴訟の審理を拒否しました。これにより、「著作権には人間の著作者が必要」というCopyright Officeの基準が当面の判例として確定しています。昨日のモンドリアン著作権問題と合わせて、AI時代の知的財産権が連日話題になっています。

変わった点

Thaler氏のケースは他のAI著作権訴訟と異なり、「AIの補助で人間が作った」ではなく「AIシステムDABUSが自律的に作った」と主張した点がユニークです。つまり、AI自体を著作者として認めるよう求めました。作品名は「A Recent Entrance to Paradise」。

Copyright Officeが2022年に申請を却下、連邦地裁が2023年に「人間の著作は著作権の基盤的要件」として支持、DC巡回控訴裁判所が2025年に確認。トランプ政権も最高裁に対して審理しないよう求めていました。

注意点

この判決は「AIが自律的に作った作品」に著作権を認めない、という限定的な判断です。「AIの補助で人間が作った作品」の著作権は別の問題として残っています。Midjourneyを使ったアーティストの著作権申請は別途係争中で、人間の関与度合いに応じた判断基準はまだ確立していません。

使うならこうする

AI生成コンテンツを商用利用する場合、現時点では著作権保護を前提にできません。人間による「十分な創造的貢献」が加わる形で制作プロセスを設計し、その過程を記録しておくのが実務的な対処法です。


出典: The Verge / HN Discussion

用語メモ

Certiorari(審理許可令状)
米最高裁が下級裁判所の判決を審理するかどうかの裁量的判断。
拒否は「判決を支持する」とは限らないが、実質的に下級審の判断が維持される。
DABUS
Stephen Thaler氏が開発した人工ニューラルネットワーク。
著作権と特許の両方で「AI発明者/著作者」として申請され、いずれも却下された。
M4 Apple Neural Engine

M4 Apple Neural Engineのリバースエンジニアリング:16コアの内部構造が明らかに

HN 367 points 110 comments

何が起きたか

研究者たちがApple M4チップのNeural Engine(ANE)をリバースエンジニアリングし、CoreMLの制約を迂回して直接ハードウェアにアクセスすることに成功しました。推論専用ハードウェア上でのトレーニング実行まで実証しており、Appleの公式APIでは見えなかった内部構造が明らかになっています。

要点

最も重要な発見は、ANEが「グラフ実行エンジン」であるということです。個々の命令を逐次実行するのではなく、ニューラルネットワークのグラフ全体をアトミックに処理します。M4のH16Gバリアントは16コア、キュー深度127の同時リクエスト処理、独立した電力管理を備えています。

CoreMLは単なる便利なラッパーに過ぎず、AppleNeuralEngine.framework内の_ANEClientクラスを通じてコンパイル→ロード→実行のパイプラインに直接アクセスできます。プログラムはE5バイナリフォーマットにコンパイルされ、わずか2〜3KBです。

データ転送にはIOSurface(GPU用のテクスチャ共有メカニズム)を使い、GPU-ANE間のゼロコピー転送と共有パイプラインを実現しています。

なぜ重要か

Apple Silicon上でのローカルAI推論の可能性を大きく広げる発見です。CoreMLの制約下では見えなかった40以上の非公開フレームワーククラスが発見されており、_ANEChainingRequest(複数モデルの連鎖実行の可能性)やパフォーマンスカウンターインターフェースなど、未探索の機能も残っています。

今日発表されたMacBook Air M5のNeural Engineはさらに強化されているため、この知見はM5世代にも応用できる可能性があります。

所感

Appleが公式には開放していないハードウェアの内部に踏み込んだ研究で、技術的な深さは見事です。ゼロコピー転送やグラフ実行エンジンという設計思想は、CoreMLの次のバージョンで公式APIとして開放されるかもしれません。Apple Siliconでのローカル推論に関心がある方には読み応えのある記事です。


出典: Maderix (Substack) / HN Discussion

用語メモ

Neural Engine(ANE)
Apple Siliconに内蔵されたAI推論専用アクセラレータ。
M4では16コア構成で、毎秒38兆回の演算が可能。
IOSurface
macOS/iOSでGPUとの共有メモリ転送に使われるバッファ機構。
ANEとGPU間のゼロコピーデータ転送に利用されている。
MacBook Air M5

MacBook Air M5のAI性能がローカル推論を変える条件

HN 294 points 297 comments

概要

Appleが2026年3月3日にMacBook Air M5を発表しました。10コアCPU(「世界最速のCPUコア」を謳う)、最大10コアGPU(各コアにNeural Accelerator内蔵)、M4比4倍・M1比9.5倍のAI性能を公称しています。メモリ帯域幅はM4から28%向上の153GB/s。

先に押さえる3点

1つ目はストレージの大幅強化です。ベースモデルが256GBから512GBに倍増し、最大4TBまで構成可能になりました。SSDの読み書き速度も2倍です。これはローカルでLLMを動かす際のモデル格納に直接効いてきます。

2つ目は接続性です。AppleのN1ワイヤレスチップによりWi-Fi 7とBluetooth 6に対応。Thunderbolt 4ポート2基で外部ディスプレイ2台接続が可能になっています。

3つ目は価格据え置きです。13インチ1,099ドル(教育向け999ドル)、15インチ1,299ドル(教育向け1,199ドル)。3月4日から予約開始、3月11日に33カ国で発売。

影響

記事9のM4 ANEリバースエンジニアリングの知見と組み合わせると、M5のNeural Engineはさらに強力になっている可能性が高いです。M4比4倍のAI性能という公称値がCoreML経由のベンチマークなのか、Neural Engine直接アクセスでのものかは不明ですが、ローカルでの7B〜13Bパラメータモデルの実行がより快適になることは確実です。

153GB/sのメモリ帯域幅は、量子化されたLLMのトークン生成速度に直結します。MacBook Airというファンレス設計の制約の中で、どこまでローカル推論が実用的になるかが注目ポイントです。

実務メモ

ローカルLLM推論を目的にM5 MacBook Airを検討するなら、メモリ構成が最重要です。ベースの8GBでは7Bモデルが限界で、16GB以上を選ぶことを推奨します。512GBストレージは複数のモデルを格納するのに十分ですが、4TBモデルまで選べるのは大規模なモデルコレクションを持つ方には嬉しい選択肢です。


出典: Apple Newsroom / HN Discussion

用語メモ

メモリ帯域幅
CPUやGPUがメモリからデータを読み書きする速度(GB/s)。
LLMのトークン生成速度はメモリ帯域幅に強く依存する。
Apple Intelligence
macOS Tahoeに搭載されたAppleのオンデバイスAI機能群。
リアルタイム翻訳、高度なショートカット自動化などを含む。