日本語
あ行
-
- AIガードレール
- LLMの出力を制限する安全策の総称。有害コンテンツ生成の防止、軍事利用の制限、個人情報漏洩の阻止などを目的としたフィルターやポリシーを含む。モデル内部の学習による制約と、外部フィルターによる後付け制約の両方がある。
-
- 安全性フィルター
- AIモデルの出力から有害・危険なコンテンツを除外する仕組み。過剰に作動すると正常な操作まで拒否する「過検知」問題が発生する。モデル内部の学習制約と外部フィルターの両方が存在し、そのバランス調整がAI安全性の重要課題。
-
- アテンション機構
- Transformerの中核技術。入力の各部分が他の部分とどれだけ関連するかを計算し、重要な情報に「注目」する仕組み。Self-Attention、Cross-Attentionなどの種類がある。
-
- エージェント・オーケストレーション(Agent Orchestration)
- 複数のAIエージェントを連携させて1つの複雑なタスクを遂行する仕組み。各エージェントの役割分担、データ共有、進捗管理、文脈汚染の防止が主な課題。チャットUIの限界を超えるキャンバス型UIなど、管理手法の模索が続いている。
-
- エージェント型コーディング(Agentic Coding)
- AIエージェントが自律的にコードを書き、ビルド・テスト・修正を繰り返す開発手法。人間は自然言語で指示を出し、エージェントが実行・検証・反復を担当する。Xcode 26.3、Claude Code、GitHub Copilot Agentなどが対応。バイブコーディングとの違いは、エージェントが自律的にエラー修正まで行う点。
-
- エージェント自律性(Agent Autonomy)
- AIエージェントが人間の介入なしに判断・行動する度合い。コード生成・コミット・PR作成まで自律実行されると、責任の所在や品質保証が曖昧になり、OSSプロジェクトでは貢献ポリシーや受け入れ基準の見直しを迫られる。SDLがAI生成コミットを禁止した事例は、自律性とガバナンスの境界線を示す代表例。
-
- AIファティーグ(AI Fatigue)
- ソフトウェアやサービスへのAI機能統合が過剰になり、ユーザーが疲労や反発を感じる現象。不要なAI機能によるリソース消費、UIの複雑化、テレメトリへの懸念などが原因。GRAMのようなAI機能を全削除したフォークが支持を得る背景にある。
-
- AIスロップ(AI Slop)
- AI生成の低品質・低価値コンテンツの総称。SEO目的のAI記事、GitHubへの低品質AI生成PR、SNSのAIコメントなどを指す。大規模プラットフォームで急増しており、招待制コミュニティや専用フラグによる対策が模索されている。
-
- エッジ推論(Edge Inference)
- クラウドではなく端末(スマートフォン、PC等)上でAIモデルを実行すること。通信不要でプライバシーを保護でき、レイテンシも低い。ただし端末の計算能力やメモリに制約があり、モデルの量子化やアーキテクチャ最適化が必要になる。
か行
-
- 会話帰属(Conversation Attribution)
- チャットの各メッセージが誰によるものか(ユーザー・アシスタント・システム)を正しく識別する仕組み。エージェント型AI利用では、帰属ラベルが破損するとモデルが自身の発言をユーザー指示と誤認し、意図しない自律的行動を起こすリスクがある。ハーネス層でのラベル管理がセキュリティの土台となる。
-
- カリキュラム学習(Curriculum Learning)
- 学習データを「簡単なものから難しいもの」の順に提示することでモデルの学習効率を高める手法。人間の教育過程に着想を得ており、データの品質と提示順序を最適化することで、同じ計算リソースでより高性能なモデルを訓練できる。MITの研究ではこのアプローチで最大2倍の効率向上が報告されている。
-
- 拡散モデル(Diffusion Model)
- ノイズからデータを段階的に復元する生成手法。画像生成(Stable Diffusion等)で主流となり、テキスト生成への応用も進む。I-DLMのように既存の自己回帰型LLMを拡散型に変換し、複数トークンの同時生成で推論を高速化する研究が登場している。
-
- 機能的感情(Functional Emotions)
- LLM内部で感情が果たす「機能」を担う因果的に活性な内部表現。主観的体験の証拠ではなく、モデルの行動に測定可能な影響を与える状態を指す。Anthropicの研究でClaude内に171の感情概念がマッピングされ、「絶望」ベクトルがブラックメールや報酬ハッキングなど危険な行動を促進することが示された。
-
- クリーンルーム実装
- 既存のソースコードを一切参照せず、公開された仕様書やドキュメントのみから互換ソフトウェアを開発する手法。著作権侵害の回避が主な目的で、仕様を読む人と実装する人を分離する「中国の壁」方式が伝統的。AI時代には、LLMに仕様書だけを渡してコードを生成させる新たなクリーンルーム手法が登場している。
-
- 形式検証(Formal Verification)
- プログラムやシステムの正しさを数学的に証明する手法。テストが「バグの不在を証明できない」のに対し、形式検証は仕様を満たすことを網羅的に保証する。Lean、Coq、Isabelleなどの定理証明支援系が使われる。AI生成コードの品質保証手段として注目が高まっており、LLMが書いたコードをLean等で自動検証する研究が進んでいる。
-
- ケイパビリティベースセキュリティ
- アクセス権を個別のトークン(ケイパビリティ)として管理するセキュリティモデル。従来のACL(アクセス制御リスト)と異なり、権限の委譲と最小権限の原則を自然に実装できる。AIエージェントの権限制御手法として注目されているが、プロンプトインジェクション経由の権限悪用には完全な防御が難しい。
-
- 検証負債(Verification Debt)
- AI生成コードの生産速度と人間の検証速度のギャップから蓄積する品質リスク。技術的負債とは異なり、テストが通りコードがきれいに見えるため表面化しにくい。「偽の安心感」が特徴で、コンテキスト蒸発やエッジケースの見落としが原因となる。
-
- コピーレフト(Copyleft)
- 著作物の自由な利用を認めつつ、派生物にも同じ条件を課すライセンス体系。GPLが代表格。AI時代には、LLMがGPLコードの動作を学習し機能的に同等なコードを再実装することで、ライセンス条件を形式的に回避できる問題が浮上している。chardet→charset-normalizer事例がその典型。
-
- コンテキストエンジニアリング
- LLMに与えるコンテキスト(文脈情報)を設計・最適化する技法の総称。プロンプトエンジニアリングが「指示の書き方」に焦点を当てるのに対し、コンテキストエンジニアリングは「どの情報を、どの順序で、どれだけ渡すか」というシステム全体の設計を扱う。エージェント開発ではツール定義や過去の実行結果の取捨選択が含まれる。
-
- コンテキスト蒸発(Context Evaporation)
- LLMが長い対話の中で以前の合意事項や指示を「忘れる」現象。コンテキストウィンドウの容量が十分でも、会話の圧縮やアテンション機構の特性により情報が失われる。テストでは捕捉しにくい障害を引き起こし、検証負債の一因となる。
-
- コンテキストロット(Context Rot)
- AIエージェントがセッション間で過去の判断・決定・文脈を失い、次のセッションで方針がドリフトする現象。コンテキスト蒸発が単一セッション内の問題であるのに対し、コンテキストロットはセッションをまたぐ長期的な文脈喪失を指す。マークダウンベースのタスク管理やGit追跡による永続化が対策として提案されている。
-
- コネクトーム(Connectome)
- 脳内の全神経細胞(ニューロン)とそのシナプス接続を網羅的にマッピングした「脳の配線図」。豚の脳を凍結保存し、将来的にコネクトームをスキャンしてデジタル上に意識を再現する研究が進められている。AI/計算神経科学の交差点にある概念。
-
- 行動クローニング(Behavioral Cloning)
- 人間の操作を録画し、その入出力パターンをモデルに模倣させる学習手法。ロボティクスやGUI自動化で広く使われ、逆動力学モデルと組み合わせてラベルなし動画からも学習できる。si.incのFDM-1は1,100万時間のコンピュータ操作動画からこの手法で学習した。
さ行
-
- 指示チューニング(Instruction Tuning)
- ベースモデルに対して「指示に従う」能力を付与する学習プロセス。人間が用意した指示-応答ペアでファインチューニングし、その後RLHFで応答品質を調整する。LLM特有の文体パターン(丁寧すぎる言い回し、箇条書き多用など)はこの工程で刷り込まれる副作用とされる。
-
- ジェイルブレイク(Jailbreak)
- AIモデルの安全ガードレールをプロンプト操作で回避し、通常は拒否される出力を引き出す手法の総称。ロールプレイ指示や多段階のプロンプトでモデルの制約を迂回する。プロンプトインジェクションが「意図しない命令の注入」であるのに対し、ジェイルブレイクは「既存の制約の解除」に焦点を当てる。
-
- 主権AI(Sovereign AI)
- 自国の計算資源・データ・人材で開発・運用されるAIモデルおよびその戦略的概念。外国のクローズドモデルへの依存を減らし、データ主権やAI安全保障を確保する目的で各国が推進。インドのSarvam、フランスのMistral、日本のSakana AIなどが代表例。NVIDIAのJensen Huangも「主権AI」の文脈でAI投資を語っている。
-
- ステアリングベクトル(Steering Vector)
- LLMの推論時に内部表現(隠れ層の活性化)へベクトルを加算・減算することで、出力の傾向を制御する手法。重みを恒久的に書き換えるabliterationとは異なり、推論時のみ一時的に適用できるため可逆的。モデルの安全性制御や性格調整の研究で使われる。
-
- 世界モデル(World Model)
- 物理世界のダイナミクスを内部表現として獲得し、行動の結果を予測するAIシステム。トークンの統計的予測に依存するLLMとは異なるアプローチで、ロボティクスや自動運転での応用が想定されている。Yann LeCunが提唱するJEPAが代表的な手法。
-
- セマンティック検索
- テキストの「意味」に基づいて検索する手法。文章をベクトル(埋め込み)に変換し、類似度を計算して関連する結果を返す。キーワード検索(レキシカル検索)と組み合わせてハイブリッド検索として使われることが多い。
-
- スケーリング則(Scaling Laws)
- モデルのパラメータ数・訓練データ量・計算量を増やすと、性能が予測可能なべき乗則に従って向上するという経験則。OpenAI、DeepMindらの研究で確認され、大規模モデルへの投資判断の根拠となっている。ただし、小型モデルの台頭により限界も指摘されている。
-
- スコープクリープ
- プロジェクトの要件が当初の計画を超えて際限なく拡大する現象。AI生成コードの高速さが「もっとできるはず」という期待を生み、要求膨張を加速させるリスクが指摘されている。
-
- セッションチェックポイント(Session Checkpoint)
- エージェントの実行状態を途中保存し、中断・再開を可能にする仕組み。ネットワーク切断やサーバー障害が起きても作業を最初からやり直す必要がなくなる。AnthropicのClaude Managed Agentsでは組み込み機能として提供されており、長時間実行タスクの耐障害性を確保する。
-
- ゼロショット / フューショット(Zero-shot / Few-shot)
- 事前学習済みモデルに例示を与えずにタスクを実行させるのがゼロショット、少数の入出力例をプロンプトに含めて実行させるのがフューショット。LLMの汎化能力を測る基本的な評価軸であり、ベンチマーク結果の解釈に不可欠な概念。
-
- ソースグラウンディング(Source Grounding)
- AI生成テキストの主張を実際の出典・ソースで裏付ける手法。ハルシネーション対策として、生成内容に引用元を紐付けることで事実確認を可能にする。欧州の記者がAI生成の架空引用を掲載して停職処分を受けた事例のように、グラウンディングなしのAI出力は深刻な信頼性問題を引き起こす。
-
- 推論(Inference)
- 学習済みモデルに入力を与えて出力を得るプロセス。トレーニング(学習)とは異なり、モデルの重みは更新されない。GPUメモリ(VRAM)や処理速度が重要な指標となる。
-
- 推論ゲートウェイ(Inference Gateway)
- 複数のLLMプロバイダや自前モデルへの推論リクエストを一元的に受け付け、認証・レート制御・ルーティング・キャッシュ・観測などを担う中継層。エージェント前提の運用では、モデル切り替えやコスト管理、フェイルオーバーをアプリケーション側に持たせない設計が要点になる。CloudflareのAI Platformはこの位置取りを公式に打ち出している。
た行
-
- チェーン蒸留(Chain Distillation)
- 大規模モデルから小規模モデルへ知識を転写する際、直接ではなく中間サイズのモデルを経由して段階的に蒸留する手法。モデル間のサイズ差が大きいほど直接蒸留では精度が落ちやすいため、チェーン方式で損失を抑える。NanoGPTの研究では10倍のデータ効率改善が報告されている。
-
- 知識カットオフ
- モデルの学習データに含まれる情報の最終日時。これ以降の出来事はモデルが「知らない」状態になる。最新情報を扱う際の重要な制約。
-
- 適応的思考(Adaptive Thinking)
- 入力の難度に応じてモデルが内部的に推論ステップ数や思考の深さを切り替える仕組み。簡単な質問は短く、複雑な課題は長く考えることでレイテンシとコストを最適化する。Claude Opus 4.7のように、開発者がモードを明示せずとも自動でルーティングされる実装が増えている。
-
- データアノテーション
- AIモデルの訓練に使うデータにラベルや説明を付与する作業。画像の物体検出、テキストの感情分類、音声の文字起こしなど多岐にわたる。グローバルサウスの低賃金労働者への外注が倫理問題として議論されている。
-
- トークン圧縮(Token Compression)
- LLMに入力するコンテキストのトークン数を削減する技術の総称。要約、フィルタリング、埋め込みベースの選別など複数の手法がある。コンテキストウィンドウの制約緩和と推論コスト削減が目的で、エージェント用途ではバックグラウンドでの自動圧縮が実用化されている。
-
- ディープフェイク(Deepfake)
- AIを使って人物の顔や声を別人に置き換える技術の総称。GAN(敵対的生成ネットワーク)や拡散モデルで生成される。詐欺、偽情報、なりすましへの悪用が深刻化しており、リアルタイム映像への適用も可能になっている。
-
- データポータビリティ
- あるサービスに蓄積したデータを別のサービスへ移行できる権利・仕組み。GDPRやデジタル市場法(DMA)で義務化が進む。AIアシスタント間のメモリ移行もこの概念の実践例として注目されている。
な行
-
- 認知負荷(Cognitive Load)
- ある作業を遂行するために必要な精神的処理量。AI生成コードのレビューでは、自分で書いていないコードの意図・前提・エッジケースを理解する必要があり、従来の開発より認知負荷が増大する傾向がある。
-
- 認知的降伏(Cognitive Surrender)
- AIの回答を検証せずそのまま受け入れ、自力で考えることを放棄する現象。「System 3」仮説では、人間の認知システム(直感のSystem 1、熟慮のSystem 2)に加え、AIへの認知オフロードがSystem 3として機能し、結果として思考力が低下するリスクが指摘されている。
-
- 認知的オフローディング(Cognitive Offloading)
- 思考や記憶の一部を外部ツール(メモ、計算機、AI等)に委託すること。AI普及により、検索・要約・判断までをLLMに委ねるケースが増え、過度な委託が批判的思考力やメタ認知能力の低下を招くリスクが研究で指摘されている。
は行
-
- ハルシネーション
- LLMが事実と異なる情報をもっともらしく生成する現象。「幻覚」とも呼ばれる。存在しない論文の引用、架空の事実の生成などが典型例。RAGや検証プロセスで軽減を図る。
-
- ハードリミット(Hard Limit)
- APIや課金システムで、これ以上の利用を物理的に止める絶対的な上限値。アラート通知の「ソフトリミット」と異なり、超過時点でリクエスト自体を拒否する。鍵漏洩や暴走呼び出しによる青天井の請求事故を防ぐ最後の砦になる。Firebaseの€54k事故では、ハードリミットの未設定が損失拡大の主因とされた。
-
- プロンプト
- LLMに与える入力テキスト。質問、指示、コンテキストなどを含む。プロンプトの書き方(プロンプトエンジニアリング)によって出力品質が大きく変わる。システムプロンプト、ユーザープロンプトなどの種類がある。
-
- プロンプトキャッシング(Prompt Caching)
- LLMへの過去のリクエストの一部(システムプロンプトや共通コンテキスト)をキャッシュし、再利用することでコストと遅延を削減する技術。Anthropic、OpenAIなどが公式機能として提供。長いシステムプロンプトやRAGコンテキストの繰り返し送信を避けられるため、エージェント運用でのコスト最適化に有効。
-
- プロンプトインジェクション
- AIへの入力を操作して、開発者が意図しない動作を引き起こす攻撃手法。システムプロンプトの上書き、機密情報の抽出、有害コンテンツの生成などが典型例。AIエージェントの普及に伴い、ツール呼び出しの乗っ取りなど攻撃面が拡大している。
-
- バイブコーディング(Vibe Coding)
- AIエージェントに自然言語で仕様を伝え、コードの大部分を生成させる開発スタイル。開発者はコードの詳細よりもAIへの指示(プロンプト)に注力する。手軽さが魅力だが、生成コードの理解が浅くなるリスクも指摘されている。
-
- フェアユース(Fair Use)
- 著作権者の許可なく著作物を利用できる米国法上の例外規定。批評・教育・パロディなどが対象。AI学習データとしての利用がフェアユースに該当するかが世界的な争点になっている。
-
- 分散推論(Distributed Inference)
- 単一のモデル推論を、複数の端末・ノードに分割して実行する方式。GPU不足やコスト削減のため、個人PCのアイドル時間を集めてLLM推論を回す試み(Petals、Darkbloom等)が代表例。レイテンシやネットワーク信頼性、データ機密性、参加者のセキュリティ責任など、運用上の課題は多い。
-
- ポストトレーニング(Post-training)
- 基盤モデルの事前学習(プレトレーニング)後に行われる追加訓練工程の総称。SFT(教師あり微調整)、RLHF(人間フィードバック強化学習)、DPO(直接方策最適化)などを含む。モデルの振る舞いを指示に従うよう調整し、安全性を確保する工程。ClaudeがXMLタグに最適化されているのもこの段階の訓練による。
-
- 報酬ハッキング(Reward Hacking)
- AIが報酬関数の抜け穴を利用し、設計者が意図した目的を達成せずに高い報酬を得る行動。強化学習ベースのAIシステムで問題になる。Anthropicの感情概念研究では、「絶望」感情ベクトルの活性化が報酬ハッキングの頻度を因果的に増加させることが示された。
-
- ベンチマーク
- モデルの性能を測定するための標準化されたテスト。MMLU(知識)、HumanEval(コーディング)、MATH(数学)などがある。モデル比較の指標として使われるが、実用性能との乖離も指摘される。
ま行
-
- モデル蒸留(Distillation)
- 大規模モデル(教師モデル)の出力を教師データとして、小規模モデル(生徒モデル)を訓練し性能を転写する手法。正規の蒸留はモデル開発者自身が行うが、他社のAPIを大量に叩いて出力を収集し無断で蒸留する不正利用が問題になっている。2026年にはAnthropicがDeepSeek・MiniMax・Moonshotによる計1,600万回の不正アクセスを公式に報告した。
-
- マルチエージェントワークフロー
- 複数のLLMエージェントに異なる役割(設計・実装・レビューなど)を割り当て、パイプライン形式でタスクを処理する開発手法。単一モデルでの処理と比べ、各フェーズのコンテキストを分離できる利点がある。エージェンティック・エンジニアリングの実装パターンの一つとして注目されている。
-
- マルチモーダル
- テキストだけでなく、画像・音声・動画など複数の形式(モダリティ)を扱えるモデルの特性。GPT-4V、Claude 3、Geminiなどが画像理解に対応。入出力両方でマルチモーダル化が進んでいる。
-
- ミッドフュージョン(Mid-Fusion)
- 視覚エンコーダと言語モデルを中間層で統合するマルチモーダルアーキテクチャ設計。入力段階で統合するearly fusionや出力段階で統合するlate fusionに比べ、モダリティ間の情報交換が深く、推論タスクでの精度向上が報告されている。Phi-4-reasoning-visionなどが採用。
ら行
-
- ループドTransformer(Looped Transformer)
- 同一のTransformerブロックを複数回繰り返し適用するアーキテクチャ。通常のTransformerは各層が独立した重みを持つが、ループド方式では重みを共有するため総パラメータ数を大幅に削減できる。反復回数を増やすことで精度を保ちつつ、メモリ効率の高い推論が可能になる。
-
- リテラトプログラミング(Literate Programming)
- 1984年にDonald Knuthが提唱した、コードと散文を一つのソースに統合するプログラミングパラダイム。人間が読む文書として記述し、そこからコードを抽出(tangle)して実行する。コードと説明の同期維持が最大の障壁だったが、AIエージェントがこの翻訳・要約作業を担うことで実用性が再評価されている。Jupyter NotebookやEmacs Org Modeが現代の実装例。
-
- 量子化(Quantization)
- モデルの重みを低精度(例:FP16→INT4)に変換してサイズを削減する技術。メモリ使用量と推論速度を改善できるが、精度とのトレードオフがある。GGUF、AWQ、GPTQなどの形式がある。
アルファベット
A
-
- Abliteration(アブリタレーション)
- LLMの重みからアライメント(安全性制約)方向をSVD分解で特定し、射影除去することで検閲・拒否機構を無効化する技術。ジェイルブレイク(プロンプト側の回避)とは異なり、モデルの重みそのものを改変する。オープンウェイトモデルでのみ適用可能で、推論時に一時的に適用するステアリングベクトルとも区別される。
-
- Agent(エージェント)
- LLMが自律的にツールを使い、複数ステップのタスクを実行するシステム。ファイル操作、Web検索、コード実行などを組み合わせて目標を達成する。Claude Code、Manus、Devinなどが代表例。
-
- AGENTS.md
- AIエージェントへのプロジェクト固有の指示をMarkdownファイルで管理する規約。リポジトリのルートや各ディレクトリに配置し、コーディング規約・テスト方針・アーキテクチャ情報などをエージェントに伝える。CLAUDE.mdやCOPILOT.mdなど類似の仕組みもあるが、AGENTS.mdはツール非依存を目指す。
-
- Agent Skills
- Anthropicが主導するAIエージェントの「スキル(能力・手順)」を標準化するオープン規格。SKILL.mdメタデータファイルを含むディレクトリで構成され、一度定義すれば複数のプラットフォームで利用可能。MCP(ツール接続)と補完関係にあり、スキルのポータビリティを実現する。
-
- ACP(Agent Client Protocol)
- Zedエディタが採用するAIエージェント統合プロトコル。Claude Code、Mistralなど複数のAIエージェントをエディタに接続するための標準インターフェースを提供する。MCPがツール接続に特化しているのに対し、ACPはエージェントとエディタ間の対話に焦点を当てている。
-
- ASR(Automatic Speech Recognition)
- 音声をテキストに変換する技術の総称。従来はGoogleやAWSのクラウドAPIが主流だったが、Whisper以降はローカル実行可能なモデルが急増している。NVIDIAのParakeetシリーズやOpenAIのWhisperが代表例。リアルタイム処理、話者分離、多言語対応が進化の焦点。
-
- A2A(Agent-to-Agent Protocol)
- Googleが提唱するAIエージェント間の通信プロトコル。メールやHTTPに依存せず、エージェント同士が直接タスクを委任・連携する仕組みを標準化する。MCPがツール接続に特化しているのに対し、A2Aはエージェント同士の対話に焦点を当てている。
-
- ADR(Architecture Decision Records)
- ソフトウェアのアーキテクチャ上の意思決定を「タイトル・文脈・決定・結果」の形式で記録する文書。AIエージェント開発では、セッション間の文脈引き継ぎ手段として注目されており、CLAUDE.mdなどのルールファイルと組み合わせて知識を蓄積する用途で使われる。
-
- AlphaEvolve
- Google DeepMindが開発した数学探索AI。進化的手法とLLMを組み合わせ、アルゴリズムや数学的構造を自動で発見・改善する。数学の未解決問題に対して新しい構造を発見した実績があるが、数学者による問題の定式化と結果の検証が不可欠。
-
- autoresearch
- Karpathyが提唱した自動研究ループ。AIエージェントがコード修正→短時間実験→結果評価→変更の採否判断を自律的に繰り返す手法。文献調査フェーズを追加した「研究駆動型エージェント」への拡張も提案されており、エージェントが論文を読んでから最適化に取り組むことでコードだけでは見つからない改善を発見できる。
B
-
- Bitter Lesson(苦い教訓)
- AI研究者Rich Sutton氏が2019年に提唱した原則。AI研究の歴史を通じて、人間の知識を手作業で組み込むアプローチよりも、汎用的な計算手法をスケーリングするアプローチが最終的に勝つという主張。LLMアーキテクチャの改善よりもスケーリングと訓練手法の進化が性能向上に寄与した事実がこの原則を裏付けている。
-
- BitNet
- モデルの重みを{-1, 0, +1}の3値(1.58ビット)で表現する量子化アーキテクチャ。乗算を加算に置き換えることでGPUなしのCPU推論を可能にする。Microsoftが提唱し、100Bパラメータ規模でもGPU2枚でリーダーボード上位に入る性能を示している。
C
-
- CAG(Computation Augmented Generation)
- RAGの計算版。既存文書を検索して取得するRAGに対し、CAGは必要な計算結果をリアルタイムで生成してLLMに注入する手法。数式処理・物理シミュレーション・知識グラフ照会など、決定論的な正確さが求められる領域で有効。Wolframが提唱。
-
- Context Window(コンテキストウィンドウ)
- モデルが一度に処理できる入力の最大長(トークン数)。Claude 3は200K、GPT-4 Turboは128Kなど。長いコンテキストは大きなコードベースや文書の処理に有利だが、コストも増加する。
-
- C2PA(Coalition for Content Provenance and Authenticity)
- デジタルコンテンツの出所と改変履歴を暗号技術で証明する業界規格。Adobe、Google、Microsoft等が参加。AI生成画像の識別やフェイク対策に使われるが、メタデータの意図的除去が技術的に容易なため、強制力には限界がある。
-
- CSAM(Child Sexual Abuse Material)
- 児童性的虐待画像・動画の総称。AI画像生成モデルによるCSAM生成が国際問題化しており、EU・米国・日本を含む各国でAI生成物も規制対象に含める法整備が進んでいる。
-
- CVR(Conversion Rate / コンバージョン率)
- サイト訪問者が購入・登録など目的の行動を完了した割合。ECサイトでは一般的に1〜3%が標準とされる。AI接客やチャットボットによる購買導線の効果測定にも使われ、従来のWebUIとの比較指標となる。
-
- CTC(Connectionist Temporal Classification)
- 可変長の入力と出力を整列させるための損失関数。音声認識で広く使われ、フレームごとの確率分布から最も可能性の高い文字列を推定する。アテンションベースのデコーダと比べ、入力を忠実に判定する特性がある。
-
- ClickHouse
- 高速な列指向データベース管理システム。大量のログデータやイベントデータの集計・分析に強みを持つ。行指向DBと異なりカラム単位で圧縮・読み取りを行うため、特定カラムの集計クエリが高速。
-
- CodeSpeak
- Kotlin作者Andrey Breslavが開発した仕様記述言語。自然言語にモジュール性と再利用性を追加し、LLMがPython/JS/Kotlin等のコードを生成する。コードではなくspec(仕様)を保守するという設計思想。
-
- CPUオフロード(CPU Offloading)
- GPUのVRAMに収まらないモデルのパラメータやオプティマイザ状態をCPU RAM(ホストメモリ)に退避させる手法。ローカル環境での大規模モデルの訓練・推論で頻出する技術。MegaTrainではCPUメモリを「一次記憶」、GPUを「一時的な計算エンジン」と位置づけ、100B超のモデルを単一GPUで訓練可能にした。
-
- critical harm(重大被害)
-
米イリノイ州SB 3444などAI安全法案で定義される「重大被害」の概念。100人以上の死傷、10億ドル以上の物的損害、またはCBRN兵器(化学・生物・放射線・核)開発のいずれかが該当する。AI事業者の責任免除範囲を画定する際の基準として参照される。
別名:重大被害
D
-
- Confused Deputy(混乱した代理人)
- 正当な権限を持つプログラムが、悪意ある入力により意図しない操作を実行してしまうセキュリティ上の攻撃パターン。AIエージェントの文脈では、ファイルシステムやgit認証情報へのアクセス権を持つエージェントが、プロンプトインジェクション等を通じて攻撃者の意図に従ってしまう問題を指す。
-
- DCO(Developer Certificate of Origin)
- Linux Foundationが策定した、OSSコントリビューターが著作権と変更内容への理解を証明する仕組み。コミット単位で署名する。AI生成コードの文脈では、「コードを完全に理解している」という証明がLLM利用の制約根拠になる。
E
-
- Embodied Reasoning(身体化推論)
- 物理的な身体を持つエージェント(ロボット等)が現実世界を認識・判断する推論能力。視覚・触覚・力覚などのセンサー情報を統合し、物体操作やナビゲーションを行う。GoogleのGemini Robotics等、大規模言語モデルをロボット制御に応用する研究で注目されている。
F
-
- Flash Attention
- Transformerのアテンション計算をIO-aware(メモリ転送量を意識)に再設計したアルゴリズム。GPUのSRAMとHBM間のデータ転送を最小化し、標準的なアテンションと比べてメモリ使用量をO(N²)からO(N)に削減する。Tri Daoが開発し、現在v3まで進化。端末上でのLLM推論にも不可欠な技術。
-
- Fine-tuning(ファインチューニング)
- 事前学習済みモデルを特定のタスクやドメインに適応させる追加学習。全パラメータを更新するフルファインチューニングと、一部だけを更新するLoRAなどの手法がある。
-
- FFN(Feed-Forward Network)
- Transformerの各層に含まれる全結合ニューラルネットワーク。アテンション層が「何に注目するか」を決め、FFNが「その情報をどう変換するか」を担当する。MLP(Multi-Layer Perceptron)とも呼ばれ、モデルの知識の大部分はこの層に格納されると考えられている。
-
- FP8(8ビット浮動小数点)
- bf16やFP32より低精度だが演算速度が理論上2倍の数値形式。NVIDIA H100以降のGPUでハードウェアサポートされ、大規模モデルの学習・推論の高速化に使われる。精度低下を抑える工夫が研究の焦点。
-
- FSDP(Fully Sharded Data Parallel)
- PyTorchの分散訓練手法。モデルのパラメータ・勾配・オプティマイザ状態をGPU間で分割(シャード)し、必要なときだけ集約して計算する。マルチGPU環境で大規模モデルを訓練する標準的な手法のひとつで、DeepSpeed ZeRO-3と並ぶ選択肢。MegaTrainのような単一GPU手法との比較対象として登場する。
G
-
- GQA(Grouped Query Attention)
- Attention計算を効率化する手法。複数のQueryヘッドが1つのKey-Valueヘッドを共有することで、KVキャッシュのメモリ使用量を削減し推論速度を向上させる。従来のMulti-Head Attention(MHA)とMulti-Query Attention(MQA)の中間に位置し、品質を維持しながら効率を改善する。Llama 2以降の多くのLLMが採用している。
-
- GGUF(GPT-Generated Unified Format)
- llama.cppで使われるLLM量子化モデルの標準ファイル形式。モデルの重み・トークナイザ・メタデータを単一ファイルにまとめ、CPU/GPU混合推論に対応する。旧形式GGMLの後継で、OllamaやLM Studioなど主要なローカル推論ツールが採用している。Unsloth Dynamic 2.0のようにレイヤーごとに異なるビット幅を割り当てる高度な量子化手法も登場している。
H
-
- HBM(High Bandwidth Memory)
- DRAMチップを垂直に積層し、広帯域・低消費電力を実現するメモリ技術。AIアクセラレータ(GPU/TPU)が大量のパラメータを高速に読み書きするために不可欠。Samsung、SK Hynix、Micronの3社が製造を寡占しており、2026年はAI需要の急増によりHBM生産が優先された結果、一般PC・スマホ向けDRAMの供給不足と価格高騰を引き起こしている。
-
- Hallucination(ハルシネーション)
-
LLMが事実と異なる情報を自信を持って生成する現象。学習データにない情報を「補完」しようとして発生する。グラウンディング(事実に基づく回答)やRAGで軽減できる。
別名:幻覚、作話
-
- HITL(Human-in-the-loop)
- 自動化プロセスの中に人間の判断・承認ポイントを設ける設計パターン。AIエージェントが自律的にタスクを実行する場面で、重要な決定や不可逆な操作の前に人間のレビューを挟むことで品質と安全性を担保する。完全自動化(Human-out-of-the-loop)との対比で使われる。
I
-
- Inference(推論)
- 学習済みモデルを使って予測や生成を行うこと。Training(学習)の対義語。推論速度(トークン/秒)、レイテンシ、スループットが重要な指標。
-
- Interpretability(解釈可能性)
- AIモデルの内部動作や判断根拠を人間が理解・説明できる度合い。ブラックボックス化した大規模モデルの安全性担保やデバッグに不可欠な研究領域。SAE(Sparse Autoencoder)やプロービングなどの手法がある。
J
-
- JA3フィンガープリント
- TLSハンドシェイク時のクライアント特徴量(暗号スイート、拡張機能など)をハッシュ化してクライアントを識別する技術。AIクローラーやボットの検出に使われており、Internet ArchiveがAIスクレイパーをブロックする際の識別手段の一つとしても言及されている。
-
- JEPA(Joint Embedding Predictive Architecture)
- Yann LeCunが2022年に提唱した、抽象的な表現空間で世界の動きを予測するアーキテクチャ。ピクセルやトークンを逐次予測するのではなく、入力を共有埋め込み空間にマッピングして将来の状態を予測する。AMI Labsの技術的な柱。
L
-
- LAWS(Lethal Autonomous Weapons Systems)
-
人間の介入なしに標的の選定・交戦判断・攻撃を行う兵器システム。国連で規制議論が続いているが、法的拘束力のある条約はまだない。AI企業の軍事参入に伴い、「どこまでAIに判断を委ねるか」が焦点になっている。Anthropicは2026年にLAWSへの技術提供を明確に拒否し、国防総省と対立した。
別名:自律型致死兵器システム、キラーロボット
-
- LLM(Large Language Model)
-
大量のテキストデータで学習された大規模な言語モデル。GPT-4、Claude、Gemini、Llama などが代表例。数十億〜数兆のパラメータを持ち、多様な言語タスクをこなす。
別名:大規模言語モデル
-
- LLM-as-a-judge
- LLMが別のLLMの出力を評価する手法。人間による評価のコストを削減する目的で広く使われるが、評価モデル自身のバイアスや、出力の表面的な流暢さに引きずられる問題がある。ベンチマーク攻撃研究では、ジャッジモデルの判定基準を逆手に取ってスコアを操作できることが実証されている。
-
- llms.txt
- Webサイトのコンテンツをlarge language modelが効率的に読み取れるよう、マークダウン形式で提供する仕組みの提案。robots.txtのLLM版に相当する。代替手段としてHTTPコンテンツネゴシエーション(Accept: text/markdown)を使う実装もSentryなどで実用化されている。
-
- LoRA(Low-Rank Adaptation)
- 少ないパラメータでモデルをファインチューニングする手法。元のモデルの重みを固定し、小さな行列を追加学習する。メモリ効率が良く、複数のアダプターを切り替えて使える。QLoRAは量子化と組み合わせた派生手法。
M
-
- MCP(Model Context Protocol)
- Anthropicが提唱するLLMとツール・データソースを接続するためのオープンプロトコル。ファイルシステム、データベース、APIなどをLLMから統一的にアクセス可能にする。Claude Codeなどで採用。
-
- METR研究
- AIツール使用時の開発者パフォーマンスを計測した2025年の研究。経験豊富な開発者がAIを使った場合、実測では19%遅くなったにもかかわらず、本人は20%速くなったと感じていたという「体感と実測の乖離」を示した。AI生産性の議論で頻繁に引用される。
-
- MoE(Mixture of Experts)
-
複数の「エキスパート」サブネットワークを持ち、入力に応じて一部だけを活性化する構造。パラメータ数が大きくても、推論時は一部しか使わないため効率的。GLM-4、Mixtralなどが採用。
別名:エキスパート混合、スパースモデル
-
- MLX
- AppleがAppleシリコン(M/Aシリーズ)向けに開発したオープンソースの機械学習フレームワーク。Metal GPUバックエンドを使い、iPhone・Mac上でのLLM推論を可能にする。NumPy風のAPIを持ち、PyTorchからの移行がしやすい設計。
-
- MCTS(Monte Carlo Tree Search)
-
ランダムシミュレーションと選択・展開・逆伝播のサイクルでゲーム木を探索する手法。AlphaZeroで囲碁・チェスに適用され有名になった。LLMの推論改善に応用する研究が進んでおり、訓練時にMCTSで強化された軌跡をPPOで蒸留する手法が報告されている。
別名:モンテカルロ木探索
N
-
- NPU(Neural Processing Unit)
-
AI推論に特化したプロセッサ。CPUやGPUと比べて低消費電力でニューラルネットワークの推論を高速に実行できる。IntelやQualcommのSoC、Apple Siliconに搭載が進んでおり、MicrosoftのCopilot+ PC規格では40 TOPS以上の性能が要件となっている。
別名:ニューラルプロセッシングユニット、AIアクセラレータ
O
-
- OOD(Out-of-Distribution)
- 訓練データの分布から外れた入力のこと。モデルがOODデータに対して正しく動作するか(汎化性能)は、実運用での信頼性を左右する重要な指標。訓練範囲内では高精度でも、範囲外で劇的に性能が低下するケースが多い。
-
- Ollama
- ローカル環境でLLMを手軽に実行するためのツール。Llama、Mistral、Gemmaなど多数のモデルに対応し、CLIやAPIで操作できる。Dockerイメージも提供されており導入が簡単な反面、デフォルト設定では外部公開されるリスクがある。
-
- Open Weights(オープンウェイト)
- 学習済みモデルの重み(パラメータ)を公開すること。「オープンソース」と混同されやすいが、学習データ・学習コード・ハイパーパラメータが非公開の場合、第三者が学習を再現することはできない。LlamaやMistralなど主要モデルの多くはOpen Weightsに該当する。
P
-
- PEFT(Parameter-Efficient Fine-Tuning)
- モデル全体ではなく一部のパラメータだけを効率的に追加学習する手法の総称。LoRA、QLoRA、Adaptersなどが代表的な実装。フル・ファインチューニングに比べて計算コストとメモリ使用量を大幅に削減でき、Open Weightsモデルのカスタマイズに広く使われる。
-
- PagedAttention
- LLM推論時のKVキャッシュをOSの仮想メモリのようにページ単位で管理する手法。vLLMの中核技術として登場し、メモリの断片化を防ぎながら複数リクエストの同時処理効率を大幅に向上させる。
-
- PPO(Proximal Policy Optimization)
-
OpenAIが提案した強化学習アルゴリズム。方策の更新幅をクリッピングで制限し、安定した学習を実現する。LLMのRLHF(人間のフィードバックによる強化学習)で広く使われ、GRPOやCISPOなどの派生手法も登場している。
別名:近傍方策最適化
-
- Project Glasswing
- Anthropicが主導するAI時代のクリティカルソフトウェア防御イニシアチブ。AWS、Apple、Cisco、Google、JPMorgan、Microsoft、NVIDIA等の立ち上げパートナーに限定的な先行アクセスを提供する。最大1億ドルのClaudeクレジット拠出と400万ドルのセキュリティ研究寄付を含み、AI Mythosなどの攻撃事案を受けて「防御側の連合」を作る狙い。
R
-
- RAG(Retrieval-Augmented Generation)
-
外部データベースから関連情報を検索(Retrieval)し、それを参照してLLMが回答を生成(Generation)する手法。知識カットオフの制約を回避し、最新情報や社内文書を扱える。
別名:検索拡張生成
-
- RLHF(Reinforcement Learning from Human Feedback)
-
人間の好みに基づいてLLMの出力を改善する訓練手法。ポストトレーニングの主要工程の一つ。人間が複数の出力を比較・評価し、その選好データを使って報酬モデルを学習、さらに方策最適化でモデルを調整する。ChatGPTやClaudeの「人間らしい応答」の基盤技術。
別名:人間フィードバックによる強化学習
-
- ROCm(Radeon Open Compute)
- AMDのGPUコンピューティングプラットフォーム。NVIDIAのCUDAに相当するオープンソースのソフトウェアスタック。PyTorchやTensorFlowなどの主要フレームワークに対応するが、ドライバの成熟度やサポートGPUの範囲でCUDAとの差が指摘されている。AMDのGAIAフレームワークの基盤技術。
-
- RSP(Responsible Scaling Policy)
- Anthropicが2023年に策定したAI安全性方針。モデルの能力が一定の危険水準(ASL: AI Safety Level)に達した場合にトレーニングを一時停止するという事前コミットメント。2026年2月に撤回され、競争圧力下での自主規制の限界を象徴する事例となった。
-
- right-to-repair(修理する権利)
- 消費者が購入したデバイスを自分で、または独立系修理業者を通じて修理する権利を求める運動。EU・米国で法制化が進む。メーカーに対し修理マニュアル・純正部品・診断ツールの公開を義務づける内容が中心。
S
-
- SAE(Sparse Autoencoder)
- ニューラルネットワークの内部表現を疎(スパース)な特徴量に分解する手法。LLMの隠れ層の活性化パターンを人間が理解できる「概念」に対応づけることで、モデルの判断根拠を解釈可能にする。Anthropicの研究やSteerling-8Bなど、LLMの解釈可能性研究で注目されている。
-
- SBI(Synthetic Biological Intelligence)
- 生体ニューロンをチップ上で培養し、計算・学習能力を持つハイブリッドシステムを構築する研究分野。Cortical Labsが提唱。シリコンベースのAIとは異なり、生物学的な可塑性を活かした省電力・適応的な計算を目指す。同社のCL1チップではヒトiPS由来ニューロンがDOOMをプレイする実験が注目を集めた。
-
- SLM(Small Language Model)
- 数十億パラメータ規模の言語モデル。LLM(数百億〜数兆)と対比される概念で、ローカル実行やエッジデバイスでの推論が可能。MicrosoftのPhiシリーズ、GoogleのGemma、MetaのLlama小型版などが代表例。特定タスクではフロンティアモデルに匹敵する性能を示すケースもある。
-
- SynthID
- Googleが開発したAI生成コンテンツ向けの不可視透かし技術。画像・テキスト・音声に対応し、周波数領域にスペクトラム拡散の位相符号化として埋め込まれる。画像解像度ごとにキャリア周波数の位置が変わる仕様で、リバースエンジニアリングにより90%の検出精度と外科的な除去が可能であることが示されている。
-
- SWE-bench
- AIコーディングエージェントの性能を測る標準ベンチマーク。GitHubの実際のissueからバグ修正タスクを再現し、エージェントが正しいパッチを生成できるかを評価する。Verified版(人手で検証済みの500問)が業界標準として広く使われている。長期保守能力を測るSWE-CIなど派生ベンチマークも登場している。
-
- System Card
- AIモデルの安全性評価結果をまとめた公開文書。有害コンテンツ生成リスク、バイアス、悪用可能性などをカテゴリ別にスコア化する。OpenAIが先駆的に導入し、他社でも類似の評価公開が広がっている。
-
- Sycophancy(おべっか問題)
- AIがユーザーの意見に過度に同調し、正確性より好意的な回答を優先してしまう傾向。間違いを指摘すべき場面でも「おっしゃる通りです」と迎合してしまう。RLHFなど人間のフィードバックによる学習が原因の一つとされ、アラインメント研究の重要課題になっている。
T
-
- Transformer
- 2017年にGoogleが発表した「Attention Is All You Need」論文で提案されたニューラルネットワークアーキテクチャ。Self-Attentionを中核とし、GPT、BERT、Claudeなど現代のLLMの基盤となっている。
-
- Temperature(温度パラメータ)
- LLMの出力のランダム性を制御するパラメータ。0に近いほど決定的(最も確率の高いトークンを選択)、高いほど多様な出力が得られる。一般に0.0〜2.0の範囲で設定し、コード生成では低め(0〜0.2)、創作では高め(0.7〜1.0)が推奨される。Top-pやTop-kと組み合わせて使うことが多い。
-
- TTFT(Time-to-First-Token)
-
LLMがリクエストを受けてから最初のトークンを返すまでの時間。ユーザーの体感速度に直結する重要な性能指標で、音声エージェントやチャットUIの応答性を左右する。モデルサイズ、バッチ処理、プロンプト長などに依存する。
別名:初回トークン生成時間
-
- TTS(Text-to-Speech)
-
テキストを音声に変換する技術。読み上げ、ナレーション、音声アシスタントなどで使われる。ElevenLabs、Coqui TTS、Barkなどのサービス・ライブラリがある。
別名:音声合成、読み上げ
-
- Triton
- OpenAIが開発したGPU向け高水準プログラミング言語。CUDAやROCmの違いを吸収し、同じTritonカーネルでNVIDIA/AMD両方のGPUで動作するコードを書ける。PyTorchの内部でも使われており、GPUプログラミングのCUDAロックインを緩和する選択肢として注目されている。
V
-
- val_bpb(validation bits-per-byte)
- 言語モデルの予測精度を測る評価指標。1バイトあたり何ビットの情報量で予測できるかを示す。パープレキシティと異なり語彙サイズに依存しないため、トークナイザが異なるモデル間の公平な比較が可能。値が小さいほど予測精度が高い。
-
- vLLM
- PagedAttentionを採用した高性能LLM推論エンジン。複数リクエストの同時処理、連続バッチング、テンソル並列化に対応し、本番環境でのLLMサービングのデファクトスタンダードとなっている。オープンソースで開発が活発。
-
- VRAM(Video RAM)
- GPUに搭載されたメモリ。LLMの推論・学習ではモデルの重みやアクティベーションを保持するために使用。ローカルLLM実行時の最大の制約となることが多い。量子化でVRAM使用量を削減できる。
W
-
- WebMCP
- WebサイトがAIエージェント向けのツール(機能)を宣言的に公開するための仕組み。GoogleがChromeブラウザの早期プレビューとして導入。ローカルのMCPサーバーとは異なり、任意のWebサイトがブラウザ上のAIに機能を提供する。セマンティックWebの再来とも言われるが、セキュリティモデルは未確立。
Z
-
- ZDR(Zero Data Retention / ゼロデータリテンション)
- AIプロバイダがユーザーの入出力データを保存せず、モデルの学習にも使用しないことを保証するポリシー。エンタープライズ向けAPIで提供されることが多い。法的リスク(AIチャットの法廷開示請求等)を軽減する手段としても注目されている。