←
2026年3月26日(木)
→
2026年3月26日(木)のAI/LLMニュース
1月
2月
3月
OpenAI 動画生成
1. OpenAI Soraが終了:AI動画生成の限界とコーディング回帰の意味
何が起きたか
OpenAIがAI動画生成アプリ「Sora」の終了を発表しました。HNでは1046ポイント・776コメントと異例の反応です。Soraチームは「アプリとAPIのタイムラインおよび作品の保存方法について近日中に詳細を共有する」と述べるに留まっています。
WSJによると、OpenAI経営陣は「コーディングとビジネスユーザーに注力する大規模な戦略シフト」を進めているとのこと。動画生成から開発ツールへの明確な軸足移動です。
要点
Soraは2025年9月にスタンドアロンアプリとしてローンチし、TikTok風のソーシャルフィードを搭載。わずか半年での終了は、Googleの「プロダクトキラー」に匹敵するスピード
発表の前日にSoraのセーフティガイドを公開しており、チーム内の意思疎通が取れていなかった可能性がある
中国勢(Seedance 2.0など)がすでにSoraの品質を上回っていたとの指摘がHNコメントで複数あり
3ヶ月前にディズニーと契約を結んだばかりだったが、コスト面で「10-15秒の動画に大量のGPUを消費し、数十人しか見ない」状態だった
議論の争点
プロダクトマーケットフィットの不在 :「誰がAI生成動画だけのフィードをスクロールしたいのか」という根本的な疑問。TikTokやYouTubeには人間が作るプロ品質のコンテンツがあるのに、AI動画だけの世界に何があるのか
コンテンツ制限が創造性を殺した :ヌードやバイオレンスの制限が厳しすぎて「楽しむには制約が多すぎた」との声。初期の2週間で100本以上のビデオを作った利用者が、その後一切使わなくなったという証言も
エンタープライズ信頼の毀損 :「6ヶ月で消えるツールを誰が業務に採用するのか」。OpenAIの信頼性に対する疑問が広がっている
少数意見 :「Soraのデモは自分が見た中で最も驚愕した技術デモだった。ネガティブな反応ばかりなのは、企業の評判がプロダクトの評価を左右するからだ」
判断のヒント :AI動画生成ツールへの投資を検討しているなら、スタンドアロン製品ではなくプラットフォーム統合型(Google Veoなど)を選ぶ方が安全です。
なぜ重要か
「コーディングが金になる」という市場の答えが、OpenAI自身の行動で裏付けられた形です。昨日のClaude Codeチートシート やClaude Code生産性向上 の記事が示すように、開発者ツール市場は急成長しています。一方で、AI動画生成はまだ「ビジネスモデルが見つかっていない」段階にあります。
所感
Soraの技術自体は印象的でした。しかし、技術の良し悪しとビジネスの成否は別問題です。10-15秒の動画生成にGPUクラスタを占有するコスト構造は、広告収入モデルでは回収できません。OpenAIにとっての教訓は「技術的に可能でも、ビジネスとして成立しなければ意味がない」ということでしょう。
用語メモ
Sora
OpenAIが開発したAI動画生成モデル。テキストから動画を生成する。2025年9月にアプリとしてローンチ後、約半年で終了。
プロダクトマーケットフィット
製品が市場のニーズに合致している状態。PMFが達成できていない製品は、いくら技術が優れていても持続しない。
LLM能力 数学
2. GPT-5.4 Proが未解決の数学問題を解いた:LLMは「新しい知」を生み出せるか
概要
Epoch AIが、GPT-5.4 Proがラムゼー型超グラフの未解決問題を解決したことを正式に確認しました。HNでは470ポイント・686コメントと、AI能力の本質を問う活発な議論が展開されています。問題の出題者であるWill Brian氏は「このアプローチは以前考えたことがあったが、うまくいくように見えなかった。完璧に機能することがわかった」と述べています。
先に押さえる3点
H(n)の下限と上限を一致させるという、ラムゼー理論では珍しい強い結果を達成。解決者はKevin BarretoとLiam Priceで、GPT-5.4 Proを使用
Claude Opus 4.6、Gemini 3.1 Pro、GPT-5.4(非Pro)も同じ問題を解決。特定モデルの固有能力ではなく、フロンティアモデル全般の能力向上を示す
Epoch AIの「FrontierMath」問題リストでは「moderately interesting」(最も易しいカテゴリ)に分類。残り3問の同カテゴリ問題への挑戦が注目される
議論の争点
「本当に新しい知」なのか :「LLMは既知のアイデアをリミックスしているだけ」との主張に対し、「167,383 × 426,397の計算結果は訓練データにないが正しく出力できる。新規性は連続体であり、なぜ特定の線を引くのか」という反論。AlphaGoが人間の棋譜から出発して人間を超えた先例も引き合いに出される
プロンプトの誘導性 :ユーザーが関連論文を提供し「定数をどこまで押し上げられるか」と問うた点について、「かなり大きなヒントではないか」との指摘。一方で「数学者も論文を読んでから研究する」との反論
数学とコーディングの特異性 :「数学とコーディングは結果を自動検証できるためRLVRが機能する。しかし社会的報酬が関わる分野では同じアプローチが使えない」という冷静な分析が支持を集めた
少数意見 :「AIの能力をあえて認めなかった側だったが、この結果で考えを変えた。もう少し事例が出れば確信に変わる」
判断のヒント :LLMの「知的能力」は検証可能な領域(数学、コーディング)で急速に伸びています。自チームが扱う問題がこのカテゴリに入るなら、LLMの活用余地は想像以上に広い可能性があります。
影響
昨日の「AIアプリはどこへ消えた?」 では、AIの生産性向上がマクロデータで確認できないという話でした。一方、この数学の結果はミクロレベルでの突破を示しています。両方が同時に成立するのは、AI能力の向上が「量(生産量)」ではなく「質(到達可能な問題の範囲)」で現れているからかもしれません。
実務メモ
フロンティアモデルに未知の問題を投げる際は、関連する既知の成果(論文やアプローチ)をプロンプトに含めると有効です。今回の解決もユーザーが関連論文を提示したことが起点になっています。数学的な問題解決だけでなく、設計のデッドロック解消にも応用できるパターンです。
用語メモ
FrontierMath
Epoch AIが維持する未解決数学問題のベンチマーク。難易度別に分類され、AIモデルの数学的能力を評価する。
RLVR (Reinforcement Learning with Verifiable Rewards)
検証可能な報酬を使う強化学習。数学やコーディングのように正解を自動検証できる分野で特に有効。
量子化 推論最適化
3. TurboQuant:訓練なしで3ビット量子化を実現するGoogleの圧縮技術
ざっくり言うと
Google Researchが発表したTurboQuantは、LLMのKVキャッシュを訓練なしで3ビットまで圧縮し、精度を落とさないという量子化手法です。HNで445ポイントを集め、発表当日にllama.cppへの実装が始まるほどの注目度でした。
ポイントは3つ
PolarQuant(ステージ1) :データベクトルをランダム回転してから極座標に変換。直交座標系での不均一な分布が、角度ベースの均一な分布に変わり、量子化しやすくなる。回転の目的は「エネルギーの分散と座標分布の予測可能化」
QJL(ステージ2) :Johnson-Lindenstrauss変換で残差誤差を1ビットに圧縮。各値を+1か-1の符号ビットに落とし込みつつ、特殊な推定量で精度を保つ
訓練不要 がこの手法の核心。ファインチューニングもデータセット固有の調整も不要なので、任意のモデルに即座に適用できる。H100 GPUで4ビット版は32ビット比で最大8倍の高速化を達成
ベンチマークはLongBench、Needle In A Haystack、ZeroSCROLLS、RULER、L-EvalでGemmaとMistralを使用。3ビットでゼロ精度劣化という結果です。
議論の争点
先行研究の引用漏れ :NeurIPS 2021の「DRIVE」論文の著者が「量子化前の幾何回転という基本技法は私たちが提案した」と指摘。Google社内で非公開の招待講演も行ったとのこと
GPU並列処理との相性 :「極座標はGPU並列計算と相性が悪い」との批判。論文が「推論のウォールクロック時間を都合よく省略している」とも指摘された
実用性の速さ :発表同日にllama.cppへの実装が進行。独立した再実装(turboquant-pytorch)も公開され、理論から実装への移行速度が際立った
少数意見 :「効率化の論文ばかりで、知能そのものの進歩は何だったのか」
判断のヒント :長コンテキストのLLM推論でKVキャッシュがボトルネックになっているなら、TurboQuantの3ビット量子化はメモリ使用量を6分の1に圧縮できる手法として検討に値します。
どこに効く?
長文処理が必要なアプリケーション(文書要約、コード解析、RAG)でKVキャッシュが問題になっている場合に直接効きます。昨日のHypura がNVMeでメモリ不足を補うアプローチだったのに対し、TurboQuantはメモリ自体の使用量を削減する正攻法です。両方を組み合わせると、ローカルでの大規模モデル運用がさらに現実味を帯びます。
一言
「訓練不要」は実務者にとって最高の言葉です。ファインチューニングの手間もデータセットの準備も不要で、既存のモデルにそのまま適用できる。発表当日にllama.cppに実装が始まったのも、この「すぐ使える」特性があるからです。
用語メモ
KVキャッシュ
Transformerモデルが推論時に保持するKey-Valueの中間データ。コンテキスト長に比例して増大し、メモリのボトルネックになる。
Johnson-Lindenstrauss変換
高次元ベクトルを低次元に射影しつつ、データ点間の距離関係を近似的に保存するランダム射影手法。
ローカルLLM プライバシー
4. Ensu:EnteのローカルLLMアプリが目指す「ビッグテックに頼らないAI」
まず結論
暗号化写真ストレージで知られるEnteが、完全オフラインで動くLLMチャットアプリ「Ensu」をリリースしました。「LLMはビッグテックに任せるには重要すぎる」という哲学のもと、クラウド不要・アカウント不要・追跡なしを徹底しています。iOS、Android、macOS、Linux、Windowsに対応。
変わった点
コアロジックはRustで実装。モバイルアプリはネイティブ、デスクトップはTauriベースで、共通ロジックを共有する構成
モデルはデバイス能力に応じて自動選択。Qwen 3.5(2B-8bitまたは4B-4bit)かLFM2.5-1.6Bのいずれかをダウンロード(約1.3-2.5GB)
将来のロードマップにE2E暗号化されたチャット同期機能が予告されており、これがOllama/LMStudioとの差別化ポイントになりうる
議論の争点
「ラッパー」批判 :HNトップコメントは「小さなローカルLLMのただのラッパー。Claude Codeで1時間あれば作れる」と厳しい。実際にマルチモーダルにも非対応で、現時点での差別化は限定的
ユーザー層の不明確さ :技術者はOllama/LMStudioを使い、一般ユーザーはChatGPTの品質を期待する。「プライバシーのためにチャット品質を犠牲にする人」はどれだけいるのか
Enteブランドへの信頼 :「Ente Authは素晴らしい。だからEnsuも試す」という層が一定数いる。オープンソースで信頼を積み上げてきた実績が活きている
少数意見 :「なぜ叩くのか。もっと良いものを作れるなら作ればいい。少なくともプライバシーと自由に真剣な人がいることは良いことだ」
判断のヒント :プライバシーが最優先で、ChatGPT相当の品質は不要という用途なら試す価値があります。ただし、現時点ではv0.1.3で機能は限定的です。
注意点
スマートフォンに2BパラメータのLLMを載せても、3月24日のiPhone 17 Proでの400Bモデル実行 とは比較にならない品質です。ローカルLLMの利点は品質ではなくプライバシーとオフライン動作にあるので、期待値の設定が重要です。
使うならこうする
まずスマートフォンにインストールして、日常的な質問(レシピ、翻訳、メモ整理)で使い勝手を確認してください。E2E暗号化同期が実装されたら、プライベートなメモアプリの代替として真価を発揮する可能性があります。
用語メモ
Tauri
Electronの代替となるRustベースのデスクトップアプリフレームワーク。システムのWebViewを使うため、バンドルサイズが小さい。
用語メモ
Tauri
Electronの代替となるRustベースのデスクトップアプリフレームワーク。システムのWebViewを使うため、バンドルサイズが小さい。
E2E暗号化(End-to-End Encryption)
送信者と受信者だけがメッセージを復号できる暗号方式。中間サーバーでも内容を読めないため、プライバシー保護の基盤技術。
ディープフェイク 認証
5. ディープフェイク時代に「自分が人間」だと証明する方法はあるか
何が起きたか
BBCのジャーナリストが「自分がAIではないこと」を電話で叔母に証明しようとしたところ、説得に失敗したという実験記事がHNで130ポイント・149コメントを集めました。叔母は事前に家族とコードワード(合言葉)を設定済みでしたが、記者はそのループに入っていませんでした。
要点
音声クローニングは研究者曰く「人間と区別不能な閾値を超えた」段階にある。6本指で見破るような視覚的手がかりもAI画像生成の改善で消失しつつある
「嘘つきの配当(liar's dividend)」:本物の映像や音声を「ディープフェイクだ」と否定できる状況は、政治家やスキャンダル当事者にとって都合が良い
叔母が設定していた「家族のコードワード」は、本質的には多要素認証と同じ発想。ただしデジタル署名ほど堅牢ではない
議論の争点
暗号技術による解決の限界 :デジタル署名で本人証明する案が出るが、「署名者が人間であることをどう証明するか」という再帰的な問題に行き着く。結局は物理的な信頼の鎖が必要
経済的ダメージの過小評価 :ビデオ通話の相手が本物か信じられなくなれば、不要な出張が増える。この「信頼コスト」の経済的影響は計算しきれない
「AI検出」の無意味化 :「AIを見抜く」スキルはすでに時代遅れになりつつある。重要なのは検出ではなく、信頼の仕組みを社会インフラとして構築すること
少数意見 :「AIの安全性ルールに違反する発言をさせれば本人確認になる。"叔母さん、僕だよ! [放送禁止用語]!" "ああ、本物のジョニーだわ"」
判断のヒント :家族間で合言葉を設定しておくのは、今すぐできる実用的な対策です。デジタルではなくアナログな信頼の鎖が、当面は最も確実です。
なぜ重要か
3月22日の「AI生成記事でベテラン記者が停職」 の事例でも、LLMの「もっともらしい嘘」が問題になりました。映像・音声・テキストのすべてで「本物」と「偽物」の境界が曖昧になる中、認証の仕組みは技術者だけでなく一般市民にとっても切実な問題です。
所感
デジタル通信の認証を「暗号技術が普及する前に解決すべきだった」というHNのコメントが核心を突いています。電話詐欺やVoIPの段階で対策すべきだったものが放置され、ディープフェイクで問題が一気に深刻化しました。技術が人間のウェットウェアを欺ける段階に達した今、遅れを取り戻すのは容易ではありません。
用語メモ
嘘つきの配当(Liar's Dividend)
ディープフェイクの存在によって、本物の証拠を「偽物だ」と否定できるようになる現象。政治や訴訟で悪用されるリスクがある。
音声クローニング
少量の音声サンプルから特定人物の声を再現するAI技術。数秒の録音から説得力のある偽音声を生成可能。
GitHub データポリシー
6. GitHub Copilotがデータ収集をデフォルトON化:開発者が確認すべき設定
概要
GitHubが2026年4月24日からCopilotの対話データをAIモデルの訓練に使用する方針を発表しました。Free、Pro、Pro+ユーザーが対象で、オプトアウトしない限りデフォルトで有効になります。BusinessとEnterpriseは対象外です。
先に押さえる3点
収集範囲は広い。コード入出力だけでなく、ファイル名、リポジトリ構造、ナビゲーションパターン、機能使用状況(チャット、サジェスト)、ユーザーフィードバックの評価まで含まれる
オプトアウトは github.com/settings/copilot/features から可能。以前に拒否した人は自動的にオフのまま維持される
設定画面では「有効にする=この機能にアクセスできる」「無効にする=この機能にアクセスできない」と表示される。データ提供を「特典」のように見せるUIデザインには批判が集まっている
影響
HNのコメントでは「支払っているユーザーに対してオプトインではなくオプトアウトにするのは問題だ」との声が目立ちます。EU圏では「GDPRにおける自由な同意とは言えないのでは」との法的疑問も出ています。
3月24日のGitHub可用性低下問題 に続くGitHubへの不信感の積み重ねとも言えます。Codebergへの移行を宣言するユーザーも出始めています。
実務メモ
これ、意外と見落とす人が多いと思います。4月24日までにgithub.com/settings/copilot/featuresで設定を確認してください。Freeプランでも対象です。エンタープライズユーザーは除外ですが、個人アカウントでFree Copilotを使っている場合はそちらも確認が必要です。
用語メモ
オプトアウト
サービス提供側がデフォルトで有効にした設定を、ユーザーが自ら無効にする方式。オプトイン(自ら有効化)の対義語。
GDPR(一般データ保護規則)
EU域内の個人データ保護を定めた規則。データ収集には「自由な同意」が必要とされ、デフォルトONの設定は違反となる可能性がある。
AIエージェント UI検証
7. ProofShot:AIコーディングエージェントにUI検証の「目」を持たせる
ざっくり言うと
AIコーディングエージェントがUIを変更しても、その結果を「見る」ことができない問題を解決するオープンソースCLIツールです。Claude Code、Cursor、Codex、Gemini CLIなど主要なエージェントに対応しています。143ポイント・94コメントをHNで獲得しました。
ポイントは3つ
3フェーズのワークフロー:Start(ブラウザ起動・録画開始)→ Test(エージェントが操作)→ Stop(エラー収集・成果物生成)。出力はWebM動画、スクリーンショット、タイムライン付きHTMLビューア、コンソール/サーバーエラーログ
proofshot prコマンドでGitHub PRにビジュアルプルーフを直接投稿できる。Before/Afterの視覚的確認がPRレビューに組み込まれる
DOM構造のテスト(Playwright)と視覚的テスト(ProofShot)は補完関係にある。「DOMは完璧だが見た目が意図と違う」というクラスのバグはDOMアサーションでは検出不可能
どこに効く?
AIエージェントにUI修正を任せる頻度が増えている開発チームにとって、このツールは「レビューの最後のマイル」を埋めます。昨日のClaude Code並列ワークフロー のように、エージェントの出力が増えるほど検証の負荷も増える。その検証を自動化できるのは大きい。
一言
コードが動くことと、ユーザーに正しく見えることは別問題です。ProofShotが解決しているのはまさにその隙間で、エージェント時代のCI/CDパイプラインには組み込まれるべきツールだと感じます。
用語メモ
ビジュアルリグレッション
コード変更によってUIの見た目が意図せず変わるバグ。DOMテストでは検出できないため、スクリーンショット比較が必要。
Playwright
Microsoftが開発するブラウザ自動化フレームワーク。Chromium、Firefox、WebKitを一つのAPIで操作でき、E2Eテストに広く使われる。
LLM研究 モデル最適化
8. LLM Neuroanatomy II:レイヤー複製で性能向上、普遍的言語の手がかり
まず結論
Transformerモデルの中間レイヤーを単純に複製するだけで性能が向上するという「RYS(Repeat Your Self)」手法の検証と、LLMが言語に依存しない内部表現(普遍的言語)を持つ証拠を示す研究が137ポイントを獲得しました。ファインチューニングや量子化と直交する手法で、追加メモリも不要です。
変わった点
Transformerは3つのフェーズで処理する:エンコーディング(層0-5、激しい変動)、推論(層10-45)、デコーディング(層45-64)。中間の推論層は入出力の分布が一致しているため、ループさせても壊れない
8言語×8トピックの多言語実験で、同言語・異内容ペアの類似度0.829に対し、異言語・同内容ペアは0.902。モデルは「何語で言っているか」より「何を言っているか」を重視している
3,024候補のビーム探索、4,600測定で訓練したサロゲートモデル、200万構成のスコアリングの結果、最適な構成は全て連続ブロック。層26-34の複製で+12.5%のオーバーヘッドに対し数学精度+0.0279、EQ+0.1009の改善
注意点
この手法は4B-14B範囲の小〜中規模モデルで特に効果が期待されます。GPUのVRAMに収める際にレイヤー数を増やせるのは量子化とは別のアプローチで、両方を組み合わせることも可能です。ただし、レイヤー複製による改善幅は数パーセント程度なので、劇的な変化を期待するものではありません。
使うならこうする
最も効率的な構成は層33の単一複製(+1.5625%のオーバーヘッドで大部分の恩恵を取得)。ローカルで中規模モデルを動かしている場合、この「ほぼタダ」のアップグレードは試す価値があります。記事3のTurboQuantと組み合わせると、メモリ削減と性能向上の両方を追求できます。
用語メモ
RYS (Repeat Your Self)
Transformerの中間レイヤーを重み変更なしで複製し、推論を2周させることでモデル性能を向上させる手法。
サロゲートモデル
コストの高い評価を模倣する軽量な予測モデル。大量の構成を効率的にスコアリングするために使用される。
写真 映画
9. 映画に採用された天体写真:AI時代に「本物」が選ばれる理由
何が起きたか
ブリスベン在住の天体写真家Rod Prazeres氏の深宇宙画像が、映画「Project Hail Mary」(ライアン・ゴズリング主演)のエンドクレジットに採用されました。制作チームは「AIで生成できるのに、あえて本物のナローバンドデータの真正性を求めた」とのこと。HNで600ポイントという高い関心を集めています。
要点
Prazeres氏はクレジット表示と星が被らないよう「星なしバージョン」も納品。AIでは代替できない撮影者のノウハウが求められた
制作チームは「リアリズムを目標として尊重する」ビジョンを持っており、「誰にも気づかれない」画像であってもAI生成ではなく実写を選んだ
HNコメントでは「人間が作ったコンテンツへの需要は確実に存在する。手作りに少し多く払うのは、正しいからだ」との反応が支持を集めた
なぜ重要か
記事1のSora終了と合わせて読むと、AI生成コンテンツの「需要側」の限界が見えてきます。3月22日の「生成AIに奪われた創作の喜び」 で語られた技術者たちの本音とも共鳴する話です。AI生成が「できる」ことと、市場が「求める」ことの乖離が、Soraの終了と天体写真の採用という対照的な形で現れています。
所感
「AI時代だからこそ本物に価値がある」というのは、開発者の仕事にも当てはまります。コードの自動生成が普及するほど、設計判断や品質の最後の砦となる人間のスキルの価値は上がる。ハリウッドが星の写真に「本物」を選んだように、ソフトウェアでも「ここは人間が判断した」という信頼の価値は残り続けるはずです。
用語メモ
ナローバンドデータ
特定の波長帯域だけを通すフィルターで撮影した天体画像データ。水素α線やSII線など、星雲の構造を浮き上がらせるために使われる。
PMF(Product-Market Fit)
製品が市場の需要と合致している状態。AI生成コンテンツが技術的に可能でも、市場が「本物」を求める場合はPMFが成立しない。
開発ツール Markdown
10. Email.md:MarkdownでメールHTMLを書く時代がAIで加速する
概要
HTMLメール開発の苦痛(通称HTMHELL)をMarkdownで解消するツール「Email.md」がHNで364ポイントを獲得しました。npm install emailmdで導入でき、標準的なMarkdownからメールクライアント間で一貫して表示されるHTMLを生成します。
先に押さえる3点
YAMLフロントマターで設定(プリヘッダー、テーマ)、:::記法でセマンティックなセクション(ヘッダー、フッター、コールアウト)を定義。ダークテーマ対応、画像サイズ制御も可能
内部的にはMJMLのラッパーで、Markdown→HTML変換を前段に追加した構成。HNでは「MJMLだけで十分では」との意見もある一方、「6ヶ月後にHTMLを修正するとき、Markdownなら泣かずに済む」との実用的な支持も
テンプレート、ビルダー(ビジュアルエディタ)、ドキュメントの3つのインターフェースを提供。オープンソースでGitHubに公開
影響
MarkdownがAI時代の「共通語」になりつつあるという指摘がHNコメントで印象的でした。「Markdownはフロントエンドプロトコルになった」「AI Webの基盤になる」との声があります。LLMとの親和性が高いフォーマットとしてMarkdownの地位が固まっていく傾向は、開発ワークフロー全体に影響します。
Claude CodeやCursor、ChatGPTが生成する出力の多くがMarkdown形式であることを考えると、「AIが書きやすい=Markdownで書ける」ツールチェーンが有利になる構造が見えてきます。
実務メモ
社内のメール配信システムでHTMLテンプレートの管理に苦しんでいるなら、試してみる価値があります。LLMにMarkdownでメール本文を生成させ、Email.mdでHTMLに変換する、というパイプラインが自然に組めます。ただし、独自の:::記法はMarkdown標準ではないので、他のMarkdownツールとの互換性には注意が必要です。
用語メモ
MJML
Mailjetが開発したメール用マークアップ言語。レスポンシブなHTMLメールを簡潔に記述でき、メールクライアント間の互換性を自動処理する。
YAMLフロントマター
Markdownファイルの先頭に記述するメタデータ領域。タイトル、日付、カテゴリなどの構造化情報を定義し、静的サイト生成ツールで活用される。