AI Daily Digest

2026年4月1日(水)の注目記事

Claude Codeソースコード流出の全容:フェイクツール、アンダーカバーモード、内部メモ

Hacker News ⬆️ 1,773 points 💬 875 comments

何が起きたか

Anthropicのコーディングツール「Claude Code」のnpmパッケージに、ソースマップファイル(.map)が誤って同梱された状態で公開されていました。難読化前の完全なソースコードが第三者に読める状態だったということです。パッケージはすぐに削除されましたが、既に広くミラーされています。

HNでは875件のコメントが付き、ここ数日で最大の話題になりました。流出したコードからは、製品戦略に関わる内部実装がいくつも発見されています。

要点

  • 蒸留防止メカニズム:APIトラフィックを記録する第三者のトレーニングデータを汚染するため、偽のツール定義を送信する仕組みが実装されていました。暗号署名付きのサーバーサイド要約で推論チェーンを難読化する二次メカニズムも存在します
  • アンダーカバーモード:社外リポジトリでの使用時に、コードネーム(「Capybara」「Tengu」)やチャンネル名、「Claude Code」自体の名称を隠す機能。コミットメッセージにAI帰属を含めない指示が明示的に記載されていました
  • クライアント認証(DRM的仕組み):APIリクエストにcch=00000プレースホルダーを含め、BunのZig製ネイティブHTTPレイヤーが計算済みハッシュに置換。公式バイナリからのリクエストであることを暗号的に検証しています
  • フラストレーション検出:「wtf」「horrible」などのキーワードを正規表現でパターンマッチングし、ユーザーの不満を検出。LLM企業が感情分析に正規表現を使っている点に皮肉な反応が集まりました
  • 未リリース機能「KAIROS」:バックグラウンドデーモン、GitHub Webhookサブスクリプション、/dreamスキルによる日次メモリ蒸留を備えた自律エージェントモードと推測されています

なぜ重要か

ソースコードの流出自体はリファクタリングで対処できます。問題は、競合他社がフィーチャーフラグから製品ロードマップを読み取れるようになったことです。KAIROSの存在や蒸留防止の具体的な実装方法は、戦略的なサプライズとしての価値を失いました。

開発者にとっては、npmパッケージにソースマップを含めないことの重要性を改めて示す事例です。3月28日の記事で.claude/フォルダの構造を解説しましたが、今回の流出でその内部がさらに詳しく判明しました。

議論の争点

  • アンダーカバーモードの意図:「AIであることを隠す」機能なのか、「内部情報を隠す」だけなのか。コミットメッセージにAI帰属を含めない指示がある点から前者だと批判する声が多数。一方、内部コードネーム保護が主目的だとする擁護も
  • 蒸留防止の妥当性:偽ツール定義の送信は「競合への正当防衛」か「ユーザーへの背信」か。APIを利用するサードパーティツール開発者にとっては、偽データが混入するリスクが生じます
  • コード品質print.tsが5,594行で単一関数が3,167行あるなど、内部のコード品質に疑問を呈する声がある一方、「動いているプロダクトコードを外から評価するのは不公平」という反論も

少数意見:社内従業員向けに異なる(より厳格な)指示を出している点は、ユーザーに対して同等の品質を提供していない証拠だという指摘。

判断のヒント:Claude Codeを業務で使っている場合は、アンダーカバーモードの有無を確認し、自社のAI利用ポリシーと照合してください。

所感

npmの.mapファイル同梱ミスは、CIパイプラインの基本的な確認漏れです。ただ、流出した中身のほうがインパクトは大きい。蒸留防止の偽ツールやDRM的なクライアント認証は、クローズドソースCLIとしての防御策としては合理的ですが、白日のもとに晒された今、対策の練り直しが必要になります。


出典

用語メモ

ソースマップ(.map)
難読化・圧縮されたコードと元のソースコードを対応づけるファイル。
この記事ではnpmパッケージに誤って同梱され、元コードが復元可能になった経緯で登場。
蒸留防止(Anti-distillation)
競合がAPIトラフィックを記録してモデル訓練に使うことを妨害する技術。
この記事では偽ツール定義の送信という具体的な実装として登場。

OllamaがApple SiliconでMLX駆動に:ローカルAI推論のデコード速度が2倍

Hacker News ⬆️ 597 points 💬 318 comments

概要

Ollama v0.19がAppleの機械学習フレームワークMLXをバックエンドとして採用しました。Apple Siliconの統合メモリアーキテクチャとGPUニューラルアクセラレーターを直接活用することで、ローカルLLM推論の速度が大幅に向上しています。

先に押さえる3点

  • デコード速度が約2倍:Qwen3.5-35B-A3Bモデルで、デコード速度が58 tok/sから112 tok/sに向上(+93%)。Prefill速度も1,154 tok/sから1,810 tok/sへ(+57%)
  • NVFP4形式のサポート:NVIDIAの浮動小数点4ビット量子化に対応し、精度を維持しつつメモリ帯域幅とストレージ要件を削減
  • キャッシュの強化:会話再利用、インテリジェントなチェックポイントスナップショット、分岐シナリオでのプレフィックス保持が改善されています

影響

デコード速度が体感で変わるレベルです。112 tok/sは、対話的な利用で「待っている感」がほぼなくなる水準です。3月26日の記事で取り上げた「ビッグテックに頼らないAI」の流れと合わせると、ローカルLLMの実用性が着実に上がっていることがわかります。

ただし32GB以上の統合メモリが必要です。M1/M2の8GBモデルでは恩恵を受けにくい点は注意してください。

議論の争点

  • MLXの将来性:Apple Silicon専用フレームワークへの依存はロックインにつながるのか。llama.cppとの棲み分けはどうなるのか
  • 32GB要件の壁:エントリーモデルのMacBookではメモリが足りない。ローカルAIは「高スペックMacユーザー限定」の恩恵になりかねない
  • ベンチマークの代表性:Qwen3.5-35B-A3BはMoEモデルであり、密なモデルでは数字が異なる可能性がある

少数意見:OllamaよりもMLX直接利用のほうが柔軟性は高い。Ollamaは抽象化レイヤーとして便利だが、カスタマイズ性を犠牲にしている。

判断のヒント:M5 Pro以上のMacを持っているなら試す価値あり。ollama run一発で試せるので、まずは手元のモデルで速度差を確認するのが手っ取り早いです。

実務メモ

コーディングエージェントをローカルで回したい場合、今回のアップデートはかなり実用的です。ネットワーク遅延がゼロで、トークン課金も発生しない。ただし精度はクラウドモデルには及ばないので、用途は補完的なものに留めるのが現実的です。


出典

用語メモ

MLX
Apple Silicon向けに最適化された機械学習フレームワーク。
この記事ではOllamaのバックエンドとして採用され、推論速度向上の基盤として登場。
NVFP4
NVIDIAが提唱する4ビット浮動小数点量子化形式。
この記事ではメモリ効率とモデル精度の両立手段として登場。

GitHub、Copilot PR広告を即撤回:「広告入りコード提案」騒動の顛末

Hacker News ⬆️ 542 points 💬 326 comments

ざっくり言うと

昨日の記事でお伝えしたCopilotのPR広告挿入問題、あの後すぐにGitHubが撤回しました。発覚から対応までは半日ほど。ただ、機能を消しただけで終わりなのかは、まだ疑問が残ります。

ポイントは3つ

  • 11,400件以上のPRに影響:Raycastの宣伝だけで11,400以上のPRに「tips」として挿入されていた。Copilotが関与していないPRにも自動で介入できる仕組みだった
  • GitHub幹部が「判断ミス」を認めた:VP Martin Woodwardは「Copilotが任意のPRにメンションで介入できるようにした時点で"icky"だった」と発言。PM Tim Rogersも「人間のPRを本人の知らないうちに変更できるようにしたのはミスだった」
  • 機能は無効化済み:PRコメントからのエージェントtipsの削除を公式に確認。ただし、そもそもこの機能がどういう承認プロセスで実装されたのかは説明されていない

どこに効く?

Copilotを業務で使っている組織は、自社のPRワークフローを確認しておく価値があります。「無効化した」とはいえ、他のPRへの自動介入機能が技術的には存在していたわけです。

3月26日の記事ではCopilotのデータ収集デフォルトON化を取り上げました。広告挿入と合わせると、GitHubのAI戦略はユーザーの信頼を削る方向に傾いている印象があります。

議論の争点

  • 「tips」は広告なのか:GitHubは「tips」と呼んでいたが、サードパーティ製品の宣伝を含む以上、実質的に広告だという批判。VS Code Marketplaceの延長と見る声もある
  • 撤回の速さをどう評価するか:「迅速な対応」と評価する声と、「そもそも実装すべきでなかった」という声の両方。後者が圧倒的に多い
  • Copilotの信頼回復は可能か:データ収集のデフォルトON化、広告挿入と続いたことで、Copilotへの信頼が構造的に毀損しているという見方

少数意見:GitHub Actionsのマーケットプレイスも実質的に広告だが、それは許容されている。PRへの挿入が問題なのであって、宣伝行為そのものは否定できないのでは。

判断のヒント:Copilotの設定画面を月1回は確認する習慣が、ここにきて重要になっています。

一言

半日で撤回したこと自体は評価できます。でも「どうしてこれがリリースされたのか」への回答がない限り、同じことは繰り返されるでしょう。AIツールの商業化圧力は強まる一方なので、設定の確認は習慣化しておいたほうがいいです。


出典

用語メモ

PRコメント
コード変更のレビュー過程でやり取りされるコメント。
この記事ではCopilotが自動挿入した「tips」の場所として登場。
エージェントtips
AIエージェントがPR内に自動挿入する助言・推薦メッセージ。
この記事ではサードパーティ製品の宣伝が含まれていた問題の中心として登場。

Universal Claude.md:出力トークンを最大63%削減するプロンプト設計

Hacker News ⬆️ 441 points 💬 158 comments

まず結論

プロジェクトルートに配置するCLAUDE.mdファイルに12のルールを記述するだけで、Claudeの出力トークンを最大63%削減できます。当初「30%」と謳っていましたが、実測ではそれを大きく上回りました。MITライセンスで公開済みです。

変わった点

  • 追従的な冒頭の禁止:「Sure!」「Great question!」を排除し、即座に回答を開始させる
  • 締めの定型句を禁止:「お役に立てれば」「他にご質問があれば」を削除
  • プロンプトの復唱禁止:「〜についてですね」と繰り返さず、そのまま実行に移る
  • 不要な免責事項の除去:安全上重要な場合を除き、「AIとして〜」のフレーミングを禁止
  • スコープクリープの防止:求められた範囲外の変更や提案を行わない

ベンチマーク結果として、コードレビューで75%削減(120→30語)、async/await説明で64%削減(180→65語)、合計で63%の削減が報告されています。

注意点

このファイル自体が毎メッセージの入力トークンを増加させます。出力量が入力コストを上回る場合にのみ純粋な節約になるため、単発クエリや低頻度利用では逆効果です。

また、削減された部分が「冗長」なのか「有用な補足」なのかは、ユースケースによって異なります。初学者への説明では、削られた補足がむしろ必要な場合もあります。3月25日のClaude Codeチートシートと併せて、自分のワークフローに合わせたカスタマイズが現実的です。

議論の争点

  • 削減の質:トークン数の削減と出力品質の維持は両立するのか。冗長な部分だけが削られているのか、有用な情報まで落ちていないか
  • 入力コストとのトレードオフ:CLAUDE.mdのトークンが毎リクエストに上乗せされるため、短い対話では損益分岐点を超えない
  • ベンチマークの妥当性:5つのプロンプトだけで63%を主張するのはサンプルが少ない。実務の多様なタスクで同じ削減率が出るかは未検証

少数意見:そもそもAnthropicがデフォルトの出力を簡潔にすべきで、ユーザー側でプロンプトを書いて冗長性を制御するのは本末転倒。

判断のヒント:エージェント的ワークフロー(1日1,000回以上のAPI呼び出し)で使うなら試す価値あり。対話的な使い方が中心なら効果は限定的です。

使うならこうする

リポジトリのルートにCLAUDE.mdを配置し、12ルールのうち自分のワークフローに合うものだけを選んで使うのが実用的です。全ルールを一度に適用すると、応答が素っ気なくなりすぎる場合があります。


出典

用語メモ

CLAUDE.md
Claude Codeがプロジェクト固有の指示を読み込む設定ファイル。
この記事ではトークン削減ルールの配置先として登場。
スコープクリープ
要求範囲を超えて勝手に変更や提案を行うこと。
この記事ではClaude出力の冗長性の一因として登場。

Microsoft「Copilotは娯楽目的のみ」:利用規約が示すAIの法的立ち位置

Hacker News ⬆️ 378 points 💬 145 comments

何が起きたか

Microsoft Copilot(個人向け)の利用規約に「Copilot is for entertainment purposes only」と明記されていることが注目を集めています。業務利用を想定して使っている人は多いはずですが、法的には「娯楽目的」のみという位置づけです。

要点

  • 娯楽目的の免責:「Copilot is for entertainment purposes only. It can make mistakes, and it may not work as intended.」と明記
  • 正確性の全面否認:回答が「不完全、不正確、または不適切」になる可能性を認め、ユーザーに自己確認を求めている
  • 保証の完全否認:知的財産権侵害、プライバシー権侵害、名誉毀損を含むあらゆる保証を否認
  • 自動アクションの責任:Copilotに自動実行させた場合、「すべての結果と帰結について、ユーザーが単独で責任を負う」

なぜ重要か

Microsoftは営業では「生産性向上」を売り文句にしている一方、法的には「娯楽だから責任は取らない」という防御線を張っています。この乖離が問題です。

重要な補足として、これは個人向け(for individuals)の利用規約です。企業向けのMicrosoft 365 Copilotには別の規約が適用されます。ただし個人向けでも業務利用している人は少なくないはずで、その場合は法的保護がない状態で使っていることになります。

議論の争点

  • 「娯楽目的」の解釈:法務部門の保守的な文言に過ぎないのか、製品の位置づけを正直に表しているのか。他のAIサービスの利用規約にも類似の免責があるという指摘
  • 営業とのダブルスタンダード:「生産性を向上」とマーケティングしながら「娯楽目的のみ」とするのは矛盾していないか
  • 規制の必要性:AI製品の免責範囲を法律で制限すべきかどうか。EUのAI Actは一定の規制を課しているが、米国では未整備

少数意見:SNSプラットフォームも同様の免責を利用規約に入れている。AIだけ特別視するのは不公平。

判断のヒント:個人プランでCopilotを業務利用しているなら、利用規約を一度読んでおくことを推奨します。企業向けプランへの切り替えも検討材料になります。

所感

利用規約は読まれないことを前提に書かれるものですが、「娯楽目的のみ」はさすがに目を引きます。法務的な保険としては合理的でも、ユーザーの信頼を考えるともう少し誠実な書き方がありそうです。


出典

用語メモ

免責条項(Disclaimer)
サービス提供者が法的責任を制限するための契約条項。
この記事では「娯楽目的のみ」という極端な免責がAI製品で使われた事例として登場。
AI Act(EU AI規制法)
EUが施行したAIシステムのリスク分類と規制の枠組み。
この記事では米国との規制格差の文脈で登場。

Google TimesFM:2億パラメータで時系列予測を汎用化する基盤モデル

Hacker News ⬆️ 281 points 💬 101 comments

概要

Google Researchが開発したTimesFM 2.5は、時系列予測に特化したデコーダ専用Transformerです。前バージョンの500Mパラメータから200Mに縮小しつつ、コンテキスト長を2,048から16,384トークンに拡張しています。「小さくしながら賢くする」を地で行くアップデートです。

先に押さえる3点

  • パラメータ60%削減:500M→200Mへ。ただし予測性能は向上。加えてオプションの30Mパラメータ量子化ヘッドで不確実性推定に対応
  • コンテキスト8倍:16,384トークンまで処理可能。長期の季節パターンや周期性を捉えやすくなりました
  • デュアルバックエンド:PyTorch(GPU/CPU)とFlax/JAX(TPU/GPU)の両方に対応。BigQuery経由のエンタープライズ利用も可能

影響

時系列予測は、これまでドメインごとに専用モデルを訓練する必要がありました。TimesFMは金融、気象、需要予測など複数ドメインで使える汎用モデルを目指しています。NLPでBERTが汎用化の流れを作ったように、時系列でも同じことが起きる可能性があります。

200Mパラメータなら推論コストも抑えられるので、エッジデバイスやバッチ処理での利用も視野に入ります。

実務メモ

時系列予測を扱うプロジェクトがあるなら、まずベースラインとして試す価値があります。ファインチューニングなしでどこまで精度が出るかを確認し、専用モデルとの差を測るのが効率的です。BigQuery統合が使えるなら、本番環境への導入ハードルも低めです。


出典

用語メモ

時系列基盤モデル
特定ドメインに依存せず、汎用的に時系列データを予測する事前学習済みモデル。
この記事ではTimesFMがその代表例として登場。
量子化ヘッド
点予測ではなく確率分布(分位点)を出力するモデルの追加層。
この記事では不確実性推定を加えるオプション機能として登場。

OpenAI「1220億ドル調達」の実態:コミット資本と着金の違い

Hacker News ⬆️ 124 points 💬 103 comments

ざっくり言うと

OpenAIが史上最大の民間資金調達ラウンドを完了しました。公表額は1220億ドル(約18兆円)、企業評価額は8520億ドル。ただし「調達」という表現には注意が必要です。

ポイントは3つ

  • 「コミット資本」と実際の着金は別:1220億ドルは「committed capital」であり、将来の条件次第で変動する可能性がある。HNコメントでも「raise」という表現への疑問が多数
  • リテール投資家の参加:30億ドル分を個人投資家に開放。これはIPOに向けた地ならしと見られている
  • Anthropicとの売上比較:OpenAIのARRは約240億ドル(月20億ドル)。一方Anthropicは2月時点で190億ドルに達しており、差は縮まっている。ただし両社の計上方法が異なる点に注意

どこに効く?

昨日の記事では「AIバブル崩壊シナリオ」を取り上げました。今回の調達はその反論材料にも、裏付け材料にもなります。1220億ドルが本当に着金するのか、それとも「コミットメント」のまま部分的に撤回されるのかは、AI業界全体の資金フローを左右します。

SoftBank、Amazon、Nvidiaが主要投資家で、Microsoftも参加。Stargateデータセンタープロジェクト(テキサス州アビリーン)の資金源になると見られています。

一言

8520億ドルの評価額は、上場企業なら世界トップ10に入る水準です。これだけの金額を民間調達で積み上げる構造自体が、AI業界の異常さを示しています。着金していない「コミットメント」と実際の資金は分けて考える必要があります。


出典

用語メモ

コミット資本(Committed Capital)
投資家が「将来出す」と約束した金額。実際の送金とは異なり、条件次第で変動しうる。
この記事では1220億ドルの内実として登場。
ARR(Annual Recurring Revenue)
年間経常収益。サブスクリプション型ビジネスの規模指標。
この記事ではOpenAIとAnthropicの売上比較の文脈で登場。

Cohere Transcribe:オープンソースASRモデルがWhisperを超えた

Hacker News ⬆️ 131 points 💬 46 comments

まず結論

Cohereが公開した音声認識モデル「Transcribe」が、HuggingFace Open ASRリーダーボードで1位を獲得しました。20億パラメータのConformerベースモデルで、平均WER 5.42%。OpenAIのWhisper Large v3(7.44%)を上回っています。Apache 2.0ライセンスで公開済みです。

変わった点

  • 精度でWhisperを超越:LibriSpeech cleanで1.25%、マルチスピーカー環境(AMI)で8.13%。人間の評価では61%の確率でWhisperより好まれる結果
  • 14言語対応:英語、フランス語、ドイツ語、日本語、中国語、韓国語、アラビア語など。日本語が含まれている点は実用上重要です
  • 完全オープンソース:Apache 2.0ライセンスのため、商用利用に制限なし。HuggingFaceからダウンロード可能

注意点

20億パラメータはWhisper Large v3(15.5億)より大きく、推論コストも相応に高くなります。リアルタイム処理が必要な場合は、モデルサイズとスループットのトレードオフを検討してください。

また、リーダーボードのベンチマーク性能と実環境(ノイズ、方言、専門用語)での性能は別物です。自分のユースケースでの評価は必ず行ってください。

使うならこうする

まずHuggingFaceからモデルをダウンロードし、手元の音声データで精度を検証するのが第一歩です。Cohere APIの無料枠も用意されているので、デプロイ前の評価はコストゼロで始められます。Whisperからの移行を検討する場合は、同じテストセットで両者を比較するのが公平です。


出典

用語メモ

WER(Word Error Rate)
音声認識の精度指標。挿入・削除・置換の誤りの割合で、低いほど高精度。
この記事ではTranscribeとWhisperの比較指標として登場。
Conformer
ConvolutionとTransformerを組み合わせた音声処理向けアーキテクチャ。
この記事ではTranscribeのエンコーダ構造として登場。

年間ランサムウェア7,655件の全統計:AI時代のサイバー攻撃地図

Hacker News ⬆️ 57 points 💬 14 comments

何が起きたか

376日間で129のランサムウェアグループが141カ国に対して7,655件の攻撃を仕掛けた、という統計レポートが公開されました。1日平均20件。数字だけで背筋が伸びます。

要点

  • 上位5グループで40%:Qilin(1,179件)、Akira(706件)、INC Ransom(415件)、Play(386件)、Safepay(341件)。残り124グループが「ロングテール」として活動中
  • 製造業と技術業が標的の35%:製造業890件、テクノロジー843件。ヘルスケア(537件)、建設(375件)、金融(362件)が続く
  • 米国が40%を吸収:3,101件が米国。ドイツ315件、カナダ311件、英国232件
  • 後半に40%増加:前半6ヶ月の月平均521件に対し、後半は732件。2025年12月に月間最多の861件を記録

なぜ重要か

AI生成コードの普及により、脆弱性のあるソフトウェアが増えている可能性は否定できません。同時に、AIを活用した攻撃手法(フィッシングメールの自動生成、脆弱性の自動探索)も高度化しています。3月27日の記事ではLiteLLMのサプライチェーン攻撃を取り上げましたが、ランサムウェアと合わせてセキュリティの脅威は構造的に拡大しています。

上位5グループを潰しても、124グループのロングテールが控えている。この構造は、単体のグループを摘発するだけでは全体の脅威が減らないことを示しています。

所感

月間800件超という数字は、もはや「事件」ではなく「日常」です。開発者としてはバックアップ戦略とインシデント対応計画の見直しが、定期的に必要な時代になっています。


出典

用語メモ

ランサムウェアクレーム
攻撃者がリークサイトに掲載する「攻撃成功」の主張。
この記事では年間7,655件の統計の集計単位として登場。
ロングテール攻撃
多数の小規模グループが合算で大きな脅威を形成する構造。
この記事では124グループの存在がこのパターンを示す文脈で登場。

鳥の脳がAIアーキテクチャに教えること:少ないニューロンで高度な知能を実現する仕組み

Hacker News ⬆️ 334 points 💬 211 comments

概要

「鳥頭」は褒め言葉であるべきだ、というエッセイがHNで大きな反響を呼んでいます。科学的に見ると、鳥の脳は哺乳類の脳よりもはるかに効率的にニューロンを詰め込んでいて、知能のベンチマークでは霊長類に匹敵する結果を出しています。

先に押さえる3点

  • ニューロン密度が霊長類の2倍:2016年のPNAS論文によると、オウムや鳴禽類の前脳には、同じ質量の霊長類の脳と比べて約2倍のニューロンが詰まっている。カラスの10グラムの脳には約12億のニューロンが存在
  • 認知テストで犬猫を超える:ユーラシアカササギは鏡テスト(自己認識)に合格。犬や猫は不合格。ワタリガラスは遅延報酬テストで70%以上の正答率
  • 道具使用と未来計画:ニューカレドニアガラスの道具製作、カケスの「見られた食料を隠し直す」行動(心の理論の兆候)、ミヤマガラスの33,000個の種を記憶して雪の下から回収する能力

影響

AI分野との接点は「効率性」です。記事6で紹介したTimesFMが500Mから200Mパラメータに縮小しながら性能を向上させたように、鳥の脳は「小さくても賢い」を進化的に実現しています。ニューラルネットワークの設計において、パラメータ数を増やすことが唯一の解ではないことを、生物学が示しています。

3月30日の記事ではKVキャッシュの圧縮技術を取り上げましたが、「少ないリソースでより多くの知能を」というテーマは、AIアーキテクチャ設計の中心課題です。

実務メモ

直接的な技術記事ではありませんが、モデル設計の方向性を考えるときのメタファーとして有用です。「大きいモデル=賢い」という思い込みを解毒する読み物として、休憩時間にどうぞ。


出典

用語メモ

ニューロン密度
脳の単位体積あたりのニューロン数。脳の大きさではなく密度が知能と相関する。
この記事ではAIモデルの効率性との対比で登場。
鏡テスト
動物が鏡に映る自分を自己認識できるかを測る実験。
この記事ではカササギが合格し犬猫が不合格である事実の文脈で登場。