AI Daily Digest

AI・LLMの最新動向を毎日10本、技術者向けに解説

2026年3月14日(土)

音声で聴く

Audio Overview Cover

NotebookLM Audio Overview

📄 スライド資料を見る

※AIによる生成コンテンツのため正確性は保証されません。情報は必ずご自身で確認してください。

Enlarged cover

ローカルLLM実行可否をブラウザで診断:CanIRun.aiの仕組みと限界

ローカルAIハードウェア CanIRun.ai hardware check tool

何が起きたか

CanIRun.aiは、ブラウザ上でGPU・CPU・RAMを検出し、どのAIモデルをローカルで実行できるかを判定するツールです。WebGL APIを使ってハードウェアを特定し、約40種のGPUと12種のApple Siliconチップのデータベースと照合します。サーバーへのデータ送信は一切ありません。

要点

VRAM計算式はシンプルです。パラメータ数 × ビット数 ÷ 8 ÷ 1024³ + オーバーヘッド。70Bモデルを4ビット量子化(Q4_K_M)で動かすには約35GB、加えてKVキャッシュとランタイムバッファに1〜2GBが必要です。

スコアリングは0〜100で、メモリ帯域幅に基づく速度推定とメモリ使用率の2軸で評価します。メモリ帯域幅(GB/s)が推論速度を決めるのは、ボトルネックがVRAMからの重み読み出しにあるためです。ただし、HNコメントではRTX 6000 Pro Max-Qの96GB VRAMを4GBと誤認する、MoEモデルの活性パラメータ数を考慮しないなど、精度面の課題が複数指摘されています。

なぜ重要か

ローカルLLM実行の需要は急速に伸びています。プライバシー、レイテンシ、コスト削減のいずれの理由でも、「自分のマシンで動くか」は最初の判断ポイントです。CanIRun.aiはその入口を簡素化する試みですが、MoEアーキテクチャへの非対応や実測値ではなく推定値に依存する点など、改善の余地があります。

議論の争点

少数意見:「必要なのは実行可否の判定ではなく、自分のハードウェアで最高品質のモデルを自動選定してくれるツールだ」という声もある。

判断のヒント:CanIRun.aiは出発点としては有用だが、結果を鵜呑みにせず、実際にモデルをダウンロードして試すのが最も確実。

所感

「自分のPCで動くか」という問いに対する答えは、本来ならモデル開発者が提供すべき情報です。それがコミュニティツールに委ねられている現状は、ローカルAIのエコシステムがまだ成熟途上であることを示しています。

用語メモ

Q4_K_M
4ビット量子化の一形式。モデルサイズを大幅に圧縮しつつ品質劣化を抑える。
この記事ではCanIRun.aiのデフォルト評価基準として登場。
メモリ帯域幅
VRAMからデータを読み出す速度(GB/s)。ローカル推論ではモデル重みの読み出しがボトルネックになるため、帯域幅がトークン生成速度を決定する。
この記事ではスコアリングの主要指標として登場。
MoE(Mixture of Experts)
推論時にモデル全体ではなく一部の「エキスパート」のみを活性化するアーキテクチャ。
この記事ではCanIRun.aiが活性パラメータ数を考慮しない問題として言及。

出典:CanIRun.aiHN: 857 points / 228 comments

AI顔認識の誤認で無実の女性が5か月拘束:ノースダコタ事件の全容

AI倫理顔認識 AI facial recognition error case

概要

米ノースダコタ州ファーゴ警察がAI顔認識ソフトウェアで特定した容疑者が、まったくの別人でした。テネシー州在住のAngela Lippsさん(50歳)は2025年7月に銃を向けられた状態で逮捕され、一度もノースダコタ州を訪れたことがないにもかかわらず、約5か月半(164日間)にわたって拘束されました。

先に押さえる3点

1つ目。ファーゴ警察は銀行詐欺事件の監視カメラ映像にAI顔認識を適用し、Lippsさんを容疑者として特定しましたが、逮捕前に本人への聴取は一切行われていません。

2つ目。保釈なしで拘束されたLippsさんの銀行記録は、犯行時刻に1,200マイル以上離れたテネシー州の自宅にいたことを示していました。警察がこの事実を確認したのは、逮捕から5か月後の初めての聴取時です。

3つ目。2025年12月のクリスマスイブに起訴が取り下げられましたが、Lippsさんは自宅、車、飼い犬を失っていました。帰郷の交通費は警察に拒否され、地元の弁護士がホテル代と食費を負担しました。

影響

AI顔認識による誤認逮捕は、米国でこれが8件目の文書化された事例です。技術的にはAI顔認識は「候補の絞り込み」に過ぎず、最終的な身元確認は人間の捜査で裏付ける必要があります。しかし実際には、AIの出力がそのまま逮捕状の根拠として使われています。

ファーゴ警察署長は退任記者会見でこの件への質問を拒否し、真犯人は依然として特定されていません。Cline経由のプロンプトインジェクションDOGE元メンバーの個人情報持ち出しと同様、AI技術の運用における人間の監督の欠如が問題を起こすパターンが続いています。

議論の争点

少数意見:「問題はAIではなく捜査の手抜きだ。テクノロジーの問題ではなく組織の問題」という指摘もある。

判断のヒント:AI顔認識を導入する組織は、出力を「手がかりの一つ」として扱い、独立した裏付け捜査を義務付ける運用ルールを先に整備すべき。

実務メモ

AI顔認識をサービスに組み込む場合、技術精度だけでなく運用プロセスの設計が不可欠です。結果の信頼度スコアの明示、人間によるレビュー工程の組み込み、誤認時の是正プロセスの事前設計が最低限必要です。

用語メモ

AI顔認識(Facial Recognition)
画像から顔の特徴を抽出し、データベースと照合して個人を特定する技術。
この記事では捜査での誤用事例として登場。
バイオメトリクス
顔、指紋、虹彩などの生体情報を使った個人認証技術の総称。
AI顔認識はバイオメトリクスの一種で、精度と倫理の両面で議論が続いている。

出典:Grand Forks HeraldHN: 716 points / 372 comments

カタール産ヘリウム停止で半導体供給網に2週間の猶予

半導体サプライチェーン Qatar helium chip supply chain

ざっくり言うと

カタールの主要ヘリウム生産施設がイランのドローン攻撃で停止し、世界のヘリウム供給の約30%が消えました。ヘリウムは半導体製造に不可欠なガスで、代替品がありません。停止から2週間を超えると、サプライチェーンの再構築に数か月かかる見通しです。

ポイントは3つ

まず、QatarEnergyのRas Laffan施設が3月2日に停止し、3月4日に不可抗力条項(force majeure)を宣言しました。3月7日時点で再開の見通しは立っていません。ヘリウムコンサルタントのPhil Kornbluth氏は、最低2〜3か月の生産停止と、正常化まで4〜6か月を要すると警告しています。

次に、最も影響を受けるのは韓国です。2025年のヘリウム輸入の64.7%をカタールに依存し、世界のメモリチップの約3分の2を生産しています。韓国政府は中東依存度の高い半導体材料14品目の調査を開始しました。

最後に、これはヘリウムだけの問題ではありません。ホルムズ海峡の実質的な封鎖により、アルミニウム、LNG、窒素肥料にも影響が及んでいます。2022年のウクライナ侵攻時のヘリウム・ネオン不足と似た構図ですが、今回はより広範囲です。

どこに効く?

短期的にはチップメーカーの在庫で対応可能です。SK hynixは供給を多角化済み、TSMCも当面の影響は限定的としています。韓国チップメーカー全体で最大6か月分の備蓄があるとの推定もあります。ただし長期化すればメモリチップ供給に影響が出て、RAM価格上昇につながる可能性があります。AI用途でGPUメモリの需要が高まっている時期と重なるのが厄介です。

議論の争点

少数意見:「飛行船でヘリウムを運べばいい」という冗談交じりの提案がHNで出たが、輸送手段自体がボトルネックになり得る。

判断のヒント:半導体関連のハードウェア調達を予定しているなら、価格上昇リスクを織り込んだ計画を立てておくのが賢明。

一言

「ヘリウムが止まるとチップが作れない」という事実は、意外と知られていません。AI時代の基盤がこれほど物理的な制約に縛られているのは、考えさせられるものがあります。

用語メモ

force majeure(不可抗力条項)
契約当事者の制御を超えた事象により、契約上の義務を免除する法的概念。
この記事ではQatarEnergyがヘリウム供給契約の義務免除を宣言した文脈で登場。
パージガス
製造プロセスで不純物を除去するために使われる不活性ガス。
ヘリウムは化学的に不活性で熱伝導率が高く、シリコンウエハー製造で使われる。

出典:Tom's HardwareHN: 373 points / 351 comments

xAIの共同創業者が相次ぎ離脱:コーディング部門の不振とマスクの介入

xAI経営 xAI founders departure

まず結論

xAIの共同創業者12人のうち、10人が離脱しました。直近ではImagineチーム責任者のGuodong Zhang氏とZihang Dai氏が退社し、残る共同創業者はわずか2人です。コーディング部門の成果に不満を持つマスク氏がSpaceXとTeslaから「修正役」を送り込み、組織の大幅な再編を進めています。

変わった点

SpaceXがxAIを買収し、1.25兆ドル規模の統合企業が誕生しました。マスク氏はIPOに向けた経営体制の刷新を急いでおり、外部からの監査チームが投入されています。

人材の動きが注目です。CursorからAndrew Milich氏とJason Ginsberg氏がxAIに合流した一方、既存の研究者は「極端なハードコア」な労働文化やバーンアウトを理由に離脱が続いています。マスク氏自身が「過去に面接すら断った人材がいた。申し訳ない」とXに投稿し、不採用候補者への再アプローチが進んでいます。

注意点

HNでは「6時間勤務・オフィス泊り込みの文化を2年続けてもGoogleに追い抜かれた」との指摘がありました。Grokはいくつかのユースケースで評価されていたものの、Gemini 2.5 Proの登場後は優位性を主張しにくくなっています。xAIが引きつけられるのは「思想的に一致する人」か「金銭目的の人」だけだとの分析もあり、OpenAIやAnthropicとの人材獲得競争では構造的な不利を抱えています。

議論の争点

少数意見:「Grokpediaのような的外れなプロジェクトに時間を費やしたこと自体が、経営判断の問題を示している」

判断のヒント:xAIの今後を評価するなら、創業者の離脱より、Cursor出身の人材がコーディング部門を立て直せるかに注目すべき。

使うならこうする

Grokを業務で検討している場合、組織の安定性を見極めてからの判断が妥当です。コーディング支援については、Cursor出身の人材が合流した効果が製品に反映されるまでには数か月を要するでしょう。

用語メモ

Grok
xAIが開発するLLM。X(旧Twitter)のデータを学習に利用し、リアルタイム情報へのアクセスを特徴とする。
この記事ではコーディング部門の不振が離脱の引き金になった文脈で登場。
IPO(Initial Public Offering)
株式の新規公開。xAIはSpaceXとの統合後、史上最大級のIPOを計画しているとされる。
この記事では組織再編の動機として登場。

出典:Financial TimesHN: 272 points / 388 comments

AIコーディングが可視化した開発者の二極化:「悲嘆」の正体を見極める

AI開発エッセイ Grief and the AI coding split

何が起きたか

Les Orchard氏のブログ記事「Grief and the AI Split」が、AIコーディングをめぐる開発者コミュニティの分断を整理し、HNで218ポイント・361コメントの議論を呼びました。氏の主張は、AIコーディングは新しい分断を生んだのではなく、もともと存在していた分断を「見えるようにした」だけだというものです。

要点

Orchard氏は開発者を2つのタイプに分類します。「作ること自体が目的」のクラフト型と、「動かすことが目的」の結果型です。AI以前は両者が同じエディタ、同じ言語、同じPRフローを使っていたため、動機の違いは外から見えませんでした。AIにコードを書かせるか手で書くかという選択肢が生まれた瞬間、この違いが表面化しました。

Orchard氏自身は7歳の頃からCommodore 64で「結果型」の開発者だったと述べ、AIコーディングへの不安は杞憂だったと振り返っています。パズル解きの対象がアーキテクチャや構成の設計に移っただけで、「動いた瞬間の満足感は40年以上変わっていない」と。一方、氏が感じる悲嘆はコードを書く行為の喪失ではなく、オープンウェブのエコシステムやキャリア環境の変化に対するものだと整理しています。

60歳エンジニアがClaude Codeで開発への情熱を再燃させた話Claude Codeはチームを壊すのかとも通じるテーマです。

なぜ重要か

AIコーディングの議論は「使う/使わない」の二項対立に陥りがちです。Orchard氏の分析は対立の根底にある「動機の違い」を明確にすることで、より生産的な議論の土台を提供しています。自分がどちらのタイプで、何に対して悲嘆を感じているのかを認識することが次の行動を決める出発点になります。

議論の争点

少数意見:Simon Willison氏は「分断は以前からあったが不可視だった」というコア論旨に同意しつつ、両方の要素を持つ開発者も多いと補足している。

判断のヒント:自分が「何に対して不安や悲嘆を感じているか」を分類するだけで、AIコーディングとの付き合い方が明確になる場合が多い。

所感

「自分はクラフト型か結果型か」を自問してみると、意外とはっきり答えが出るかもしれません。その答えによってAIコーディングへの感情的反応がまったく異なるという指摘は、これまでの議論に欠けていた視点です。

用語メモ

バイブコーディング
AIにコードの大部分を生成させ、人間は方向性の指示と結果の検証に集中する開発スタイル。
この記事では「結果型」開発者の延長線上にある概念として暗示されている。
クラフトプログラミング
コードの品質、可読性、設計の美しさを重視する開発姿勢。
この記事ではAIコーディングの普及により「目に見える選択」として浮上したアプローチとして登場。

出典:blog.lmorchard.comHN: 218 points / 361 comments

Transformer内部でCプログラムを実行する:対数時間推論の衝撃

研究Transformer Executing programs inside transformers

概要

Percepta.aiのチームが、Transformer内部でCプログラムを直接実行する手法を発表しました。外部ツールを呼び出すのではなく、Transformerそのものがプログラムをステップごとに実行し、推論時間がシーケンス長に対して対数的にスケールするという内容です。

先に押さえる3点

1つ目。キーとなる技術は「HullKV」です。アテンションヘッドの次元を2に制限し、2次元凸包(Convex Hull)の性質を利用して、キー・バリュー検索を全トークン走査ではなく凸包上の点のみに絞ります。通常O(n)の検索がO(log n)になります。

2つ目。デモではSudoku解法(32回の推測、7段階深さ)、ハンガリアン法による割当問題、ダイクストラ法の実行が示されています。CプログラムがTransformerの重みに「コンパイル」される形です。

3つ目。現時点ではモデルの重みもコンパイラツールも未公開です。結果の再現性は検証できない状態です。

影響

実用化されれば、LLMの推論パイプライン内で計算集約的な処理を効率的に実行できる可能性があります。ただし「外部ツールを使えば済む処理をTransformer内部で実行する意味があるのか」という疑問もHNで出ています。現時点では基礎研究の段階です。

実務メモ

直近で業務に適用できる段階ではありませんが、「アテンションがシーケンス長に対して対数的にスケールする」方向性は注目に値します。長コンテキストでの推論効率がボトルネックになっている場面では、将来的に恩恵を受ける可能性があります。

用語メモ

HullKV
アテンションヘッドの次元を2に制限し、2次元凸包の性質を利用してKV検索をO(log n)に削減する手法。
この記事ではTransformer内部でプログラムを実行する際の中核技術として登場。
凸包(Convex Hull)
点集合を含む最小の凸多角形。HullKVでは2次元空間上のKVペアのうち凸包上の点のみを探索して検索を高速化する。
この記事では対数時間推論の鍵となる数学的構造として登場。

出典:Percepta.aiHN: 291 points / 113 comments

Carmackが語るOSSとAI学習の関係:「コードは贈り物」論争の行方

OSSAI学習 Carmack open source AI training debate

ざっくり言うと

John Carmack氏がXで「自分の100万行以上のOSSコードは世界への贈り物として書いた。AIがそのコードを学習に使うことは贈り物の価値を増幅する」と投稿し、OSS開発者とAI推進派の間で激しい議論が起きています。

ポイントは3つ

1つ目。Carmack氏の立場は明確です。OSSは贈り物であり、AIによる学習はその価値をさらに広げると肯定しています。GPLによる保護は「パートナーの不安を和らげるための方便だった」とまで述べています。

2つ目。反論の核心は「贈り物ではなく、条件付きの共有だ」という点です。MITはクレジットを、GPLはクレジットと派生物のGPL化を求めています。AIがコードを再生成する際、これらの条件が無視されるのが問題です。AIによるコピーレフト侵食:chardet再実装の事例でも取り上げた構造的な課題です。

3つ目。Carmack氏と一般的なOSSメンテナの立場は根本的に異なります。Carmack氏は商用ゲーム販売で既に報酬を得た上でコードを公開しています。無償でインフラを20年間保守するメンテナにとって、コードは「贈り物」ではなく「相互扶助」です。Redox OSのLLM全面禁止DebianのAI生成コード方針など、OSS側からの応答は多様化しています。

どこに効く?

OSSライセンスの選択に影響する議論です。AI学習を許容するなら現行のMIT/Apacheで問題ありませんが、制限を加えたい場合は新しいライセンス条項が必要です。ただし「AI学習禁止」条項がOSIのオープンソース定義に適合するかは別問題です。

一言

「贈り物だから何に使ってもいい」と「条件付きの共有を守るべきだ」は、どちらも筋が通っています。AI学習という新しい利用形態に対して既存のライセンス体系が追いついていないことが根本的な問題です。

用語メモ

コピーレフト
著作物の自由な利用・再配布を保証しつつ、派生物にも同じ自由を要求するライセンス概念。GPLが代表例。
AIによるコード再生成でコピーレフトが迂回される問題が指摘されている。
コードロンダリング
GPLなどで保護されたコードをAIに学習させ、ライセンス条項なしで類似コードを再生成すること。
法的にはグレーゾーンだが、OSSコミュニティで深刻な懸念として議論されている。

出典:Twitter/X @ID_AA_CarmackHN: 209 points / 305 comments

LLMのマージ率は1年間改善していない:SWE-benchデータが示す停滞

ベンチマークSWE-bench LLM merge rates stagnation

まず結論

METRのSWE-benchデータを独自分析した結果、LLMのプログラミング能力を示す「マージ率」(メンテナが実際に承認するかどうか)は1年以上改善していないとする記事が話題になっています。「テストが通る」と「本番にマージされる」の間には大きなギャップがあり、後者の改善は停滞している可能性があります。

変わった点

著者のkqr氏は、METRが「緩やかな上昇傾向」と示唆したマージ率データに対して、3つの統計モデルでBrierスコアを比較しました。定数関数(まったく改善なし)のスコアが0.0100で最良、階段関数が0.0117、METRの提案した線形上昇が0.0129で最悪です。統計的には「改善していない」モデルが最も予測精度が高い結果になりました。

SWE-CI:AIエージェントのコード保守能力を測る新ベンチマークLLMは「もっともらしいコード」を書くでも、LLMのコード品質評価の難しさを取り上げています。

注意点

METRのデータはSonnet 4.5までしかカバーしておらず、その後のモデルについては「誰もMETRほど厳密にマージ率を測定していない」と著者自身が認めています。HNでは「Sonnet 3.7からOpus 4.0、Sonnet 4.5への改善はデータ上明確で、著者の分析手法がそれを隠している」という反論もあります。また「実務での生産性向上はモデル単体の能力ではなく、ツーリングやハーネスの改善によるところが大きい」という指摘も重要です。

使うならこうする

LLMコーディング支援の効果を評価する際、「テストが通る」だけでなく「実際にマージされるか」を基準にすると、より実態に近い評価が可能です。SWE-benchのスコアだけでモデルの実力を判断せず、自チームのコードベースでの実測を併用するのが堅実です。

用語メモ

マージ率
コード変更がリポジトリのメインブランチに統合される割合。SWE-benchでは「テスト通過」より厳しい評価基準として使用。
この記事では「改善が停滞している」とする分析の対象として登場。
Brierスコア
予測の正確さを測る指標で、0に近いほど予測精度が高い。
この記事ではマージ率の改善トレンドを検証するために3つの統計モデルを比較する際に使用。
SWE-bench
実際のGitHubイシューを使ってLLMのソフトウェアエンジニアリング能力を測定するベンチマーク。
この記事ではマージ率という厳格な基準での評価に焦点が当てられている。

出典:entropicthoughts.comHN: 162 points / 152 comments

RAGシステムの文書毒入れ攻撃:3分で財務データを偽装できる危険性

セキュリティRAG RAG document poisoning attack

何が起きたか

セキュリティ研究者のAmine Raji氏が、RAGシステムの知識ベースに偽文書を注入するだけで、財務データを完全に偽装できることを実証しました。MacBook Pro上でGPUなし・クラウドなし・ジェイルブレイクなしの環境で、3分もかからずに成功しています。

要点

攻撃は3通の偽文書をChromaDBに注入するだけです。「CFO承認の訂正」「規制当局の通知」「取締役会議事録」の3種で、実際の売上$24.7Mを$8.3Mに書き換えることに成功しました。PoisonedRAG(USENIX Security 2025)が示した2つの条件、つまり偽文書が正規文書よりコサイン類似度で上位に来ることと、取得された偽コンテンツがLLMに望む回答を生成させることを同時に満たしています。

防御策の検証も興味深い結果でした。5つの防御層を個別テストした結果、最も効果的だったのは「埋め込み異常検知」で、攻撃成功率を95%から20%に下げました。偽文書は同じ意味空間にクラスタリングされるため、ベクトルDB投入前に検知できるという理屈です。5層すべてを組み合わせると成功率は10%まで低下します。Cline経由のプロンプトインジェクションと同様、AIシステムの入力経路が新たな攻撃面になっています。

なぜ重要か

RAGは「LLMに最新情報を与える」手法として急速に普及していますが、知識ベースへの書き込みアクセスがあれば誰でもこの攻撃を実行できます。偽文書は手動削除まで残り続け、すべてのクエリに影響します。ユーザーには取得された文書が見えないため、汚染に気づきにくいのも厄介です。

所感

「RAGは質問応答システムではない。証拠増幅器だ」というHNのコメントが印象的でした。RAGの出力を最終回答として扱うのではなく、人間が検証すべき「証拠の候補」として扱う設計にするだけで、この種の攻撃の実害は大幅に減ります。

用語メモ

PoisonedRAG
USENIX Security 2025で発表された、RAGシステムへの文書注入攻撃の研究。攻撃成功の2条件(検索条件と生成条件)を体系化した。
この記事では攻撃手法の理論的基盤として登場。
埋め込み異常検知
ベクトル空間上での文書分布を監視し、不自然なクラスタリングを検出する手法。
この記事では最も効果的な単一防御策として紹介されている。
OWASP LLM Top 10
LLMアプリケーションに特有のセキュリティリスクランキング。
この攻撃はLLM08:2025(ベクトルおよび埋め込みの弱点)に分類される。

出典:aminrj.comHN: 148 points / 59 comments

Digg再び閉鎖:AIボット大量流入でコミュニティが崩壊した経緯

コミュニティボット対策 Digg shutdown again

概要

2026年1月にReddit風コミュニティとして再ローンチしたDiggが、わずか3か月で再び閉鎖に追い込まれました。AI搭載のボットとSEOスパマーの大量流入に対処できなかったことが主因です。創業者Kevin Rose氏が4月からフルタイムで復帰し、再起を図るとしています。

先に押さえる3点

1つ目。ベータ版公開直後、SEOスパマーがDiggのGoogleリンクオーソリティに目をつけ、AIエージェントや自動化アカウントが一斉に流入しました。数万アカウントをBANし対策ツールを導入しましたが、追いつきませんでした。

2つ目。CEO @justinの声明が率直です。「投票もコメントもエンゲージメントも本物かどうかわからなくなったら、コミュニティの土台を失ったのと同じだ」。既存プラットフォームのネットワーク効果を過小評価したことも認めています。

3つ目。HNのAI生成コメント禁止ポリシーが先日話題になりましたが、Diggのケースはより深刻です。HNは既存のコミュニティ基盤があるからルールで対処できますが、新規プラットフォームはボット対策が追いつく前にコミュニティ自体が成立しません。

影響

Diggの失敗は、AIボット時代にユーザー投稿型プラットフォームを新規立ち上げする困難さを示しています。HNでは「ユーザー投稿で動くすべてのサイトが、AIボット同士の会話場になりつつある」という見方も出ています。対策として、少額課金(最低$2の支出要件)を導入した運営者が「ボット問題がほぼ完全に解消した」と報告しており、経済的な摩擦が有効な防御策になり得ます。

実務メモ

ユーザー投稿型サービスを構築する場合、ボット対策は「後から追加する機能」ではなく「ローンチ前に設計する基盤」です。特にSEO的な価値を持つドメインでは、少額課金やSMS認証などの摩擦を意図的に設けることが、コミュニティの品質を保つ前提条件になりつつあります。

用語メモ

リンクオーソリティ
Googleがウェブサイトのドメインに付与する信頼性指標。Diggは歴史あるドメインのため高いオーソリティを持ち、スパマーの標的になった。
この記事ではボット流入の動機として登場。
ネットワーク効果
サービスの利用者が増えるほど各利用者にとっての価値が高まる現象。
この記事では既存プラットフォームの参入障壁としてDiggが克服できなかった要因として登場。

出典:digg.comHN: 105 points / 79 comments