2026年3月22日(日)のAI/LLMニュース
Electronic Frontier Foundation(EFF)が、New York TimesやThe GuardianがInternet Archiveのクローラーをブロックし始めた問題について声明を発表しました。AIスクレイピングへの対抗措置としてブロックしているものの、その巻き添えでWeb全体の歴史的記録が失われる危険があるとの主張です。
Internet Archiveは1兆ページ以上のWebアーカイブを保有する非営利組織です。Wikipediaは249言語にわたる260万件以上のニュース記事をArchive経由で参照しています。この規模の記録が「AI対策」の副作用として消えかねない事態は、確かに深刻です。
この問題の核心は「誰をブロックしているのか」の認識のずれにあります。AIクローラーとアーカイブクローラーは技術的には似た動作をしますが、目的がまったく異なります。EFFの指摘するとおり、出版社がAI学習を懸念するなら、法的手段で対処すべきであって、非営利アーカイブ機関まで巻き添えにすべきではありません。
昨日取り上げたFSFの著作権声明と合わせて読むと、AI時代の著作権・フェアユースの議論が多方面で活発化していることがわかります。
「図書館を焼いて放火犯を罰する。放火犯はとっくにいなくなっているのに」というHNコメントが本質を突いています。AIスクレイピング問題の解決策として、歴史的記録を道連れにするのは割に合わない選択です。ただ、出版社側にも「何もしなければ容認と取られる」という事情があり、簡単な解はないのが現状です。
少数意見:「メディアは自分たちのAIへの貢献を過大評価している。彼らが存在しなくてもAI開発には影響しなかっただろう」
判断のヒント:自サイトでクローラーをブロックしている場合、Internet Archiveのクローラーが巻き添えになっていないか確認するのが良いでしょう。
tinygrad社がオフラインAIデバイス「Tinybox」の新ラインナップを公開しました。$12,000のred v2から$65,000のgreen v2 Blackwellまで、ローカルで大規模モデルを動かすための専用ハードウェアです。MLPerf Training 4.0でのコストパフォーマンスの高さをアピールしています。
昨日のM5 Pro+Qwen3.5ローカルAI記事でも触れましたが、ローカルAIのハードウェア選択肢が着実に広がっています。ただし、HNコメントでは「red v2のVRAM 64GBで120Bモデルは非現実的」「自作なら$9,000で同等品が組める」という冷静な指摘も多数ありました。
NVIDIAのVera Rubinが「半額で同等のGPU RAM」を提供し始めていることを考えると、ニッチ向けハードウェアの価格優位性は長続きしない可能性があります。
red v2を検討するなら、実際に動かしたいモデルのVRAM要件を事前に計算してください。120Bモデルは64GB VRAMでは4ビット量子化でもコンテキスト長4K程度が限界です。70Bクラスなら実用的に使えます。green v2はVRAM 384GBなので余裕がありますが、$65,000という価格帯ではCPU(Threadripper 7000未満)やRAM(256GB未満)に不満が残るとの声もあります。
少数意見:「ターンキーで『Kimi 2.5を50tok/sで動かせます』と約束するほうが市場には刺さる」
判断のヒント:ローカルAIハードウェアは、動かしたいモデルとコンテキスト長から逆算してVRAMを決めるのが鉄則。スペックシートの「最大パラメータ数」は鵜呑みにしないことです。
産業用配管業者がClaude Codeを使って、PDFの製作図面をCSVに変換する業務アプリを8週間で構築した事例がHNで話題になりました。図面の処理時間が1枚10分から60秒に短縮され、100枚を5分で処理できるようになったとのことです。
少数意見:「何十年もExcelマクロで自作ツールを作ってきた現場は多い。AIはその延長線上で、より良いツールを提供しているだけ」
判断のヒント:非エンジニアがAIで業務アプリを作る場合、「作れるか」より「保守できるか」を先に考えてください。
昨日の「AIが変えるコードベースの品質」や3月19日の「AIコーディングはギャンブルか」と通底するテーマです。AIコーディングの恩恵は明確ですが、生成されたコードの品質管理という課題は変わりません。この配管業者の事例は「問題解決」としては成功ですが、その先の「運用」まで含めて評価すべきでしょう。
ドメイン専門家が自分の問題を自分で解決できる世界は、確かに魅力的です。ただ、ソフトウェアの難しさは「動くものを作る」ではなく「動かし続ける」にあるので、この先の展開が本当の試金石になります。
2つの関連する脳保存研究が同時に注目を集めています。1つはアルデヒド安定化冷凍保存法で豚の脳全体の細胞構造を固定した研究、もう1つはマウスの海馬スライスを液体窒素温度(-196℃)で7日間凍結した後にニューロン活動を復活させた研究です。いずれもデジタル意識アップロードや脳の長期保存に向けた基礎技術として位置づけられています。
保存された脳のコネクトーム(神経配線図)をデジタルスキャンして再構築する技術はまだ存在しません。「保存できた」から「読み取れる」「復元できる」までには、大きな技術的ギャップが残ります。HNコメントでは、哲学的な「船のテセウス」問題――ニューロンを1つずつデジタル置換したら、何番目で「自分」でなくなるのか――についても活発な議論がありました。
実務で直接関わる方は少ないと思いますが、AIと脳科学の交差点として重要な研究です。コネクトームのデジタル再構成が実現すれば、ニューラルネットワークアーキテクチャの設計にも影響を与える可能性があります。
少数意見:「Bobiverseに一歩近づいた」(SFシリーズ「We Are Legion」への言及)
判断のヒント:短期的にはAI開発への直接影響はありませんが、脳のリバースエンジニアリングが進めば、ニューラルアーキテクチャの設計思想に長期的に影響する可能性があります。
ペンシルバニア大学ウォートン校の研究者が、AIが人間の推論に与える影響について1,372名・約10,000試行の実験結果を発表しました。カーネマンの二重過程理論(System 1=直感、System 2=熟慮)に「System 3」としてAI認知を追加する枠組みを提案しています。
この研究は、3月17日の「LLMは疲れる」記事で取り上げた認知負荷の問題と直結しています。AIが便利になるほど、人間の思考力が低下するリスクがあるという構造的な問題です。
興味深いのは、AIに従った場合でも参加者の「自信」が上昇したという点です。間違った答えを受け入れながら、自分は正しいと確信する。これは従来のバイアス研究にはなかった新しいパターンです。
SEC提出書類を手作業で確認していた金融アナリストが、LLMに任せ始めて数週間後に「何も考えずに結果を受け入れていた」と気づいたというHNコメントは示唆的です。専門家でもこうなるなら、一般ユーザーへの影響は推して知るべしでしょう。ただし、別のコメントでは「AIのおかげで退屈な認知作業を省けるようになり、むしろ深い思考に時間を使えている」という反論もありました。どちらが正しいかは、使い方次第です。
少数意見:「AIで認知スキルが向上した。退屈な作業を委任して、脳により難しいワークアウトをさせている」
判断のヒント:AIの回答を受け入れる前に、自分が「検証している」のか「確認バイアスで納得している」のか、意識的に区別してみてください。
2025年2月、HPが英国・アイルランド・フランス・ドイツ・イタリアのサポート電話に15分間の強制待機を導入していたことがThe Registerの報道で明らかになりました。「回線が混み合っている」という自動メッセージが5分ごとに流れますが、実際の混雑とは無関係の意図的な遅延でした。
この件そのものはAIと直接関係ありませんが、「コスト削減のためにユーザー体験を意図的に劣化させる」というパターンは、AIチャットボットによるサポート置き換えとも通底します。「優秀な顧客ほど、敬意を払わない企業の競合へ移る。結果として、サポートコストが最大の顧客だけが残る」というHNコメントは、AI導入の設計ミスにも当てはまります。
サポートのデジタル化を進める場合、「顧客を追い立てる」ではなく「デジタルチャネルを魅力的にする」が正解です。HPの失敗はこの基本を外した典型例です。AIチャットボットを導入する場合も、人間サポートへの動線を断たないことが重要です。
シェル履歴管理ツールAtuinのv18.13がリリースされました。改善されたファジー検索、PTYプロキシ「Hex」、そしてAI機能の3つが主な新機能です。特にAI機能は「あらゆるツールにAIを入れるな」という反発と「これは便利」という支持で意見が割れています。
シェルを日常的に使うエンジニアにとって、検索改善とPTYプロキシは地味ながら有用な改善です。AI機能については、既にzsh-copilotのようなツールが存在するため、Atuin本体に統合する必要があるかは疑問です。
「1つのツールに1つの仕事」というUNIX哲学を重視する層には受け入れがたいアップデートですが、利便性を重視する層には歓迎されています。
AI機能がオプトイン(明示的に有効化が必要)なのは正しい設計判断です。問題は、こうした機能追加が今後のコードの複雑化やリソース消費増につながるかどうかです。既にAtuinは1GB以上のRAMを消費するとの報告があり、TUIとしては異例の重さです。
Mediahuis Irelandの元CEOであるPeter Vandermeersch氏が、自身のニュースレターにAI生成の引用を掲載していたことが発覚し、停職処分を受けました。53本のブログ記事のうち15本に出典が確認できない引用が含まれ、7人の引用元とされた人物が発言を否定しています。
この事例は「AIが悪い」ではなく「検証を怠った人間の問題」です。ただし、LLMの出力が「もっともらしい引用」という形で提示されると、専門家でも騙される危険があるという点は重大です。Ars Technicaの記者Benj Edwards氏も以前似た問題に遭遇しており、AI要約中の引用が元の文書に存在しなかったと報告しています。
対策としては、LLMの出力に含まれる引用は必ず原文と照合する習慣が必要です。引用の原文検索は技術的には単純な文字列マッチで可能なので、ツール化の余地があります。
LLMで文書を要約する場合、要約に含まれる「引用」や「データ」は全て原文で確認してください。特に固有名詞が入った引用は要注意です。複数回・異なるコンテキストで同じ抽出を依頼し、結果を比較するのも有効な検証手段です。
Sam Altmanが2014年に自身のブログに書いたAIについての短いエッセイがHNで再浮上し、71件のコメントが付きました。「AIは最も過小評価されている技術トレンドだ」と書いた当時の主張を、12年後の現在から検証する議論が展開されています。
12年後の答え合わせとして読むと、Altmanの予測は半分当たって半分外れています。AGIが過小評価されていたという主張は、OpenAIの成功を考えると的中しています。一方、「コンピュータが実行、人間が思考」という分業は実現していません。むしろ記事5の「System 3」研究が示すように、人間の思考能力そのものがAIによって変質しつつあります。
HNコメントでは「Altmanの2015年のAI規制に関する投稿がもっと面白い」との指摘があり、当時のAltmanがAI開発の安全策(エアギャップ環境での開発、第三者コードレビュー、アシモフの第0法則の組み込み)を提案していたことが紹介されています。現在のOpenAIの方向性との対比で読むと味わい深い内容です。
2014年のAltmanは「意識」と「創造性」を人間の最後の砦として挙げていました。2026年の現在、LLMが「意識」を持っているかは議論中ですが、少なくとも「創造的に見える出力」は当たり前になっています。Altmanが見落としていたのは、人間が「創造的かどうか」より「AIの出力を検証できるかどうか」が重要になるという点かもしれません。
Lobstersで「生成AIに台無しにされた創作的・技術的活動は何か?」というスレッドが立ち、36件のコメントが集まりました。CTF、Advent of Code、趣味のプログラミング、教育など、幅広い領域でAIの影響を嘆く声が上がっています。
このスレッドで繰り返し語られるのは、「小さな壁を自力で乗り越える瞬間こそプログラミングの楽しさだった」という感覚の喪失です。LLMがその壁を瞬時に消してくれるようになった結果、達成感が失われたという声が目立ちます。
3月17日の「LLMは疲れる」、同日の「Cursor AI品質調査」と合わせて読むと、AIが「効率」を上げる一方で「充実感」を削っているという構造が見えてきます。
意識的にLLMを使わない時間を設けることは、スキル維持のためだけでなく、モチベーション維持にも効果的です。すべてを最適化するのではなく、「非効率を楽しむ余白」を残しておくことも技術者としての長期的な健全性に関わります。