世界のシグナルを、あなたのビジネスに。

【週末特集】300ページの「TRUMP AMERICA AI法」全解剖──AI開発者に注意義務、セクション230は2年で廃止

この記事のポイント(30秒で読める)

  • 米国初の包括的AI規制法案が3月18日に登場。「TRUMP AMERICA AI Act」はAI開発者に「注意義務(Duty of Care)」を課す。違反すればFTC・司法長官・民間訴訟の三方向から責任追及される
  • セクション230が2年で廃止、AI学習は「フェアユース」ではなくなる。フェアユースとは、一定条件下で著作権者の許諾なく著作物を利用できる米国法の原則。これを否定し、著作権者の許諾なきAI訓練を違法とする
  • 全50州のAI規制を連邦法で一括上書き。カリフォルニアやコロラドの州法を無効化し、米国市場に統一ルールを敷く。日本企業が米国でAIサービスを展開する際のルールが根本から変わる

何が起きたか──「300ページの爆弾」が米上院に投下された

2026年3月18日、マーシャ・ブラックバーン上院議員(共和党・テネシー州)が1本の法案の討議草案を公表しました。

法案の正式名称は「The Republic Unifying Meritocratic Performance Advancing Machine Intelligence by Eliminating Regulatory Interstate Chaos Across American Industry Act」。略して「TRUMP AMERICA AI Act」です(上院ブラックバーン事務所プレスリリース)。

約300ページに及ぶこの法案は、トランプ大統領が2025年12月の大統領令で求めた「州法に代わる連邦統一AI規制」を具体化したものです。両党の議員が個別に提出してきた複数の法案——子どものオンライン安全を守るKOSA、デジタル肖像権を守るNO FAKES Act、著作権保護法案など——を1つの巨大な法律に統合しています(Roll Call, 2026年3月19日)。

まだ「討議草案(discussion draft)」の段階ですが、ホワイトハウスの政策目標と直結しており、成立すれば米国のAI産業とインターネットのルールが根本から書き換わります。

法案の7つの柱

この法案は多岐にわたりますが、経営者が知るべき核心は以下の7つです。

① AI開発者に「注意義務(Duty of Care)」を課す

AI開発者は、自社のAIシステムの設計・開発・運用において、「ユーザーへの予見可能な害を防止・軽減する合理的な措置」を取ることが義務付けられます。これはEUのAI法とは異なるアプローチで、具体的な技術要件のリストではなく、包括的な「注意義務」という概念を採用しています(GovTech)。

違反した場合の制裁は厳格です。

  • FTC(連邦取引委員会)が規則制定権限を持ち、行政処分を下せる
  • 司法長官(連邦・州)が訴訟を起こせる
  • 民間の被害者も「設計の欠陥」「警告義務の不履行」「明示保証の違反」「不合理に危険な製品」を理由に訴訟を提起できる

つまり、AIの不具合や被害に対して三方向から法的責任を問われる仕組みです。

② セクション230を2年後に廃止

1996年に制定されたセクション230は、プラットフォーム企業がユーザーの投稿内容に対して法的責任を負わないことを定めた条項です。Facebook、Google、X(旧Twitter)など、現在のインターネット産業の基盤と言われてきました。

TRUMP AMERICA AI Actは、法律の施行から2年後にこの免責条項を完全に撤廃します。リンゼー・グラハム上院議員(共和党・サウスカロライナ州)が個別に推進してきた法案がそのまま組み込まれました(Roll Call)。

AI生成コンテンツがプラットフォーム上で拡散する時代に、「プラットフォームは責任を負わない」という30年前のルールを終わらせるという宣言です。

③ AI学習における著作権「フェアユース」を否定

法案は明確に規定しています。「著作権で保護された作品の無断の複製・コピー・計算処理によるAIモデルの訓練は、著作権法上のフェアユース(著作権の例外規定)に該当しない」Deadline)。

さらに、著作権者がAI企業に対して、「自分の著作物がAIの訓練に使われたかどうかを調べるための召喚状」を請求できる権利も盛り込まれています。ピーター・ウェルチ上院議員(民主党・バーモント州)の法案が基になっています。

OpenAI、Anthropic、Google、Metaなど、大規模言語モデルを開発する全企業に直撃する条項です。

④ デジタル肖像権の保護(NO FAKES Act)

個人の声や外見のデジタル複製(ディープフェイクを含む)に対して、本人の同意なしに作成・配信することを禁止します。同意なく作られたデジタル複製を受け取った人が、それをさらに拡散することも違法となります。

⑤ ハイリスクAIシステムの第三者監査義務

健康、安全、教育、雇用、法執行、重要インフラに影響を与える「ハイリスク」なAIシステムの提供者は、政治的見解や政党所属に基づくバイアスがないかどうか、第三者機関による監査を受けなければなりません(Jones Walker LLP)。

何が「ハイリスク」に該当するかの判断基準は詳細に定義されておらず、企業は自社のAIシステムがハイリスクかどうかを自ら判断する必要があります。判断を誤れば、コンプライアンス違反として責任を問われるリスクがあります。

⑥ 子どものオンライン安全(KOSA)

ブラックバーン議員が以前から推進してきたKids Online Safety Act(KOSA=子どものオンライン安全法)の内容がそのまま含まれています。オンラインプラットフォームに対して、未成年者への害を防止する注意義務を課します。

⑦ 全50州のAI規制を連邦法で上書き(プリエンプション)

おそらく最も議論を呼ぶ条項です。この法案は、州政府が独自に制定したAI規制を連邦法で無効化(プリエンプション)します。

カリフォルニア州のSB 1047(AI安全法案)、コロラド州のAI規制法など、すでに施行中または準備中の州法を一括で上書きする狙いです。フロリダ州のデサンティス知事やカリフォルニア州のニューサム知事は、共和・民主の立場を超えて連邦によるプリエンプションに反対しています(Ropes & Gray)。

さらにトランプ大統領は、AI規制が「過度」と判断された州に対して420億ドル(約6兆3,000億円)のブロードバンド補助金を凍結するという圧力手段も用意しています。

なぜ重要か──日本の経営者が「他人事」にできない3つの理由

理由1:米国市場のルールブックが根本から変わる

日本企業がAIサービスやAIを組み込んだ製品を米国で展開する場合、この法案が成立すれば「注意義務」をクリアしなければなりません。50州の個別ルールではなく、1つの連邦基準になるのは良い面もありますが、「注意義務」の具体的な範囲が曖昧なため、過剰なコンプライアンスコストが発生する可能性があります。

理由2:AI学習データの調達コストが激増する

フェアユースの否定は、AI開発の根本に関わります。大規模言語モデルの訓練には膨大なテキスト・画像・動画データが必要ですが、すべての著作権者から許諾を得るか、ライセンス料を支払う必要が生じます。

すでにOpenAIはAP通信やAxel Springer(ドイツ)とライセンス契約を結んでいますが、1件ずつ交渉していてはスケールしません。データライセンス市場が急拡大し、AI開発コストの構造が変わる転換点になりえます。

理由3:「セクション230の終わり」がプラットフォーム経済を再定義する

セクション230の廃止は、SNS・EC・口コミサイトなど、ユーザー生成コンテンツに依存するすべてのプラットフォームに影響します。AI生成コンテンツの爆発的増加と相まって、プラットフォームが「掲載内容に責任を負う」時代が来ます。

日本企業でも、米国ユーザー向けのサービスを運営している場合、コンテンツモデレーション(投稿内容の監視・管理)の体制強化が必須になります。

どう活かすか──日本の経営者・個人事業主が今やるべき3つのこと

1. 自社のAIサービスが「ハイリスク」に該当するか棚卸しする

健康・安全・教育・雇用・法執行・重要インフラ。これらの領域でAIを使っている場合、将来的に第三者監査の対象になりえます。まずは自社のAI利用状況を一覧にすることです。採用AIスクリーニング、融資審査AI、医療診断AI——意外と「ハイリスク」に該当するケースは多いはずです。

2. AI学習データの権利関係を確認する

自社開発のAIモデルがある場合、訓練データの著作権処理が適切かどうか確認しましょう。サードパーティのAIサービスを利用している場合も、そのサービス提供者がデータライセンスを適切に処理しているかを契約書で確認すべきです。「フェアユースだから大丈夫」は、この法案が通れば通用しません。

3. 「注意義務」を先取りして社内ガイドラインを整備する

法案の成否に関わらず、AI開発者に「注意義務」を課す流れは世界的です(EUのAI法、英国のAI安全研究所など)。今のうちに「AIリスク評価フレームワーク」を社内に導入しておけば、どの国のどの規制にも対応しやすくなります。

具体的には以下の3ステップです。

  1. リスク分類:自社のAIシステムを「ハイリスク」「ミドル」「ローリスク」に分類
  2. 影響評価:各システムが失敗した場合のユーザーへの影響を文書化
  3. 対策実装:バイアステスト、人間によるレビュー体制、インシデント対応プランの整備

この法案は成立するのか?──現実的な見通し

現時点では「討議草案」です。法案として正式に提出され、上院・下院の審議を経て、大統領署名に至るまでには複数のハードルがあります。

特にセクション230の廃止州法のプリエンプションは、テック業界と州政府の双方から強い反発が予想されます。共和党内部でも意見が割れています。

ただし、トランプ大統領が12月の大統領令で「連邦統一規制」を明確に支持しており、ホワイトハウスはブラックバーン案と自らの政策提言を統合する方針を示しています(CNBC, 2026年3月20日)。

「成立するかどうか」ではなく、「成立した場合に備えているかどうか」。それが経営者の仕事です。

元ソース一覧:

関連記事


  • 【週末特集】300ページの「TRUMP AMERICA AI法」全解剖──AI開発者に注意義務、セクション230は2年で廃止

    【週末特集】300ページの「TRUMP AMERICA AI法」全解剖──AI開発者に注意義務、セクション230は2年で廃止

  • 【米国最新】AIは仕事を「減らす」のではなく「増やす」──HBR×ハーバード研究が警告するAI脳疲労の衝撃

    【米国最新】AIは仕事を「減らす」のではなく「増やす」──HBR×ハーバード研究が警告するAI脳疲労の衝撃

  • 【米国最新】消費者の50%が「AIブランドを避けたい」──Gartner1,539人調査が突きつける「AIマーケティング・トラストパラドックス」

    【米国最新】消費者の50%が「AIブランドを避けたい」──Gartner1,539人調査が突きつける「AIマーケティング・トラストパラドックス」