SECTION 24

日本国内のAIガイドライン
と法規制

国内法・省庁指針・業界別ガイドラインを理解し、
安心・安全なAI活用基盤を構築する

calendar_today2026年 LCREATOR.Inc Google AI 研修プログラム

SECTION 24

日本のAI規制の現状

01 / 28

日本のスタンス:ソフトロー中心

日本は法律による強制ではなく、省庁のガイドラインや自主規制を軸にした「ソフトロー」アプローチを採用。イノベーション促進と安全確保のバランスを重視する。

EU AI Act(ハードロー)との違い

EUは2024年施行のAI規制法でリスクレベルに応じた義務を法的拘束力を持って課す。日本はまだ包括的なAI法は存在しない。

warning
EU域内でサービス展開する場合は、EU AI Actの適用対象となる点に注意が必要。
日本のAI規制の現状
項目日本EU
規制形式ソフトローハードロー
罰則原則なし最大3,500万€
義務化任意・推奨リスク別に義務
施行状況ガイドライン整備中2024年段階的施行
重点イノベーション優先安全・基本権保護

SECTION 24

日本のAI政策体系

02 / 28
account_balance

AI戦略会議

内閣府主導。国家AI戦略の策定と省庁横断の政策調整を担う。2023年より広島AI プロセスにも参加。

description

AI事業者ガイドライン

総務省・経産省が共同策定。開発者・提供者・利用者それぞれの責務を示す。

public

G7広島AIプロセス

国際的なAIガバナンスの枠組み。「広島AIプロセス包括的政策枠組み」として2023年に合意。

info
日本は「人間中心のAI社会原則」(2019年内閣府)を基盤に、持続的な改訂・拡充を続けている。

SECTION 24

AI事業者ガイドライン(総務省・経産省)

03 / 28

対象3者の責務

  • AI開発者:安全設計・リスク評価・透明性確保
  • AIサービス提供者:利用規約整備・モニタリング
  • AI利用者:適切な利用・出力の確認責任

10の基本原則

安全性・セキュリティ・公平性・プライバシー保護・透明性・アカウンタビリティ・教育・革新・適法性・人間の関与

重要ポイント:人間による監督

AIの判断を最終的には人間が確認・承認する「ヒューマン・イン・ザ・ループ」の仕組みを推奨。特に高リスク用途で必須。

check_circle
業務でAIを使う場合、「利用者」として出力結果の最終確認責任を負う。AI任せにせず必ず人間がレビューすること。

SECTION 24

個人情報保護法とAI

04 / 28
2022
改正個情法施行年
3年
見直しサイクル
100万円
法人への罰則上限
1億円
国外移転違反時

AIでやってはいけないこと

  • 本人同意なく個人情報をAIに入力
  • 第三者提供に相当するAPI送信(同意不要条件の確認必須)
  • 要配慮個人情報(病歴・信条等)の無断処理
  • 外国AIへの移転(移転先の安全管理措置確認必要)

適切な対応

  • プライバシーポリシーにAI利用を明記
  • 匿名化・仮名化してからAIへ投入
  • 委託先AIサービスとの契約書に個情法対応条項
  • データ利用目的を特定・公表

SECTION 24

著作権法30条の4:情報解析目的の例外規定

05 / 28

条文の概要

著作物に表現された思想や感情の享受を目的としない「情報解析」については、著作権者の許諾なく著作物を利用できる。AIの学習データ収集はこの規定が根拠。

warning
「享受目的」の判断が重要。学習は許容でも、著作物そのものを出力・販売する場合は侵害になりうる。

AIと著作権の3つのポイント

1

学習フェーズ

30条の4により原則OK。ただし著作権管理技術の回避は不可。

2

生成フェーズ

既存著作物に類似した出力は著作権侵害の可能性がある。

3

利用フェーズ

AI生成物の著作権帰属は未確定部分あり。社内ルール整備が重要。

SECTION 24

不正競争防止法:営業秘密と限定提供データ

06 / 28

営業秘密の3要件

  • 秘密管理性:アクセス制限・秘密指定
  • 有用性:事業活動に役立つ情報
  • 非公知性:公然と知られていない
block
営業秘密を外部のAIサービスに入力することは「不正開示」に該当する可能性がある。社外AIへの入力は原則禁止として管理すること。

限定提供データ

業務上限定的に提供されるデータセット(顧客DB・学習データ等)。不正取得・使用・開示が不正競争防止法違反となる。AIによる処理・分析でも保護対象。

実務対応

  • 社内AIと外部AIの使い分けルールを明文化
  • 入力禁止情報のリストを作成・共有
  • AIベンダーとのNDA・データ処理契約の締結

業界別ガイドライン

金融・医療・教育:各領域固有のAI活用指針を理解する

SECTION 24 — 業界別

金融業界:FISC安全対策基準とAI

08 / 28

FISCとは

公益財団法人 金融情報システムセンター。金融機関のIT・AIシステムに関するセキュリティ基準を策定。銀行・証券・保険で事実上の標準。

AI活用の推奨事項

  • リスク評価モデルの透明性・説明可能性の確保
  • 学習データの品質管理・バイアス検証
  • モデルドリフトの継続的モニタリング
  • 人間によるオーバーライド機能の実装
金融業界のAIリスクチェックリスト

金融AI固有の注意点

  • 与信判断にAIを使う場合、根拠の説明義務
  • マーケットインパクト:AIによる大量自動取引のリスク
  • 個人信用情報の取り扱いは信用情報機関のルールに従う
  • 不公正取引(インサイダー等)の検知にAI活用は推奨
lightbulb
金融庁も「AIを活用した金融サービスの高度化に関する検討会」報告書を公表済み。

SECTION 24 — 業界別

医療業界:厚労省のAI活用指針

09 / 28

医療機器としてのAI

診断支援AIは「医療機器」として薬機法の承認が必要。画像診断AIも同様。無承認での使用は違法となるため導入前に確認必須。

AI診断支援の注意点

  • 最終判断は必ず医師が行う(医師法)
  • 電子カルテへのAI出力記録は要注意
  • 患者への説明義務:AIを使用した旨の告知

厚労省ガイドラインの骨子

1

データ品質

学習データの偏りや欠損を事前に検証

2

説明可能性

臨床現場で医師が理解できる形での出力

3

継続的評価

導入後も定期的な性能・安全性評価を実施

SECTION 24 — 業界別

教育業界:文科省のAIガイドライン

10 / 28
school

児童生徒向け

  • 生成AIの仕組みを教える「AIリテラシー教育」
  • レポート・作文へのAI使用は課題設定で明示
  • 未成年の個人情報保護を優先
person

教員向け

  • 授業計画・教材作成へのAI活用推奨
  • 採点補助ツールの活用(最終確認は教員)
  • AI活用スキルの研修整備
warning

注意事項

  • 学習評価にAI単独使用は不可
  • 差別・偏見を含む出力への対処方針を事前策定
  • 保護者への説明・同意取得
info
文科省「初等中等教育段階における生成AIの利用に関する暫定的なガイドライン」(2023年7月公表)が出発点。継続的に更新中。

社内ガイドライン策定

自社に合ったAI利用ポリシーを設計・運用する

SECTION 24 — 社内対応

AI利用ポリシーの策定手順

12 / 28
search
現状調査
arrow_forward
report_problem
リスク特定
arrow_forward
edit_document
ポリシー草案
arrow_forward
groups
関係者レビュー
arrow_forward
publish
公表・展開
arrow_forward
refresh
定期見直し

ポリシーに必須の記載事項

  • 利用可能なAIサービスの一覧と承認条件
  • 入力禁止情報(個人情報・営業秘密等)
  • AI出力の確認・利用ルール
  • 違反時の対応手順

策定関与すべき部門

  • 法務・コンプライアンス部門
  • 情報システム・セキュリティ部門
  • 人事・総務部門
  • 実際にAIを使う業務部門の代表

SECTION 24 — 社内対応

AIリスク評価フレームワーク

13 / 28

AI導入・利用前に「影響度 × 発生可能性」でリスクを評価し、対策レベルを決定する。

リスクカテゴリ具体例レベル
個人情報漏洩 AIへの誤入力
誤情報拡散 AI出力の無確認使用
著作権侵害 AI生成コンテンツ使用
バイアス・差別 採用・審査へのAI活用
依存・スキル低下 AI任せの判断増加
AIリスク評価フレームワーク

リスクが「高」の用途には、承認プロセス・監査ログ・人間によるレビューを必須要件として組み込む。

checklist
NIST AI RMF(リスク管理フレームワーク)や ISO/IEC 42001 を参考にすると体系的なリスク評価が可能。

SECTION 24 — 社内対応

AIインシデント対応フロー

14 / 28
1

検知・報告

AI関連のインシデント(誤情報拡散・情報漏洩等)を発見した担当者が即時に情報セキュリティ担当へ報告。

2

初動対応(24時間以内)

該当AIサービスの使用停止・被害範囲の特定・証拠保全。個人情報漏洩の場合は個情委への報告義務確認。

3

調査・原因分析

入力内容・プロンプト・出力ログの調査。人的ミスか設定不備かを切り分ける。

4

再発防止・ポリシー更新

原因に応じた対策を実施。ポリシー・研修内容への反映と全社展開。

個人情報漏洩時の法的義務

  • 個情委への報告(速報:3〜5日以内)
  • 本人への通知(原則として)
  • 確報提出(30日以内)
schedule
インシデント対応の担当者・連絡先・エスカレーション先をあらかじめ文書化しておくことが重要。

SECTION 24 — ハンズオン

ハンズオン:自社AI利用ガイドラインのドラフト作成

15 / 28

作業内容(30分)

1

自社の状況を整理

現在使用中のAIサービスをリストアップ(ChatGPT、Gemini、Copilot 等)

2

リスクを特定

各サービスで「入力してはいけない情報」を洗い出す

3

ドラフトを書く

提供のテンプレートを使って1ページのガイドラインを作成

4

グループで共有

3〜4人のグループで作成内容をレビューし合う

ガイドラインテンプレート

## AI利用ガイドライン(ドラフト) 【入力可能な情報】 - 公開情報・社内共有情報 - 匿名化済みデータ 【入力禁止情報】 - 個人情報(氏名・住所等) - 営業秘密・未公開財務情報 - 顧客情報 【出力の利用ルール】 - 必ず人間が最終確認 - 出典不明情報は外部公開禁止
lightbulb
完璧なガイドラインより「まず動かすこと」が重要。3ヶ月ごとに現場の声を反映して改訂する。

SECTION 24

Section 24 まとめ

16 / 28
gavel

法律と規制

  • 日本はソフトロー中心(EUと異なる)
  • 個人情報保護法・著作権法・不競法が三本柱
  • 業界別に追加ルールあり
business

社内対応

  • 利用ポリシーの策定と定期更新
  • 入力禁止情報のリスト化
  • インシデント対応手順の準備
trending_up

今後の動向

  • AI規制法の立法化が検討段階
  • 業界ガイドラインは継続的に更新
  • 国際標準(ISO/IEC 42001)への対応

「禁止」より「正しく使う」姿勢で。法令を理解した上でAIを積極的に活用し、業務革新を推進することが組織の競争力につながる。

Section 24 完了

日本のAI規制・ガイドラインの全体像を把握しました。
次のセクションではFigmaを使ったデザイン生成・開発連携を学びます。

arrow_forward Section 25: Figma AI デザイン生成と開発連携
カバー法令
3本
業界ガイドライン
3業界
ハンズオン
1本
🏠 研修ポータル ▶ この章の動画 📺 動画一覧