2025参議院選挙 各分野の政策
65、AI
安心して活用できるAIのルールづくりをすすめます
2025年6月
AIが私たちの社会に大きな変化をもたらしています
最新のAIは機能を飛躍的に高め、私たちの社会の様々な分野に大きな変化をもたらしています。一方、AIを搭載したドローンなどの兵器が戦場で大量に使われています。AIが偽・誤情報の作成などにも悪用されています。
AIの基盤技術を確立し、ノーベル物理学賞を受賞したカナダ・トロント大学のジェフリー・ヒントン名誉教授からは、AIが人間のコントロールを超える恐れについて「注意を払う必要がある」と、たびたび警告が発せられています。
多くの技術と同様、AIの進歩を止めることはできません。進歩に後れることなく、ルールや必要な規制を行って、混乱や悪影響を抑える必要があります。
国民が安心して活用できる AI のルールづくりをすすめます
EU(欧州連合)ではAI規制法を制定し、リスクのレベルに応じて使用禁止や厳格な管理を適用しています。一番リスクが高いものは「直ちに禁止」です。また、「高いリスク」には事前審査や利用記録の保持といった厳格な規制を遵守させます。「限定的なリスク」の場合は、文書や画像をAIで作成した旨を明示するよう義務付けています。ゲームなど、上記のリスクに該当しないAIの利用は「最小限のリスク」として、強制的な義務は課さず、行動規範にとどめます。
違反した企業には最大3,500万ユーロ(約55億円)か、世界の年間売上高の7%という、巨額の制裁金を科す規定も設けています。さらに、不適切な開発や利用がないかを専門組織が監視するように定め、加盟各国にも監視組織がおかれます。
「推進一辺倒」の姿勢を改め、日本版AI規制法を制定します
一方、日本では、国や地方公共団体にAIを推進する義務を課し、AI技術の研究開発・活用を産業界の利益のために推進するAI推進法を成立させるなど、「推進一辺倒」です。
データさえあれば、生成AIは本物そっくりの動画を作り出せます。偽情報を見分けることは利用者にとって極めて困難です。能登半島地震の際にNHKなどを装った偽情報・偽投稿が現場に混乱をもたらしました。
日本ファクトチェックセンターは、AIによって生成・加工された偽画像や動画が精巧になり、見極めるのは難しいと注意を喚起しています。情報の収集・生成・発信・流通の過程で偽情報を排除する仕組み作りが早急に求められています。
世論調査では、AIの規制を強化すべきだと答えた人が59.7%に上り、規制を最小限にとどめるべきだの19.1%を大きく上回っています(2024年10月12日 新聞通信調査会)。
政府は、このよう国民の声に応え、「規制をできるだけ少なくする」という姿勢を改め、日本版AI規制法を制定して、リスクに応じた厳格な管理を行い、偽・誤情報を排除する仕組みをつくる必要があります。
AIの軍事・安全保障分野での使用に反対します
ドローンやロボット兵器など、軍事に利用されるAIのリスクが国際的に問題になっています。実際に、ウクライナでは、軍事用ドローンが大量に使用され、ドローンが戦局を左右するとも言われています。AIの利用により先制攻撃などの危険性が高まり、紛争のエスカレーションが加速するという指摘や、「AIは核戦争並みの脅威になりうる」と警告する科学者も多数います。
世界に先がけ、日本がAIの軍事・安全保障分野での使用の禁止を宣言することには大きな意義があります。
報道機関、アーティストや作家、作曲家などのクリエーターの権利と利益を守ります
AIが著作物を無断で利用し、検索結果として示せば、新聞など報道機関の発行物やサイトを見る人が大幅に減り、事業は行き詰まりかねません。日本新聞協会からは、早急に現行の著作権法の改正を求める声が強まっています。報道コンテンツの利用は許諾を得たうえで、正確性を十分確保するなど、AI事業者に責任ある対応を求めます。
文化・芸術分野でも同様なことがおきかねません。AI による学習及び生成・利用を無制限に認め、著作者の創作意欲を削ぐようなことがあっては、著作権法の目的に反することになります。
著作権法を改正しアーティストや作家、作曲家、映画監督、スタッフ、実演家など、クリエーターの権利と利益を守ることも重要です。
AIによるプライバシーの侵害や個人情報流出を防ぎます
AIによるプライバシーの侵害や個人情報流出も重大です。
AI事業者は、生成AIの学習目的でネット上の情報を大量に収集しています。その中には、個人の行動、嗜好などの情報も含まれます。こうした情報が適切に保護されていない場合、不正アクセスにより個人情報が流出する可能性があります。
また、ネット上で収取される情報には、思想、病歴、犯罪歴などの機微な個人情報(要配慮個人情報)も含まれています。個人情報保護法では、要配慮個人情報の取得には事前の本人同意が必要ですが、形骸化しているのが実態です。
個人情報保護委員会はAI事業者に対し、「要配慮個人情報を取得した際には削除するよう求めている」「必要に応じて事業者へ調査を行う」としていますが、個情委の体制が限られている中で、ビックテックなど巨大な事業者相手にどこまで監視できているのか疑問があると言わざるを得ません。違反した際の罰則も、調査に応じない時は50万円、命令違反は100万円と少額で、EUとの差は歴然としています。
また、個人情報を第三者と共有する場合、そのデータが本人の同意もなく流通すれば、プライバシーが侵されてしまいます。
AIシステムがサイバー攻撃の対象となる可能性もあります。セキュリティ対策が不十分な場合、攻撃者がシステムを侵害し、機密データを盗むことも可能です。
AIの推進と個人情報保護強化は一体です。個人情報保護法の改悪に反対し、真に個人情報を保護する改正を実行します。
情報漏えいやトラブルの原因解明と責任追及、被害者への補償などの規定を整備します。
AIやデータセンターによる資源の浪費を止めさせます
環境への負荷、資源の浪費も問題です。
いま、日本各地で巨大データセンターの建設が大きな問題となり、住民の反対運動が相次いでいます。地域の暮らしや環境の破壊とともに重大なのは、データセンターが地球温暖化と直結しているからです。
生成AIの学習と運用には大量の計算能力を消費します。そのため生成AIに対応するデータセンターは膨大な電力を必要とし、政府は原発でこの需要増を補おうとしています。無計画な生成AIの拡大は地球温暖化の問題を悪化させ、持続可能なエネルギー供給への移行を阻害します。
AIに名を借りた原発推進をやめさせ、データセンターの使用電力についても、再生可能エネルギーで賄うことを事業者に義務付けます。
プラットフォーム取引透明化法を改正し、巨大テック企業に社会的責任を果たさせます
ノーベル賞を受賞したヒントン氏は「政府は開発企業に対して、安全対策に必要な計算設備を持つよう義務付けてほしい」とも訴えています。生成AIのスピードに置いて行かれることのないように、そのリスクを規制する法整備が求められています。
2023年日本が主導したG7の声明は、EU、米国、日本などがそれぞれバラバラに対応していることを追認しただけのものです。
EUは、生成AIの覇権を握ろうとしているアメリカの巨大IT企業の横暴を許さないという立場で、幅広いAIを対象にして包括的に規制しています。
日本がアメリカや巨大IT企業の支配に手を貸すのか否かが厳しく問われています。
生成AIが国民生活や日本経済にとって「味方」になるよう、今まで以上に関心を払い、巨大テック企業を絶えず監視していくことが必要です。