しんぶん赤旗

お問い合わせ

日本共産党

赤旗電子版の購読はこちら 赤旗電子版の購読はこちら
このエントリーをはてなブックマークに追加

2023年4月15日(土)

主張

生成AIの利用

規制・ルール作りが欠かせない

 米国企業のオープンAI(人工知能)が昨年12月に一般公開した対話型AI「チャットGPT」の利用をめぐって規制を求める声が高まっています。先端技術は生活に新しい可能性を開く一方、使い方によっては社会に負の影響をもたらす危険があります。イタリアの情報保護当局は個人データ保護を理由に国内でのサービス提供を当面禁止しました。開発者である巨大IT(情報技術)企業に任せず、政治の責任でルールを作らなければなりません。

個人データの扱いに批判

 チャットGPTは文章、画像、音声などを自動的に作成する「生成AI」の一つです。パソコンやスマホで質問を入力すると答えが返ってきます。文書の執筆依頼にも応えます。基本は無料で、有料プランでも月20ドル(約2600円)であるため、利用者が世界で1億人を突破したといわれます。

 生成AIが文章や画像を作れるのは、社会に蓄積された膨大な情報の「ビッグデータ」を分析し、一定の解決方法を使って、状況に適した答えを導き出すからです。

 ビッグデータには大量の個人情報も含まれます。私たちがパソコンの検索サイトで調べものをした際に入力した情報も集められています。どう使われるか知らされずに利用されるのは、個人情報保護に逆行しています。

 イタリアの措置は、チャットGPTが個人データの収集・利用について利用者らに説明していないことを問題にしています。欧州連合(EU)の一般データ保護規則(GDPR)は個人データの収集・利用にあたって本人の同意や拒否する権利の保障を定めています。イタリア当局はGDPRの順守を禁止解除の条件としています。

 米国では、チャットGPTのデータ収集方法が不透明だとして、サービス差し止めを求める訴えが政府機関に起こされています。

 生成AIを実用化できるのは、巨額の資金と高度な技術を持ち、ビッグデータを利用できる巨大IT企業です。オープンAIもマイクロソフトが出資する会社です。ごく一部の大企業がビッグデータを独占的に利用し、そこからどういう方法を使って結論を導き出したかは外部からチェックされないのが実態です。

 生成AIに時事問題について質問しても事実と異なる回答が出てくることがあります。間違った情報が拡散されれば、世論の形成をゆがめる危険があります。

 誰かに成りすました人物の映像を作りオンラインで対話することも可能です。犯罪への悪用、虚偽情報の流布、人権侵害を防ぐ対策が欠かせません。大学や学術界では生成AIを論文の執筆に使うことの是非が議論になっています。

利活用一辺倒では危うい

 岸田文雄首相は10日、オープンAIのアルトマン最高経営責任者(CEO)と面会しました。リスクについても話し合ったといいます。日本が議長を務めて4月末に開かれるG7(主要7カ国)デジタル相会合でAIの利用が議題にのぼります。

 日本の個人情報保護法は個人データの利活用が中心で、規制は後退しています。昨年6月に閣議決定した「総合イノベーション戦略」はAIの利活用一辺倒です。日本政府自身が法令の制定を含めて厳格な規制を設けるべきです。


pageup