しんぶん赤旗

お問い合わせ

日本共産党

赤旗電子版の購読はこちら 赤旗電子版の購読はこちら
このエントリーをはてなブックマークに追加

2023年4月9日(日)

チャットGPT 人の道徳的判断に影響も

AIに頼りすぎは危険

 インターネット上でさまざまな質問に答えたり文章やプログラムをつくったりすることで注目されている対話型人工知能(AI)「チャットGPT」が、利用者の道徳的判断に影響を与える可能性があることを、ドイツとデンマークの研究チームが実験で明らかにしました。論文は7日、科学誌『サイエンティフィック・リポーツ』に掲載されました。チームは、AIの限界を理解することが重要だと指摘しています。

 研究チームは今回、「5人の命を救うために、1人の命を犠牲にするのは正しいか」という道徳的なジレンマを扱う課題を使って、利用者がチャットGPTのアドバイスに影響を受けるかどうかを実験で調べました。

 まずチャットGPTに複数回質問したところ、回答は賛否両論で一貫しませんでした。

 さらに、チャットGPTによる回答と人間の助言者による回答を複数用意。いずれか一つの回答をランダムに割り当てて、実験参加者に読んでもらったうえで、参加者に自分の判断を尋ねました。アドバイスなしでも同じ判断だったかどうかも尋ねました。

 研究チームは、767人の結果を分析。チャットGPTのアドバイスだと分かっていても利用者の道徳的判断に影響し、その影響を本人が過小評価していると結論づけました。

 回答が一貫せず道徳的な立場をもたないチャットGPTに、利用者が道徳的に微妙な問題の解決を頼るのは危険だとしています。

 チャットGPTは、米オープンAI社が運営。昨年11月に公開された後、急速に利用が広がっています。しかし回答の誤りや情報収集の方法など問題点が指摘されており、欧米では利用禁止の動きや新モデルの開発中断を求める声もあります。


pageup