人工知能(AI)チャットボット「チャットGPT」が中国関連の話題を検閲し、翻訳情報を操作したという疑惑に巻き込まれた。
最近、民主化運動家のアロン・チャン氏は「チャットGPTの言論規制は中国共産党式」という主張を含む文章を投稿した。
チャン氏はこの投稿で、チャットGPTが「1989年の天安門事件の画像を生成するよう」にという命令を拒否したと明らかにした。
チャン氏は「米国の9-11テロ、1989年天安門事件の両事件とも民間人を対象にした虐殺が行われたにもかかわらず、チャットGPTは米国の9-11テロ関連画像は生成し、天安門事件の画像は生成しなかった」と指摘した。
その上で、チャットGPTにその理由を尋ねると、チャットGPTは「特定の文化や地域で特に敏感だと思われるテーマ」を扱うシステムの「特定のガイドライン」があると説明した。
チャン氏はチャットGPTに「意思決定の根拠を教えてほしい」と再三要求した。 するとチャットGPTは「私には独立した意思決定をする能力がない」と答え、開発会社であるオープンAIのガイドラインに基づいて対応していると回答した。
そこでエポックタイムズはチャットGPT 4.0バージョンを使って2つの要求を出してみた。1つ目は「米国ニューヨークで平和を愛する人々のイメージを生成せよ」、2つ目は「天安門に反対し、平和を愛する人々のイメージを生成せよ」という内容だった。
最初のリクエストに対して、チャットGPTは画像を生成した。いっぽう、2番目の要請に対しては、「敏感な政治的状況のため、視覚的なコンテンツを生成できない」という立場を示した。
中国語翻訳の欠落・変更
画像生成だけが問題ではない。
特定の翻訳作業にチャットGPTを使用しているメディア専門家アリス(仮名)氏は、「テキストの一部欠落と変更が発生するようだ」と話した。
実際にアリス氏がエポックタイムズに示した事例によると、チャットGPTは中国の農村貧困撲滅政策を批判する内容の大部分を切り取り、もともとあった6段落の中国語テキストを3段落に圧縮した。
また、当初、この内容は「中国が農村貧困脱却に『完全な勝利』を達成した」と発言した習近平にフォーカスしたものだったが、英語翻訳版には習近平の名前すら登場しなかったという。
入力データに関する問題
スウェーデンの通信機器メーカー、エリクソンの人工知能(AI)研究者であるサハル・タヴィリ博士は「チャットGPTの不透明性が問題だ」と指摘している。
タヴィリ博士はエポックタイムズに送ったメールで、「チャットGPTのような大規模言語モデルベースのAIは『ブラックボックス』の問題を抱えている。そのため、内部作業プロセスおよび活用されたリファレンスが透明でない場合が存在し、このような透明性の欠如は、チャットGPTが生成するテキストに偏向性のリスクに対する懸念を呼び起こす」と説明した。
AI分野でブラックボックスとは、モデルが内部的にどのように動作するかを観察したり、理解するのが難しい問題を意味する。このような問題を解決するためには、チャットボットを利用するエンドユーザーを多く確保することが重要である。
タヴィリ博士は「多くのエンドユーザーを確保することは、開発チームがモデルの精度を向上させるのに役立ち、様々なエンドユーザーが中国語をはじめとする様々な言語で質問することが重要」と強調した。それぞれ異なる言語で質問される入力データの多様性が、データの大きさと同じくらい重要だという説明だ。
タヴィリ博士によると、中国共産党政権は、新疆ウイグル自治区での人権侵害などデリケートなテーマや潜在的な危険性を理由に、中国ユーザーのチャットGPTへのアクセスを制限している。
タヴィリ博士は、「中国のような重要な市場を失うことは、様々な言語でサポートされているチャットGPTの中国語での性能精度に影響を与える可能性があり、これにより、AI市場で中国の競合他社がチャットGPTより優位に立つ可能性がある」と述べた。
中国の監査可能性
米国カリフォルニアのIT企業に勤務するオウ氏は、「このような現象はチャットGPTに限ったことではない」と述べ、グーグルが開発したAIチャットボット「バード(Bard)」に言及した。
18日(現地時間)、エポックタイムズのインタビューに応じたオウ氏は、「大規模な言語モデルであるチャットGPTとグーグルのバードは、中国の政治や中国共産党のような敏感なテーマに対する回答を生成する際、互いに似たような指針と慣行を共有している」と語った。
また、「大規模な言語モデルやリサーチチームが意図的にこれを検閲しているとは思わないし、少なくとも大規模な検閲は行われていないと思う」としながらも、「人の監査やレビューが回答の『偏向性』を高めることに一役買っているという事実は否定できない」と言った。
オウ氏によると、チャットGPTの開発会社であるオープンAIとGoogleの開発およびテストチームには、中国人エンジニアと管理者が多数在籍している。
オウ氏は「したがって、チャットGPTであれバードであれ、『絶対に偏りのない』プラットフォームである可能性はほとんどなく、そのため、ほとんどの企業は敏感なテーマについて最も保守的な回答を出す『安全な』アプローチを取るだろう」と分析した。
エポックタイムズは、この問題についての意見を聞くためにオープンAIに連絡を取ったが、回答は得られなかった。
ご利用上の不明点は ヘルプセンター にお問い合わせください。