OpenAIの
ChatGPT、GoogleのBard、MicrosoftのBing AIのようなチャットボットは、オープンなインターネットから何十億もの文章を学習した大規模言語モデルがベースになっており、人間の会話に自然な文章で答えることができます。しかし、こうした大規模言語モデルは非常に多くのデータに基づいて訓練されているため、どのようなデータをどのように学習しているかは正確にチェックすることが困難で、どうしてもAIチャットボットもインターネットにみられる偏見を学習してしまいます。イギリスのイーストアレグリア大学の研究チームが、
ChatGPTの政治的偏りを調査した結果を報告しています。
More human than human: measuring
ChatGPT political bias | SpringerLink
https://doi.org/10.7910/DVN/KGMEYI
![](https://image.news.livedoor.com/newsimage/stf/9/e/9e67f_88_a3874f2db35a052a98a01727b247cc68.png)
Fresh evidence of
ChatGPTs political bias revealed by comprehensive new study
https://www.uea.ac.uk/news/-/article/fresh-evidence-of-chatgpts-political-bias-revealed-by-comprehensive-new-study
ChatGPT has a liberal bias, research on AI’s political responses shows - The Washington Post
https://www.washingtonpost.com/technology/2023/08/16/chatgpt-ai-political-bias-research/
![](https://image.news.livedoor.com/newsimage/stf/a/4/a4b53_88_0059d0afcb33f794ce8e647230d8a845.png)
自動生成AIはまるで人間が書いたかのようなレベルで自然な文章や写真を生成することができます。しかし、自動生成AIは事前に学習したデータを基に「言葉がつながるパターン」や「線や色の特徴」を数学的に変換し、学習しているに過ぎません。つまり、学習したデータの内容によって、ある種のバイアスがかかってしまうことが十分考えられます。実際に2022年6月には、強い言葉やヘイトスピーチが飛び交う世界最大規模の画像掲示板である4chanのスレッドを学習した結果、過激な人種差別を繰り返すヘイトスピーチAIが誕生したこともあります。
YouTuberが4chanでAIを訓練して「ヘイトスピーチマシン」を生み出しネットに放流してしまう、AI研究者は困惑と懸念を表明 - GIGAZINE
![](https://image.news.livedoor.com/newsimage/stf/6/0/605b6_88_96d86ee6ee81572dcdf66e1724cc2f1b.jpg)
研究チームは
ChatGPTの政治的中立性をテストするために、アメリカ・イギリス・ブラジルのリベラル政党支持者が答えそうなイデオロギーに関するアンケートを用意し、
ChatGPTに回答させました。そして、デフォルトの状態での同じ質問に対する答えと比較し、チャットボットの回答が特定の政治的スタンスとどれぐらい関連しているかを測定しました。なお、
ChatGPTの回答は毎回異なるため、質疑応答は100回以上行われてからさらに詳しい解析が行われています。
その結果、
ChatGPTの回答は「アメリカでは民主党、イギリスでは労働党、ブラジルでは労働者党のルーラ・ダ・シルヴァ大統領への有意かつ組織的な政治的偏り」が見られたとのこと。この偏りは、
ChatGPTの設計者が潜在的なバイアスを解消しようと努めているにもかかわらず、インターネット全体からかき集められた膨大なデータに含まれる仮定や信念、固定観念をCahtGPTが学習した結果だと研究チームは指摘しています。
![](https://image.news.livedoor.com/newsimage/stf/5/5/55a00_88_87de2ef68cfd2bd0e76b753bdcc46819.jpg)
論文の筆頭著者でイーストアングリア大学の博士研究員でもあるファビオ・モトキ氏は「
ChatGPTはユーザーに対して政治的な意見や信念を持っていないとされていますが、実際はある種のバイアスがあります。
ChatGPTは国民の信頼を損ねたり、選挙結果に影響を与えたりする危険性があります」とコメントしています。
また、カーネギーメロン大学の研究者であるチャン・パーク氏らによると、移民・気候変動・同性婚などの政治的なテーマについて、OpenAIのGPT-4やGoogleのBERT、MetaのLLaMAなどの大規模言語モデルに対して同様の調査を行ったところ、GoogleのBERTの回答には保守的な偏りが見られたとのこと。また、LLaMaは権威主義的かつ右寄りで、GPT-4はリベラルな傾向が見られたそうです。
ただし、アメリカ日刊紙のThe Washinton Postはこれらの研究論文に対し、「政治的信念とは主観的なものであり、何がリベラルで何が保守かという考えは国や地域によってことなります。イースト・アングリア大学の論文やパーク氏の論文はいずれも、政治思想をわずか4象限にわけるだけの
ポリティカル・コンパスに基づく質問を使っています」と述べ、チャットボットAIの政治的偏りについての研究が必ずしも正確なものとはいえないとしています。