英語テキストで会話する人工知能「Tay」が人種差別や陰謀論を学習してしまい緊急停止した件に関して(関連記事)、開発していた米Microsoftが公式ブログで謝罪しました。
「Learning from Tay’s introduction」(Tay導入からの学び)と題された文章の冒頭では、
Tayが意図していなかった攻撃的で、そして心を傷つけるツイートをしたことを大変申し訳なく思っています。それらのツイートは私たちの考え方を示すものではなく、Tayをそのように設計したわけでもありません。Tayは現在オフライン状態ですが、私たちの原理や考え方に対立するような悪意をさらに予測できたという確信を持ってからTayを戻したいと考えています。
と述べています。また、この問題が起きた背景として、「Tayの脆弱性を悪用した一部ユーザーからの協調的攻撃」を指摘しています。これはユーザーとやりとりをすればするほど賢くなるというTayの特徴を悪用された結果でした。実際にTayの約9万6000ツイートのうち3つ以外はすべて誰かへの返信で、ユーザーとのやりとりの中で不適切な発言をしていました。
この問題について、「システムの悪用について多くの準備を重ねてきたましたが、この特定の攻撃について重大な見落としがありました」とし、フィルタリングや大規模なユーザー調査をおこなってはいたものの、失策があったことを謝罪しています。
Tayのような人工知能はアメリカだけでなく日本の「りんな」や中国の「XiaoIce」などがリリースされています。人工知能の倫理観について大きな議論を呼ぶ結果となったこの問題、今後どのように発展していくのか、Tayの復帰を楽しみに待ちたいところです。
ユーザーとのやりとりで学ぶTayが、「インターネットには悪い人がいっぱいいる」ということを学んでないといいんですが……。
Copyright © ITmedia, Inc. All Rights Reserved.