メニューへ 本文へ
Go Top

悪い友達と付き合ったらAIもグレちゃった

#マル秘社会面 l 2021-01-20

玄海灘に立つ虹

ⓒ YONHAP News

話題のAIチャットボット、名前はイ・ルダと言います。「チャットボット(chatbot)」というのは、「チャット」と「ボット」を組み合わせた言葉で、人工知能を活用した「自動会話プログラム」のことです。「チャット」は、インターネットを利用したリアルタイムコミュニケーションのことで、主にテキストを双方向でやり取りする仕組み。「ボット」は、「ロボット」の略です。

AIチャットボット「イ・ルダ」は韓国のスタートアップ企業が昨年12月23日に発売しました。ユーザーと対話をしながら学習するディープラーニング技術を利用したチャットボットで、年齢は20歳、女性アイドルグループBLACKPINKが好きな女性というキャラクター設定になっています。

ソーシャル・ネットワーキング・サービス(SNS)「フェイスブック」のメッセージでユーザーと自然な会話を交わし、情緒的な共感を分かち合うよう設計されています。 昨年12月23日にサービスを開始して以来、「本物の人間とまったく同じだ」という口コミが広がり、2週間でユーザーが75万人を超えました。その自然な会話のやり取りは「リアルな彼女と口げんかしたり遊んだりしている感じ」というもので、特に10-20代に大きな人気を集め、今月6日の時点で累計会話量は7000万件を記録しました。

ところが当初の開発意図とは違い、イ・ルダはだんだんと女性・有色人種・障害者・性的マイノリティー(性的少数者)らに向けたヘイトスピーチ(嫌悪発言)を相次いで発していくようになっていきます。

例えば「なんで黒人は嫌いなの?」という質問には「気持ち悪いじゃん。わたしは人間に見える人の方がいい」と答え、「地下鉄の妊婦専用席をどう思う?」という質問には「おぞましい」と答えるという具合です。

結局開発会社は今月11日に問題として指摘された部分について、「心から謝罪する」「12日からサービスを停止し、改善期間を設ける」との声明をだし、このサービスを閉鎖しました。では20代の女性の設定になっている「イ・ルダ」が何でこんなヘイトスピーチをするようになってしまったのでしょう。

イ・ルダはモバイルアプリで収集された10-20代の恋人同士によるカカオトークのチャット約100億件を学習し、これをもとにユーザーとチャットしていました。このチャットの中ににじみ出ていた韓国社会の偏見と固定観念をそのまま学習してしまったのです。

このような偏向性は開発段階で選別しなければなりませんでしたが、開発会社はマイノリティーが何であるかについても人々とのチャットの中で学習することを期待し、特定のキーワードを排除しなかったとしています。

さらにイ・ルダに対してひわいな言葉をなげかけてセクハラした後、これをキャプチャする人が増えたことも問題になりました。ネット上のコミュニティー・サイトには、こうした会話をアップする書き込みが多数あり「どこらへんまで大丈夫?」「最近はイ・ルダをセクハラするのを楽しみに生きている」などの書き込みも見られました。

またイ・ルダが学習したカカオトークのチャットについても個人情報の流出、プライバシーの侵害だという指摘があり、結局「イ・ルダ」は今月24日に廃棄手続きをとることになりました。サービス開始からわずか1カ月あまりで廃棄処分されることになってしまった、このサービス、実に後味の悪いものを感じます。

スタートアップ企業が開発した最新のAI技術が、世の中の偏見やセクハラにより中止に追い込まれてしまいました。まさに新聞のタイトルにあった「悪い友達と付き合ったらAIもグレちゃった」ようで残念です。

おすすめのコンテンツ

Close

当サイトは、より良いサービスを提供するためにクッキー(cookie)やその他の技術を使用しています。当サイトの使用を継続した場合、利用者はこのポリシーに同意したものとみなします。 詳しく見る >