1: なまはげ君(東京都) [SA] 2020/04/19(日) 17:08:28.53 ID:DqaXzzkq0● BE:969416932-2BP(2000)
fggdfmaxresdefault

音声認識アルゴリズムはスマートスピーカーやスマートフォンなど、さまざまなデバイスやアプリケーションに採用されており、もはや日常の一部となっています。
ところが、AppleやAmazon、Google、IBM、Microsoftなどの音声認識アルゴリズムを使った実験で、「音声認識アルゴリズム白人の声と比較して黒人の声を上手く認識できない」問題があることが判明しました。

音声認識アルゴリズムはスマートアシスタントの操作や音声入力、文字起こしサービスなど、さまざまなアプリケーションに採用されています。
音声を認識するシステムには機械学習アルゴリズムが用いられており、開発者らが用意した音声データやテキストデータで機械学習アルゴリズムが訓練されています。

そんな音声認識アルゴリズムの精度を調査するため、スタンフォード大学の研究チームはApple、Amazon、Google、IBM、Microsoftの音声認識アルゴリズムに対し、さまざまな人が話した音声を文字に変換させる実験を行いました。
実験に用いられた音声は合計で19.8時間分であり、42人の白人と73人の黒人によって話された2141個の音声で構成されていたとのこと。また、話者の44%が男性であり、平均年齢は45歳だったそうです。

実験の結果、各社の音声認識アルゴリズムは平均で白人が話した単語のうち19%を誤認しましたが、黒人が話した単語が誤認される割合は35%に上りました。また、エラー率は黒人男性で全体の41%、黒人女性のエラー率は30%でした。

以下のグラフが、各社の音声認識アルゴリズムによる白人話者のエラー率と黒人話者のエラー率を比較したもの。どの音声認識アルゴリズムにおいても、黒人が話す言葉のエラー率が白人の話す言葉のエラー率を上回っていることがわかります。
Appleの音声認識アルゴリズムが最もエラー率が高く、黒人話者のエラー率は45%、白人話者のエラー率は23%。最も成績がよかったMicrosoftの音声認識アルゴリズムでも、黒人話者のエラー率は27%、白人話者のエラー率は15%となりました。


スタンフォード大学の工学准教授であるSharad Goel氏は、「結果は特定の企業に限定されるものではありません。5社全てに類似したパターンが見られました」と述べています。

過去にもアルゴリズムやソフトウェアが人種的な偏りを持つケースは報告されており、Google Photosが黒人を「ゴリラ」と認識してタグ付けしてしまった事例や、人種に関するデータが存在しない医療システムで黒人が不平等に評価されるケースも判明しています。

一連の問題は、機械学習アルゴリズムを訓練する際のデータセットに存在する偏りが原因の可能性が高いと考えられています。
訓練に使用されるデータそのものが白人話者の音声を豊富に含み、黒人話者の音声をあまり含んでいない場合、音声認識アルゴリズムが黒人話者のアクセントや話し方を上手く学習できず、エラー率が高くなってしまうとのこと。



3: じゃが子ちゃん(神奈川県) [US] 2020/04/19(日) 17:09:28.78 ID:v1cwjB8/0
まあラッパーだしな

5: あんらくん(ジパング) [US] 2020/04/19(日) 17:10:11.94 ID:ZJok81/H0
これは苦笑いもの

6: チップちゃん(神奈川県) [GB] 2020/04/19(日) 17:10:55.06 ID:0Vm9VGfg0
俺のJapanenglishだとどんなもんだろ認識率

9: うずぴー(SB-Android) [US] 2020/04/19(日) 17:11:30.59 ID:4OQ/l04+0
AI「黒人はゴリラ」

13: タマちゃん(山梨県) [US] 2020/04/19(日) 17:11:47.70 ID:eZEsrpoD0
当たり前だけど滑舌が悪いとエラーが増えるよ
恐らく黒人が人間語を話すのは簡単ではないのだろう

25: ドコモダケ(茸) [US] 2020/04/19(日) 17:16:38.33 ID:Br4/Wwh10
>>13
まだまだ制度あがるよ。
人間だと聞き取れて意味わかるんだからね。

15: ニッセンレンジャー(東京都) [US] 2020/04/19(日) 17:12:28.18 ID:j3DyfPIx0
>>人種に関するデータが存在しない医療システムで黒人が不平等に評価されるケース

不平等ってなんだろね

18: チルナちゃん(埼玉県) [ニダ] 2020/04/19(日) 17:13:17.74 ID:MqWxATZy0
IQや学歴との相関性を示さないと分からん

22: まゆだまちゃん(宮城県) [PL] 2020/04/19(日) 17:15:44.66 ID:jzTd1hDr0
日本人だと全て判別不能

26: レイミーととお太(東京都) [US] 2020/04/19(日) 17:16:40.81 ID:te4cz38L0
じょうじ

28: ローリー卿(家) [EU] 2020/04/19(日) 17:17:09.74 ID:rvqdFvSp0
AIは正直だからね
人間は無理に持ち上げてるだけ

31: 77.ハチ君(学校) [JP] 2020/04/19(日) 17:17:46.04 ID:vOLnVOzb0
黒人がなんか喚いてる動画に適当にビート重ねたらいい感じにヒップホップみたいになった動画があったな

35: アメリちゃん(Nagano) [ニダ] 2020/04/19(日) 17:21:44.57 ID:9NC3MS4h0
酷いなこれ

36: オノデンボーヤ(中部地方) [DE] 2020/04/19(日) 17:22:53.02 ID:aJCjiwNh0
ゴリラだからしょうがない

40: しんちゃん(広島県) [US] 2020/04/19(日) 17:26:06.80 ID:KZn83+yH0
いつもユーノーって入れてるからだろ

44: 雷神くん(茸) [US] 2020/04/19(日) 17:27:46.44 ID:iArZU0Ol0
そらボビーみたいな話し方してんだから聞き取りにくいに決まってんだろ

51: ペンギンのダグ(光) [US] 2020/04/19(日) 17:31:21.57 ID:lZIvvvIv0
アジア人が訛って話すとこけにしてくるからな黒人は

56: ベスティーちゃん(千葉県) [ニダ] 2020/04/19(日) 17:38:10.52 ID:jOb94Jd+0
開発陣に白人が多いってだけだろ
使ってくうちに学習するよ

59: サトちゃん(東京都) [BR] 2020/04/19(日) 17:46:19.33 ID:4BU8CCHd0
日本人の英語もダメ
帰国子女のはおけだった

65: ライオンちゃん(東京都) [PE] 2020/04/19(日) 17:49:59.50 ID:+OvoPU5l0
ユーノーシーン

70: おぐらのおじさん(兵庫県) [US] 2020/04/19(日) 18:02:41.95 ID:Ok8A7ks/0
どうせ作ってんのが白人やアジア人だらけで黒人がいねえんだろ
黒人ばっかが作ってたら白人の言葉がわかんなかったよ

スポンサード リンク