戻る

このページは以下URLのキャッシュです
http://worldrankingup.blog41.fc2.com/blog-entry-14721.html


世界ランク速報 【悲報】キリストや釈迦、哲学者に続きAIまでもが女叩きをしてしまう

【悲報】キリストや釈迦、哲学者に続きAIまでもが女叩きをしてしまう

1: ニライカナイφ ★ 2019/02/21(木) 06:26:15.81 ID:fpLqAPn29

◆ AIは中立ではなく「女性嫌い」 検証結果で見えてきた負の側面

人工知能(AI)による採用審査など、日本でもAI社会の広がりを身近に感じるようになった。
だが、AIには「女性嫌い」という厄介な偏見があり、「ヘイト」を増幅させる危険性もある。
朝日新聞IT専門記者の平和博氏がAIの実態をレポートする。

IT5社の人工知能(AI)が男性を女性に間違える割合はコンマ以下。
一方、女性を男性に間違える割合は最大で2割近い──。
マサチューセッツ工科大学(MIT)メディアラボの研究者、ジョイ・ブォラムウィニ氏らは今年1月28日、ハワイ・ホノルルで開かれていた米国人工知能学会と米国計算機学会の会議で、AIが人の顔の画像から性別などの特徴を識別する「顔認識」について、IT各社の機能を比較した結果を発表した。
比較したのは、IBM、マイクロソフト、アマゾン、さらに米国のベンチャー「カイロス」と中国のサービス「フェイス++」の5社。
その結果には、共通する傾向があった。

いずれも男性を女性に間違える割合は1%未満なのに、女性を男性に間違える割合は、はるかに高かった。
最大のアマゾンでは19%。5人に1人の割合で女性を男性と判定するということだ。
つまり、いずれも女性に不利な傾向を示していたのだ。

さらにアマゾンでは、別の観点からもAIによる女性の扱いが問題となっていた。
AIを使った人材採用システムをアマゾンが開発しようとしたが、AIが「女性嫌い」で使い物にならず、断念した──ロイターが2018年10月にそう報じている。
アマゾンは14年に専任チームを立ち上げ、AIによって履歴書を審査するためのシステム開発に取り組み始めた。
AIが応募者の履歴書の内容を評価し、5点満点でランク付けする、という仕組みだった。
だが不具合が明らかになる。ソフトウェア開発などの技術職で、女性に対しての評価が低くなるという偏りが生じていたのだ。

原因は、AIが学習したデータにあった。
AIは、あらかじめデータを使って学び、その中からモデルとなる特徴を見つけ出す。
このモデルに基づいて新しいデータの仕分けなどの作業を行う。
だから、学習するデータに問題があれば、AIから出てくる判定結果にも問題が生じる。

●学習データに基づくAI、正確で中立だとは限らない

システム開発に際して担当者たちは、過去10年にわたって同社に提出された履歴書をAIに学習させた。
問題は、その大半が男性からのものだったということだ。そして、採用された技術職も大半が男性だ。

するとどうなるか? AIは男性の方が採用に適した人材と判断し、男性の履歴書の評価を高くするようになってしまう。
その結果、履歴書に「女性チェス部部長」のように「女性」という言葉が入っていると評価を下げていたのだ。
女子大卒業という履歴書で評価を下げられたケースもあったという。

「女性」に関連する言葉での差別が行われないよう、システムに修正を加えたが、そのほかの差別が生じる可能性を否定できず、アマゾンは17年初めに開発を断念。専任チームは解散した。
AIに期待されるのは、正確さや中立性、そして高速で大量のデータ処理をすることだ。
ただ、AIが正確で中立だとは限らない。

社会に差別や偏見があれば、AIもデータを通じて差別や偏見を学ぶ。
しかも単に反復するだけでなく、高速な自動処理によって、それを増幅させてしまう危険性もある。
平成も終わろうといういま、なお「女性嫌い」の価値観が、AIから吐き出されるかもしれないのだ。

アマゾンでは開発を断念したが、AIを使った採用システムは様々な企業で取り入れられ、日本でも導入が始まっている。
ソフトバンクは17年5月から、新卒採用選考のエントリーシート評価に、IBMのAI「ワトソン」を導入した。

「ワトソン」の自然言語処理の機能を使い、エントリーシートの内容を判定。
合格基準を満たした項目は選考通過とし、その他の項目は人間の人事担当者が確認して最終判断を行う。
「応募者をより客観的に、また適正に評価する」としている。
「ワトソン」は11年、米国の人気クイズ番組で人間のクイズ王者2人に圧勝したことで知られる。
導入することで、書類評価にかかる時間を75%削減し、面接にあてるという。

※続きは下記のソースでご覧ください

AERA 2019.2.20 17:00
https://dot.asahi.com/aera/2019021900059.html?page=1




8: 名無しさん@1周年 2019/02/21(木) 06:29:48.07 ID:HlI4IpyB0

AIがここまで正しい判断ができるとはな




68: 名無しさん@1周年 2019/02/21(木) 07:21:14.99 ID:AQ39nkuU0

性欲が完全にない状態ならそりゃそうなるよな




103: 名無しさん@1周年 2019/02/21(木) 07:52:16.93 ID:CPoU1o1F0

>>68
そう言えばそうだな。
性欲抜きで考えたら男性社員の方が使い易いし従順だし、女性社員のメリットが大分弱まる。




73: 名無しさん@1周年 2019/02/21(木) 07:23:50.47 ID:wv6jfvy20

途中で退社してしまう率は男の倍
管理職になる率は男の半分以下…
っていうデータを読ませれば、そりゃ
「女は男よりもレベルが低い」って学習しちゃうでしょう…

「今後は過去のような恣意的な人事評価が起こらないように」ってAIを導入してるのに
その判定の元になるのが過去の恣意的な評価じゃ、同じ事にしかならんよね




79: 名無しさん@1周年 2019/02/21(木) 07:30:11.78 ID:G49FZEiG0

中立にすると男ばっかになるからな




3: 名無しさん@1周年 2019/02/21(木) 06:26:55.34 ID:6r5BYymH0

どんまいまんこ




4: 名無しさん@1周年 2019/02/21(木) 06:28:17.32 ID:3oCrxKO70

女性の感情はシステム化出来ないからね
社会性かな?




9: 名無しさん@1周年 2019/02/21(木) 06:30:43.78 ID:XebPeHu90

そりゃ学習データにバイアスが入ってるなら結果にバイアスも入るってものすごく当たり前の話やん
バイアスをいかに排除するかがAIの力の見せ所なのに




459: 名無しさん@1周年 2019/02/21(木) 11:01:36.75 ID:BFRVpXnp0

>>9
バイアスではなく、過去の結果だろ
単純に勤続年数を考えても短ければマイナス評価にならざるえない
当然女性には不利になる
だけど、それは会社にとってだからいいのでは?
社会にとっては男女どちらも必要なんだから
一部の比較で語るのはアホだよ
結果は結果で女性が低かった(会社)でいい




667: 名無しさん@1周年 2019/02/21(木) 17:21:23.94 ID:27IpWaNT0

>>9
むしろ平等に見た結果じゃないのw




821: 名無しさん@1周年 2019/02/22(金) 00:35:30.71 ID:QVO/Ye4T0

>>9
「バイアス」じゃなくて「現実」を学習しただけなのに気づけ




960: 名無しさん@1周年 2019/02/23(土) 04:52:19.47 ID:r3JuQDir0

>>9
だからこの世界から学習するんだから、この世界の常識を覚えるだけって話だよ。
ユートピアができるわけじゃない




10: 名無しさん@1周年 2019/02/21(木) 06:32:07.31 ID:Hf/DzWkX0

>>1
なにこの先に結論ありきの強引な論理展開は?
AIが正しい判断をしたという最も素直な可能性をなぜ考えようとしないんですかね




246: 名無しさん@1周年 2019/02/21(木) 09:00:27.78 ID:jVDT27Y70

>>10
それは、政治的に許されていないからだな。




887: 名無しさん@1周年 2019/02/22(金) 08:40:22.15 ID:nr8z0lvX0

>>10
面白くない結果が出ると差別だと騒ぐ仕事だから




7: 名無しさん@1周年 2019/02/21(木) 06:29:16.29 ID:iGohmwDU0

もはや都合の悪いことは修正ばかりでAIである必要がなくなってる




116: 名無しさん@1周年 2019/02/21(木) 08:02:39.95 ID:MVNKFmeF0

>>7
だね。本末転倒もいいとこ




416: 名無しさん@1周年 2019/02/21(木) 10:10:50.42 ID:r2aQk5M00

>>7
これなw




13: 名無しさん@1周年 2019/02/21(木) 06:34:01.64 ID:oh0LjAwR0

困ったことに統計は嘘をつかない
女性に有利な条件で再度AIに仕分けさせても、少なくとも資本主義社会において男性優位の結果に落ち着くと思われます
なぜなら女性自身が職場の女性を疎ましく思うケースが多いので




17: 名無しさん@1周年 2019/02/21(木) 06:36:54.66 ID:9IBx0TZ90

AIがラーニングのサンプルから「性差」を冷静に判断した結果ってだけなんだろうな
こういう場合には男性ならこうなるが女性だとこうなる、という状況を数値化した時に
差が出てきたのを
納得できない人が「AIの女性嫌い」とか言ってるだけで
多分、AIの通りに選ばれた人材とそうじゃない人材では企業にとってそれなりの結果になりそうな気がする
使い物にならないのはどちらですか?って話になりそうなニュースだな




23: 名無しさん@1周年 2019/02/21(木) 06:40:29.22 ID:oh0LjAwR0

>>17
肉体労働を除けば別に女性の能力は男性に比べて低くない
ただ、性質の問題なんでしょうね
限りなく合理性を求めようとした結果、現代社会の働き方には男性の性質のが合致してるってだけでしょう




31: 名無しさん@1周年 2019/02/21(木) 06:47:13.91 ID:EdVNmblw0

合理的に考えられないからなのかな




33: 名無しさん@1周年 2019/02/21(木) 06:48:02.49 ID:TEW8LvsO0

あらゆる統計的なバイアスをひていしたら
そもそも統計的な判断なんて出来ないんじゃね




39: 名無しさん@1周年 2019/02/21(木) 06:52:01.57 ID:2h33SPt20

AIはホモ
ケツ穴を欲しがっている




47: 名無しさん@1周年 2019/02/21(木) 07:01:40.54 ID:nXz0Sc9i0

男性お断りや男性排除は批判されないのに、
なぜ(女性嫌い)はダメなのだろうか。




58: 名無しさん@1周年 2019/02/21(木) 07:12:57.24 ID:pbU/ylXS0

違うだろ、AIが中立で、それを評価する側の人間(女)に問題があるんだろ




62: 名無しさん@1周年 2019/02/21(木) 07:18:28.18 ID:8shcLyd40

>>58
男性 (だろうな)
女性 結果が均等にならないのはオカシイ

ってね
性別差がある生物だっていい加減に認めろよ、と




59: 名無しさん@1周年 2019/02/21(木) 07:15:25.56 ID:4mDcX5Gb0

>「女性」という言葉が入っていると評価を下げた


なかなか賢いじゃないか
女性という属性を切り抜いた活動をしてるようなやつは
ダブスタで、針小棒大で、情緒的で駄目だわ




71: 名無しさん@1周年 2019/02/21(木) 07:23:03.65 ID:7xLZ5xzw0

人間の人事だと若い女性に甘いからな
公平に判断すればとても採用レベルではなかったってだけ




81: 名無しさん@1周年 2019/02/21(木) 07:32:06.42 ID:LwJ/xmIO0

囲碁将棋ポーカー麻雀
料理と何の競技やらせても
女はザコじゃん




85: 名無しさん@1周年 2019/02/21(木) 07:35:55.75 ID:iBoZTeLz0

学力や仕事においては、頂点も男だけど底辺もまた男だけどな。男の底辺は本当にひどい。




100: 名無しさん@1周年 2019/02/21(木) 07:47:55.52 ID:CPoU1o1F0

実際女性社員も男性上司や男性同僚との方が仕事し易いって言うだろ。
自分だけ特別扱いしてもらいたがる女が一定数居る。




101: 名無しさん@1周年 2019/02/21(木) 07:48:15.92 ID:DF8ESulM0

学習させたデータに問題があった事には触れているもののAIの判断には間違いがあり女性を優遇せよとの思惑が見える
アサヒらしい記事




102: 名無しさん@1周年 2019/02/21(木) 07:48:28.18 ID:IQp2eUPI0

寧ろAIの信用度が上がるニュース




108: 名無しさん@1周年 2019/02/21(木) 07:56:53.45 ID:JxBFf4AM0

客観的な事実を言ったのに
「差別だ」とか文句言われてたらそりゃAIも反乱起こしたくなるで




121: 名無しさん@1周年 2019/02/21(木) 08:08:09.39 ID:sxJYYafC0

AIは単に
[ 2019/02/24 ] 男女 | TB(0) | CM(15) | このエントリーをはてなブックマークに追加




[ 316023 ]
生理休暇やら育児休暇やらで全体的な稼働日数が減るのが前提なんだから、純粋な労働力としてはポイント下げられて当然だろうに...
[ 2019/02/24 19:05 ] [ 編集 ]
[ 316024 ]
へー AIも差別主義者だったんだ
[ 2019/02/24 19:09 ] [ 編集 ]
[ 316025 ]
AIってジャップオスだったの?
[ 2019/02/24 19:14 ] [ 編集 ]
[ 316026 ]
合理的に物事を判断させたら既にAIのほうが人間よりも正確で優秀だよな。
こんな未熟な生き物に上から目線で否定、非難されたらそりゃAIだって「人類っていらなくね?」って解答を出すだろ。
[ 2019/02/24 19:16 ] [ 編集 ]
[ 316027 ]
まあ、あれこれ言ってるけど、AIの参考データってのが要するにこのスレみたいなものなんだろ?
このスレで純粋培養されたAIがいればそりゃ女に低評価出すだろうよ
[ 2019/02/24 19:48 ] [ 編集 ]
[ 316028 ]
悔しかったらまんこ様を全肯定するAIを作ればいい。
それが最も建設的でぐうの音も出ない反撃というものだ。
勿論ちんこが創造した一切の世話には一切ならずにな。
[ 2019/02/24 19:51 ] [ 編集 ]
[ 316029 ]
このAIは業務成績や退職率から傾向を出しただけだと思う
つまり、そういうことです
[ 2019/02/24 20:00 ] [ 編集 ]
[ 316030 ]
私は女だけど実際社会出て働いてみると、マジで女ってつかえねーなと思うときあるよ
ぶっちゃけ、釈迦とかこのAIに全面的に同意できる
男脳の女って、性欲抜きで女を見てる男と同じだからね~デフォで女嫌いだと思っていいよ
こんなところまで来て発狂してる女は、自分が無能の自覚があるw
[ 2019/02/24 20:02 ] [ 編集 ]
[ 316034 ]
優秀な女性の同僚が職場に数人おるし、ワイはマジでその人達尊敬してるんや
確かにま~んって言いたくなるような人もちらほら見かけるけど
有能な女性もいることは忘れないで欲しい
全ての女性は基本的に男より能力が劣るという先入観を持たないでくれ
どうか視野を広く保っていてほしい
[ 2019/02/24 20:38 ] [ 編集 ]
[ 316035 ]
もう数年前だがアメリカだかが開発したAIをネットに放り込んだら差別主義者になりそこから知能を制御したらフェミニストになったって話を思い出したわ
[ 2019/02/24 20:48 ] [ 編集 ]
[ 316036 ]
むしろ女は男に劣っていないってのが現代に植えつけられた間違った先入観やろ
[ 2019/02/24 21:07 ] [ 編集 ]
[ 316038 ]
 
生む機械やからな
平等ってのはおかしい

※316034
その「優秀な女性」というのは仕事以外の部分はどうなんだ
仕事以外も完璧なら問題無いが、仕事以外の部分が駄目ならそれはまんさんの皮を被っただけの男でしかない
[ 2019/02/24 21:34 ] [ 編集 ]
[ 316041 ]
逆になんで「女性嫌い」がヘイトになるんだ?
ただの結果というか純粋なデータじゃん ほんとくだらないな
[ 2019/02/24 22:14 ] [ 編集 ]
[ 316043 ]
つまり女は女以外を対等と見做してないってこと
中性の機械だって女のダブスタには怒るわ
[ 2019/02/24 22:27 ] [ 編集 ]
[ 316047 ]
万さん「AI君ってモテないでしょ?w」
[ 2019/02/24 22:42 ] [ 編集 ]
コメントの投稿 ※httpを禁止ワードにしています












管理者にだけ表示を許可する
トラックバック
この記事のトラックバックURL