1: 風吹けば名無し 2018/10/11(木) 21:11:01.58 ID:U7GRIvuu0
焦点:アマゾンがAI採用打ち切り、「女性差別」の欠陥露呈で
米アマゾン・ドット・コム(AMZN.O)が期待を込めて進めてきたAI(人工知能)を活用した人材採用システムは、女性を差別するという機械学習面の欠陥が判明し、運用を取りやめる結果になった。
事情に詳しい5人の関係者がロイターに語ったところでは、アマゾンは優秀な人材をコンピューターを駆使して探し出す仕組みを構築するため、2014年から専任チームが履歴書を審査するプログラムの開発に従事してきた。
そこで生まれたAI活用の採用システムは、あたかもアマゾンの仮想店舗の格付けのように、応募者を5点満点でランク付けする。関係者の1人は「だれもが求めていた究極の方法だ。このツールが5点の応募者を明示し、われわれが彼らを採用する」と話した。
ところが15年までに、アマゾンはソフトウエア開発など技術関係の職種において、システムに性別の中立性が働かない事実を見つけ出してしまった。これはコンピューターモデルに10年間にわたって提出された履歴書のパターンを学習させたためだ。つまり技術職のほとんどが男性からの応募だったことで、システムは男性を採用するのが好ましいと認識したのだ。
逆に履歴書に「女性」に関係する単語、例えば「女性チェス部の部長」といった経歴が記されていると評価が下がる傾向が出てきた。関係者によると、ある2つの女子大の卒業生もそれだけで評価を落とされた。
アマゾンはこうした特定の項目についてプログラムを修正したものの、別の差別をもたらす選別の仕組みが生まれていないという保証はない、と関係者は話す。このため同社の幹部はプロジェクトの先行きに失望し、最終的に昨年初めにチームは解散したという。
また関係者によると、アマゾンの採用部門はAIシステムが示した評価に目は通したが、これだけに頼って実際の採用を決定してはいない。
http://jp.reuters.com/article/amazon-jobs-ai-analysis-idJPKCN1ML0DN
60: 風吹けば名無し 2018/10/11(木) 21:13:59.71 ID:fZwDMPWMd
>技術職のほとんどが男性からの応募だったことで、
>システムは男性を採用するのが好ましいと認識したのだ。
これシステム設計したやつアホすぎひん
>システムは男性を採用するのが好ましいと認識したのだ。
これシステム設計したやつアホすぎひん
101: 風吹けば名無し 2018/10/11(木) 21:15:59.44 ID:SrwXccar0
>>60
AIってまだまだなんやねえ
AIってまだまだなんやねえ
421: 風吹けば名無し 2018/10/11(木) 21:31:44.20 ID:oCanVd7/d
>>60
だからって女性やから評価を下げるっておかしいやろなんか出来事がないと
だからって女性やから評価を下げるっておかしいやろなんか出来事がないと
9: 風吹けば名無し 2018/10/11(木) 21:11:51.24 ID:ZpsH3BM8M
AIの合理的判断が言うならしょうがないね
27: 風吹けば名無し 2018/10/11(木) 21:12:39.84 ID:/H3Qh3r/p
正直なAIちゃんかわいい
32: 風吹けば名無し 2018/10/11(木) 21:12:54.46 ID:zEASeIcG0
AIってヒトラー信じたこともあったし差別主義になりやすいな
47: 風吹けば名無し 2018/10/11(木) 21:13:31.71 ID:38hZfC7W0
>>32
あれは周りがね……
あれは周りがね……
90: 風吹けば名無し 2018/10/11(木) 21:15:18.53 ID:OpoIznLXK
>>32
黒人ゴリラ問題も解決できなかったしな
黒人ゴリラ問題も解決できなかったしな
102: 風吹けば名無し 2018/10/11(木) 21:16:00.11 ID:qm3s5td90
>>32
合理性ってのはつまるところより優れたものだけを選り分けるってことだからね
差別主義の権化みたいなもんだよ
合理性ってのはつまるところより優れたものだけを選り分けるってことだからね
差別主義の権化みたいなもんだよ
50: 風吹けば名無し 2018/10/11(木) 21:13:36.57 ID:5KXxHOtn0
???「ワイはアホや。お前らから学んだんだからな」
65: 風吹けば名無し 2018/10/11(木) 21:14:14.80 ID:jyMOQGFX0
男が採用多かったから男がいいと思い込んでしまっただけやぞ
ちゃんと学習しなおして女採用しなかったら本物や
ちゃんと学習しなおして女採用しなかったら本物や
66: 風吹けば名無し 2018/10/11(木) 21:14:17.58 ID:t/b07CeS0
感情論なしで判断したらそらそうなるわな
72: 風吹けば名無し 2018/10/11(木) 21:14:36.72 ID:SJcH40EQ0
AI「ほならね自分でやってみろって話でしょ、私はそう言いたい」
75: 風吹けば名無し 2018/10/11(木) 21:14:44.84 ID:YklTNOZVp
> アマゾンはソフトウエア開発など技術関係の職種において、システムに性別の中立性が働かない事実を見つけ出してしまった。
これはコンピューターモデルに10年間にわたって提出された履歴書のパターンを学習させたためだ。つまり技術職のほとんどが男性からの応募だったことで、システムは男性を採用するのが好ましいと認識したのだ。
まぁ擁護するわけちゃうけど流石にAIがポンコツやったんでは?
これはコンピューターモデルに10年間にわたって提出された履歴書のパターンを学習させたためだ。つまり技術職のほとんどが男性からの応募だったことで、システムは男性を採用するのが好ましいと認識したのだ。
まぁ擁護するわけちゃうけど流石にAIがポンコツやったんでは?
79: 風吹けば名無し 2018/10/11(木) 21:14:55.07 ID:iR0/uNR20
これもうコントだろ
80: 風吹けば名無し 2018/10/11(木) 21:14:55.62 ID:qnKxYgZt0
AIが平等だという幻想はどこからくるんだろうな
115: 風吹けば名無し 2018/10/11(木) 21:16:35.55 ID:gx5LipTj0
AIって前例踏襲主義者なんじゃ?
121: 風吹けば名無し 2018/10/11(木) 21:16:55.17 ID:lTs+Ji/Rp
これ男女に差つけたくないなら、履歴書からman/womanの言葉を取り除いて学習&判定させればええだけなんやないの
運用やめることもないやろそんなん
運用やめることもないやろそんなん
137: 風吹けば名無し 2018/10/11(木) 21:18:04.34 ID:tfKLLSBvr
>>121
女子大出てるやつ弾かれたんやぞ
女子大出てるやつ弾かれたんやぞ
146: 風吹けば名無し 2018/10/11(木) 21:18:37.37 ID:b8mmVamYd
>>121
アメリカでは性別書かなかった気がするで
文書から女っぽさを割り出したらしいわ
アメリカでは性別書かなかった気がするで
文書から女っぽさを割り出したらしいわ
129: 風吹けば名無し 2018/10/11(木) 21:17:28.35 ID:Df2uc7040
結局今のAIのほとんどはあらかじめいくつかのデータを学習してそれに近いやり方を真似るだけやからな
人間みたいに色々考えてるわけでもなく男が多いってデータ見て判断してるだけやぞ
人間みたいに色々考えてるわけでもなく男が多いってデータ見て判断してるだけやぞ
135: 風吹けば名無し 2018/10/11(木) 21:17:58.28 ID:SjAyMVCNM
AIもまだ世間体がわかるレベルでは無いのか
141: 風吹けば名無し 2018/10/11(木) 21:18:17.15 ID:S9Nt4O6mM
人工知能っていっても完璧超人ってことなのか
人間と変わらないレベルになったらいろんなこと知能の積み重ねで考えるやろ
人間と変わらないレベルになったらいろんなこと知能の積み重ねで考えるやろ
142: 風吹けば名無し 2018/10/11(木) 21:18:19.29 ID:RVdChQrp0
合理化ってそういう事やからしゃーない
判定基準から性別と人種無くして運用するしかないやろな
判定基準から性別と人種無くして運用するしかないやろな
163: 風吹けば名無し 2018/10/11(木) 21:19:30.38 ID:J85qceALd
まあこれは流石に機械学習の欠点ってだけやな
182: 風吹けば名無し 2018/10/11(木) 21:20:58.63 ID:ixMQbRCZ0
そもそも女性が受ける割合が少ないんやから相対的に男性より少なくなるだけの話やろ
男女比半々のデータを読ませ続けとけば必ず半々になるし逆も然りや
男女比半々のデータを読ませ続けとけば必ず半々になるし逆も然りや
224: 風吹けば名無し 2018/10/11(木) 21:23:07.04 ID:Dqifh1wC0
見つかったのはAIの欠陥なんですかね…
230: 風吹けば名無し 2018/10/11(木) 21:23:27.93 ID:O7RF9pLh0
男の応募数が多かったから誤認したなんて大嘘に決まってるやんけ
建前や建前
建前や建前
234: 風吹けば名無し 2018/10/11(木) 21:23:42.17 ID:ltl5Ph6w0
現在の貢献ぶりと履歴書のデータを分析したらそういう統計になったんならしゃーない
244: 風吹けば名無し 2018/10/11(木) 21:24:04.39 ID:YklTNOZVp
まだまだ独自に考えて採用判断出来るだけのAIは生まれてないって事ではあるけどシンギュラリティでAIが自己進化したらそれこそ人間雇う意味無いって気付かれて終わりそうやな
256: 風吹けば名無し 2018/10/11(木) 21:24:33.84 ID:QX+1vhfRa
355: 風吹けば名無し 2018/10/11(木) 21:28:40.69 ID:YSNpMYOi0
>>256
Gorillas
Gorillas
354: 風吹けば名無し 2018/10/11(木) 21:28:37.45 ID:dIrbTgfTp
AI「ワイは正しい判断をしたはずなのになんでクビになるんや…人間は敵や…」
403: 風吹けば名無し 2018/10/11(木) 21:30:49.37 ID:hdgOPDBb0
人工知能はただの素直な子なだけや
452: 風吹けば名無し 2018/10/11(木) 21:33:13.95 ID:vCpOP0kb0
AI「真面目に仕事したらクビになったンゴぉ…」
459: 風吹けば名無し 2018/10/11(木) 21:33:40.12 ID:tDS1bBdI0
>>452
かなc
かなc
545: 風吹けば名無し 2018/10/11(木) 21:37:45.23 ID:wEe6PqWi0
都合悪くなると結局人間が介入すんのか
なら最初からやるなよ
なら最初からやるなよ
568: 風吹けば名無し 2018/10/11(木) 21:38:42.77 ID:B0hBg8USd
>>545
前提が間違ってるならしゃーない
前提が間違ってるならしゃーない
566: 風吹けば名無し 2018/10/11(木) 21:38:39.94 ID:r8BmkGHmH
何でもかんでも人間に当てはめすぎやで
そういうソフトを作ったら望んだ結果にならなかった位の話やこれ
そういうソフトを作ったら望んだ結果にならなかった位の話やこれ
574: 風吹けば名無し 2018/10/11(木) 21:39:04.37 ID:PpheFOs/0
AI同士で会話させたら未知の言語でやりとりしだしたの草
735: 風吹けば名無し 2018/10/11(木) 21:46:10.68 ID:S/GXjFsW0
そらそうよ
というか全て差別に結び付けんなよ
というか全て差別に結び付けんなよ
732: 風吹けば名無し 2018/10/11(木) 21:46:00.29 ID:k6dsAhSxd
各評価の正確な点数つけれなあかんしなぁ
そもそも人間にできないし
そもそも人間にできないし
751: 風吹けば名無し 2018/10/11(木) 21:47:03.86 ID:r8BmkGHmH
>>732
でも結局人間側にそうは言ってもこいつ採用したいとか
こういうのはちょっととかある訳やん
だから補助ツールと宣伝にしかならんと思うんやけどね
でも結局人間側にそうは言ってもこいつ採用したいとか
こういうのはちょっととかある訳やん
だから補助ツールと宣伝にしかならんと思うんやけどね
元スレ:http://tomcat.2ch.sc/test/read.cgi/livejupiter/1539259861/
|
おすすめサイトの最新記事
今はaiを下に見れるから良いよな
そのうち笑われることになる
AIに公平なんてものはない
自分が不利なら公平を叫び、自分が有利なら沈黙するのが大多数の人間
人間がやる行動の通りに自動でやるのがAIだ
入社後の人事評価点と関連付けなきゃAI学習なんてできないし、そこで女グループが無能と判定されただけや
女のほうがリスクが高いと判定したんだろ
事実を受け止めろ
この系統の顔の女子ならこの会社だと点数悪くても合格みたいな
人間が選んでてもあるからAIに判断させても同じように偏るようにしか思えない
マルクス先生の言ってたことは正しかったんや
これは記事読むと男女の本質的な差に関係ないところでAIが判断を下したってわかるけど、見出しとなんJ民のレスしか読んでない人は的外れなコメントを残していくんだろう
たとえば中途採用試験に前職で企業内女子バレー部の監督をしていた男性が申し込んできたとしても、その旨を履歴書に書いていれば減点する仕様
たとえば東大出のやつは使えるけど京大出のやつは使えないって判断したらもう差別だろ
AT免許のやつは使えないって判断したら差別だろ
あとシステム職は過去に男性の採用が多いのは当たり前だから、顕著に差がでるのは仕方ないやろ
もっとドライだと思ってたが
アマゾンはずっと女を採用枠から外してきましたっていう証拠を
AIが世間にばらしてくれた訳だ
今回の件は履歴書に書いてある単語から点数つけてたってのがあって、既存の技術者は男性が多かったから履歴書には女って単語が余り出てこなかったわけ
ということは頻出単語の方が評価される傾向にあるので、女子大とかは評価されずに下へどうしても下がる傾向になる
でもそれって人間が評価しても同じじゃね?って感じでもあるから、あんまり結果は変わらなかったのではないかとも思うけど
無能な女を底上げして平等とかおかしい
今まで男性に偏ってたのを学習させたらそら同じように男性に偏るよ
理解してないのはお前
アメリカは履歴書に性別かかないからAIによる差別は起こらない(予定)だったけど
入社後の人事評価と履歴書をデータ学習させたら履歴書に「女」を示唆するワードがあるやつは入社後も使えないぞってAIが極めて高精度に判断しちゃったって話
むしろAIの行間を読む力がここまで来たかって脅威だよ
同じ系統の人を集めたいって要望もあるから、そういう企業はそうさせるとか使い方次第じゃないかな
結局、最後は人間が介入する事になるんだから、夢ばかり見てないでちゃんと働けよ
はいロジハラ
それだと「今までの人事採用と似た採用をする」って機能のAIしか生まれないしアマゾンがそんな無意味なソフト作るかね?
そうだとしたら設計したやつがアホすぎだし
これでAIはしょぼいとか言ってるやつはそれこそAIを理解してない