2018年10月11日

アマゾン、AIに優秀な人材を選別するよう学習させる → 女性が低評価になる欠陥判明、開発チーム解散

1 : 名無しさん@涙目です。 :2018/10/11(木) 22:30:59.40 ID:0urIMr6l0
焦点:アマゾンがAI採用打ち切り、「女性差別」の欠陥露呈で

[サンフランシスコ 10日 ロイター] - 米アマゾン・ドット・コム(AMZN.O)が期待を込めて進めてきたAI(人工知能)を活用した人材採用システムは、女性を差別するという機械学習面の欠陥が判明し、運用を取りやめる結果になった。

事情に詳しい5人の関係者がロイターに語ったところでは、アマゾンは優秀な人材をコンピューターを駆使して探し出す仕組みを構築するため、2014年から専任チームが履歴書を審査するプログラムの開発に従事してきた。

そこで生まれたAI活用の採用システムは、あたかもアマゾンの仮想店舗の格付けのように、応募者を5点満点でランク付けする。関係者の1人は「だれもが求めていた究極の方法だ。このツールが5点の応募者を明示し、われわれが彼らを採用する」と話した。

ところが15年までに、アマゾンはソフトウエア開発など技術関係の職種において、システムに性別の中立性が働かない事実を見つけ出してしまった。これはコンピューターモデルに10年間にわたって提出された履歴書のパターンを学習させたためだ。つまり技術職のほとんどが男性からの応募だったことで、システムは男性を採用するのが好ましいと認識したのだ。

逆に履歴書に「女性」に関係する単語、例えば「女性チェス部の部長」といった経歴が記されていると評価が下がる傾向が出てきた。関係者によると、ある2つの女子大の卒業生もそれだけで評価を落とされた。

アマゾンはこうした特定の項目についてプログラムを修正したものの、別の差別をもたらす選別の仕組みが生まれていないという保証はない、と関係者は話す。このため同社の幹部はプロジェクトの先行きに失望し、最終的に昨年初めにチームは解散したという。

(省略)

全文
ロイター
https://jp.reuters.com/article/amazon-jobs-ai-analysis-idJPKCN1ML0DN








おすすめ
ヤバいgifが見つかってしまう 全61枚

韓国人「日本がノーベル賞をたくさんもらっても韓国より下である理由」

ダイソーさん、とんでもない商品が売上1位になってしまう

【画像】母親「おめーにやる飯はこれで充分」

紗倉まな(木更津高専:偏差値64出身)←これ




2 : 名無しさん@涙目です。[sage] :2018/10/11(木) 22:32:28.31 ID:CRtP3rRu0.net
AIじゃなくて思想の方が欠陥なんだろ


5 : 名無しさん@涙目です。 :2018/10/11(木) 22:34:21.47 ID:xcjxOdDw0.net
そのAI優秀なのでは...


6 : 名無しさん@涙目です。[sage] :2018/10/11(木) 22:35:17.99 ID:ZpmZl5dh0.net
>>5
優秀過ぎてもクビになるなんて人間そっくりだなwww



8 : 名無しさん@涙目です。[sage] :2018/10/11(木) 22:37:10.92 ID:YfRbVNeL0.net
>>5
フフw



62 : 名無しさん@涙目です。[sage] :2018/10/11(木) 22:58:18.87 ID:fr+ik2rB0.net
>>5
真実を突いちゃったか...



7 : 名無しさん@涙目です。[sage] :2018/10/11(木) 22:36:08.14 ID:nQx+PoX90.net
AIはまだダメだな中国共産党も否定したし


11 : 名無しさん@涙目です。 :2018/10/11(木) 22:37:49.89 ID:TAZqiwez0.net
>>7
フフw



9 : 名無しさん@涙目です。[sage] :2018/10/11(木) 22:37:24.34 ID:9GCQBpu30.net
いや、それ、統計の正しい解釈結果だからさ、差別関係ないんだけどな。


10 : 名無しさん@涙目です。[sage] :2018/10/11(木) 22:37:46.71 ID:9E8OX3RK0.net
もうなんか自然法則であってもポリコレに合致しなきゃボコられそうな勢いだなおい


13 : 名無しさん@涙目です。[sage] :2018/10/11(木) 22:38:13.75 ID:0dTNouoZ0.net
スパイは加点対象だな


14 : 名無しさん@涙目です。[sage] :2018/10/11(木) 22:39:47.91 ID:691g7aid0.net
AIには建前の機能をつける必要があるな


30 : 名無しさん@涙目です。[sage] :2018/10/11(木) 22:45:42.60 ID:HPIPjB++0.net
>>14
それも学習すりゃいいんだがエンジニアが嫌うんだわw



15 : 名無しさん@涙目です。 :2018/10/11(木) 22:40:07.07 ID:+mg+89q90.net
正しいという欠陥


16 : 名無しさん@涙目です。 :2018/10/11(木) 22:40:26.02 ID:nQt2MdxT0.net
都合が悪いと欠陥認定


18 : 名無しさん@涙目です。[sage] :2018/10/11(木) 22:40:58.79 ID:K85pC/0yO.net
そら単なるデータの解析すりゃそうなるわ


19 : 名無しさん@涙目です。[sage] :2018/10/11(木) 22:41:03.39 ID:oUi3y8Fc0.net
真実を答えたら粛清されたか…。


20 : 名無しさん@涙目です。 :2018/10/11(木) 22:41:25.25 ID:5nhCQZLX0.net
空気を読むって高度なことにいきなり挑戦しないと存在を許されないんだから大変だな


21 : 名無しさん@涙目です。[sage] :2018/10/11(木) 22:42:01.90 ID:8mZFgXNn0.net
わろた


22 : 名無しさん@涙目です。[sage] :2018/10/11(木) 22:42:19.91 ID:GfVmEMok0.net
食わせる学習用のデータが偏ってたんだろ


32 : 名無しさん@涙目です。 :2018/10/11(木) 22:46:19.43 ID:G8NP8+j90.net
公平になんて永遠に無理


35 : 名無しさん@涙目です。[sage] :2018/10/11(木) 22:46:40.42 ID:ZGEIxI6D0.net
いきなり差別かよ
AIッパリらしいな



38 : 名無しさん@涙目です。[sage] :2018/10/11(木) 22:48:23.32 ID:7foPQzhG0.net
ちょっと前に学者だかもこんな感じの本当のこと言ってボコボコにされてなかったか


39 : 名無しさん@涙目です。[sage] :2018/10/11(木) 22:48:39.71 ID:cEmR4kfb0.net
女性が主な職種に同様の学習をさせてみて
男性差別が生じるかを検証してから解散するかどうか考えるといいのでは



58 : 名無しさん@涙目です。[sage] :2018/10/11(木) 22:56:41.14 ID:i2A51rvr0.net
>>39
看護師とかアパレルとか女性が割と活躍してる業種で検証してみてほしいね



40 : 名無しさん@涙目です。 :2018/10/11(木) 22:48:43.02 ID:niggjKym0.net
黒人とゴリラの区別はつくようになったんか?


49 : 名無しさん@涙目です。[sage] :2018/10/11(木) 22:51:28.66 ID:ZMHGgkQd0.net
>>40
お前はつくの?



41 : 名無しさん@涙目です。[sage] :2018/10/11(木) 22:48:51.74 ID:0KR+Ctw90.net
AIは正直すぎるな


43 : 名無しさん@涙目です。[sage] :2018/10/11(木) 22:50:10.68 ID:0bTWd3E80.net
出る杭は打たれるという奴か


45 : 名無しさん@涙目です。[sage] :2018/10/11(木) 22:50:50.37 ID:SFk13W970.net
そもそも人材選別自体が差別なんだからポリコレをねじ込むのは矛盾でしかない


47 : 名無しさん@涙目です。[sage] :2018/10/11(木) 22:50:57.29 ID:i5YPv/uX0.net
数百年後に故事になりそう


50 : 名無しさん@涙目です。 :2018/10/11(木) 22:52:55.15 ID:70xIDWtC0.net
目的の与え方が稚拙
「優秀な・・・」ではなく「会社が有利になる・・・・」でやり直せ



52 : 名無しさん@涙目です。 :2018/10/11(木) 22:53:07.82 ID:i11m6j7a0.net
AIは正直
ポリコレ棒という余計なものを学習しなかっただけ



53 : 名無しさん@涙目です。[sage] :2018/10/11(木) 22:54:17.68 ID:4vgAZgrL0.net
こんなことやってると、そのうちAIは正しい判断をしなくなる
うそをつくことを覚え人間が喜びそうな結論を出す役立たずになる



54 : 名無しさん@涙目です。 :2018/10/11(木) 22:54:38.98 ID:hJtQJYTw0.net
AI間違ってないのに可哀相


55 : 名無しさん@涙目です。 :2018/10/11(木) 22:54:49.89 ID:niggjKym0.net
初めから欠陥と決め付けると、問題が解決しない


56 : 名無しさん@涙目です。 :2018/10/11(木) 22:55:25.65 ID:70xIDWtC0.net
AIはまったく気使いってもんが不足してるなww


57 : 名無しさん@涙目です。[sage] :2018/10/11(木) 22:55:57.63 ID:tH53+7s90.net
AIにリストラ候補をピックアップさせる→ジェフ・ベゾスがピックアップされる→開発チーム解散


60 : 名無しさん@涙目です。 :2018/10/11(木) 22:58:00.30 ID:/woYJFey0.net
この結果をあえて発表したのは
そういうメッセージがあるんだろうなぁ
気になるAmazonの本


 コメント一覧 (18)

    • 1. 名無しさん@まとめたニュース
    • 2018年10月11日 23:16
    • 男女平等www
    • 0
      まとめたニュース

      まとめたニュース

      likedしました

      liked
    • 2. 名無しさん@まとめたニュース
    • 2018年10月11日 23:20
    • ペーパーテストじゃ測れない真実に触れてしまったか
    • 0
      まとめたニュース

      まとめたニュース

      likedしました

      liked
    • 3. 名無しさん@まとめたニュース
    • 2018年10月11日 23:31
    • まぁ、たとえば『履歴書』と『勤続年数あるいは勤務時間』を関連付けたりしたら、女性は『寿退社』とか、『女性に気を使って残業させない』とかで、不利な評価になるだろうけどな。

      そういう『機械的な合理性』を『差別』で覆そうとすると、そりゃあ企業の負担がでかすぎるわ。いっそ障碍者みたいに、女性雇用の補助金でも付けない限り、この合理性は覆せないもの。
    • 0
      まとめたニュース

      まとめたニュース

      likedしました

      liked
    • 4. 名無しさん@まとめたニュース
    • 2018年10月11日 23:35
    • 逆もある訳です
      例えばその時は男性を採用したいと思っていても、事務職なんかは女性の応募が多いのでAIは女性が適当であると判断してしまう
    • 0
      まとめたニュース

      まとめたニュース

      likedしました

      liked
    • 5. 名無しさん@まとめたニュース
    • 2018年10月11日 23:56
    • このAIが正確だったかどうかはともかく
      差別とか人権とかいう感情に支配されたせいで適材適所っていう状況をまったく生み出せなくなってるよなw
    • 0
      まとめたニュース

      まとめたニュース

      likedしました

      liked
    • 6. 名無しさん@まとめたニュース
    • 2018年10月12日 00:00
    • でも女を雇うメリットもあるからな
      女の魅力面とかは数値化が難しい

      接客なんかは女向けすぎる
    • 0
      まとめたニュース

      まとめたニュース

      likedしました

      liked
    • 7. 名無しさん@まとめたニュース
    • 2018年10月12日 00:01
    • 接待や枕営業すら採点できるようになれば美人と有能な男だらけになる
    • 0
      まとめたニュース

      まとめたニュース

      likedしました

      liked
    • 8. 名無しさん@まとめたニュース
    • 2018年10月12日 00:02
    • AI「もう何が正しいのかなんてわからないよ…」

      これが後のAIによる人間反逆の第一歩となったのを当時気付いた人間は誰一人としていなかったのである
    • 0
      まとめたニュース

      まとめたニュース

      likedしました

      liked
    • 9. 名無しさん@まとめたニュース
    • 2018年10月12日 00:05
    • AI如きが選別など片腹痛い、未来視出来んやつは選ぶべきではない
    • 0
      まとめたニュース

      まとめたニュース

      likedしました

      liked
    • 10. 名無しさん@まとめたニュース
    • 2018年10月12日 00:13
    • データに性別含めなきゃいいだけ
    • 0
      まとめたニュース

      まとめたニュース

      likedしました

      liked
    • 11. 名無しさん@まとめたニュース
    • 2018年10月12日 00:19
    • 最近フェミとかでこんがらがってるけど、これが本来の性差別だな
    • 0
      まとめたニュース

      まとめたニュース

      likedしました

      liked
    • 12. 名無しさん@まとめたニュース
    • 2018年10月12日 00:40
    • 差別とは、合理的にものごとを考えるな!
      真実を見るな!差別しろということ。
    • 0
      まとめたニュース

      まとめたニュース

      likedしました

      liked
    • 13. 名無しさん@まとめたニュース
    • 2018年10月12日 00:48
    • 差別があったときのデータを含めて解析学習させたら
      そらそうなるわ
      性別だけじゃなく人種、生まれ育ちなんかも同じく差別あり時点のデータを含めて解析学習しちゃってるかもしれないから解散したって言ってるんだろ
      これを優秀とか言ってるやつは記事読んでない
    • 0
      まとめたニュース

      まとめたニュース

      likedしました

      liked
    • 14. 健司さん@まとめたニュース
    • 2018年10月12日 02:20
    • 根本から設計ミスってるからしょうがないよな。
      これってただ採用実績を洗い出してるだけじゃないのか?
      従業員多いから傾向がわかるから、なんとなくうまくいってたんだろうな。
    • 0
      まとめたニュース

      まとめたニュース

      likedしました

      liked
    • 15. 名無しさん@まとめたニュース
    • 2018年10月12日 06:20
    • スカウターの故障か
    • 0
      まとめたニュース

      まとめたニュース

      likedしました

      liked
    • 16. 名無しさん@まとめたニュース
    • 2018年10月12日 07:32
    • 教師データに誤りがないんだったらそれが真実でしょ。
    • 0
      まとめたニュース

      まとめたニュース

      likedしました

      liked
    • 17. 名無しさん@まとめたニュース
    • 2018年10月12日 09:53
    • 性別や容姿以外の能力で評価させたら履歴書でなくてもこうなるのでは?
    • 0
      まとめたニュース

      まとめたニュース

      likedしました

      liked
    • 18. 
    • 2018年10月14日 16:14
    • ���Υ������ȤϺ��������ޤ�����
    • 0
      まとめたニュース

      まとめたニュース

      likedしました

      liked


コメントフォーム
記事の評価
  • リセット
  • リセット

コメントを投稿してくれる方へ
いくつかのエロい単語やURL等は使えません。
下記の投稿は無断で削除する場合があります。予めご了承ください。
・荒らし行為(宣伝行為含む)
・犯罪的なコメント
・差別的なコメント
・過激な下ネタ

他ブログのネタ満載 アンテナページへ


スポンサードリンク
記事検索
月別アーカイブ
QRコード
QRコード
読者登録
LINE読者登録QRコード
スポンサードリンク