Google Groups no longer supports new Usenet posts or subscriptions. Historical content remains viewable.
Dismiss

Ethics of artificial intelligence

17 views
Skip to first unread message

kenken

unread,
Nov 28, 2019, 10:51:37 AM11/28/19
to
トロッコ問題について、

https://twitter.com/PKAnzug/status/1185003884730703873

「そもそも選択する立場にならないようにする」

が最適解ですと…
(孫子くらい読んでおけと。)

まぁ言う人は言うってのは今も昔も変わらないのですが、
実際に選択する立場に置かれるのは、今後は機械となって
いくので、考えることは、そうなった時にどう振る舞うよ
うロジックを組むか、もしくはどのような挙動が正解だと
して学習させるか、になる、と。

最近は自動運転関連で、こういう問題が話題になるのを見
かけるのですが、機械学習での他の問題点のうち、(私が
思うところの)ethicの話題がなかなかみつからない。
日本ではたまに挙がるのですがちょっと違うんだよなぁ。
(米国だと検索すればみつかる)

例えば、

 26歳女性が六本木の喫茶店でタピオカミルクティーを購入

それ自体では特定の個人にたどり着くことのない情報であり、
これらが集積したBigdataを元にRecommend(おすすめ)を提供
するサービスであれば特には問題ないと思うのですが、これが
例えば、

 大阪出身の人は返済延滞の傾向がみられる

という統計的データを元に、クレジット審査などの判定につかわ
れれば、それは問題になります。

これ、国境を越えた議論だと、「何故後者が問題なの?」とか
あって、「ああ そこからか…」となるので、あまりオープン
な場では議論されにくい話題なのかとは思うのですが…

ちなみに、こういう統計的データに基づいてできてしまうbias
(偏見)は、NLP(Normal Link Pulseじゃないよ)方面では、必ず
できてしまう、というか(女性詞、男性詞、性文法)があるのだ
からジェンダーを認識させる必要がある。なので必ず解釈上ジェン
ダー傾向がでてしまう。
と思ったら、NLPでは「Debias」という(偏見を補正する)処理
が設けられているそうな。
ふーむ。

--
****************************************
m(。-_-。)m
(旧)kirah...@excite.co.jp
------------(新)kirah...@zoho.com
0 new messages