リアル・マイノリティ・リポート
- カテゴリ:日記
- 2013/01/17 23:03:09
米国で導入が進む「殺人者を予測するアルゴリズム
http://wired.jp/2013/01/16/precog-software-predicts-crime/
仮釈放された受刑者のうち、殺人を行う可能性が高い人物を予測し、保護監察官の判断を代わりに行うものらしいです。
保護監察官は”人間”なので、情に流されたり、騙されたり、判断を間違う可能性が大きいから、”機械”に任せてしまえ、という事なのでしょうか?
世界的な流れなのか、日本にもあるのかは、よく分かりません。
記事にもありますが、エスカレートしたらフィリップ・K・ディックの「マイノリティ・リポート」そのまま。
人権とかプライバシーとかの問題にも真っ向からぶつかりそうです。
「ソフトウェアのバグで、確率の小数点の位置を間違えました」
「計算時の誤差で危険度のランクがひとつ変わりました」
などという事があったら、シャレになりません。
これだけに頼る事はしていないでしょうが、ちょっと割り切れないものを感じます。
最初は、そうでなくても、だんだんマヒしてきて、このソフトが「絶対」などということにならなければ・・・
それだけでは成り立たないのが人間だと思います。
感情を無くせば生きやすいかもしれませんが、
情熱が無ければ優れた創造は出来ないのでは。。。
想像ですが、保護監察官の判断は、どうしても属人的で、人によってバラつきがあるのをある程度、統一させたいのかもしれません。(要するに大掛かりなマニュアル作り)
ただ、いずれにせよ「仏造って魂入れず」という危険性が必ずつきまといますが・・・。
SEの世界では「コンピュータは正確、ミスは人間が作りこむ」と言われますが、その「ミス」で、「殺人者予備軍」みたいに扱われたら・・・。
>カトリーヌさん
グーグルやアマゾンの「おすすめ商品」のリストアップさえ、「小さな親切、大きなお世話」と感じているのに、こんな事にまでソフトウェアで「予測」されたら、反感を感じる人は多いでしょう。
「より便利に」という大義名分のもとに、なんでもかんでもデータを集めようとする姿勢には疑問を感じます。
後は、スカイネット(映画ターミネーターに出て来るコンピュータ網)が、
世界を支配するだけね(汗)。
こういう技術は、グーグルやアマゾンが、
利用者のデータから利用者の傾向を割りだして、
その人が買いそうな品物を、推薦してくるという・・
あの仕組みを応用したのかしら~?
人を裁くことの重圧から逃れたいのなら、
こんな道具も作らず、野のケダモノに戻るべきだと思う。
たかだか6~7万件程度のデータから、
正しい判断を下せるものでしょうか?
そして日本語記事ですが、原文を一部カットしているようです。
このソフトの誤判断の危険性を指摘した人の意見があるのに…