军用AI要火?AI警察了解一下
比如就有批评者指责上文提到的AI帮派****预测。由于其数据来源完全是洛杉矶警察局提供的案件信息和警察得出的结论。那么AI想要判断准确,就必须建立在洛杉矶警察局所有判断都正确的基础上,而对于帮派****来说,这显然不可能。 数据关系之间的牵强,让很多预测类的警用AI从一开始就备受质疑。而其深度学习过程中的黑箱性也是观察家和民众批评的焦点:研究者都不明白AI是怎么预测****的,居然就敢说我有问题? 更无奈的是,技术问题还仅仅是警用AI科技面临的第一重困境而已。向上一层则会撞上非常难办的歧视问题和隐私问题,在道德困境面前,技术会更加束手无策。 比如说前面说过的AI预测重点巡逻地区。这件事在日本还没开始,就已经有媒体担忧这很有可能加大****对某几个具体区域的巡逻强度,从而让这个区域的居民和店铺产生不满。 在美国,这种不满早就体现出来了。2016年美国公民自由联盟曾经联合十几个人权组织发表声明,认为****用AI作为巡逻,甚至审讯和逮捕的工具并不恰当。其背后隐藏着警察系统对某些社区甚至某些族裔居民严重的偏见。 也有媒体比较阴谋论地认为,加州很多城市的****过度热爱搞一下AI预测****的技术,或许含有****希望在缺少或者没有证据的情况下实施执法。 而关于隐私的争论就更严重了,城市摄像头追逃按说已经是比较“温柔”的技术,但还是有很多声音批评这些能够高高在上认出街上每一个人的技术,其实是对居民隐私的侵犯。“不被认出来”也是隐私权力之一,更何况数据如何应用居民也无法自主。 当****手里的识别工具越来越强力,****分子的活动空间当然会越来越小,但普通居民感到的隐私压抑感也会随之上升。在AI识别能力爆炸式发展的今天,这可能会是一个无法圆满解释的矛盾。 在的警用AI科技领域,强调公众安全还是强调居民隐私,优先考虑技术的妥善度还是应用效率,处在一场无止境的博弈里。 AI从来都是一把双刃剑,这一点在安全领域尤其明显。 (编辑:西安站长网) 【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容! |