白癜风诊疗目标 http://baidianfeng.39.net/a_xcyy/130723/4224978.html
假设你驾驶的车辆出现意外,你有且只有两种选择:
A:无动于衷,车会直接撞向前方的人群;
B:拨动方向盘,但车会撞向另一条路上的人。
你该如何抉择?
功利主义者认为,决策应该遵从“为多数人提供 利益”原则,即牺牲更少的人,拯救更多的人。
这一观点遭到义务论者的反对,后者认为因救人而杀人,本质属于不道德行为,与人内心的道德命令相悖。
这个被称为电车难题的实验,不论如何选择,人都会陷入「道德困境」之中。
假如把人换成AI呢?
在电影《机械公敌》中,主角戴尔·史普纳曾遭遇一次车祸,前来营救的机器人经过计算,选择了生存率更高的男主,而非另一个小女孩Sarah。实际上,史普纳更希望机器人救小女孩。
电影《机械公敌》剧照
这部剧中,AI并未面临「道德困境」,而是根据其计算出的“生存率”进行施救,但恰恰是这冷冰冰的数字,加深了戴尔·史普纳对机器人(AI)的不信任。
这实际上反映出一个问题:当人们期待更高智能水平的AI时,要不要对AI本身进行法律上的规制,或进行道德约束?假设需要,如何进行规制?
更具体一点,在上述的施救过程中,AI能不能担责?法律责任如何界定?等等,该如何回答?
AI的「信任危机」
先来思考一个问题:《机械公敌》中,机器人根据“生存率”救下男主戴尔·史普纳,这个“生存率”是怎么计算的?
这个在剧中看似简单的问题,实际上触摸到了AI的核心难题之一:决策的不可解释性。
性别、年龄、情绪等特征可能是计算生存率的部分数据,但机器人是怎么进行决策的,目前的人工智能系统很难解释。
换句话说,人们知其然而不知其所以然。
以现在非常火热的深度学习为例,其决策场景下的模型可解释性很差,具体表现为:输入特征与输出结果之间存在一个无法观测的“黑箱”空间。
比如,阿尔法狗在与柯洁的对弈中,其每一步都是动态的,谷歌只下达了“赢得比赛”的指令,但阿尔法狗是如何根据柯洁的落子来决定对策从而赢得比赛,人们却无从得知。
这种不可解释性对于非常重要的场景,比如交通、金融、医疗等,是一种巨大的安全隐患。人们无法从人工智能系统决策过程中获取有效信息,进而也无法快速对系统进行优化,避免可能导致的利益损失。
另一个重要的点:机器人在救人过程中是否涉嫌“算法歧视”?也就是人工智能系统的公平性问题。
人工智能算法会受到训练数据的影响,如果训练数据中存在偏见,那么其决策也会形成歧视。
电影里的机器人在面对男女性别差异时,作出的决策有没有偏见,这一点无从得知。但现实生活中,美国芝加哥法院曾采用的犯罪风险评估系统(COMPAS)被证明对黑人存在歧视。
如果一个黑人犯了罪,他被该系统错误地标记为具有高犯罪风险的可能性更大,因此可能会被法官判处更长的刑期。
更为普遍的例子是,人们所熟知的大数据杀熟,实际上是根据用户特征/偏好数据形成的价格歧视。
从经济学角度上讲,价格歧视并非贬义,比如老人小孩乘坐公交车享受比成人更低的价格优惠。
但对于人工智能系统而言,基于数据训练形成的价格歧视,根据用户购买行为、性别等进行分层,从而给新用户以优惠,给老用户「高贵」,这种歧视无法可依,本身影响了「消费者公平」。
除了可解释性、公平性之外,AI的安全性、稳健性等问题也引发人们对AI的信任危机。
安全性表现在AI如何保护数据安全。过去一段时间里,Googl、Mta等公司先后被爆出数据泄露问题,引发全球对数据保护的
转载请注明地址:http://www.1xbbk.net/jwbzn/2165.html