首页
 
河北省保定市港闸区赛时大楼552号
400-123-4567
+86-123-4567
admin@sneaker-daily.com
570000

信息公开

【美狮会】深度长文:关于AI,你最该了解可也许从没想过的四个问题

来源:点击:时间:2024-10-01 03:52
本文摘要:(公众号:)按:人工智能在当今社会被辩论的如此火热,但是细心一想要,你有可能甚至并不知道它的基本运营逻辑。

(公众号:)按:人工智能在当今社会被辩论的如此火热,但是细心一想要,你有可能甚至并不知道它的基本运营逻辑。人工智能和机器学习是一其实吗?人工智能是不是能解决问题所有的问题?如果不是的话,人工智能究竟能解决问题哪些问题?又怎样区分这些问题?对人工智能来说,哪些事情是确实艰难的?人工智能给社会究竟带给了哪些挑战?日前Medium著名博主Yonatan Zunger公布了关于人工智能的深度长文,可以说道是一篇不可多得的、深度与趣味性兼备的最佳科普。在不转变本意的情况下为您做到如下编译器:在过去的几年里,我们仍然在辩论人工智能(AI)将如何解救或毁坏世界:自驾车不利于维护我们的生命;社交媒体泡沫将毁坏民主;机器烤面包机不会让人类连烤面包的能力都失去。你有可能很确切,这其中的一些是无稽之谈,一些是现实的。

但是,如果你没了解地沉浸于在这个领域,有可能很难辨别孰真孰假。虽然对于想自学人工智能编程的人来说,互联网下有大把的启蒙运动教程,但对于想沦为软件工程师或者数据专家的人来说,却缺少对于人工智能的概念的理解,以及它所面对的社会上和伦理学上的挑战。

如果全社会知道要辩论人工智能,我们就必须解决问题这个问题。所以今天我们要谈谈人工智能的现实:它能做到什么,不有可能做到什么,未来有可能可以做到些什么,以及它带给的一些社会、文化和道德方面的挑战。我会涵括每一个有可能的挑战;其中的一些,譬如泡沫和欺诈信息,大的必须一整篇文章来说明。

但是,我会给你们充足的例子解释我们所面对的确实的问题,你们就需要独立国家明确提出自己的问题。我再行给大家剧透一下:大多数最好的挑战不是来自于技术。人工智能仅次于的挑战往往始自,它被迫我们编程时被迫十分具体地传达我们的目标,完全没别的事情不会这样——而有的时候,我们并想对自己说实话。1人工智能和机器学习在写出这篇文章时,我将某种程度地用于术语“人工智能”(AI)和“机器学习”(ML)。

这两个术语意味著完全完全相同的东西,原因很可笑:因为从历史上来说,“人工智能”差不多被定义为“任何电脑还无法做的事情”。多年来人们争论说道,下象棋必须确实的人工智能,仿真对话必须确实的人工智能,或者辨识图像必须确实的人工智能;每次这些事情构建了一个,人工智能的边界又随之移动。“人工智能”这个词语过于可怕了,它与我们人类定义自己的方式以及那些让人类与众不同的东西靠的过于将近。所以在某些时候,专业人士不会用于“机器学习”这个术语来展开整个对话,然后就卡住了。

如果我只是谈论“机器学习”,听得一起不会变得尤其机械——因为即使是专业人士,也总是更好的在谈论人工智能。那么让我们再行来谈谈机器学习或人工智能究竟是什么。从最严苛的意义上说道,机器学习是“预测统计学”领域的一部分,就是创建一个系统,它需要提供过去再次发生的事情的信息,并且利用这些创建一个关于涉及环境的某种模型,用来预测在其他情况下有可能再次发生的事情。非常简单来说就像“当我把车轮改向左边,车子也往左并转”那样非常简单,往难来说,就像企图理解一个人的整个生活和品味一样简单。

您可以用于这张图片来理解每个AI的功能:有一个可以感官世界的传感器系统(sensor) —— 这些系统可以就是指摄像机和LIDAR到查阅文档的网络爬虫的任何东西。还有一些其他的系统限于于这个环境,比如驾车,或者按照分类顾客展出广告。

有时候,这个系统是一台机器,有时候是一个人,他必需根据一些很简单或者过于大的事情作出要求,一下子又思维没法那么多—— 比如说整个互联网的内容。要把两者联系一起,你必须一个盒子,需要萃取对这个世界的理解,并且明确提出一些建议,告诉他你如果采行各种行动,可能会再次发生什么。

中间那个盒子叫作“模型(Model)”,就只不过一个“这个世界是如何工作的模型”,那个盒子就是人工智能的一部分。上面的图表中还有一些别的的单词,如果你听得专业人士辩论AI时你可能会听见它们。

“特征(Feature)”只是对完整理解的一些升华,还包括模型的设计者指出简单的那部分理解。在有些AI系统中,特征只是完整的理解—— 例如,摄像机的每个像素所看见的颜色。如此大量的特征对于AI来说是有益的,因为它会对什么最重要什么不最重要有任何先入之见,但是又使得AI本身更加无以建构;意味着在过去的十年左右,创建充足大的计算机来处置这个问题才显得有可能。

“预测(Prediction)”就是另一端不会产生的结果:当你给模型展出一些特征时,它一般来说不会给你一堆有可能的结果,以及它对每个结果的可能性的最佳解读。如果你想要让一个人工智能作出要求,那么就应用于一些规则 —— 例如,“挑选出最有可能顺利的人”,或者“挑选出最不有可能造成灾难性告终的人”。对系统而言,权衡有可能的成本和收益,重要性远不如模型本身。

现在,你可以想象一个非常简单的“模型”,它得出了针对用途的明确规则:例如,原有蒸汽机上的机械调节阀是一种非常简单的“模型”,一端加载压力,如果这个压力多达某个原作点推杆,它不会关上一个阀门。这是一个非常简单的规则:如果压力低于设定值,关上阀门;否则,重开阀门。

这个阀门非常简单,因为它只必须参照一个输出,并作出一个要求。如果它必需依赖成千上万甚至数百万输出的信息来要求一些更加简单的东西——比如如何掌控一辆汽车(各不相同你的所有视觉,听力等等),或者哪个网页可以给你关于树袋熊养殖的问题获取最差的答案(这各不相同你是一时间蓬勃发展还是专业的脊椎动物争论者,以及该网站是由爱充满著激情的爱好者所创立,还是只是想要卖给你廉价的树袋熊壮阳药)——你不会找到这个较为很不简单,有数百万,甚至数千万信息必须要求。

AI模型的特别之处在于们是专门为此而设计的。在任何人工智能模型里面都有一系列的规则来综合所有特征,每一个特征都依赖数百数千甚至数百万个分开的按钮,告诉他它在有所不同情况下如何权衡每个特征的重要性。例如,在一种叫作“决策树”的人工智能模型中,模型看上去看起来一个关于Yes/No问题的巨树。

如果人工智能的工作就是指三文鱼中分设金枪鱼,那么第一个问题有可能是“图像的左半部分比右半部分更暗”,而最后一个问题大约是“根据之前的374个问题的答案,这个正方形中的平均值颜色是橙色还是红色?“这里的“按钮”是告知问题的顺序,以及每个问题的”是“和”否“之间的界限是什么。魔法在于:不有可能寻找一个需要可信地辨别鲑鱼和金枪鱼的准确问题人组。

有过于多了。所以,一开始时,AI运营在“训练模式”。AI被展出一个又一个的例子,每次调整它的旋钮,以便更佳地猜测接下来不会再次发生什么,在每次错误之后自我缺失。

它所看见的例子就越多,有所不同例子就越多,它从偶然性中寻找关键的能力就就越强劲。一旦它被训练,旋钮的值是相同的,模型可以相连到确实的执行器用于。ML模型对比人类做到某种程度任务的优势不是速度;一个ML模型一般来说必须几毫秒来做出要求,人大约也必须这么多时间。

(你在驾车的时候仍然如此)。他们的确实优势是,他们会实在无趣或迟疑:一个ML模型可以在有所不同的数据段落上倒数做到数百万或数十亿次要求,既会把数据弄得更佳也会更糟。这意味著你可以将它们应用于人类不擅长于的问题——比如为单个搜寻名列数十亿的网页,或驾驶员汽车。

人类驾驶员汽车十分差劲,2015年仅美国就有35,000人因车祸丧生。这些车祸中的绝大多数是由于迟疑或驾驶员犯规导致的——人们一般来说做到得很好,但在某一次关键时刻却犯规了。

驾驶员必须极大的专心和快速反应能力,你有可能指出也可以做,但差劲的是,它必须这种能力持续保持几个小时,事实证明,我们实质上做到将近。)当某个人谈论在项目中用于AI时,他们的意思是将项目分解成上面绘制的图,然后建构准确的模型。这个过程首先搜集训练的例子,这一般来说是最艰难的任务;然后自由选择模型的基本形状(即“神经网络”,“决策树”等),这些都是针对有所不同问题的基本模型),并展开训练;然后,最重要的是弄清楚什么是怕的,并对其展开调整。

例如,看下面的六张图片,找到前三张和后三张的关键区别:如果你猜中“前三张都有地毯”,那么你猜中对了!当然,如果你猜中前三张是灰猫的照片,后面三张是白猫的照片,你也是对的。但如果您用于这些图像来训练您的灰猫探测器,那么当模型尝试对您的训练图片展开评分时,您可能会取得出色的展现出,但在现实工作中这模型展现出不会很差劲,因为模型实际教给的是“灰猫就是地毯上一些类似于猫形状的东西。“当你的模型自学到了训练数据的特质,但却不是你确实关心的东西的时候,这叫作“过数值”。

建构ML系统的人大部分时间都在担忧这个问题。2人工智能擅长于什么,不擅长于什么现在我们早已谈论了AI(或ML)是什么,接着让我们来谈谈它到底是简单还是多余。

如果你想构建的目标和构建这些目标的手段都需要很好的解读,这种问题就不必须人工智能。例如,如果您的目标是“将车轮上的所有螺母拧紧到100英尺磅”,你只必须一个需要拧紧和测量扭矩的机构,并在扭矩超过100时暂停拧紧。这称作“扭矩扳手”,如果有人给你获取一个人工智能的扭矩扳手,你要回答他们的第一个问题是我为什么必须这个。这些减少了AI的阈值,你必须的只是一个非常简单的机制。

人工智能能协助解决问题的问题是:目标是具体的,但实现目标的手段不具体。在以下情况最更容易解决问题:有可能的外部性刺激的数量是受限的,所以模型需要理解它们你必需掌控的事物数量是受限的,所以你不必须考虑到过多自由选择范围性刺激或者要做到的要求数量相当大,你无法必要写规则并且区分出去需要很更容易的把一个动作相连到外部的一个可仔细观察的结果,因此你可以很更容易地弄清楚什么奏效,什么违宪。

这些东西实质上比看上去更加无以。例如,现在拿起一个你旁边的物体——比如我去拿一个机的汽水罐。现在再慢一点做到一次,看你的手臂是怎样运作的。我的胳膊较慢地沿肘部旋转,将我的手从键盘上水平移动到离罐子几英寸的横向方位,然后很快暂停。

然后它向前移动,同时把手掌关上的比罐头大一点,以比第一个动作快得多但是只不过还是迅速的速度,直到我看见我的拇指在我的其他手指的对面,尽管事实上我的其他手指被罐子遮盖了视线。然后我的手指张开,直到遇上阻力立刻停下来。然后手臂开始抱住,这一次从肩膀起(维持肘部相同)维持握紧,无限地放宽,直到手牢固地握罐子但又不使罐子变形。

事实上,我们走路而会脸朝地跌倒就是一件很难以置信的事情,虽然看起来平时。下一次你走到房间时,要留意你的清楚路径,每次你倾斜或移动你的身体,或者把你的脚放到不出面前的别的任何地方。“运动规划”这个问题在机器人技术中是十分艰难的。这是十分艰苦的任务之一,我们的大脑代价了比其他事情多两倍的专心来做到这件事。

这使我们已完成的看上去比实质上更容易得多。同属此类的其他任务还有面部辨识(你有可能不告诉,我们的大脑的视觉功能大部分不是用作标准化视觉,而是专门用作辨识脸部的),解读单词,辨识3D对象,以及不遇到障碍物。

我们指出这些并难于,因为它们对我们来说是十分直观的,但是它们之所以这么非常简单,是因为我们有专门的器官的组织专门负责管理而且擅长于做到这些。对于这一系列狭小的任务,计算机做到得很差劲,并不是因为他们展现出的比在其他类似于的任务上差,而是因为人类在直觉上十分擅长于这些,所以对“可接受性能”的基线十分低。如果我们的大脑中没一大块专心于了解面孔,那么我们看人就不会像看犰狳一样——现在计算机正是如此。

忽略,人类连结的方式又使得计算机就很更容易的变得充足智能了。例如,人类的大脑有线相连指出,某种程度活跃的事物事实上就是有生命的。

这意味著与人类展开令人信服的对话并不需要总体上解读语言,只要你某种程度的能把话题维持在焦点上,人类就不会自动缺失任何不确切的东西,这就是语音助理能顺利的原因。最值得一提的是的例子是ELIZA,一个1964年的仿效罗杰亚心理治疗师的“人工智能”,它不会解读你的句子,让你更好地描写各种各样的事情,如果深感疑惑,它就不会后退一步返回“跟我说道说道你的母亲吧”这样的安全性问题上,虽然这只是一个笑话,但人们回应显然在聊天之后感觉好了一点。为了解读上述的最后一个问题 ——当你很难把你的必要行动和后果联系一起的时候—— 可以考虑到自学玩游戏视频游戏。行动的后果是非常明显的:当你应当弯道的时候你就要弯道,如果撞到到墙上,游戏就完结。

但是当你更加擅长于比赛之后,你不会开始意识到“差劲,我错失了一个提高,五分钟内我要完了”,并且可以预见更加幸之后的后果。你必需花上很多时间去解读游戏的机制,然后去解读其中的相连。

AI也有某种程度的问题。我们谈及了目标和手段都很确切的情况,以及目标确切但手段不确切的情况。还有第三个类别的情况,AI根本无法协助:那就是,连目标本身没被很好地解读。

却是,如果你无法给AI一堆好的和怕的解决方案的例子,那么它能从中学到什么?我们随后不会再行讲这些问题,因为究竟哪些问题归属于这个范畴,往往是最棘手的道德问题经常出现的地方。实质上很多时候情况是,要么我们不告诉“顺利”的确实含义(在这种情况下,你怎么告诉你否顺利了?),或者更糟的是,我们告诉 ——但是想确实对自己否认。计算机编程的第一条规则是,他们不擅于自我愚弄:如果你想他们做到某件事,你必需向他们说明你想的东西。

在我们开始谈论道德之前,这里有另外一种方法去分析AI的优劣。最更容易的是在可预测的环境中有具体的目标。譬如一台摄像头监测着一条装配线,它告诉汽车迅速就不会经常出现,目标是辨识到车轮。

比较较难的情况是在不能预测的环境中有一个具体的目标。自动驾驶汽车就是一个很好的例子:目标可以必要叙述(从A点安全性到B点而且速度合理),但是环境则有可能包括许多车祸。人工智能在过去几年刚发展到可以向这些问题发动冲击的地步,因此我们研究自驾车或自驾飞机等问题。

另一种难题是在可预测的环境中构建一个间接目标。在这种情况中环境是可预测的,但是不道德和目标之间的关系是十分很远的——就像玩游戏一样。

这是我们近期获得巨大进步的另一个领域,人工智能需要已完成以前难以想象的事情,比如Alpha Go在围棋比赛中取得胜利。夺得棋盘游戏本身并不是很简单,但它却关上了在不能预见的环境中实现目标的道路,比如计划你的财务人组。这是一个较为棘手的问题,我们还没获得重大进展,但是我期望我们需要在未来十年内把这些作好。

最后还有一种最好的情况:目标不具体的情况。AI根本无法解决问题这些问题;如果你无法告诉他它你想要做到什么,你就无法训练系统。写出小说有可能就是一个例子,因为没一个具体的答案是什么使某本书沦为“好的小说”。

另一方面,这个问题有一些明确部分目标可以定义——例如“写出一本小说,如果像恐怖片一样销售,就能买得好。这种对AI应用于究竟好还是很差,就再行读者的智慧辨别。3 伦理与现实世界现在我们可以开始想到问题的真谛:那些AI的胜败需要产生根本性影响的难题是什么样的?还在大大经常出现一些什么样的问题?我可以很更容易地得出一大串答案,但我们没覆盖面积这个领域每一个有意思的问题,甚至不了覆盖面积大多数的问题。

但是我给你们荐了六个例子,这些例子协助我思维了很多,它们主要的协助不在于给了我准确的答案,但是他们协助我明确提出了准确的问题。(1).乘客和行人一个自驾车正在穿越一座狭小的桥,这是一个小孩忽然在它前面跑完出来。停下早已太迟了;这个汽车能做到的只有要么行进,将小孩撞到飞来,或者弯道,把自己和乘客送往下面的流水河里。

它应当怎么做?这个问题在过去几年早已被公开发表辩论过了,这个辩论是十分明智的,展出了我们确实必须回答的问题。首先,整个问题有一个相当大的漏洞:这个问题在实践中经常出现的概率较小,因为自动驾驶汽车的重点在于,他们一开始就会投身于这种情况。

孩子很少突如其来经常出现,大多数情况下这种情况再次发生时,要么因为驾驶员的反应过于慢,无法处置从他障碍物后面跳跃出来的孩子,要么驾驶员出于短时间迟疑,注意到孩子的时候早已太迟了。这些都是自动驾驶不不存在的问题:自动驾驶一次查阅所有信号,倒数数小时都会深感无趣或迟疑。

像这样的情况将显得十分少见,这就是自动驾驶需要解救生命的来源。但是“完全从来不”与“意味著会”是不一样的,我们被迫否认有时不会再次发生这种情况。

当它再次发生时,车应当做到什么?应当优先考虑到乘客还是行人的生命?这不是一个技术问题:而是一个政策问题。这和我们今天生活的世界有相当大的有所不同。如果你问人们在这种情况下不会怎么做,他们不会得出各种各样的答案,后用各种各样的“各不相同当时情况”来容许这个答案。

事实是,我们想做到这个要求,我们当然想公开发表否认我们的要求是要维护自己的孩子。当人们知道正处于这种情况下,他们的对此就不会在地图上经常出现。在文化上来说,我们有一个答案:在这个瞬间,在你看见迎面而来的灾难和事件再次发生的那一瞬间,我们认识到我们无法做出理性的要求。

我们最后不会让司机对他们的要求负责管理,并且指出这是不可避免的,不管他们做到了什么要求。(虽然我们可能会让他们为之前作出的要求负责任,比如肇事驾驶员或驾驶员醉酒)。有了自驾车,我们没这个自由选择;编程在字面上有一个空格,它现在拒绝我们在事故再次发生的几年之前就给它答案:“当再次发生这种情况时,我该怎么办?我应当如何减低乘客的风险,以免对行人导致危险性?” 它不会按照我们告诉他它的做到。计算机编程的任务拒绝我们对自己想的要求维持残忍的真诚。

当这些要求影响整个社会时,比如在这种情况下,这意味著作为一个社会,我们面对着某种程度艰苦的决择。(2)、礼貌性捏造机器学习模型有一个十分喜欢的习惯:他们不会自学数据表明给他们的东西,然后告诉他你他们教给了什么。他们固执地拒绝接受自学“我们所期望的世界”,或者“我们讨厌声称的世界”,除非我们具体地向他们说明那是什么——即使我们讨厌假装我们没这样做到。2016年年中,高中生卡比尔·艾力(Kabir Alli)企图在Google上搜寻“三个白人青少年”和“三个黑人青少年”,结果甚至比你想象的还要差劲。

“三个白人青少年”展现出了迷人的、运动型的青少年身影; “三名黑人青少年”表明了三名黑人青少年逮捕的新闻报道中的照片。(现在,搜寻结果大部分都是关于这个事件的新闻报道)这里并不是因为Google算法中的种族主义:而是底层数据的种族主义。这种类似的种族主义是“无形白人主义”和媒体报道的种族主义的融合:如果三名白人青少年因犯罪逮捕,不仅新闻媒体不太可能展出他们的照片,而且也不太可能特地明确提出他们是“白人青少年”。

事实上,完全所有的青少年群体都被具体地标示为“白人”,从摄影产品目录可以显现出。但是,如果三名黑人青少年逮捕,你可以寻找在上面提及的新闻报道中经常出现的那句话。许多人对这些结果深感愤慨,因为他们或许与我们这个“忽略种族”社会的国家观念不完全一致。(请求忘记,这是在2016年中)但基本的数据是十分具体的:当人们用高质量的图像在媒体上说道“三个黑人青少年”时,他们完全总是把他们作为罪犯在谈论,当他们谈及“三个白人青少年“,完全都是广告摄影。

事实上,这些种族主义显然不存在于我们的社会中,而且它们完全体现在你看见的任何数据上。在美国,如果你的数据没表明某种种族偏向,那么很有可能你做错了什么。如果你通过不想种族沦为模型的输出特征来手动地“忽视种族”,它不会通过后门转入:例如,某人的邮政编码和收益可以十分精确地预测他们的种族。

一个将之不视作种族因素的ML模型,以及被拒绝预测我们社会中的事实上与种族涉及的东西的ML模型,迅速就不会将其视作“最差的规则”。人工智能模型在我们面前高举一面镜子,他们不明白我们什么时候想真诚。他们只不会礼貌性捏造,如果我们告诉他他们如何提早骗子的话。这种真诚不会被迫你必需十分具体。

最近的一个例子是在一篇关于“文字除去”的技术论文中。是关于一个十分热门的叫作word2vec的ML模型,它自学了英语单词含义之间的各种关系——例如,“国王对男性,女王对女性。”该论文作者找到,模型包括了不少社会种族主义的例子:例如“电脑程序员对男人来说就像家庭主妇对女人一样。”作者在该论文中明确提出了一种一种避免性别种族主义的技术。

该论文的许多偶然性读者(还包括许多编写关于它的新闻文章的人)看到的是,并没一种自动化的方式能避免种族主义。模型的整个程序是非常合理的:首先,他们分析单词两个词向量模型,寻找沿着他/她轴线(性别轴线)对立性分离的单词组。接下来,他们要一组人分辨哪些对应关系是有道理的(例如,“男孩对男人/女人对女人是对的”),以及哪些对应关系中代表了社会种族主义(譬如程序员对男人/家庭主妇对女人)。

最后,他们运用数学技术从整个模型中去除了具有种族主义的词组,留给了一个改良后的模型。这项工作是很好的,但最重要的是要认识到,确认哪些男性/女性分化应当被移除的关键步骤是人为的要求,而不是一个自动的过程。它拒绝人们从字面上辨识他们指出哪些词组的对应关系是合理的,哪些不合理。而且,原本的模型派生出有这些分化是有原因的。

它来自对来自世界各地数以百万计的书面文本的分析。原本的词向量对应关系精确地捕捉到了人们的种族主义;清扫后的模型精确地体现了评估者指出哪些种族主义应当被移除的偏爱。这其中展现的危险性是“自然主义的谬误”,当我们误解“应当是什么”和“只不过是什么”的时候,这种谬误就不会再次发生。

如果我们想要用模型来研究人们的观点和不道德,原本的模型是适合的;如果我们想要用模型来分解新的不道德并将某些意图表达给其他人,改动后的模型是必要的。说道改动后的模型更加精确地体现了世界是什么样的,那是不该的;说道因为这个世界或许上是什么样,那么它就该是那样,那也是不该的。却是,任何模型的目的——人工智能或智力——都是要做到要求。

要求和行动几乎是关于我们期望这个世界是什么样子的。如果不是这样,我们显然就会做到任何事情。(3).大猩猩事件2015年7月,当我兼任Google社交工作(还包括照片)的技术负责人时,我接到了Google同事的一个应急信息:我们的照片索引系统公开发表把一个黑人和他的朋友的照片叙述沦为“大猩猩, “他有理由气愤。”我立刻对此,大声作出确保之后,给团队打电话,公开发表对此说道这是很很差的。

团队采取行动,停止使用了违规密切相关以及其他几个有潜在风险的密切相关,直到他们需要解决问题潜在的问题为止。许多人猜测,这个问题与六年前惠普的脸部摄像机无法在黑人身上工作的问题是一样的:“面孔”的训练数据几乎是由白人构成的。我们开始也这么猜测,但是我们迅速就回避了这个原因:训练数据还包括各种种族和肤色的人。

其确实原因是三个错综复杂的问题的空集。第一个问题是人脸识别很难。有所不同的人脸看上去对我们来说截然不同,那是因为我们的大脑中有相当大一部分只专心于辨识人脸; 我们早已花费了数百万年的时间来改良这个功能。

但是如果你留意较为两个有所不同面孔的差异,把这个差异和两把有所不同的椅子之间的差异比起,你不会找到面孔的相似性比你想象的要小得多——甚至是横跨物种之间。事实上,我们找到这个错误并不是孤立无援的:这个照片索引系统也更容易把白种人的脸误以为是狗和海豹。第二个问题是问题的确实核心:ML系统在其自己的领域十分聪慧,但除非教导它,否则对于更加普遍的世界一无所知。而当它企图考虑到所有的图片有可能被辨识的对象时——这个AI某种程度辨识人脸——没有人想起要向它说明黑人因为被种族歧视而长年被比作猿人。

这种背景使这个错误十分相当严重,而将小孩错误地确认为一只海豹则只是一件趣事罢了。这个问题没非常简单的答案。

在处置牵涉到人类的问题时,错误的代价一般来说与极为错综复杂的文化问题联系在一起。这并不是说道很难说明,而是很难提早想起它们。

这个问题某种程度反映在人工智能上,也展现出在人们要在有所不同文化中作出价值辨别。一个尤其的挑战来自于,当在网上找到侵扰和欺诈不道德的时候。这些问题完全几乎由人类来处置,而不是由人工智能来处置,因为即使是制订人类用来辨别这些事情的规则都是十分艰难的。我曾在Google花上了一年半的时间来制订这样的规则,指出这是我所面对的仅次于的智力挑战之一。

即使有团队明确提出规则,由人类而不是AI来继续执行它们,文化障碍也是一个极大的问题。印度的评论家不一定具备关于美国的种族歧视的文化背景,在美国的人也不一定有印度文化背景。但世界各地的文化数量是极大的:你怎样以任何人都可以解读的方式来传达这些点子?从中学到的教训是:系统中最危险性的风险一般来说不是来自系统内部的问题,而是来自系统与更加普遍的外部世界对话时意想不到的方式。

我们还没一个好方法来管理这些。(4)、意外的是,人工智能不会按你说道的做到人工智能的一个最重要用途是协助人们作出更佳的决策:不是必要继续执行某个操作者,而是告诉他人们引荐哪一个,从而协助他们作出一个好的自由选择。

特别是在当这些自由选择具备高风险时,这是最有价值的。但确实影响这个长年结果的因素,对于人们来说并不是很显著。事实上,如果没具体简单的信息,人类可能会只能地接纳无意识的种族主义,而不是确实的数据。这就是为什么许多法院开始用于自动化的“风险评估”作为他们量刑提示的一部分。

现代风险评估是ML模型,负责管理预测未来犯罪的可能性。如果你拿一个地区的法院历史的全部语料来训练模型,可以构成一个令人吃惊的明晰的展现出,告诉他你谁是潜在危险性分子。如果你到目前为止仍然在仔细阅读,你可能会找到一些方法来构建这个目标,这些方法可能会十分可怕,十分错误。

正如2016年ProPublica揭发的那样,然而这正是全国各地再次发生的事情。佛罗里达州布劳沃德县用于的系统COMPAS系统的设计者,遵循了最佳实践中原则。他们保证他们的训练数据没人为地指责某个群体,例如保证所有种族的人都有完全相同的训练数据。

他们将种族回避在模型的输出特征之外。只有一个问题:他们的模型并没预测出他们指出该预测的事情。量刑风险评估模式应当明确提出的问题是,“这个人将来犯有相当严重罪行的概率是多少,以此作为你现在给他们的刑罚的一个函数。

”这要同时考虑到这个人以及刑罚带来他未来生活的影响:否不会造成总有一天监禁他们?获释他们之后不会会没机会获得一个稳定的工作?但是我们没一道在每次犯罪的时候都会点燃的魔法之光,我们也当然没那种例子:一个人一次同时拒绝接受了两种有所不同的刑罚结果产生两种有所不同的后果。因此,COMPAS模型是通过对现实的、难以获得的数据的仿真来展开培训的:根据我们在有期徒刑时所获知的一个人的信息,这个人将被定罪的概率是多少? 或者用两个人来对比:“这两个人哪一个最有可能在将来被定罪?”如果你对美国政治有一点理解的话,你可以立刻问这个问题:“黑人!”黑人比白人更加有可能被在路上尾随,被被捕,定罪并给与比白人更长的刑期。

所以忽视其他意味著事实丧生情况下,一个查询历史数据的ML模型,如果预测一个黑人被告在未来更加有可能被定罪,融合历史来看认同是非常精确的预测。但是,这个模型被训练的方法和它的确实用途不相符合。它被训练问“谁更加有可能被定罪”,回答它的毕竟“谁更加有可能犯罪”,没有人注意到这是两个几乎有所不同的问题。

这里似乎有很多问题。其一是法院对待AI模型过于过倚赖,将其作为取决于裁决的必要因素,跳过人的辨别,比任何模型本可以获取的确保还要热情。另一个问题当然是这暴露出的基本的、系统性的种族主义:某种程度的罪行下黑人更加有可能被被捕并被定罪。但是这里有一个关于ML的特定问题值得注意:你想要测量的数量和你可以测量的数量之间常常有差异。

当两者不存在差异的时候,你的ML模型需要很好的预测你所测量的数量,而不是它只不过代表的数量。在坚信你的模型之前,你必须十分细心地解读这些相近和有所不同。(5).人是一个合理化的动物在机器学习的辩论中有一个新的热门话题:“解释权”。意思是,如果ML被用来做到任何最重要的要求,人们有权解读这些要求是如何作出的。

直觉上,这或许是显而易见且有价值的点子——然而,当ML专业人员提及这一点时,他们的脸色马上就逆了,他们想说明这个拒绝事实上是不有可能的。为什么不会这样?首先,我们应当明白为什么很难做这一点;第二,更加最重要的是,我们应当明白为什么我们希望它更容易做,为什么这个希望是错误的。第三,我们可以想到回应可以做到些什么。

早些时候,我将ML模型叙述为数百至数百万个旋钮。这个比喻对实际模型的复杂性来说并不公平。

例如,现代基于ML的语言翻译成系统一次不能输出一个字母。这意味著模型必需在读者了大量的字母之后,对其中的文本解读状态展开阐释,以及每个倒数的下一个字母如何影响其对意义的说明。

对于模型遇上的任何情况,它所做到的唯一“说明”是:“好吧,后面的几千个变量是这样的状态,然后我看见字母“c”,这应当转变了用户在谈论狗的概率...某种程度你无法解读这一点,ML研究人员也是无法解读的。ML系统的调试是该领域最好的问题之一,因为在任何时候检查变量的个体状态然后向你说明这个模型,就像测量一个人的神经创造力然后将不会告诉他你他们吃晚饭的时间差不多。

然而 ——这是第二部分——我们总是实在我们可以说明我们自己的要求,而且是人们希望的那种说明。“考虑到它们的FICO分数中位数,我把这个抵押贷款的利率原作为7.25%。”他们希望它说道:“如果Experian的FICO分数低了35分,那么这个分数就不会上升到7.15%。

” ,“我建议我们聘用这个人,因为他们在我们的试镜中明晰地说明了机器学习。”但是每个理解或不道德心理学的人都告诉一个黑暗的秘密:所有这些说明都是无稽之谈。我们否不会讨厌一个人,在聊天开始的最初几秒就早已要求了,而且可能会受到一些看起来随便的事情的影响,比如在问候之前握着热饮还是冷饮。

无意识的种族主义笼罩在我们的思想之中,而且也可以被测量出来,即使我们没意识到。理解偏差是当今心理学研究中仅次于的(也是最有意思的)分支之一。

事实证明,人们所擅长于的并不是说明他们是如何作出要求的,而是为自己的要求找到合理的说明。有时候,这几乎是无意识的,例如,我们在决策过程中不会引人注目一些事实(“我讨厌这辆汽车的颜色”),并将注意力集中于在这一点上,而忽视了对我们来说有可能更加最重要但是看不到的因素(“我的继父有一个敞篷车,我喜欢我继父”)。(“第一个候选人听得一起就像我毕业时那样,那个女人很好,但是她看上去过于与众不同,她不合适和我一起工作。

”)如果我们希望ML系统为他们的要求获取实际的说明,那么我们就不会遇上很多困难,就像我们拒绝人们说明他们自己的要求的实际基础一样:ML系统会比人类更容易说明。当我们拒绝说明的时候,我们感兴趣的经常是那些显而易见的事实(因为转变它们不会转变结果)和变量(因为对它们的转变有一点辩论)。例如,“你现在看见的是这个聘用通告; 但如果你住在靠西边十英里的地方,你就不会看见另一个”,这在某种情况下有可能很有意思,但是“如果你是一个鸸鹋,你不会看见的就是木莱塞的种子”,这就不有意思了。

分解这种说明的数学技术正在大力的发展中,但不存在一些不容忽视的挑战。例如,大多数这些技术是基于创建另一个“解释性”的ML模型,这个模型不过于精确,只限于于等价一些输出信息然后变量较小的情况,整体更容易解读,但和前面提及的主ML模型是基于几乎有所不同的原则。

(这是因为只有像决策树这样的几种ML模型可以被人们几乎解读,而在许多实际应用于中最简单的模型,如神经网络,则几乎无法被解读。)这意味著如果你企图给第二个说明模型输出“不,转变这个变量!”这种对系统,它有可能显然就办法把它转化成居多模型的输出。而且,如果你给人一个说明工具模型,他们也不会拒绝用完全相同的语言来转变它的权利——拒绝很合理但不不切实际。

人类的大脑有极为标准化的智能能处置各种概念,因而可以解决问题这个问题。你可以告诉他它,在牵涉到种族历史时应当对图像识别十分小心,因为同一个系统(大脑)可以解读这两个概念。但AI还相比之下无法做这一点。

(6)AI,归根到底,惜是一个工具人工智能无人机刺客——不明确提出这个大家都讨厌的例子就不了探究AI道德。这些飞机在高空飞行中,仅有由计算机控制,在确保平民生活的同时构建杀死敌方武装分子的任务......除非它们指出任务必须一些“附带伤害”,就像官方直白众说纷纭那样。人们对这样的设备深感惧怕,如果更好地听得一些于是以生活在永恒的死亡威胁之下的人们的故事,他们不会更为惧怕——从日出的天空中横空出世的刺客。人工智能是这个辩论的一部分,但它不如我们想象的那么最重要。

大型无人机与有人驾驶员飞机的不同之处在于,他们的飞行员可以靠近千里之外,靠近损害。自动驾驶仪AI的改良意味著,一个无人驾驶操作员可以迅速操作者好比一架飞机。最后,大型无人机可以在99%的时间内自行驾驶员,只有在必须做出根本性要求时才不会调用人。这将修筑更大的无人机空中力量成本更加较低的可能性——民主化从天上炸人的权力。

在这个故事的另一个版本中,人类有可能早已几乎被从“残暴链”也就是要求否升空武器的要求中回避。现在我们可能会问,谁来分担几乎由机器人要求的杀人的道德责任?这个问题既比我们想象的要非常简单,同时也要更加简单。

如果有人用石头打中另一个人的头,我们责备这个人,而不是石头。如果他们抛掷长矛,即使矛在某一段飞行中期间“正处于自己的力量之下”,我们也绝不会想责备长矛。即使他们建构了一个简单的丧生陷阱,印第安纳·琼斯式的意志不道德也是人类的。问题是现在“工具”自己要求的范围显得模糊不清。

非常简单的地方在于,在于这个问题并不是全新的。军事纪律的相当大要点是要创建一个战斗力量,在战斗中不要过分自律思维。在军队是欧洲体系后裔的国家,军士和士官的起到是继续执行计划;委托人员的职责是要求继续执行哪些计划。因此,从理论上谈,决策责任几乎是在官员肩上,根据军衔,指挥官等区分人员责任区的具体界定要求了谁最后对任何一个指令负责管理。

在实践中,这往往是非常模糊不清的,这些原则是我们早已理解了几千年的原则,而AI只不过并没减少新的内容。即使具备了再行大的决策能力和自主性,AI依然必须这个辩论——实质上在人类世界,我们有充足的自主权去探究这些问题,也不过是将近几十年的事情。或许这是人工智能伦理的最后一个最重要的经验:我们面对的关于人工智能的许多问题只不过是我们过去也面临的问题,现在通过技术上的一些变化而显露出来。在我们现有的世界中找寻类似于的问题往往是有价值的,需要协助我们解读如何处置看起来新的问题。

4 我们要下落何处?还有很多我们应当辩论的问题——其中很多对这个社会来说是十分严峻的。但是我期望上面的例子和说明给了你一些环境,让你解读事情什么时候是对的,什么时候不对头。

以及许多的AI道德风险源自何处。这些大多都不是新问题;忽略,是一个向计算机说明我们的表达意见的月过程——没文化背景、也没能力推断出我们的言外之意的终极案例——被迫我们以违反日常习惯的方式来传达。无论是拒绝我们在紧要关头来临之前好几年就作出生死攸关的要求,而不是推迟到事情确实再次发生的时刻现在的高潮,还是拒绝我们长年严苛的检视社会的实际情况,并态度独特的传达我们想保有哪些部分以及我们想转变哪些部分;AI把我们推离了“礼貌性捏造”的舒适度区,转入了一个我们必需十分具体地辩论事物的世界。

这些问题中的每一个,都早于在AI之前就不存在了; AI只是让我们以一种新的方式来谈论它们。这有可能并不更容易,但是对我们来说,真诚有可能是新技术可以给我们带给的最宝贵的礼物。


本文关键词:美狮会

本文来源:美狮会-www.sneaker-daily.com