百道网
 您现在的位置:Fun书 > AI会取代我们吗?
AI会取代我们吗?


AI会取代我们吗?

作  者:[英] 雪莉·范

译  者:阿芦

出 版 社:中信出版集团

丛 书:The Big Idea 21世纪读本

出版时间:2020年10月

定  价:68.00

I S B N :9787521721218

所属分类: 大众新知(科普)  >  科普读物  >  百科知识    

标  签:

[查看微博评论]

分享到:

TOP内容简介

AI会取代我们吗?

清晨,智能手环将你叫醒;上班路上,导航地图为你规划最佳路线;工作中,搜索引擎为你推荐最佳结果,输入法为你纠正拼写错误;晚上在家,视频网站根据你的喜好推送节目,购物应用会猜测你的需求展示商品。过去的六十年里,人工智能飞速发展,如今已深入我们的日常生活。曾经只在科幻电影中出现的无人驾驶汽车、脑机接口、类人机器人等人工智能科技,如今看来也不再遥远。

人工智能还有什么做不到的吗?

人工智能会侵犯我们的隐私吗?

人工智能会让我们失业吗?

人工智能会促进ping平等还是加剧不公?

 

TOP作者简介

雪莉?范,加州大学旧金山分校神经科学家。研究方向为大脑老化和复壮可能性。她同时是一名科普作家,主要关注生物科技、人工智能和神经科学相关的话题,曾在《科学美国人Mind》《探索》《饮食障碍的科学》和《英属哥伦比亚大学医学期刊》等刊物发表大量科普文章。她还是在线刊物《奇点》的特约编辑,该刊物旨在记录科技的进步。

TOP目录

导言

1. 人工智能的发展

2. 人工智能如今的能力

3. 人工智能如今的局限和问题

4. 人工智能的未来

结语

延伸阅读

索引

 

TOP书摘

一个总是做出荒唐决定的算法并不必然是危险的,因为人们很容易察觉并处理掉它的错误。还有一个更为隐蔽的后果,需要我们万分警惕:人工智能算法可能会根据种族、性别或意识形态隐约但系统性地对某些人群给予区别对待。

 

谷歌的第一代自动相片标签系统曾将非裔人误认为大猩猩,激起了人们的愤怒,就是一个广为人知的负面案例。普洛帕布利卡(ProPublica)在2016年对一款用于预测罪犯重新犯罪概率的风险评估软件——孔帕斯(COMPAS)进行了调查,结果显示,虽然该软件并没有专门针对种族做出明确设计,但是它依然对黑人抱有偏见。

2017年的一项研究表明,算法在单词联想中也会表现出偏见:男性更可能与工作、数学和科学联想到一起,而女性则会同家庭和艺术联想在一起。这些偏见会对就业招聘产生直接影响。例如,如果一款人工智能程序认为“男性”与“程序员”两个词有固有的联系,那么,当它在为一个计算机编程职位检索简历的时候,就很可能会将有着一个听起来像男性的名字的简历排到面试表的顶部。偏见也同样为翻译软件带来了麻烦。例如,在谷歌翻译将其他语言中的一个中性代词翻译为英语的时候,如果这个代词在语境中指的是一位医生,他就会将这个词翻译为男性的“他”(he),而如果这个代词在语境指的是护士,它就会将其翻译为女性的“她”(she)。另外,语音识别软件在处理女性声音和方言时效果要差得多,这就使得那些使用非标准发音方式的社会重要成员受到了排斥。

另外一些算法可能已经以一种不易察觉的方式扭曲了人们接受医疗或保险的类型,改变了他们在刑事司法系统中的待遇,或者对哪些家庭更有可能虐待儿童做出了不恰当的预测。偏见和不公正侵蚀了人类与人工智能系统之间的信任;它并不能像人们一开始预测的那样成为一个对社会贡献巨大的均衡器——在从一个中立的角度做出影响生活的决定这件事上,人工智能可能并不比人类做得更好。如果真是如此,那么社会为什么要接受机器,让它们作为银行从业者、招聘人员、警察或法官“更公正”的替代品呢? 

一般情况下,偏见产生的原因并不是那些武装在学习型算法上的冰冷、严格的统计方法。人工智能学习者通常只是掌握了训练数据中自带的偏见而已,而这些数据的源头是社会本身。换言之,算法反映的是它们的创作者的偏见,在问题严重时,它们甚至会加深或验证我们已经拥有的偏见。“过滤气泡”就是一个例子:脸书开发的新闻算法总是对那些病毒式投稿偏爱有加,以至于将事实真相都抛诸脑后,这严重影响了公众对社交互动和重大新闻事件的看法。该公司的人工智能使社会关系紧张、加深了政治上的两极分化,引发了极大的愤慨,这使得马克?扎克伯格不得不做出承诺,将从根本上改变算法,以促进“更深入、更有意义的交流”。

通过使用人工智能算法来定位易受宣传影响的选民团体,剑桥分析公司介入到了2016年美国总统大选和英国脱欧运动中,这可能已经改变了民主和历史的发展轨迹。此外,随着关于用户偏好和兴趣特征的数据被大量记录下来并得到分析,新闻和媒体创作者就可以将内容精准投放给被细致区分出来的各社会群体——这种区分甚至能细到个人层面。这就给推荐系统以及控制它们的政党打开了一扇方便之门,让他们能够操纵特定网络人群的想法和感受。

减少人工智能中的偏见和不公将是一场旷日持久的战斗,随着深度学习应用在我们社会中的进一步渗透,这场战斗必将变得更加激烈。

目前,我们尚没有找到消除偏见的捷径。有人主张,让人工智能算法参数完全透明是解决问题的关键;但是另外一些人却认为,这种透明反而会为给政党利用系统牟取利益提供方便。IBM正在试验一些在决策过程中会引入人类的价值观的人工智能系统,研究人员希望能帮助这些系统找到并理解自身同人类在决策过程中的不一致性。他们的想法是要建立一个拥有道德感的人工智能系统,但是,由于人类价值观各异,“道德”难以界定,这种进路有其内在的困难。对于这个挑战,一个流行的想法是把界定道德这件事“外包”给普罗大众,用普通人做出的决定来教人工智能系统如何行动。有人则主张对数据进行培训,他们认为拥有各种专长、社会经济背景雄厚的团队可以更好地帮 助我们在来源中消除偏见。

2017年底,一个名为“IEEE关于人工智能和自治系统伦理考虑的全球倡议”的组织创建了一个“古典伦理”委员会,目的是要对像佛教和儒家这样的非西方价值体系进行整理,让对于“应该用怎样的价值观来构建一个有伦理感的人工智能”这一问题的回答更加多元化。或许连人工智能开发人员都会感到惊讶的是,人工智能系统正在为人性提供一面镜子,它反映出我们最好的和最糟糕的一些倾向。

 

TOP 其它信息

开  本:16开

加载页面用时:41.985