会员登录|免费注册|忘记密码|管理入口 返回主站||保存桌面|手机浏览|联系方式|购物车
企业会员第2年

信用评级公司  
加关注0

新型建材 高新科技 环保家具 环境还原

搜索
新闻分类
联系方式
  • 联系人:宋先生
  • 电话:15350635555
站内搜索
 
荣誉资质
友情链接
首页 > 公司新闻 > 人工智能猛于虎,我们应该如何警惕?
公司新闻
人工智能猛于虎,我们应该如何警惕?
2017-09-15IP属地 火星66
 中华书局新近出版科技史名家江晓原的《中国古代技术文化》一书,备受书友好评。江老师还是一位科幻迷,从上周推送的科技史名家江晓原最喜欢的25部科幻电影就能看出。今天分享一篇他去写写下的文章,分享了他对人工智能的看法和担忧,欢迎大家留言讨论。

配图来自美剧《西部世界》,篇末附上的片头特别精彩,不要错过哦。很多关注公号的书友都以为我们只关心传统文化,其实不然,我们同样热衷于打开读者的眼界和思维,恰同阅读的功能之一。

江晓原|文

人工智能的话题,最近因谷歌公司一场成功的商业炒作——围棋人机大战——而再次大热起来,引发了新一轮关于人工智能的争议。各种不同看法纷纷表达,其中既有天真糊涂的想法,也有居心难测的说法。为了厘清思路,笔者认为我们有必要就下面五个问题进行认真思考——如果不赞成笔者的意见,也欢迎就这五个问题进行深入讨论:

一、“老虎还小”不构成养虎的理由

当人们表达对人工智能将来失控或危害人类的担忧时,经常见到人工智能业界人士,或是对科学技术盲目崇拜盲目乐观的科学主义人士,出来向公众说:人工智能目前还很初级很弱小,所以不必忧虑云云。这种说法常见于媒体,其实背后暗含着荒谬的逻辑。

我们担心老虎吃人,所以有“养虎遗患”的成语,怎么能用“老虎还小”作为养虎的理由呢?要说服人们同意养虎,必须论证“老虎不会吃人”。人们担忧的是人工智能未来对人类的危害,要打消这个担忧,就必须论证“人工智能不会危害人类”,而不能将“人工智能还很初级”作为理由。

先不忙取笑这条荒谬的理由,因为许多人工智能的业界大佬和知名人物,都曾向公众说过这条理由。当史蒂芬·霍金、比尔·盖茨和伊隆·马斯克这样的智者领衔呼吁世人警惕人工智能的盲目研发时,一位业界知名人物就拿这条理由来反驳,还说这三人是“愚蠢的”,不知道究竟是谁愚蠢。

如果我们无法论证“人工智能不会危害人类”,那就有必要重新考虑我们目前是否应该发展人工智能。

二、“人造的东西不可能超过人”是盲目信念

当然,人工智能通常都是智商比较高的人玩的,智力上的荣誉感,会使他们中的许多人羞于用“老虎还小”来说服人们同意养虎,他们知道应该论证“老虎不会吃人”——就是论证“人工智能不会危害人类”。而进行这样的论证时常用的理由之一,就是“人造的东西不可能超过人”。尽管这条理由其实也不能带来多少智力上的荣誉,因为很多非专业的公众也是这么想的。

但是有谁给出过关于“人造的东西不可能超过人”这一论断的令人信服的论证吗?

从来没有。

事实上,这一论断只是一个盲目的信念。这个信念实际上是在坚信:造物主一定比所造之物高明。这样的信念显然和宗教情怀有关。但是到了人工智能的争议中,那些理应最具无神论精神的科学主义者,却不假思索地从宗教信念中寻求思想资源。

而且,这个信念明显违背常识。

一个简单的常识是,父母可不可以视为孩子的造物主?如果可以(至少在相当程度上可以吧),那孩子超过父母的情形,难道我们没见过吗?

三、人工智能未必服从人类设定的道德标准

比起前面两条理由来,“人类可以设定人工智能的道德标准”这条理由看起来相对比较专业,至少不会给玩人工智能的高智商人士直接带来羞愧之感。这一条也是论证“人工智能不会危害人类”时常用的理由。

但是有谁给出过关于“人工智能必然会服从人类设定的道德标准”这一论断的令人信服的论证吗?

同样从来没有。

更不幸的是,这一条也明显违背常识。

一个明显的常识是:人类无法避免自己的一部分后代学坏。这样的例子我们日常生活中天天都在上演:父母从孩子记事起就向他灌输诚信、仁爱、友好、慷慨、勇敢等等等等的美德,这些难道不等于对人工智能的“记忆植入”和道德设定吗?可是仍然有孩子无可救药地学坏了。在这些孩子学坏的过程中,父母为他们设定的道德标准、学校对他进行的规训矫正,都无法制止他们。

学坏的孩子们当然已经严重危害过一部分人类,比如这些坏人的刑事犯罪。但为何他们尚未统治全人类或危害人类整体呢?那是因为他们毕竟只是凡人,他们的能力毕竟有限。然而人工智能追求的是什么境界?不弄出“超人”来,科学家肯罢手吗?

四、人工智能与互联网结合的可怕前景

有的专业人士将人工智能分为四个级别:

1、没有学习能力(智能程度也可以相当高)。2、具有固定的学习能力,而且习得的技能会趋于一个定值。3、具有固定的学习能力,技能增长没有极限,但因为它的学习能力是事先设定的,所以被认为不会成长为超级人工智能。4、具有无限的学习能力,可以成长为超级人工智能。

专业人士安慰我们说,此次与李世石对战的AlphaGo只是第2级的人工智能,而第4级的人工智能还远远没有问世。其实这里除了前面已经讨论过的“老虎还小”之谬,还有更大的危险存在。

专业人士在试图打消公众对人工智能的忧虑时,经常提到一个说法:我们可以“拔掉电源”。这个说法,当对人工智能的想象停留在个体机器人阶段时,也许是成立的。更一般的说法可以是:只要人工智能还依赖有形的伺服机构才能实施行动,那我们也许还可以“拔掉电源”。但如今的现实情形是:人工智能一旦与互联网结合,借用如今高度发达的定制、物流、快递等社会服务,它几乎已经可以完全摆脱对所有伺服机构的依赖。这一点不仅在大量幻想作品中已经反复上演,而且在现实生活中也已经可以顺利实施。当人工智能只是一个网上幽灵时,没有机体,没有形态,还谈得到什么“拔掉电源”呢?

以前阿西莫夫——提出“机器人三定律”的人——曾论证过个体机器人智能的物理极限,那有一定道理,但他那个时代没有互联网。如今我们必须特别关注人工智能和互联网的结合,即使就个体机器人而言,这种结合也将快速突破智能的物理极限;就无形的人工智能而言则有更大的危险性,一旦和互联网结合,上述1、2、3、4级人工智能之间的界限还能不能存在?如果居心叵测的人工智能研发者,有意突破这些界限,社会如何监控?人工智能进化成超级人工智能可能只需弹指一挥间,到时人类将措手不及,完全无法掌控。

五、我们究竟为什么需要人工智能

这是一个带有终极性质的问题。我们必须想清楚:我们究竟为什么需要人工智能?

工厂生产线需要更多工人吗?社会服务需要更多人手吗?需要人工智能为我们开车吗?需要人工智能为我们做手术吗?……这些都是在想象人工智能应用前景时经常被提到的,但是都没有仔细推敲过——对于这些工作而言,人工智能真的是必不可少的吗?

科学技术和资本结合之后的特征之一,就是为资本增值服务。但是科学家们很少会坦白说出来,他们总是对公众说,他们是为了“发展科学”。仿佛“发展科学”就是终极目的,为了“发展科学”,一切别的事情,哪怕是人类的安危,都不必考虑了。

当然,还有另外的需求,比如利用人工智能打赢战争。这就和利用核武器打赢战争一样了。马克斯认为人工智能会“唤出恶魔”,比核武器对人类的威胁还大;霍金则明确断言:“彻底开发人工智能可能导致人类灭亡。”他们的话值得深思。田松教授有名言曰:“警惕科学!警惕科学家!”在人工智能问题上,真该三复斯言。

今天我们即使不得不研发人工智能,也应该抱着和美国当年搞“曼哈顿工程”或我们当年搞“两弹一星”类似的心态来进行。更理想的局面,则是各大国坐下来谈判,签署一个禁止或至少限制研发人工智能的国际协议,这才是人类之福。

原载于2016年3月15日《上海观察》

本文由 新型建材网https://www.xxjcwmall.com

企业评级https://www.xxjcwmall.com/ 提供