全部版块 我的主页
论坛 提问 悬赏 求职 新闻 读书 功能一区 真实世界经济学(含财经时事)
2008-1-24 17:54:00

我是雨果··加里斯教授,一个设计和制造人工大脑研究机构的负责人。研究这个领域是我的专长。但我不仅是一个研究者和科学家,也是一个有着政治和伦理意识的社会评论家。我十分担心我的研究结果会在21世纪下半叶给地球上的人类带来我所恐惧的后果。

你可能会问:既然你对现在进行的工作可能会给人类带来的负面影响感到如此焦虑,为什么不干脆停下来去做点别的呢? 事实上,我认为我正建造着一个在未来几十年内,将会成为神一样无所不能的东西(虽然在我有生之年可能看不到它的完成)。制造神一般的生物的期望,带给我一种宗教般敬畏的感觉,这感觉进入我的灵魂深处,强烈地激发我继续这项工作,尽管那些可怕的负面效应可能会接踵而来。

对此,我感觉似乎要精神分裂。一方面,我的确非常想制造这些人工大脑,并尽可能将它们制造得极其聪明。我把这当作人类追求的一个伟大目标,我将会在后面的章节里,对这个问题进行深入的讨论。另一方面,我又对人工大脑制造成功将产生的影响感到不寒而栗。因为这个成功同时也意味着人工大脑最终会比我们生物大脑智慧很多倍。这一点,我也同样会在本书后面的章节里进行深入的讨论。

具体说,作为一个职业的人工大脑制造研究者和曾经的理论物理学家,我认为,对于21世纪科技所产生的高智机器的潜在能力,我比大多数人看得更清楚。所谓高智,是指比人类大脑智慧不止2倍或者10倍,而是万亿个万亿倍的人工大脑,也就是真正神一样的东西。如此巨大的数字对你来说,可能更像是科幻小说而不是任何可能的未来科学。在本书的第3章我将解释一些21世纪科技的一些基本原理,我相信这些科技将允许人类(如果人类选择这样做的话)来制造神一样的机器。我会让你相信,这不是科幻小说,因为它有着充分的理由迫使你相信这些令人毛骨悚然的巨大数字。我将尽可能地用一种简单清晰的方式来陈述,以便人们不需要成为一个火箭科学家(rocket scientist)(美国人的说法,意思是一个非常聪明的人)就能够理解它们。这些基本概念可以被任何人所理解,只要他们愿意对这个研究花上一点精力。

3章将介绍一些难以置信的科技,它们使制造神一样无所不能的高度智能机器成为可能。你将接触到许多伦理、哲学和政治问题。 因为人类制造这些高智能机器的前景会引发一些非常重要的问题。本书将从各个角度讨论这些问题,我不会装作知晓所有的答案,但我会尽我所能。

在现代历史上,摩尔定律一直是一个伟大的科技经济趋势,它描述并解释集成电路或者芯片的运算能力(例如,电子元件密度、电子信号处理速度,等等)每年都成两倍增加。这个趋势自从英特尔微处理器制造公司创始人之一戈登·摩尔1965年提出以后,经验证一直是正确的。如果你把一个数一直乘以2很多次,你会得出一个非常巨大的数字。举个例子,2乘以2乘以2乘以2……(10)等于1 024。如果你这样乘20次会得到1 048 576也就是大概100万。如果你这样乘30次,你会得到10亿,乘40次会得到万亿,等等。摩尔定律在过去的40年一直是有效的,以至于倍数增加得到的数字非常巨大。我称之为巨大的摩尔倍增

摩尔定律是芯片上电路尺寸不断缩小的结果,以至于电子(一种基本粒子,它在电路中的流动形成电流)在电子元件(例如两个晶体管)间传递的距离被缩短了。根据爱因斯坦的理论,物体可以移动的最快速度是光速(大概300 000千米/),并且这也是电流必须遵守的自然常量。如果两个电子元件间的距离被缩短了,它们之间电子信号的传递距离也将缩短,因此,通过这个距离所需要的时间就会更少(以恒定的光速)

芯片制作公司在过去几十年里投入了巨大的精力来使电路变得更小,使之分布得更加密集,以便让它们运行得更快。微处理芯片运行越快,就会越经济。如果你是加州“硅谷”中一家制造芯片公司的CEO,而你的竞争对手比你早6个月在市场上推出一款比你(的产品)30%的芯片,那么你的公司可能会破产,而竞争对手的市场份额会大幅增长,因为每个人都想拥有一台更快的计算机。因此,在过去的几十年,电子线路变得更小更快。

二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

3211 15
2008-01-24
电子版《智能简史》, 希望有话语权的经济学家能看到此贴!


我会陆续上传电子版《智能简史-谁会替代人类成为主导物种》

当国内媒体采访此书的作者 雨果·德·加里斯教授
问全世界有多少个国家在研制智能大脑

雨果·德·加里斯教授说
美国,日本,英国,然后指着自己说:中国

一个如此热爱中国的外国科学家
应该值得中国人尊敬

一个如此热爱自己的科学研究拿着巨额的研究经费
却醒示人类他的研究会给人类带来灾难

让人类有一个尽早反对的机会
让普通人有选择权和知情权

应该值得全世界人尊敬

谁会替代人类成为主导物种
应不应该研究比人聪明万亿倍的智慧机器人

希望有话语权的经济学家能看到此贴

一方面,让中国的科技研究不要落后于其他的发达国家,从事智能机器大脑的研究,这种高科技成果会给中国无论从军事,或经济都有极大的推动力量!

二方面,留住热爱中国的外国科学家,雨果·德·加里斯教授是中国的白求恩

三方面,开始关于人工智能未来的讨论

1.要求全球的科学家向加里斯博士学习,在研究开始之初,就要考虑对人类是否有可能有害,如果存在这种可能,就请给人类知情权和选择权
2.所有有可能(哪怕现在只看出一点点可能)造成危害的科技研究都进行监控。例如
(1)  应该先计划好研究的顺序,第一,先研究如何掌控危害,第二,才可以开始研究。
第一步做到了再开始第二步,顺序不能反了。
(2)  早期介入,早期监控。不能在看不到真东西之前不管,看到后才着急。就像克隆,原子弹。
(3)    ……
二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

全部回复
2008-1-25 09:17:00

摩尔定律还能够保持多长时间的有效性呢?如果一直有效到2020年,海量内存芯片上电路尺寸可能允许在一个原子上面存储一个比特(一个比特是一个二进制数字,一个“0或者一个“1”,是计算机进行运算所代表的数字和符号)的信息。那么,一个这样等量级的物体,比如说苹果,包含多少个原子(即苹果这么大的存储器可以存储多少比特)呢?答案是令人吃惊的万亿万亿个原子(比特),就是说,1后面跟24 个零。

你现在是不是慢慢开始了解,为什么我如此相信21世纪晚期高度智能机器会比人聪明万亿个万亿倍。

21世纪科技不仅将会在一个原子上存储一个比特的信息,今后还会采用一种新的名为量子计算的计算方式。这种新的计算方式和人类20世纪所通用的传统计算完全不同。第3章将试着大致介绍一下量子计算原理,因为在不远的将来,它极有可能成为计算机的基础。

在这里先跟大家简单介绍量子计算的一些基本特征。如果用一串N比特(在计算机科学里称作一个寄存器,例如,001011101111010)进行某种计算操作(先不管目前进行何种的操作),用传统计算会需要一定量的时间。然而在同样的时间里,采用量子计算技术,可以进行2N这样的运算。当N变得很大时,2N变得令人惊讶的巨大。因此,量子计算的潜能是极大优越于传统计算的。既然摩尔定律很可能带我们进入原子等级,在这个范围里,量子力学这个物理规则将会被应用,人类将必须用量子理论进行量子计算。因此,在过去一些年里,理论研究和试验上人们都投入了巨大的努力,以理解和制造量子计算机

在量子计算机推向大众之前,量子计算仍然有很多概念和运用上的困难有待解决。但是面对这些困难,每个月都有进步,所以我相信,拥有实用的量子计算机只是时间上的问题。

如果把每原子存储1比特的记忆存储能力和量子计算方式结合起来,其组合能力是“爆炸性”的。21世纪计算机可能拥有的潜在计算能力会比现在计算机的能力高万亿万亿个万亿倍。

说到这里,希望我所讲的你们都能理解。

论述到现在,你们的理解可能比我所讲的更超前,并且会反对我,因为我似乎在暗示,大规模存储能力和惊人的运算能力就足以产生高智能机器,其他的什么都不需要。我也因为这一点而被我的某些同事指责,所以请先让我陈述一下对于这个问题的一些观点。

有些人(例如,因黑洞理论闻名的罗杰·彭罗斯爵士以及他的主要竞争对手英国宇宙学家斯蒂芬·霍金)认为要产生智能机器需要的远不止是大规模的计算能力。彭罗斯声称意识也是必要的,并且认为需要新的物理知识来理解自然中意识如何产生,并借此来创造机器人工意识。

我并不介意这些反对的声音,又或许这样的批评是对的。但即使这样,他们的反对也无法改变我的基本论题,因为这也许只是延迟几十年,直到意识的本质被更好地理解。我认为,要理解自然是怎样创造我们的,只是一个时间问题。也就是说,我预计科学会逐渐理解胚胎发育的过程,这是从一个受精卵细胞到包含万亿个细胞的胚胎然后形成一个婴儿的过程。

我们自己,既有智慧又有意识,就是一个存在的证据,即证明自然界可以以一种适合的方式排列大分子来制造我们。当一个孕妇进食后,她所摄取食物里面的一些大分子会被重新组合,然后自己去组合包含万亿万亿个原子的大分子结构,就是她的婴儿。婴儿就是由于大分子的自我排列组合而形成的一个有效的三维的并且有意识和智慧的生物。

自然界通过进化已经找到了一种解决这一问题的方法,所以这个问题是可以解决的。如果科学家想制造有智慧有意识的机器,一个显而易见的办法就是通过尽可能地复制自然界创造意识的途径来实现。或迟或早,科学会产生一种和人类一样运作的人工生命形式。

同样,如果科学对于生物大脑的工作原理有更深入的了解,那么制造人工大脑将变得更加容易。尽管过去一个世纪甚至在更长时间里,神经科学家们投入了大量的精力来试图理解人类大脑工作的基本原理。但不幸的是,当代神经科学对于人类大脑工作原理的了解仍然十分有限。迄今为止,在神经元微电路层次上,对于神经电路怎样高度联系以实现大脑工作方面的了解还是很少。科学家们依然缺少用于仔细研究大脑结构的工具。

然而,随着科技进步人们可以制造越来越小的设备——从微米级达到纳米级。比如说,当设备从百万分之一米(细菌的大小)变得只有十亿分之一米(分子的大小)的时候,制造分子级机器人来探索大脑如何工作将成为可能。

关于生物大脑工作原理的科学知识到现在之所以还非常有限,正是由于我们现在使用的工具非常有限。但是,随着分子级工具(称作纳米科技)的出现,神经学家将会有一套强有力的崭新工具用来探索生物大脑,该领域的研究也会取得很快的进展。

像我这样的人工大脑制作者将会利用这些新创建的神经科学原理,迅速地把它们应用到人工大脑结构上。

可能不久人们便会破解很多生物大脑的工作原理,从而将会产生一种能够在神经元电路基础上解释的—— 如为什么爱因斯坦的大脑会比绝大多数人聪明很多的智能理论。这样的智能理论一旦存在,对于像我这样的神经工程师来说,就可以用一种更工程化的方法来制造大脑。我们将不必去做神经科学的奴隶。我们可以使用一种替代方式来制造人工智能机器(虽然一开始是基于神经科学原理的)

当拥有了纳米科技工具提供的崭新的神经科学知识,量子计算以及一个原子存储一个比特所允许的惊人的计算能力,像我这样的人工大脑制造者才可能具备制造真正有意识的人工智能机器所需的所有要素。

现在有很多问题被提出,我将在本书大部分章节里试着解答它们。让我们把目光投向未来,想象一下上述的科技将怎样影响我们普通人的生活。

二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

2008-1-25 16:44:00

很快,购买人工大脑控制机器人来做家务将变为现实。如果这些机器人的价格变得可以承受,那么对于它们的需求将变得非常巨大。我相信,不久,世界经济将依靠这些基于人工大脑的计算机。这样的设备将变得非常有用和流行,以至于地球上的每一个人都想拥有。随着科技和经济的进步,这种设备在全球市场将会快速增长以至于地球上的大多数政治家都会支持它。不仅商务公司会热衷于制造更聪明更有用的机器人和基于人工大脑的各种设备,就连各国军事领域也将广泛采用这种技术。

在未来几十年,地球将真正形成一个全球性国家,但有全球性的警察维护全球性的法律这种可能性是很小的。相反,我认为在下半个世纪为成为世界上最强大国家而产生的政治对立将白热化。这样就会使处于敌对状态的国家不允许对方研发出更聪明的机器士兵和其他基于人工大脑的国防系统。因此,国家政府将会加强为军方服务的人工大脑研究的发展,这将不限于商务应用,就像一个世纪以来其他技术的发展模式一样。

所以,人工大脑的机器人和相应领域的崛起,看起来是不可阻挡的。要阻挡商业及军方的推动力是很难想象的,除非某种大规模的政治运动才可以阻止它。

如何才能引发这样的运动?

试想几十年以后,几百万人都买了家务机器人、性机器人、教学机器人、育儿机器人、伴侣机器人、友谊机器人,等等,并且这些人工大脑控制机器人可以很好地理解人类语言并与人类交谈。一些年之后会发生什么呢?毫无疑问,早年那些型号的机器人会因为是老式的而变得没有吸引力。新型号机器人因为有更高质量的语言能力而被认为是更智能的。它们会更好地理解并与人类沟通。它们的行动指令会更丰富。一句话,它们会很快替代早期型号的机器人。

二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

2008-1-28 10:48:00

电子版《智能简史》, 希望有话语权的经济学家能看到此贴!

那么大家会怎样呢?当然,他们会丢弃老式机器人去买新型的,或者把他们的老式机器人进行人工神经元电路升级。之后,这样的过程将反复出现,就像20世纪80年代至90年代人们购买个人电脑那样。

然而,有些爱思考的购买者会发现一代一代的家用机器和机器人变得越来越聪明,并且机器人和人类智商的差异越来越小。当机器人真的变得非常聪明后,几百万的机器人拥有者会开始问自己一些有趣的问题。诸如:

“这些人工大脑机器人会变得多聪明呢?”

它们会变得和人类一样聪明吗?

“如果可能,那是一件好事吗?”

这些机器人会变得足够聪明而成为人类的威胁吗?

这些机器人会比人类聪明吗?

如果能够,会聪明多少呢?

“人类应不应该允许这些机器人比人类聪明呢?”

当它们变得比人类聪明时,它们会认为人类是地球上的瘟疫或癌症而把人类灭绝吗?”

“人类应该为这些可能发生的事情冒险吗?”

机器人人工智商需要设置一个限制吗,使机器人足够聪明从而有利于人类但不至于成为人类的威胁?

政治上、军事上、经济上有阻碍机器人逐年变得更聪明的可能性吗?

有很多人认为,制造超智能机器是人类的使命。这些人不喜欢对人工智商设置任何限制。这会在人类间产生冲突吗?

 

随着人工智能机器的出现以及制造更强能力的人工大脑,会出现更多诸如此类的问题。

我又是怎样看待人类应对人工智能机器的出现所面临的挑战呢?我将会陈述我认为最有可能发生的状况。在这之前,先给大家介绍一个本书中经常用到的新术语,它是表达神一样超级智能机器的缩写。这个新术语是artilect(人工智能机器),它是artificial intellect的缩写,是本书中最重要的概念和术语。

我相信,人工智能机器在21世纪将成为主导问题——具体指人类是否应该制造比人类智能高出万亿个万亿倍的人工智能机器,也就是说,拥有神一样智慧的机器。我预言人类将分裂成两大主要政治集团,并且会随着人工智能机器逐渐变为现实而使得他们之间的斗争更加激烈。

支持制造人工智能机器的集团我称之为宇宙主义者(Cosmist)是基于cosmos(宇宙)一词。对于宇宙主义者,制造人工智能机器就像宗教中人类的使命;是真正伟大和值得崇拜的;是值得人们用尽一生的精力来实现的。对于宇宙主义者,不去制造人工智能机器,不去创造更高的进化形式,而停留在人类这样微不足道的形式上,宇宙大悲剧宇宙主义者会强烈反对任何试图阻碍21世纪人工智能机器产生的行为。

强烈反对制造人工智能机器的集团,我称之为地球主义者(Terran)是基于terra(地球)一词反映了他们内在的非宇宙主义的看法。我坚信,地球主义者会争论说,允许制造人工智能机器(以非常高级的形式)意味着接受一个冒险—— 那就是某一天,人工智能机器会认为,无论从什么样的角度来说,人类都是一种瘟疫或有害物。而人工智能机器的智能已远远超过人类,那么对人工智能机器来说,如果它们决定把人类灭绝将是很容易的。

但是你可能会辩论说,如果人工智能机器真的非常聪明,那么它们会认为人类赋予了它们生命,人类就是它们的父母。因此,人工智能机器会尊重我们,并且对我们很友好。这样的情况可能会发生,但问题是,你无法保证人工智能机器们会像我们期望的那样对待我们。

不要忘记,人工智能机器可能比我们聪明万亿个万亿倍,由于它们是如此的聪明以至于人类对于它们来说是低等甚至是不值一提的,以至于人类存在与否对于它们来说没有任何不同。

毫不夸张地说,人工智能机器们试图和人类交流,就像人类想要和石头说话。

换一个比方,考虑一下你对一只停在小臂皮肤上的蚊子的感受。当你打死它的时候,你会停下来想,你刚杀死的小生命是纳米科技工程的杰作,是20世纪科学家根本没有办法制造的吗?蚊子拥有几十亿个细胞,每一个细胞都可以看作一种大分子城市,细胞里的每一个分子就像城市里的人一样。大分子相对于细胞的大小就像人相对于城市一样。

尽管蚊子是经过几十亿年进化的极其复杂和不可思议的生物,我们人类根本就不会考虑这些而轻易杀死它们,因为我们从来都只是把它们看成是一种有害生物。当我们漫步在森林里踩死一只蚂蚁,或者把蜘蛛冲到下水道里的时候,我们都会有同样的态度。

谁又会说那些人工智能机器们不会对我们有同样的看法而消灭我们呢?拥有超级的人造智慧,做这些事情对它们来说是小菜一碟。

对于地球主义者,这场辩论中最重要的词汇是风险。地球主义者争论说,人类从来就不该冒任何风险,比如像制造高级形式的人工智能机器可能会导致人类灭亡这样的风险。唯一让风险降为零的保险办法,就是永远不要制造人工智能机器。

关键时候,如果地球主义者发现宇宙主义者真的要制造高级人工智能机器时,地球主义者可能会为了保证人类的生存而去消灭宇宙主义者。他们会认为,为了保护整个人类,而杀死几百万宇宙主义者是可以接受的。

地球主义者们有理由认为这样的牺牲是合理的。举一个历史上类似的例子—— 在二次世界大战的末期,斯大林的军队为了占领柏林和摧毁杀害了2 000万俄国人的希特勒纳粹政权,为了夺取纳粹占领的每一个欧洲城市,付出100 000俄国士兵伤亡的代价。对于斯大林来说,这样的牺牲是合理的,因为可以得到非常大的好处,那就是让俄国人从纳粹大屠杀的恐惧中解救出来。

你可能会问:真的会有人头脑清醒地选择做一个真正的宇宙主义者,冒着整个人类可能被灭绝的风险吗?

相信在未来,几百万人将会对这个问题给以肯定答案。我觉得,当更多的人意识到人工智能机器的发展前景,他们最终会支持人工智能机器的制造。本书将会用一个章节,以宇宙主义者的视角来论述为什么要支持制造人工智能机器。

二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

2008-1-28 10:49:00

这些人,即宇宙主义者,将会给这些生命(一个人工智能机器等价于一万亿万亿个人类)的制造以更高的优先级别,因为它们是神一样的、永恒的、无所不能的,反而不会去理会人类可能被人工智能机器灭绝的风险。

让我重新解释一下,以便没有人再对宇宙主义者的理念有疑问。宇宙主义者,定义为支持制造人工智能机器的人。人工智能机器如果被制造出来,它们迟早会发现人类是如此的低等,像一个有害物,从而决定来灭绝我们,不论以什么样的理由。因此,宇宙主义者已经准备接受人类被灭绝的风险。如果人类被灭绝,那意味着你我的后代也被消灭。那将是人类历史上最大的灾难,因为再也没有历史了,再也没有人类了。人类也将成为地球上曾经存在但已灭绝的那99%的物种之一。

因此,对于地球主义者而言,宇宙主义者是魔鬼附身,比希特勒、日本帝国主义或者其他任何杀害亿万人类的政权都坏得多,因为受害的范围将大得多。现在我们谈论的不是几百万人的屠杀,而是整个人类,即几十亿人的灭绝。

但是对于宇宙主义者来说,在这个无关紧要的小行星上谈论人类生存与否是微不足道的。因为这个行星围绕的恒星也只是我们这个星系上约2 000亿个恒星中微不足道的一颗,已知宇宙中同样的星系也有这么多(也是以10亿计算的),并且在这个多元宇宙中可能还有很多其他宇宙(根据一些最近的宇宙理论)。我称他们为宇宙主义者也正是基于他们的看法是宇宙范围的。他们更注重大局”,意思就是说,在一个无关紧要的小行星上,灭绝超原始的、非人工智能的物种(也就是人类),对于人工智能机器的“上帝”来说是不重要的。

本书将会用两章来陈述地球主义者和宇宙主义者各自的观点。他们双方的论证都很有说服力,意味着他们之间不可避免的冲突将会随着未来几十年人工智能辩论的白热化而更加敌对。

我对未来潜在冲突的激烈程度感到担心,对这两种观点(地球主义者/宇宙主义者)支持的人数将不相上下。举个例子,当我对关于宇宙主义者/地球主义者/人工智能机器的情景进行讲座的时候,我经常请听众对他们自己是地球主义者或者宇宙主义者进行投票。我发现投票的结果不是我以前所预计的(10%是宇宙主义者,90%是地球主义者),而竟然是505060404060。人们对这个问题的看法分成了对立的两派。

让我更沮丧的是,人工智能问题在21世纪将会非常热门。基本上可以肯定地说,在这个问题上的观点分歧会在21世纪后半段在地球主义者和宇宙主义者之间引发一场大战。如果你把从19世纪初期(拿破仑战争)21世纪末期的历次重大战争的死亡数字列举在图表上的话,你会发现,这场战争带来的死亡数字可能是令人沮丧的几十亿,就是我所说的大规模死亡

地球上的人口数量只是几十亿而已,因此,我们得到了一个悲剧性的结论,那就是为了避免人类被人工智能机器种族灭绝,人类不得不进行内部的战争,并且(或基本上)杀完自己。

二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

点击查看更多内容…
相关推荐
栏目导航
热门文章
推荐文章

说点什么

分享

扫码加好友,拉您进群
各岗位、行业、专业交流群