直到2044年,人类世界所谓的人工智能,都是以2006年多伦多大学杰夫辛顿教授奠基的“深度学习”算法思想演化出来的。
这是严肃、真实的世界。
不是傻哔网络小说卖弄的无厘头黑科技。
而只要是基于深度学习这条技术路线发展出来的人工智能,在根子上都有一个无法回避的弱点,那就是只能解决单一目标问题——注意,这里说的是单一目标,而不是单一任务。
让机器人处理多个任务,这是可以的。
但要在执行一个任务时,设定多个目标,或者说多个价值观,那是绝对不可能的。
只要人工智能还是在深度学习的基石上往下发展,而没有彻底从根子上另起炉灶,找到一条全新的技术路线,那么这个问题就是无解。
比如2016年的阿尔法狗,当年轰动一时,连屁人工智能都不懂的小白,也能扯几句,觉得似乎人工智能统治人类就在眼前了。
但是,稍微有点常识的人都知道,阿尔法狗最大的弱点在于,人类只能给它下一个终极目标:那就是把围棋下赢。
围绕这个终极目标,阿尔法狗可以学习百万千万上亿盘棋,而且学习速度快到它一夜之间的进步量,就能超过人类棋手不吃不喝不睡连续苦下三千年。从而最终达到世界第一(当然后面还有更多改进版智能)
但是,人类不可能做到,同时让阿尔法狗兼顾“把棋下赢”和“把棋下得漂亮”或者说“把棋下得有艺术感、戏剧性”。
这是一切基于深度学习的人工智能,无论发展多少年都做不到的。
给他两个“学习”和“努力”的方向,只会导致人工智能逻辑混乱,最后自己烧掉。
所以,即使人工智能出现后,纯粹只有“努力”这种品质的人类,很快像垃圾一样被淘汰掉。
但剩下的人类,依然有存在价值——他们的价值,就在于他们有不同的价值观,他们做每一件事情时,需要在多个价值之间权衡取舍。
就像人类政治家,永远不能说“我可以为了自由不惜一切代价,哪怕彻底牺牲掉秩序和公平、正义”,也永远不能反过来说“我可以为了秩序,彻底牺牲一切自由、公平”。
即使牛克.蒙扎克已经把整个美国的人民脑后都插上了人格芯片,他依然不敢说“为了秩序这个价值,我可以彻底消灭自由这个价值”。
这就是人和人工智能最后的区别,也是人类最后的优越性。
人类知道怎么在没有明确目标、唯一价值观的情况下,继续摸索、前行、发展。
……
这番道理,能考上芝大的学生,不敢说都知道。但那一小撮眼界开阔的经济系尖子生,多半是知道的。
然而周克并不是经济系的,他是微电子专业的。而且刚开学才半个多学期,有这么广度和深入的见识,确实已经不凡。
而更难能可贵的是,周克在最后,还特别点破了上述基础理论,在投资领域的具体影响:
金融投资市场,如今在人工智能过度应用的现状下,其实面临的最大问题,也是由此发展而来的:人工智能对于可以估算的价值尺度范围内的因素,反应实在太过激了,拥堵惨烈。
而其他传统被认为不需要考量的价值尺度,也随着价值多元化的事实存在,变得越来越脆弱。
说到这个尺度,虽然看在拉斯罗夫教授眼中,还是太稚嫩、冲动。但毕竟是个可造之才。
“班吉尔教授,他是你专业的吧,平时表现怎么样?”拉斯罗夫稍一权衡,便询问了一直跟他在讨论正事儿的班吉尔教授。
班吉尔教授是芝大电子领域的学术权威,周克最近跟他混了几次脸熟,不过他精力有限,显然不可能记清周克的具体表现。
此刻为了慎重,他当面喊来了自己的得意门生、如今还在当讲师的严谨。
“他是你们班上的吧,这学生表现如何?”班吉尔教授当面问道。
严谨受宠若惊地先对拉斯罗夫问了好,然后很仗义地直言相告:“周克一直是44届电子系成绩第一,我的课上表现尤其好。而且经常有很创见的想法,又踏实,知道怎么把想法落地。”
拉斯罗夫教授何等老奸巨猾,听到这一步,已经知道如何决策了。