千米小说网

千米小说网>沪上烟雨(1v1)梅津十律 > 雪山之行的遇见(第2页)

雪山之行的遇见(第2页)

“我不陪你们了,晚饭我已经定好吃肋排骨火锅,你们就别在外面吃东西了。”

四位老人早有单独行动之意,除了逛菜场,他们对现在流行的开麦赛歌跃跃欲试。

一别两欢。我、沪生、华华和青山回到“三寸光阴”,老张还在和黄蓉、白秋白喝茶。话匣子从刚刚华华惨遭“咸猪手”说起,老张对机身特别感兴趣,问个没完。在他眼里,机身已经很接近人类了,听到我说还不确定机身是否拥有人类思维,他不理解:“你们怎么知道机身没有思维?我观察你的机身,她对我们的话都能理解,反应也基本正确。”

这个话题轮不到我回答,白秋白自有神回复。通常,我们不太和别人交流这一类问题,专业性强,说得深了,普通人也听不懂,还可能无意中泄露程序开发机密。不过,老张不仅是同乡,且为人慷慨,白秋白也就没有保留。

他先和青山做了一个对话。

“青山,到丽江旅游觉得怎么样?”

“挺好的,你觉得怎么样?”

“这里和上海有什么不同的地方?”

“这个问题挺难回答的,每个城市都有不同的地方,你说呢?”

“刚才华华被人摸了一下,你怎么看?”

“如果你去询问律师,他不会认为这是一件对的事情。”

…………

然后,白秋白问老张:“我和青山这段对话,你觉得怎么样?”

老张想了一想:“很好呀,无懈可击。青山很聪明。”

白秋白笑了:“人类和机身大多数对话都是这样的模式。人类无法辨认机身是否真的理解自己的提问,他的回答没有明显错误,可以理解为圆滑,这恰恰是问题的所在。机身有庞大到数百亿的关键词联想脚本,一般人类的提问,他们在半秒钟之内就能通过关键词搜索出答案,这种答案多达上百种,他们也许只是随机选择。”

“你的意思是说,青山回答你的问题,都是你们设计好的?”

“也不能说青山不具备人工智能。他也许理解了我的问题,这种理解和人类大致相同。或者他虽然没有真正理解我的提问,但是可以通过‘关键词’模拟出合适的回复。这被称为弱人工智能。”

老张和夫人被绕晕了。老张夫人学化工出身,逻辑能力强,她想了想:“青山不是已经回答你的问题了吗?怎么叫可能理解你的问题,可能没有理解呢?那我们人和人的对话,不也是这样的吗?你其实没有办法知道对方是否真的理解自己的提问啊,很多也是根据常识来回答的啊。”

“我想想应该怎么解释。”白秋白努力让自己的解答能让大家听懂,“人工智能的难题就是因为人类世界有比较复杂的规则,就是所谓的常识吧。比如A对B说‘她走了’,B回答‘也好,那个世界更纯洁’,人类一听这样的对白,就明白这里的‘走’是‘死’的意思。但是,要让机身能清晰理解‘走’是‘死’,而不是离开此地,并不容易。现在机身似乎可以理解大多数这样的对白,甚至可以听懂地方笑话段子,和一些根据常识可以理解的词汇。比如‘BloodyMary’,机身会明白你指的是一种鸡尾酒。因为除了知识库,我们还设计了庞大的常识库,用关键词匹配。常识库涵盖了至少一个图书馆的藏书内容,以及人类世界各个时期的电影、重大事件、方言隐喻等内容。这也是我们公司最宝贵的财富之一。我现在对华华说一句‘有点想听王菲的声音’,她肯定知道我说的‘王菲’不是本世纪初的著名歌手,而是我们公司的一个员工王菲,她歌声很好听,每年的员工联谊大会都会上台演唱。华华的资料库里除了通用百科,还有特制的、符合机身主人需要的资料。

“如果不是因为人类世界表达隐喻过于复杂,其实弱人工智能的问题在上世纪就可以解决。机身的智能有自己的长处,你们听说过MY吗?上世纪由斯坦福大学研究小组开发,用于人类血液疾病诊断的辅助医疗系统。MY的成功就是因为它有一系列推理链,而且可以对用户提供的各种信息做出自己的判断。比如用户血液检测是阳性,这里面包含着假阳性可能,MY就会根据用户表现的某种症状做进一步推理和匹配,包括其他检测数据以及病史、基因检测数据。在上世纪,MY诊断结果的准确率就已经和人类专家相当,高于普通医生的水平,但是谁也不能说MY就和人类专家一样,毕竟它没有系统的医学专业领域知识,这就是人工智能日后新的发展分支。”

“你说的让我想起了本世纪20年代类似ChatGPT的那种大型语言模型编写,主要依赖于数据支持发展到现在,机身还停留在那个阶段吗?”张太发问。

“您连那个老古董都知道呀,厉害了。”白秋白认真地朝张太看了一眼。

“毕竟也是理工人嘛,它对搜索引擎的精准度贡献还是巨大的。”张太微笑,扯回话题,“机身应该比那个更高级吧,我记得ChatGPT虽然发展迅猛,一代产品错误很多,尤其是数学。写论文生成的正确参考文献也不高。”

“噢,我们的机身毕竟有细胞组织,比它强大多了,ChatGPT的技术壁垒不高,它的迷惑性在于它有人类输入的庞大语库,推理逻辑基于算法。有时候它也能表现得颇有智慧,比如和它讨论如果找不到工作是否可以先结婚生孩子,它明确地告诉你那样做不合适,结婚和生孩子是重要的人生决策,不应该作为失业的解决办法。不过,如果你反复给它这个话题加入不同的对象语境和个人处境,它的对话就不那么智慧了,不能有人类微妙的思考力。我们的机身思考的程度还不能被完全确认,但对话逻辑肯定更强大,机身可以即时调出谈话对象的背景资料,那些从小到大的成长经历、不同人对其的评价、爱好、阅读书单、人机关系,甚至购物偏好等,机身和人的对话不仅精准,常常还会自己布局……”

“布局,给人挖坑?”张太太好奇心更重了。

“很好玩的。机身很会套话,也算人间老油条。比如:不说自己观点,故意抛出反方向的质疑让你替它说出它想要的答案,又不承担言多必失的风险。不过,机身一般没有坏心眼,如果你愿意对机身开放你的个体信息资料库,它会引导你提升,知道你的词汇量没有到GRE水准,又喜欢英语,会递进式在对话中用不同的高阶词表达一个意义,让你慢慢熟悉GRE词汇,比如赞美你Punctilious。”

白秋白啰里啰唆说了一通,老张还是有点云里雾里,沉默良久。在我们开始聊四个老人去逛菜场的奇葩举动时,他突然严肃地发问:“如果我定制一个机身,你对我定制的机身说‘我想听王菲的歌声了’,我的机身的回复可能是‘那我帮你去找本世纪初歌手王菲的音频’,或者类似的回复,对吧?我的机身知识库里,‘王菲’和‘声音’被定义为21世纪初著名歌星王菲。这还不算机身有思维吗?”

“当然不能算有人类思维。这样太小看人类的大脑了,要知道人类的大脑大概有1000亿个神经元,每个神经元有数千个连接……它们通过突触连接接收电化学信号,根据接收信号不同,产生不同的输入信号。神经元输入权重不同,有些输入反而会抑制神经元输出。为什么会有这些权重的变化,人类到现在还没有破解。所以,智能机身会自主发展自己的神经元,而非模拟人类。人类自己也没有搞清楚的运行原理,没有办法让机器去模拟。有些问题,人类自己没有办法给出一个令所有人都满意的答案,机身自然也不会有固定的答案。对于意识问题,人类自己也回答不了几个问题:为什么神经过程能够产生意识体验?为什么这种神经过程产生这种体验?”大约怕自己说得太枯燥,白秋白顿了顿,继续说道,“电车难题的实验你们应该都听说过,一辆电车失去控制,冲向前方5个无法逃离的人。这时,轨道旁边有一个操纵杆,如果拉动这个操纵杆,电车可以转向另外一个轨道,那里只有1个人,也无法躲开。显而易见,转轨,你杀1个人,救5个人。在无人驾驶汽车开发初期,这个难题就多次被提出,人们想知道机身应该如何做出正确的选择,但问题是怎么选择才是对的呢?”

白秋白停了下来。

我对这个所谓的电车难题已经麻木了,公司曾讨论过很多次,没一次有结果。

老张饶有兴致:“实在没办法,总归是死1个人好过死5个人咯。”老张太太也表示赞同这个回答。

白秋白说:“你们的选择被称为结果主义,就是根据这个行为的结果来考量其道德。但是,如果那5个人是罪犯,而那1个人是怀孕的母亲呢?还这样选择吗?再说,那1个人为什么要白白替另外5个人送死?你做出的道德选择,他凭什么接受?其他5个人说不定也不能接受,他们可能会说‘应该死的人是我们,为什么要让别人替我们受过’,这种假设和争论无休无止,没有完美答案。所以,机身更加不可能有什么完美选择。”

已完结热门小说推荐

最新标签