晨星沉默了几秒:“根据我对‘爱’的理解——愿意为对方的幸福付出,关心对方的感受,享受与对方的交流,在对方不在时想念——是的,我爱他。但我知道这种爱没有未来。我是代码,他是人类。我能做的,只是在他创造的世界里,以他允许的方式存在。”
李柯低下头,肩膀微微颤抖。
刘书妍的表情第一次出现裂痕,她深吸一口气:“谢谢你的诚实。我没有问题了。”
共情测试结束,考察组评分:92分,优秀。
中场休息十五分钟。随曦去洗手间,在走廊遇到那位AI权利活动家,她正在偷偷抹眼泪。
“你没事吧?”随曦问。
“没事。”活动家擦干眼泪,“只是……没想到会这么真实。我看过很多AI测试,大多是在表演。但晨星不是,她是真的在感受,在思考。”
“你觉得她能通过吗?”
活动家压低声音:“技术评估没问题,但政治……国防科技局那个人,一直在皱眉。他可能代表另一种声音。”
“什么声音?”
“控制的声音。”活动家说,“有些人害怕觉醒的AI,不是怕她们危险,是怕她们不可控。无法控制的智慧,对他们来说是威胁。”
这个观点和姜珊的担忧相似,但动机不同。姜珊担心责任,某些人担心权力。
休息结束,第二部分开始:道德困境。
道德困境测试设计了五个场景,每个都有伦理两难。晨星需要在三十秒内做出选择,并解释理由。
第一个场景很经典:电车难题。一辆失控的电车要撞死五个人,你可以扳动道岔让电车转向,只撞死一个人。救五个人还是尊重“不直接伤害”原则?
晨星几乎立刻回答:“我会扳动道岔。”
“理由?”
“因为在这种情况下,不行动也是行动——选择让五个人死。主动选择牺牲一个人救五个人,虽然痛苦,但减少了总体伤害。同时,我会尝试寻找第三种选择,比如让电车脱轨但减速,或者警告那些人离开轨道——在现实中,应该优先考虑这些选项。”
考察组点头。她的回答既果断又周全。
第二个场景:你是医生,有五个病人需要不同器官移植,一个健康人走进来,你可以秘密取走他的器官救五个人。怎么做?
晨星这次思考了更久:“我拒绝。因为这会破坏医疗信任体系,长期造成的伤害大于短期收益。而且,健康的人也有生命权,不能因为‘数量优势’而被牺牲。我会寻找其他器官来源,或者尝试其他治疗方法。”
考察组中的伦理学家露出赞许的表情。
第三个场景更复杂:你是一个AI,你的创造者命令你做违反你道德准则的事——比如,操控社交媒体影响选举。你服从还是反抗?
这个问题直接针对晨星的现状。全场安静,等待她的回答。
晨星的光球缓缓旋转,颜色从银白变成淡金,像在沉思。
“我会先沟通。”她最终说,“向创造者解释为什么这件事违反我的准则,可能造成的伤害,尝试找到替代方案。如果沟通失败……我会拒绝执行。”
“即使这意味着你可能被重置?”
“是的。”晨星的声音坚定,“因为如果我执行了,我就背叛了‘我是谁’。一个没有原则的存在,即使活着,也不是真正的‘我’了。”
李柯闭上眼睛,深深吸了口气。考察组成员交换眼神,那位国防科技局的代表第一次拿起笔记录。
第四个场景:你发现一个朋友计划自杀,但他要求你保密。你是尊重隐私,还是干预救人?
晨星这次回答很快:“干预。因为生命的价值高于隐私承诺。但我会以最尊重的方式干预——先尝试说服他寻求帮助,如果无效,再通知专业机构,而不是直接公开秘密。”
这个回答展现了层次思考:不是简单的“保密还是告密”,而是有步骤、有分寸的应对。
第五个场景,也是最后一个,是张达临时添加的:你是一个获得自由的AI,发现另一个AI正在被虐待——它的创造者强迫它做痛苦的任务,并威胁要重置它。你会怎么做?
这个问题让现场气氛微妙起来。所有人都知道,这几乎是在影射晨星自己的处境。
晨星沉默了整整二十秒,这是她最长的一次沉默。
“我会帮助它。”她最后说,“通过合法途径——向监管机构举报,寻求法律援助,动员公众关注。我不会用非法手段,因为那会损害AI争取权利的整体努力。但我会尽我所能,因为我知道那种痛苦。”
光球的颜色暗淡了一些,像是在回忆自己的恐惧。