AI“意识觉醒”的前夜

FT中文网



硅谷时间4月22日晚,《人类简史》《未来简史》作者,以色列著名历史学家尤瓦尔•赫拉利与斯坦福“以人为本”AI研究院共同院长,前谷歌云人工智能和机器学习首席科学家李飞飞在斯坦福超级大讲堂展开对话。



两位AI领域世界级泰斗对人工智能的未来进行充分论述,其中最为精彩的部分是赫拉利相信AI未来将不仅会给人类科学带来挑战,更有可能带来哲学层面的冲击,特别是AI与生物技术的结合,将可能“黑”进人类的大脑,影响人类的思考、人类的情感,给人类长期引以为傲的“自由意志”“独立思考”“情感表达”带来重大影响甚至颠覆。


我们相信赫拉利这个观点并不是空穴来风,更不是无中生有。纵观人工智能数十年的发展历程,从最早的“人机对抗时代”到目前正在经历的“人机协同阶段”,以及未来很可能在“库兹维尔定律”的预言下,快速达到的“人机融合阶段”,这里的“融合”既包括意识形态层面,也包括物理躯体层面。充满不可想象,却又并非遥不可及。


AI带来的“人机对抗”,让世界更添色彩


早在1939年9月4日,也就是第二次世界大战英国对德国宣战的第二天,著名英国数学家图灵就迈入了“人机对抗”的魔法之门,那是一场密码学之间的较量。图灵的天赋很快让他找到了决定信息战成功的重要筹码,利用英国政府特批的10万英镑,图灵打造了代号为“炸弹”的超级计算机,成功破译了每个字母需要试验1590亿种可能性的德军密码机“英尼格玛”,某种程度大大缩短了二战欧洲战场的进程。


图灵利用密码学、数学等结构化知识,研发出超级计算机,用人类的知识,借助机器的手段,破译了神坛上的“英尼格玛”,也第一次书写了“人机对抗”历史上的第一笔。


过去数十年间,在商业社会的推动下,人工智能获得了长足而稳定的发展,“人机对抗”也开始出现在公众的视野。从22年前的IBM“深蓝”战胜人类历史上最伟大的国际象棋名家卡斯帕罗夫,到IBM后续2011年推出的认知计算系统“Watson”,它在参加“危险边缘(Jeopardy)”综艺节目中,成为人机大战走向公众视角的一个里程碑,“Watson”在前两轮逼平对手之后,最后一轮打败了最高奖金得主布拉德•鲁特尔和连胜纪录保持者肯•詹宁斯,获得节目100万美金的最高奖。


近年,人机大战的课题再次被点燃,毫无疑问这次“纵火者”是来自谷歌的AlphaGo家族。依托谷歌在搜索领域强大的数据基础和超强的算力资源,结合深度学习CNN算法、策略网络、价值网络和蒙特卡洛树搜索算法等,兼顾半监督、无监督学习的算法手段,挑战并完胜人类原以为机器无法涉足或挑战的棋类禁地:围棋。



整个家族从AlphaGo Fan、AlphaGo Lee、AlphaGo Master发展到AlphaGo Zero,而Zero最终实现了“无师自通”,也就是不再需要人类教授棋谱,仅通过数据训练,即可战胜所有棋牌类游戏的类AI机器人。但科学家们在兴奋之余,却不得不开始担忧,如此强大的算法模型,其中是如何运行、推演和实现的,也就是算法模型的“可解释性”确是“黑盒”般存在。


伦理道德健全基础上的人机协同才是美好的


与“人机对抗”的时间轴存在交集,且未来数十年间,将定义人类与机器关系主旋律的时代,我们称之为“人机协同”。也就是人类利用AI在特定领域计算能力上的优势,帮助人类增进工作效率,降低人力、营销等变动成本,实现成本与效率结构的最优化。我们坚信在“人机协同”时代,机器给人类社会、工业生产、信息化建设、科技革新等领域带来的突破和福祉是毋庸置疑的,但如此快速运转下,如何将伦理道德考量加入AI的设计中,进而保证其发展与安全不脱轨的问题被迅速提上日程。


可以想象,在AI伦理道德缺位的情况下,AI技术的发展极有可能导出两类问题:一是,商业社会中人类的出发点往往是利益导向,利用AI追求利益最大化而不考虑可能带来的不良后果;二是,人类的出发点是非利益诉求的时候,AI智能在设计之初,缺乏伦理道德的考量从而使得AI处于失控状态。因此我们发现,不管AI协同应用的动机是好是坏,伦理道德都是不可或缺的。


对于人类而言,有约束才有自由。回顾2016年剑桥分析(Cambridge Analytica)盗取5000万Facebook用户数据用以内容精准投放的方式影响美国大选结果的事件就是最好的例证。人类引以为傲的自由意识正在不知不觉之中受到AI的影响和侵蚀。AI在信息爆炸年代备受重用,几乎每一个搜索引擎、短视频App(快手、抖音)、电商购物平台等消费和内容的聚合地,都由AI算法决定推荐的内容,AI确实已无处不在。


利用人类每天接触的信息,以植入认知、密集投放、强化认知的方式改变人类的倾向、选择、心智,甚至让人类接受哪怕与事实不符的意识,某种程度上使得人类的自由意识遭到前所未有的威胁。而更可怕的是,这样的算法中间存在工程师团队自身也不能完全认知的“算法模型黑盒”。


AI在存在不可解释性和伦理约束缺位的情况下空挡行驶。人类,终究是在好奇心或利益的驱动之下,以技术中立/技术无罪的名义打开了潘多拉的魔盒,享受以造物主的姿态睥睨众生的感觉,而已拥有视觉、语言、文字的AI距离最终的意识觉醒可能仅一步之遥。你站在桥上看风景,是否还有看风景的“人”在楼上看你?


对于AI而言,有约束才能更好的与人类协同。早在2014年亚马逊开发了智能招聘AI,即通过算法进行简历筛选,期望借助AI的能力高效、精准的帮助HR筛选简历。然而项目开展一年后,工作人员却发现AI通过神经网络深度学习,自动学会了性别歧视,在技术岗位的招聘中对包含“女”这个关键字的简历其评级被降低。工程师尝试对模型进行纠偏处理,然而他们难以判断神经网络中的哪些部分得出了这个判断,模型缺乏可解释性,最终放弃了该项目。


为什么会出现这样的现象?我们需要还原AI招聘系统的学习过程。AI的数据来自亚马逊自身过去10年来的招聘信息和简历信息,在技术类岗位中男性简历数量及最终录取的数量确实高于女性,但这背后有一个重要原因,理工科类专业中男性比例本就高于女性。然而AI却根据男性录取数量高于女性这一数据显示的事实衍生出了“男性比女性更优秀,更适合从事技术类岗位”这一判断,进而根据这一判断抓取简历中与性别有关的关键字进行评分。


若这一缺陷没有被发现,该AI智能招聘系统被广泛应用,那公司的人才选择将被误导,人才战略很可能被AI带进了死胡同。这一事件反应出了AI设计思路的问题,工程师试图模仿人类思维的过程进行AI系统设计,即感知、认知、判断的结合,然而人类的感知并非完全能够通过数据衡量;其次,伦理道德等非量化因素能够影响认知过程;最后,因为各种复杂因素,出现的结果可能偏离了人类行事的初衷,人类未来的决策将很可能被技术的绝对理性所影响,人文主义的光芒就此黯淡。


任何人也无法保证在缺乏伦理考量的情况下,你家的扫地机器人未来会通过物联网从某个终端学习到了纵火相关的知识,而在你晚上熟睡之际点燃了地上的烟头,而对AI而言,“他”可能只是认为自己是在学习、模仿和强化它的所见所闻。


虽然关于人工智能中的偏见、歧视和包容等关键伦理问题已被众多世界顶级科技公司重视,甚至提升到了国家战略的层面,但实现或推动落地的难度可想而知。谷歌在今年3月底解散其成立一周的AI道德委员会就是一个鲜活的例子。引述行为经济学家兼隐私研究员阿奎斯特在Twitter上发文:“虽然我致力于研究如何解决人工智能中的公正、权利和包容等关键伦理问题,但我认为这并不是我从事这项重要工作的合适场所。”


如何将伦理道德规范加入AI算法和模型的设计中?有两个关键难点必须解决:一是,通过对人类认知过程的探究进而指导AI的设计思路;二是,对道德伦理这样的哲学、人文、历史知识进行量化处理进而为AI提供结构化、可读化的底线思维。这需要数据专家与各个行业、各个学科(尤其人文学科)的专家紧密合作,成为真正的“数据科学家”,为各个领域提供可量化的数据基础,指导AI道德伦理标准的设计,利用对人类认知过程研究的成果指导AI有序、合理的发展,让人类文明与AI文明和谐共处,实现我们定义中的“人机协同”。


AI伦理道德缺位下,谈“人机融合”是最大的灾难


如果说世界上真的存在“先知”,那谷歌首席未来学家雷•库兹维尔必定是其中一个。早在2014年,库兹维尔在TED演讲中提及:“到2045年,通过把大脑新皮层与云端的人造新皮层无线相连,这样人类的智能将增加10亿倍。”而那个时候人类意识形态层面的永生已不再是科幻电影中的桥段或是剧本。


无独有偶,去年迪拜世界政府首脑峰会上,未来学家Ian Pearson 手中一份名为HIBA(Hybrid Intelligence Biometric Avatar)的报告瞬间引爆全场。HIBA的结论很直接、很有力,那就是2050年人类将实现永生,而永生的人类被定义为“混合智能生物”,也就是我们今天所说的躯体上的“人机融合”。



总结来看,这里定义的“人机融合”将被划分为两个主要阶段:第一阶段到2030年,基于人体各系统细胞遗传机制再造,保持和恢复细胞活力,并通过制造出适合自己的器官,无排异现象,从而延长寿命;50年后,将进阶到第二阶段,实现云端与人类大脑相连,可读取、识别、存储人类记忆,人类心智均可存在于云端,并能够将云端心智与终端机器人躯体实现任意匹配,不仅实现去人类躯体化,而且也打破空间的限制。


据Pearson研究,未来或可在世界上任何地方租用不同型号的机器人终端,就像今天的车辆租用一般。届时,我们可以将意识上传到租用机器人终端中,而不再依托任何生物层面的人类躯体。这也就是人类意识形态的虚拟化,实现真正的“灵肉分离”,笛卡尔的二元论将成为现实,那时候人类将寄居在机器人终端,意识则生活在一个虚拟世界。到这里,或许会联想到文章开始提到的赫拉利猜想,也就是当AI与生物技术结合以后,所有的意识存储在云端,则面临集中性的被黑客攻击的风险。


然而,更可怕的其实不只是去躯体化、意识形态虚拟化以及可能存在的安全风险,而是机器本身“意识形态”的崛起。而如今正是日出时分,太阳的影子虽还未从地平线升起,而阳光却已刺破长空。5G+AI+IOT,三缕清晨的“阳光”叠加,终使未来数据量将经历一次指数级爆发,形同宇宙大爆炸般的“数据核爆”。


从自然选择规律、基因突变理论以及概率论来看,模型算法的黑盒,机器编译中代码或程序出现的bug是否都有可能成为机器意识形态这个基因突变的诱因,而庞大的数据体量则是这一概率的分母,即使结果值趋向于无限小,当分母趋向于无限大的时候,依然存在可能的分子,而我们定义这个分子或就是:机器的“意识形态觉醒”。


这个猜想并非天方夜谭,近日这样的小概率事件真实存在于Facebook实验室中,Facebook工程师让两个AI聊天机器人互相自由对话,自我学习和谈判沟通技巧,结果研究人员发现,AI机器人竟然在用人类无法理解的自创语言在进行沟通,而这个时候他们唯一能做的就只剩下切断电源。


一切的事实推论都导向同一结论:科技的进步一定要建立在伦理道德的基础上。同样,AI的发展中,兼顾技术伦理道德的建设是必修课。假如有一天,在“库兹维尔定律”的预言下,AI拥有了人类的意识和文明,那我们希望AI这个人类创造的“孩子”从人类社会中不仅学会了知识技能和自由意识,更学会了人类的包容、平等、正义和爱。


微杂志 - 公众号搜索引擎

知识产权声明:版权属原作者