中国教育在线
中国教育在线
李星:作为人工智能用户的认识和思考
2023-07-24 11:57:00
中国教育网络
作者:

  与互联网的发明、普及与使用相比,人工智能对人类社会的影响更甚。在人工智能的时代,人类最重要的就是想象力。


李星 清华大学电子工程系教授

  30多年前,清华大学电子工程系李星本科毕业赴美留学,研究生专业和本科一样,是信号和信息处理。留学和工作期间,他第一次接触到互联网,作为一名用户,他深切感受到了互联网的巨大潜力,并对其产生了一定的认识和思考。

  1991年,李星回到清华大学教书,深切感受到,没有互联网就无法建设世界一流大学。机缘巧合,1993年,他由一名互联网用户转变为互联网研究者,成为中国教育和科研计算机网(CERNET)的设计建设者和运营者。面对CERNET建设初期所遇到的重大技术决策,他作为互联网用户时所积累的认识和思考发挥了至关重要的作用。三十年一个轮回,如今他以人工智能的用户身份,分享了自己对ChatGPT的认识和思考,以供年轻一代参考。

  与ChatGPT进行智力游戏

  “ChatGPT是帮助人而不是替代人。”李星教授说。ChatGPT已经在帮助程序员编写程序方面发挥了很大作用,虽然它依然无法完全取代人类的编程工作,但它可以给我们带来很多意想不到的启发,并提高了工作效率。

  以前,程序员需要实现某个辅助功能的算法或函数时,由于这些功能不是最核心的,对程序员而言,不一定很熟悉,往往就需要花费很长时间进行检索、寻找和判断。但是,现在与ChatGPT进行讨论后,它可以快速地提供相关的代码、语言版本、操作系统等信息,方便我们进行下一步的判断、选择和修改。

  此外,ChatGPT对于科研效率的提升也非常显著。李星教授提到,过去他在产生一个想法后,往往会先放一放,用一段时间深入思考,之后再用几天甚至几周时间编写代码进行验证。然而,现在通过ChatGPT的协助,仅需几个小时就可以完成最初的概念验证(PoC,全称Proof of Concept),再以此为基础推进下一步的工作,如同顺水推舟般高效、简单而方便。

  当然,需要注意的是,虽然ChatGPT能给出答案,但很多时候这些答案并不准确,无法直接采用。因此,在这种情况下,就需要继续与ChatGPT进行交互,并通过指引帮助它给出更好质量的内容。

  ChatGPT的训练数据中包含了丰富多样的信息,几乎涵盖了各个领域的知识。然而,关键是我们如何提出有用且高度相关的问题。换句话说,提问的能力非常重要。能不能问出有质量的问题,是非常考验人的。

  同样,得益于ChatGPT相当全面(但不一定深入和准确)的知识水平,它往往能给出比我们想到的更加全面的答案,帮助我们填补知识的空白。因此,当我们产生一些创新性的想法时,可以与ChatGPT进行对话,与它一起进行不断迭代的智力游戏,询问它对新的研究想法的看法。ChatGPT也会毫无保留地列出需要考虑的相关问题和角度,这种全面性是独立的人类个体所难以匹敌的优势。

  此外,不论提出的问题多么新奇、奇特或离经叛道,ChatGPT总能给出与之相关的回应和答复,这得益于ChatGPT的泛化能力。

  据报道,OpenAI在训练ChatGPT时,考虑的重要因素之一是数据的多样性。首先是“语言的多样性”。尽管数据以英文内容为主,但中文和其他国家语言的内容也尽可能地被纳入训练中。也就是说,如果在中文世界中有问题未能得到解答,但在英文世界中已有人给出了答案,ChatGPT便能够将两者自动关联起来,并在需要时灵活应用各种语言和文化背景下的知识。

  其次是“领域的多样性”。ChatGPT是博才而非专才,它收纳了各类学科领域的知识,使得学科之间有所平衡和联系,实现真正的融会贯通。这就意味着,有时某一学科的问题,或许ChatGPT可以从另一学科的知识体系中找到解法,并为我们提供解决问题的线索。ChatGPT的知识量级使它能真正做到了融会贯通与触类旁通,各学科知识不再有鲜明的区隔而是交织相融到了一起。另外,ChatGPT的训练还兼顾了“语体的多样性”和“观点的多样性”,这些多样性带来的泛化能力与“思考”的方法是传统搜索引擎类的问答模式远不能及的。

  ChatGPT的不可解释性

  目前的一种思路认为,人工智能需要具有“可解释性”。以自动驾驶为例,如果自动驾驶的原理不可解释,那人们就无法分析交通事故的发生原因,因而就很难改进、提升自动驾驶的安全性。因此对于此类科学技术来说,可解释性非常重要。

  然而,对于ChatGPT这样的技术应用而言,可解释性是否依旧重要?李星教授认为,对此必须要打一个问号。

  他提到,虽然ChatGPT背后也有其遵循的、可理解的科学理论,但其强大表现的根源在于海量的数据和强大的算力。俗话说“大力出奇迹”,正是基于这种巨大的算力和数据支持,ChatGPT展现出了迄今为止只有人类身上才会出现的智能行为。尽管我们知道ChatGPT是通过训练得到的,但是训练一个人工智能模型的过程,即模型参数的优化,有时候更像是玄学中的“炼丹”过程。如何调参?为什么这样调参?到现在也没有非常精确、完备的理论与方法,而这种随机性和试验性正是ChatGPT不可解释性的来源。

  因此,李星教授认为,按照传统思路,我们应该先对人造事物进行深入理解,然后继续研究和应用。然而,ChatGPT打破了这种传统路径。对于ChatGPT,我们可以将其视为一种由上帝或自然界本身创造的产物,我们首先接受、使用和运行它,然后进一步研究和理解它,而这与过去技术发明中先理解规律再进行应用的过程恰好相反。

  基于此,李星教授认为,通用人工智能的真正生命力和灵魂在于其不可解释性。

  回顾科技发展史,计算机的发明是一个明显的分界线。在计算机出现之前,人们发明的机器如电话、洗衣机、电冰箱、收音机等,都是具有单一、明确和固定功能的机器。然而,计算机完全不同,虽然它也由CPU、内存、硬盘、显示器、键盘等固定组件构成,但它可以安装各种不同的软件,编写不同类型的程序,每个软件都有不同的功能和作用。计算机的使用方式如此丰富多样,呈现出的结果如此多样化,是当初设计计算机的人们所不能全部想到的。随着时间的推移,人们会开发出更多的功能,实现更多的创意,计算机的发展空间依然广阔而无限。

  而人工智能出现后,这种功能的不可确定又迈上了一个新的台阶。

  在互联网游戏中,人们可以通过对计算机编程来创造各种机制、类型和规则的电子游戏。然而,人工智能可以创造自己的游戏,并决定所有的设定,使之顺利地运行,这使背后的原理和机制有可能超出人类的理解能力。

  不可解释性的破解之道

  “面对不可解释性,我们必须要接受这一事实,接受它的存在,与之共生。”李星教授表示,在接受的同时,我们应该努力研究和理解人工智能背后的规律。

  他认为,我们已有的学科体系和知识架构中,物理学和数学具有较强的可解释性,它们由极为精准的数学公式与物理定律构成,因此我们可以尝试用确切的公式或清晰的模型去描述它。而生物学虽然也是一门解释世界的学科,但是其清晰性和精准性远低于物理学,很多生物学现象背后蕴藏的机制与规律,人类到现在也依旧无法清晰、准确、严谨地进行解释与描述,也就是说,不同的学科、不同的事物,其可解释性的程度也是完全不同的。

  而由人类从海量数据中“炼丹”后产生的ChatGPT,不可解释性更加突出,它更像是一个有机的生命体。

  然而,李星教授也提出了另一种可能性,即用来理解人工智能的科学体系和理论工具,至今尚未被发现。也就是说,只有一种崭新的理论工具诞生后,才能去真正揭示当下人工智能的本质和原理。“和在微积分的发明之前,我们缺乏依据来科学地描述力学三大定律一样。很有可能,用来研究ChatGPT与人工智能的数学工具尚未出现。”

  综上所述,李星教授认为,尽管人工智能的不可解释性是一个挑战,但通过探索新的方法和工具,我们可以努力理解和揭示其规律。这可能涉及借鉴现有学科的经验,同时也可能需要创造全新的科学体系和理论工具。只有这样,我们才能更好地理解和应用人工智能。

  人工智能与人类的距离

  在对人工智能与人类的距离问题上,李星教授认为,当前人工智能在人类视角下仍然是一个可用的工具,但与以往的工具有所不同,人工智能的基础还是概率推断,所以具有不可消除的随机性。因此,它的回答有时是正确的,有时又像“一本正经地胡说八道”,对此,我们必须自己进行判断和决策,不能完全依赖它。

  那么,人工智能发展下去会不会成为与人类相似的独立智能行为者?

  针对这个问题,李星教授认为,首先,人工智能必须实现实体化并具备主体性。类似于人类需对自己的行为负责,人工智能也需要一个独立实体来承担责任。这种实体化并不仅仅是给人工智能一个外形,还要建立人工智能思考和推理机制与实体之间的紧密联系,类似于人的身体与头脑之间的联系。

  其次,人工智能需要具备繁殖的能力。繁殖是生物延续生命的方式,通过进化和留存不同因素,生命变得愈发智慧、灵活和强大,同时产生创造力。如果人工智能无法自行繁殖,它的能力只会随时间流逝而衰减、停滞不前,最终被淘汰。

  李星教授认为,当前的人工智能虽然具备一定的创作力和逻辑推理能力,但这只是人类智能的一部分。人类拥有完整的创造力、想象力和主观意识,与人工智能的创作能力存在差异。

  人类创造力与人工智能创作力的区别,类似于真正的艺术家与手艺熟练的工匠之间的区别,即道与术的区别。想象力也是如此。物理学家爱因斯坦在《论科学》一文中表示:“想象力比知识更重要,因为知识是有限的,而想象力则概括着世界的一切,推动着进步,并且是知识进化的源泉。”目前,人工智能虽看似掌握了“无限”的知识,但只要是知识就拥有边界,与人类的想象力相比,这种“无限”始终都是一种“有限”。

  “至于人工智能最终能否模拟出接近人类的创造力与想象力,这一点我们依旧不得而知。”李星教授说。

  人类社会的动物园化

  ChatGPT出现后,有一种广泛的担忧迅速出现:人类的工作会被人工智能取代吗?

  李星教授认为,极端一点的可能性是,未来人类社会有可能近似于一个超大规模的动物园,大部分人可能会像动物园中懒洋洋的、等待被喂养的动物一样,进入“躺平”状态,将大部分时间用于娱乐、休闲,只需要在特定时间填饱肚子,就万事大吉。

  然而,他也表示,肯定会有一部分人不满足于这种状态。总会有人意识到,真正重要且有意义的是实现目标的过程,而非目标本身。虽然目标仍然是重要的前提条件,但对于真正的大师级人物来说,最宝贵且精彩的部分不在于达成目标这一结果,而是在于奋斗、历练、挑战自我的过程。

  因此,即使人工智能发展得更加强大,人类社会也有可能进入某种“躺平”状态,但仍然会存在那些不满足于此的人,他们将继续追求目标,并在奋斗的过程中找到真正的价值和意义。

  挑战与机遇并存的伟大时代

  “人工智能和各种人工智能技术的意义与互联网中TCP/IP协议的意义类似,甚至可能更为重要,影响更广泛。”李星教授认为,与互联网的发明、普及和使用相比,人工智能对人类社会的影响更为深远。

  然而,人工智能的影响有正面和负面两个方面。人工智能的缺点给我们带来了挑战,但同时其优势也给我们带来了无限机遇。对于互联网领域的研究人员而言,李星教授认为面临着至少两个重大挑战。

  首先是“分布式”的挑战。目前大型的人工智能计算模型如ChatGPT都是集中式的,而互联网的本质是分布式的,也就是说人工智能与互联网的设计原理正好相反。作为互联网研究人员,李星教授认为,ChatGPT和人工智能要能够进行大规模分布式部署,而非集中化。当然,分布式也存在它本身的问题,例如在分布式后人工智能的计算效率是否能够维持甚至提高?整个体系是否能够良好地运转?等的问题需要进一步去探索。

  第二个挑战是“可信任性”。ChatGPT有时会“一本正经地胡说八道”。根据其随机性原理,目前可以认为不是故意地胡说八道。然而,未来可能会出现成千上万种类似ChatGPT的服务,不排除存在故意提供错误信息的情况。因此,可信任性是非常重要的。我们是否可以通过互联网的基础设施提供某种程度的可信任性?

  李星教授提到,当最初在推广IPv6时,大家一直在寻找IPv6的“杀手级应用”。最初认为,在线视频和物联网可能是IPv6的杀手级应用,但后来发现IPv4也可以满足这些需求。

  “所以IPv6的杀手级应用到底是什么?我们在做IPv4/IPv6无状态翻译过渡技术IVI时,提出与IPv4互联互通才是IPv6的杀手级应用。现在我觉得,还应该加上机器人联网(甚至是神经元联网),也就是人工智能与机器人之间的相连,这应该也是IPv6的杀手级应用。”李星教授说。

  “这是最好的时代,这是最坏的时代。”这句话用来描述人工智能的时代,恰如其分。李星教授认为,在人工智能等新事物出现后,我们原有的知识和技能可以与新事物相互匹配、相互融合、互相整合。即使两者之间存在矛盾,也无关紧要,因为在摩擦碰撞中可能会产生更具创新性和有趣的东西。这是技术爆发时代赋予人类的馈赠,也是我们应当抓住的机会。

  本文根据清华大学电子工程系李星教授的采访观点整理

  撰文:王雅静,ChatGPT 对此文亦有贡献

免责声明:

① 凡本站注明“稿件来源:中国教育在线”的所有文字、图片和音视频稿件,版权均属本网所有,任何媒体、网站或个人未经本网协议授权不得转载、链接、转贴或以其他方式复制发表。已经本站协议授权的媒体、网站,在下载使用时必须注明“稿件来源:中国教育在线”,违者本站将依法追究责任。

② 本站注明稿件来源为其他媒体的文/图等稿件均为转载稿,本站转载出于非商业性的教育和科研之目的,并不意味着赞同其观点或证实其内容的真实性。如转载稿涉及版权等问题,请作者在两周内速来电或来函联系。