北京师范大学戴茂堂教授来我院学术交流
点击次数: 更新时间:2023-10-18
本网讯(通讯员 刘可馨)10月17日上午,北京师范大学哲学国际中心教授、人工智能伦理治理实验室主任戴茂堂教授在biwn必赢B214报告厅为大家带来一场题为“人工智能背后的人生隐喻”的精彩讲座。讲座由陈江进老师主持,我院师生参与交流。
本次讲座立足人工智能发展的现实,并对其做出系统性的哲学反思,戴老师主要从技术的本质、现代人工智能的特点、技术与人生的关系三个方面展开讨论。
讲座伊始,戴老师从国内外学术界对人工智能技术大讨论的热潮出发,批判性地指出,现代世界对科学技术的理解大多是从一种后果论的视角出发,即以一种后推式的经验化的方式来考虑技术的利与弊,而忘记追问技术的前提和技术与人的关系。基于此,戴老师对技术的发展历程进行了历史性的回溯,并指出无论是古代的石器打磨、弓箭制作等谋生技术,近代的棉纺织、蒸汽机、机器制造等工业技术,还是正在超速发展的人工智能,本质上都是人的工具性的技术作品,技术乃是最直接、最实用的合目的性的工具,具有积极性。技术通过自我否定的方式来自我实现。它存在的意义在于不断克服人的不完满。从这一点上来说,技术始终是面向未来的。戴老师以卡尔·马克思在《机器、自然力和科学的应用》中的著名论述为例,说明技术是历史发展和人类观念革新的重要推动力。“火药、指南针、印刷术——这是预告资产阶级社会到来的三大发明。火药把骑士阶层炸得粉碎,指南针打开了世界市场并建立了殖民地,而印刷术则变成新教的工具,总的来说变成科学复兴的手段,变成对精神发展创造必要前提的最强大的杠杆。”
其次,戴老师强调,不同于人类以往的技术作品,人工智能是具有超强智能的机器装置,现代人工智能的特点是集中体现了人类特性,并与人的生存关系密切,这是它和过去技术的本质区别。更进一步说,在人工智能中,人的智慧是遮蔽的,是隐而不显的。这是一种更高的技术性的体现。与此同时,人工智能的繁荣发展招来了两个“相反”的结果:一方面人在智能机器的有力帮助下,从繁重的体力劳动中解放出来;另一方面,由于智能机器对人类智力和行为的高度模拟性,使得人的“双手的解放”很快变成了人对机器的“依赖”。并进一步导致了人的“异化”。同时,作为技术的人工智能本身有其不可克服的缺陷,它不能对人的存在问题本身做出反思和回应。
最后,就人工智能是否会威胁人的尊严和主体价值,戴老师说道:“人工智能技术在克服人的不完满的同时又暴露了人的新的不完满,既贬损了人之为人的尊严,也使人对未来充满忧患”。并指出,古往今来许多卓越思想家都对技术的发展心存戒备和忧患。马克思曾预言技术的胜利将会成为人类贫困的主要根源,并且这种胜利是以道德的败坏为代价换来的。赫拉利也在其《未来简史》一书中预测人工智能的大发展会让许多人沦为“无用阶级”。美国计算机科学家比尔•乔伊(Bill Joy)在一篇《为什么未来不需要我们》 (Why the Future Doesn’t Need us) 的文章中指出,在21世纪,人类拥有的最强大的三种技术———机器人技术、基因工程技术和纳米技术———正在使人类自身成为濒危物种。对于这些看法,戴老师给予了反驳,并以波兰尼悖论(Polanyi’s Paradox)为例,说明了人类认识知识的无限性,并严格限制了我们赋予机器智能的能力,认为人特有的自我意识和自由意志能够为人创造神奇的意义世界和有趣的生活世界提供根本保证。而人工智能是不可能有真正意义上的自我意识的,因此不可能高于人的智能。因此,我们应该从哲学的高度来认识人工智能技术的二律背反,正视人类自身的不完满性,人在克服人的不完满时总会暴露出新的不完满,这是人类的本质也是历史发展的科学进程。科学发展的历史是证伪的历史。在谈及对待人工智能技术的态度上时,戴老师表示,技术的工具性决定了技术的双重性,在实现人的同时也在取消人。我们既要反对乐观主义,也要反对悲观主义,但这绝不意味就要保持价值中立的态度。只有在现代科技丛林中要不断寻求人的主体性价值,在现代高科技的“无所不能”的假象中坚守人类的人文底蕴,才能守护人工智能的本质,同时,守护人自己的本质。这也是人生不可逃避的自我否定的命运,跟悲观或乐观关系不大,人们所要做的只是直面这种命运,以悲美感作为拯救之道。
在互动环节,在场师生就“对人工智能发展的道义性限制”、“人工智能技术未来发展可能遭遇的困境”等问题与戴茂堂教授进行深入讨论。戴教授再次强调,在道义上说,我们必须保持人机之间的绝对界限,要正视人的不完满性,并要将伦理学、科学哲学和科学技术研究结合起来,正视快速发展的人工智能所引发的一系列道德问题,让人工智能技术更好地为人们过上一种“好生活”服务。
(编辑:邓莉萍 审稿:严璨)