11月7日,由北京师范大学哲学学院、北京师范大学价值与文化研究中心、北京师范大学分析哲学国际研究中心主办,香港大学哲学系、北京大学哲学系、北京大学外国哲学研究所协办的京师人工智能哲学研讨会在北京师范大学举行。来自北京师范大学、北京大学、香港大学、微软亚洲研究院、香港科技大学、北京通用人工智能研究院、加利福尼亚大学洛杉矶分校、复旦大学、浙江大学、四川大学、山西大学、中央美术学院、博古睿研究员中国中心等国内外知名高校及科研院所的二十余位专家学者出席了此次研讨会。与会学者来自哲学、计算机科学、神经科学、认知科学等多个领域,围绕人工智能与哲学的交叉议题展开了深入的讨论。
北京师范大学哲学学院党委书记李红教授在开幕式致辞中热烈欢迎与会的专家学者,并向他们表达衷心的感谢。李红简要介绍了哲学学院近年来的发展情况和研究方向,并指出了与人工智能相关的学术议题对于哲学学院和价值与文化研究中心的重要研究价值。她强调,这是哲学学院首次以“人工智能与哲学”为主题举办学术研讨会,本次会议对于促进相关领域跨学科交流与合作具有长远意义。分享了对研讨会主题的看法。她认为,随着人工智能等科技的快速发展,哲学研究面临着新的问题和挑战,主要表现在三个方面:人工智能与人类智能的关系问题、人工智能与人类价值的对齐问题、以及人工智能技术应用的伦理问题。尽管这些问题具有挑战性,但哲学家应当勇于面对并积极参与相关研究。期待以此次会议作为学术支点,汇聚来自不同学科的顶尖专家,共同探讨推动当代哲学研究发展的重要议题。
上午的研讨会在山西大学教授叶闯的主持下进行。微软亚洲研究院全球研究合伙人谢幸报告的主题是“社会化人工智能:借助社会科学的洞察应对人工智能的挑战”。他指出,随着人工智能在全球范围内的广泛应用,其在各个领域的影响力日益增强。对此,他提倡培养并构建一个跨学科的研究网络,特别是强调人工智能与社会科学的结合。他认为,这一跨学科研究网络至少具有三方面的重要意义:首先,它有助于确保人工智能系统的目标与行为与人类的价值观、伦理原则及社会目标保持一致;其次,这一网络能够帮助我们深入探讨人工智能面临的挑战,并探讨法律、心理学、社会学等学科在应对这些挑战中可能发挥的作用;最后,这种跨学科的视角将推动人工智能的发展更加负责任、透明,并更好地服务于人类的根本利益。
香港大学资深教授赫尔曼·卡佩伦(Herman Cappelen)以“AI的生存故事:人工智能生存性风险的分类分析”为题,向与会者报告了他与赛蒙·戈德斯坦(Simon Goldstein)、约翰·霍索恩(John Hawthorne)就人工智能问题的最新论文。他们认为,自从ChatGPT发布以来,关于人工智能系统是否构成对人类的生存性风险的讨论愈加频繁。针对这一风险,他们探讨了人工智能系统对人类构成威胁的两个基本前提:第一,人工智能系统将变得极其强大;第二,如果人工智能系统变得极其强大,它们可能会摧毁人类。基于这两个前提,他们构建了一个“生存故事”分类法。在这些故事中,针对前提一,人类可以通过技术壁垒或文化壁垒来防止人工智能变得过于强大;针对前提二,人类则可以通过设计限制、监控、禁用等措施阻止人工智能对人类造成毁灭性威胁。通过这些不同的生存故事,卡佩伦教授呈现了人类在面对人工智能威胁时可能采取的多种反应。
下午的讨论会由北京师范大学哲学学院外国哲学与文化研究所所长代海强主持。北京大学哲学系助理教授王小塞(Sebastian Sunday Grève)以“机器能否获得人类的心智”为题展开了报告。他提到,这个报告目的是为了理解机器与人类在心理和认知层面的相似性和差异性,以及这一假设对伦理和哲学的影响。他指出,如果机器能够获得人类的心智,我们需要重新定义“心智”和“意识”,并考虑如何对待这些机器。例如,它们是否应该享有某些权利,或者是否需要承担一定的责任?这个问题关系到伦理与社会,如果机器能够感知和理解,那么它们的行为是否应该受到伦理规范的约束?谁应该对机器的行为负责?机器是否可以成为社会成员,参与社会活动,甚至在某些情况下替代人类?最后,王小塞助理教授期待可以收获听到更多的观点和反馈,以进一步深化这一领域的研究。
香港科技大学的助理教授黄大伦做了题为“人工智能、常态与压迫”的报告。在报告中,他主要探讨了人工智能在塑造社会常态和潜在的压迫性影响方面的伦理和哲学问题。他指出,随着人工智能技术的广泛使用,它逐渐嵌入到我们的认知和社会生活中,并影响着我们对“正常”和“自然”的理解。但是,人工智能技术看似价值中立,但实际上受到其开发者和训练数据的影响。在这种影响下,人工智能模型在处理语言时可能带有文化偏见,可能难以理解语言的细微差别,尤其是对历史上被边缘化的群体使用的语言和表达方式,可能加深现有的刻板印象,强化偏见。例如,人工智能生成的图像中,高薪职位(如医生、律师等)通常由白人男性占据,而低薪职位(如洗碗工、服务员)则由少数族裔和女性占据。这种刻板印象反映了社会阶层和性别偏见。为了解决人工智能所具有的这些问题,他主张增加训练数据的多样性、提高人工智能系统的透明度和可解释性、建立伦理审查机制。
北京通用人工智能研究院研究员王俊淇报告的题目是“心智理论:从建模的角度看”。他聚焦于人工智能如何建模心智理论(ToM)的问题。心智理论(ToM)是指一个能动主体(人类或人工智能主体)通过赋予他人心理状态来理解他人的能力。为介绍了几种建模ToM的方法,并通过简单的网格世界示例来展示相应的模型。介绍了一些处理高阶推理的部分结果和关于人类如何使用ToM的假设,反思了人工智能模型在模拟心智理论方面的局限性。尽管人工智能可能表现出似乎模仿人类认知过程的行为,但这些系统是否真正与人类有同样的理解力尚不清楚。他强调了建模高阶推理的复杂性,并指出需要进一步研究如何训练人工智能以模拟或近似人类认知。这些研究有助于我们更好地理解ToM在人工智能系统中的应用,以及如何设计更智能、更社会化的人工智能。
五场报告结束后,由北京师范大学哲学学院讲师展翼文主持圆桌讨论。除会议报告人外,参与圆桌讨论的还包括北京师范大学哲学学院陈龙、北京师范大学哲学学院代海强、北京大学哲学系丁一峰、北京大学前沿交叉研究院葛鉴桥、复旦大学哲学学院顾知巍、浙江大学哲学学院柯晓宇、四川大学哲学系刘佶鑫、北京大学哲学系陆俏颖、中央美术学院人文学院孙骞谦、博古睿研究院中国中心田馨媛、北京通用人工智能研究院王俊淇、山西大学叶闯、加州大学洛杉矶分校计算机科学部门周自横等。圆桌讨论涉及到了许多哲学与人工智能方面的重要且开放性的问题。讨论还关注了哲学与人工智能研究跨学科合作方面的问题,哲学可以为人工智能研究提供理论框架和概念澄清,帮助解决伦理和价值问题。人工智能技术的发展可以为哲学研究提供新的工具和方法。参与者们围绕上述话题提出了各自的见解,强调了跨学科合作的重要性,并对未来的研究方向提出了一些建议。
本次研讨会汇集了众多哲学方面与人工智能方面的专家学者,立足于跨学科知识交流与合作的角度,努力挖掘人工智能带来的方方面面的影响,寻找回应人工智能带来的各种挑战的有效方法。研讨会提供了不同的视角去理解人工智能,对人工智能可能带来的问题与挑战有了更深刻的认识,也为未来更多跨学科的合作与交流提供了机会。