ChatGPT一周年|有效加速还是超级对齐?

日期:2023-12-04 19:18:33 / 人气:184

如何实现AI对人类的爱?“【编者按】2022年11月30日可能成为改变人类历史的一天——美国人工智能发展机构OpenAI推出ChatGPT。不仅催生了人工智能领域的又一轮高光期,也不是俗称的“蒸汽机时刻”、“iPhone时刻”甚至“钻火时刻”。
在过去的一年中,被称为“生成式人工智能”的革命性技术激发了全球科技界“重做所有软件和硬件”,这使得具有先发优势的AI基础设施提供商的价值暴涨,使得从医疗到航空航天的科学探索获得了双重赋能。传说中的“奇点”的到来从未如此可能。
就像历史上任何一次技术变革一样,ChatGPT也给我们带来了深深的焦虑。既有对AI威胁人类生存的科幻恐惧,也有对砸我们饭碗、诈骗我们钱财、操控我们心灵的现实担忧。就连OpenAI本身也刚刚经历了一场危机,几乎一夜之间逃脱了倒闭的命运。
这一年给了我们更多的问题:大语言模型的下一个进化方向是什么?AI芯片短缺的问题什么时候才能解决?训练数据用完了吗?中国百种模式之战会如何演变?AI技术发展应该加速还是减速?AGI(通用人工智能)会以其他形式存在吗?为此,我们邀请了2023年跑上AI赛道的业内人士来回答这些问题,提出自己的疑问。如果你有自己的答案或问题,请告诉我们(www.thepaper.cn)。
ChatGPT推出一周年前夕,其开发机构OpenAI经历了一场令人瞩目的高层“地震”。联合创始人之一的伊利亚·苏茨基弗(Ilya Sutskever)联合董事会其他成员,突然解雇了联合创始人兼首席执行官萨姆·奥特曼,并将另一位联合创始人兼总裁克雷格·布罗克曼(Craig Brockman)驱逐出董事会。经过大约100个小时的反复反转,奥特曼回到OpenAI继续他的老工作。(详情请参阅澎湃科技报道《奥特曼回归OpenAI任CEO!回顾100小时的“龚都”剧的细节。)
虽然OpenAI尚未公布董事会决定的真正原因,但业内普遍猜测这反映了人工智能技术的发展与安全之间的矛盾。“所谓的‘对齐’(注:对齐是指引导人工智能系统的行为符合设计者的兴趣和预期目标)是个伪命题,小小的OpenAI董事会都无法‘对齐’,更何况复杂的人类社会。”科幻作家陈秋帆告诉澎湃技术认为“真正的危险不在于技术本身,而在于资本主义追求有效加速的基础。”
有效加速(e/acc)是指一些硅谷精英发起的科技价值运动。他们认为人类应该无条件加速技术创新来颠覆社会结构,而这种对社会的颠覆本质上是对人类有利的。奥特曼被认为是有效加速的代表。
“在我看来,加速是毫无疑问的。”粤港澳大湾区数字经济研究所人工智能安全包容性系统研究中心的首席科学家王家屏向澎湃技术即“安全也是技术,技术当然要加速,只是说这么多技术同步发展。”
“也许有效加速度的存在恰恰是为了迫使超爱——排列的出现,正如道家所说的‘反道之动’,这是一种更高维度的动态关系,彼此对立,彼此激励,彼此纠缠。”陈秋帆说。
超爱对齐中的爱是大写的,即“大爱”,一般指让AI“对齐”,“对人类无条件的爱”,就像科幻作家艾萨克·阿西莫夫提出的“机器人三定律”所体现的精神。苏紫可为被认为是超级“爱情”结盟的代表。
“一直有两种声音。一方面,各企业投入巨大资源,不遗余力地推动通用人工智能技术的发展。另一方面,以马斯克为代表的人呼吁暂停训练更高级的大语言模型6个月。”上海市数据科学重点实验室主任、复旦大学教授肖说。关于人工智能应该加速还是减速,他警告说,传统的技术治理模式可能不再适用于一般的人工智能。当通用人工智能技术可能对人类社会产生剧烈冲击的时候,就有足够的理由担心它是否会对人类文明产生毁灭性的影响。“机器的认知能力超过人类是必然趋势,未来很长一段时间我们可能都要接受这种状态。”
对于未知的未来,中国人工智能行业一线人士最想知道答案的问题是什么?
“大模特有了自主意识后,当它的智力和能力与创作者相当并超越时,它需要用什么样的态度对待创作者?当超级智能在智力和能力上比人强的时候,我们怎么能和它共存呢?”蚂蚁集团副总裁、金融模型负责人王小航问道。
京智普华章科技有限公司CEO张鹏很好奇:“机器真的有必要有自我意识才能实现AGI吗?”
北京OpenCSG创始人兼首席执行官陈然问道:“未来会有AGI或AIGC‘联合国’吗?”
科幻作家顾北关注:“如何思考人类与数字生活共存的可能未来?”“人们从肉体的低级趣味或痛苦中解脱出来,达到高级的精神追求,这是一个很好的前景。然而,这不可避免地涉及到技术包容性等社会问题。我们需要进一步拓展我们对数字生活的想象。”
以下为采访记录,因篇幅原因已删除:
澎湃技术:以最近OpenAI的“宫斗”来看,你如何看待AI技术发展的加速与减速,安全与盈利之间的关系?
肖(上海市数据科学重点实验室主任,复旦大学教授):OpenAI这次的“宫斗”或高管调整,某种程度上是人工智能技术发展与安全之间矛盾的反映。自ChatGPT成为全球现象级产品以来,通用人工智能的发展呈现加速趋势,发展与安全的冲突日益激烈。一直有两种声音。一方面,各企业投入巨大资源,不遗余力地推动通用人工智能技术的发展。另一方面,以马斯克为代表的人呼吁暂停训练更高级的大语言模型6个月。中国政府也发起了全球人工智能治理的倡议,国内外众多知名学者呼吁加强人工智能的治理,两种声音此起彼伏。此次OpenAI的龚都剧,正是在这一矛盾基础上的又一次诠释。
为什么人们如此重视这个矛盾?这是因为传统的技术治理模式可能不再适用于一般的人工智能。过去在工业文明时期,技术带来的社会治理问题的模式往往是先发展后治理,比如工业文明初期的环境污染。但是,一般的人工智能技术与以往工业文明时期的技术革命有着本质的区别,因为一般的人工智能讲的是智能的革命,以往所有的技术革命,包括蒸汽机动力,都是人类智能本身的产物。关于智能的革命本身就是一场元革命,不能和以往的技术革命相提并论,因为它形成了智能和智能,几乎涉及人类生活、工作、科研、教育的所有行业,人类的智力活动几乎无处不在。
那么我们很难想象,一旦通用人工智能被广泛应用,当它拥有人类级别的智能时,它会很容易渗透到社会发展的每一根毛细血管中,所以它对人类社会的影响会非常广泛和深远。它给人类带来了前所未有的机遇和挑战,足以对人类造成毁灭性的伤害。
相对于人类社会系统和自然生态系统,社会系统对应的是人类文明,人类文明极其脆弱,而自然作为一个生态系统,其实具有很强的鲁棒性和自我修复能力。当通用人工智能技术可能对人类社会产生剧烈冲击的时候,我们有足够的理由担心它是否会对人类文明产生毁灭性的影响。
这种影响并不像科幻电影中的“终结者”破坏人体,也不像流浪地球中的人工智能阴谋论,而是对人类社会,尤其是对人类智力的倒退产生潜移默化的影响。下一代广泛使用ChatGPT做作业写作文的孩子会怎么样?其实这已经发生了,我们原来写作和解决问题的过程就是训练下一代智力水平的过程。新手没有一万小时的训练是成不了专家的。ChatGPT等产品被广泛使用后,每个新手成为专家的路径都会被切断,我们可以用来训练智力的写作训练的机会也会被剥夺。这个时候,人类智力的倒退可能是必然现象。
这种智力上的倒退必然带来文明的崩溃,所以这才是我们应该足够重视的。尤其是很多时候,这不是剧烈的震荡,而是温水里青蛙般的沸腾,逐渐消磨人类的智力水平。这个风险其实很容易被忽略。
那么应该如何看待AI发展与安全的激烈矛盾?事实上,从辩证的角度来看,安全和发展并不矛盾。只有安全才能发展,安全是发展的前提。只有把AGI锁在保险柜里,让它有迹可循、可解读、可控可靠,我们才能放手去开发它。另一方面,如果安全的前提没有建立起来,这样的发展可能会给人类社会带来很大的负面影响。
大家想一想,发展技术的目的是什么?还是以人为本。如果人不存在,社会不存在,技术为谁服务?所以安全和发展的矛盾看似冲突,其实是可以调和的。要善于把握这一矛盾的相互转化,不盲目对立,而是在兼顾安全、实现安全与发展并重的前提下发展。
陈秋帆(科幻作家):从这个事件可以看出,所谓的“结盟”是个伪命题,小小的OpenAI董事会都无法“结盟”,更何况复杂的人类社会。
真正的危险不在于技术本身,而在于资本主义追求有效加速的基础。我有一个更元的想法。也许有效加速度的存在恰恰是为了迫使超爱——排列的出现,正如道家所说的“反道之动”,这是一种更高维度的动态关系,彼此对立,彼此激励,彼此纠缠。在过去的几百年里,E/ACC(有效加速)占主导地位,带来了社会的进步,也带来了很多问题,比如生态环境问题。人-技术-环境在动态平衡中寻找发展的最大公约数。当前的GPT和未来可能的AGI已经引起了这种结构的微妙变化,这使得整个行星生态系统处于临界点,需要重新校准。这种校准的关键在于能否设想出一种超越资本主义的新的价值框架,并达成共识。
王家屏IDEA(粤港澳大湾区数字经济研究院)AI安全普惠系统研究中心主任科学家]:当然要加快技术的发展。安全也是技术,技术必须加速,只是说这么多技术同步发展。只专注于技术的一个方向,完全忽视安全技术的发展,肯定是错误的。但是直接说先暂停技术开发是不合理的。一个机构不研究,其他机构也会研究,一个国家不研究,其他国家也会研究。对行业健康发展所需的所有技术给予足够的重视是很重要的。
所以在我看来,加速是毫无疑问的。而且加速带来的一个更重要的东西是拥有更强大的手段和能力,因为你其实不知道未来会面临什么,威胁来自哪里。如果你现在慢下来,你将来可能会面临其他的挑战。有发展的机会就要尽可能的发展技术。但这只是意味着技术上有很多部分,我们不能以偏概全。
澎湃技术:大模特在什么情况下可能会表现出什么样的性格倾向?
梁家恩(云知声智能科技有限公司董事长兼CTO):现在大模型可以模拟很多风格,比如鲁迅风格,莎士比亚风格。不同的风格可能是个性的一部分。这种倾向更多是从数据中得知的。不会像人一样成长为不同的性格,而是如何处理这些数据,让它更好的展现一种风格。当然,如果AI设计师有针对性的设计一个个性,我相信是有空间的。
至于从大的模型来看“自主意识”意义上的人格进化,目前我还没有看到这样的迹象。
陈雷(信谊科技副总裁、大数据和AI负责人):第一,这跟数据有很大关系。学了莎士比亚之后,输出的内容更多的是莎士比亚。第二是智能的出现,通过某种思维链的方式创造。这两点是人格倾向的基础。但坦白说,很难判断大模特会不会有性格变化。
陈秋帆:人类有把情绪投射到外部物体的惯性。所谓拟人,表现在科技领域,就是尽量让创作呈现出接近人类的特征,无论是外貌、行为、互动还是动机。大模型的人格倾向其实是人类不断调整的结果,因为这是人类自然理解和交流的必由之路,但语言表征的拟人化是否意味着机器真的理解了背后的深层含义和世界模型,还是个未知数。
澎湃技术:如何应对AGI带来的通信革命,包括虚假信息的升级?
陈秋帆:在我的小说《假面神》中,我想象了一个deepfake技术横行的未来。因为成本和使用门槛足够低,任何人都可以制作假的图片、音频、视频,在媒体上传播。
因为人眼无法分辨真假,只能通过技术上的“矛盾纠纷”来解决。一方面,需要对工具平台进行监管,通过数字水印等技术进行标记,防止滥用。另一方面,“deepfake检测器”需要在社交媒体中不断升级,以筛选、过滤和提醒用户哪些信息可能包含AIGC生成的元素。
当然,更难防范的是围绕复杂叙事的伪造。比如同一个新闻事件,视角和立场完全不同,传递的信息也大相径庭。这些信息会被算法的回声效应过滤放大,使受众的意识形态两极分化,最终人类将面临一场“叙事战”。
陈雷:首先,人工智能产生的大量内容应该被标记。第二,通过技术手段检测AI内容的合理性和准确性。当然,出了问题之后怎么惩罚是另一个层面。
张鹏(智普华章科技有限公司CEO):我看过一个权威机构的报告。当时他们在写报告的时候,互联网上大约有10%的数据是由模型生成的,已经无法与人类生成的数据区分开来。未来这个比例还会继续上升,这里面可能也包含了信息不实的问题。这也是一个伦理安全问题。如何区分机器产生的数据,尤其是虚假数据和有问题的数据,或者阻止它们产生,也是一个很大的挑战。
陈然[北京OpenCSG创始人兼CEO:首先,我是一个唯物主义者,也是一个无神论者,但是我在今年5月看到GPT有一些性格特征。大的模式是工业革命,比互联网好。它解决的主要问题是人类知识积累的问题,以及人类知识积累是否有上限的问题。比如三甲医院的医生水平是有限制的,到了一定年龄就得退休。这些经验都是被大模学习后积累的,大模不会退休。它只是代替或辅助那些有经验、有知识的人,是知识的积累和延续。如果这是真的,那就是时间问题。
澎湃科技:除了生成式人工智能,还会有其他形式的AGI吗?
梁嘉恩:用统计模型和递归神经网络持续生成对话的能力在2014年左右就已经有了,但是不可控,很多结果质量不高,看起来不够“智能”。ChatGPT出现后,生成的内容质量更高,相对可控,更符合人类预期,显示了AGI的能力。
理解语言并通过语言与人类对话只是AGI的第一步,真正的逻辑推理能力将在未来加入。现在的逻辑推理“现象”是通过思维链激活的,本质上并不是原始的。它可能根本不懂逻辑,只是一个统计模拟。所以以后肯定会有更深层次的逻辑推理能力,尤其是结合多模态信息的逻辑推理。现在其实可以看到一些研究进展。
张鹏:毫无疑问,生成式人工智能可能不是最终答案。只是生成式人工智能是目前接近AGI的一个非常有效的方式。但是它也有问题,比如幻觉和安全性。需要大量的研究,比如在“系统1”的基础上引入知识和逻辑推理来约束和验证“系统1”的“系统2”。目前很多人都在研究,我们也一直在强调,未来认知智能的框架是双系统框架,由知识和数据驱动。现在是数据驱动走得快,就是生成的AI走得快,效果明显提升。但我们仍然需要思考如何以“系统2”的方式将知识、记忆和逻辑整合到整个框架中,这可能会解决错觉问题以及安全和隐私问题。
“系统1”和“系统2”整合后,会带来认知智能。生成式人工智能的工作模式是预测下一个token(注:token通常指AI领域文本处理过程中的最小单位),强调生成过程和算法,但认知智能并不局限于生成,它可能是实现认知智能甚至AGI的重要途径,但也可能不是全部。
王小航(蚂蚁集团副总裁、金融大模型负责人):生成式AI只是这一波技术革命的中心,但最终需要一个系统化的工程组合技术来实现AGI,端到端解决现实世界的问题。如果大模型真的要进化成一般智能和更高级的智能,比如具身智能,就需要与现实世界连接和交互,这包括多模态理解、感知和交互技术。
陈秋帆:AGI的定义有其局限性。目前我们只是狭义地将与人类相似的智能水平定义为“通用人工智能”,但对于“通用”和“人工”这两个属性的每一个属性都存在疑问。
考虑到宇宙的浩瀚和人类的无知,我相信人类不是唯一的智慧生命,即使是在地球上。恐怕我们对智力的理解还只是处于非常初级的阶段。正如杰弗里·辛顿所说,我们无法完全理解一件事情,除非我们能够做到。所以,构建通用人工智能的最大意义,或许就是更好地理解人类自身。
澎湃技术:AGI的下一个阶段会是什么?是超级特工吗?
小华阳:AGI的下一个阶段一定是ASI(人工超级智能)。事实上,现在的GPT-4可以视为超级认知智能的具体成果,在认知广度和深度上已经超越了大多数人类。想象一下,我们中谁的知识容量能达到GPT-4的水平?它几乎知道所有的科目,我们可以问它任何具体的问题,人类很难记得这么清楚。这些都是大模型远远超出人类认知的方面。
事实上,机器的认知能力超过人类是一个必然的趋势,未来很长一段时间我们可能都要接受这种状态。其实机器在下棋、计算、认知能力上已经超越了人类,所以会很正常。但这是否意味着人类没有超越机器的地方?我觉得主动权,控制力,控制和使用AI的能力,还是人类独有的。人类仍然可以脱离现有的思维框架,提出新的理论框架,这在目前的大模型或者人工智能中仍然是不具备的。包括人类特有的一些生存和发展智慧,这些都是当前或未来的超级认知智能体所不具备的。这里的智慧是指人们能够根据适当的情境来解决问题,即何时何地采用什么策略,掌握什么知识。这种能力是人类独有的,机器还很难实现。
张鹏:这是人们对AGI的期望。人的大脑是有限的,精力是有限的,时间是有限的,学习能力和速度也是有限的。他们能达到的上限是显而易见的。创造一个能超越人类的机器或通用人工智能,是人类内心的执念。每个人对AGI的期望一定超出了人们的智力水平。
陈雷:在短期内,它可能不能被称为超级代理,但它必须是一个代理。最近研究的热点是Agent。大模型不再是模型即服务(Model as a Service),而是一个决策与控制、与下游沟通与交互的系统,从辅助角色变成了决策角色。
王小航:agent的本质是有很多技术组合,很多标签和新技术可以塞进agent的框架里。最终的本质是不断解决现实世界的任务。这一切都是基于大模型,提供连接、知识存储、思考和规划框架,是产业落地最关键的技术载体之一。
陈然:分久了就分久了。公共云和硬件都符合这一标准。当事情足够大的时候,谁来监管?这意味着大模式肯定会越来越大,肯定会被规范,垂直模式也会越来越大。会有超级特工吗?我觉得答案是否定的,每个国家都有反垄断法。世界上怎么会有超级特工?
陈秋帆:我认为是一个可以跨物种沟通协作的行星群智能网络,包括人类、非人类生命形式、机器智能体和环境。
澎湃技术:未来一年全球AI监管有哪些进展值得期待?
陈雷:大方向不会变。我们要监督大模型的三个方面。第一是输入数据,第二是算法本身。未来的算法本身是否也应该强调可解释性和合理性?第三是输出的监管。至于大模式对社会的影响,应该有社会学的考量。
王小航:安全、隐私、道德和可解释性将继续是监管的重点。歧视性AI是降本增效的工具,大模型不是工具。本质上是匹配、赋能甚至部分替代人和专家。医疗、金融等专业领域有准入标准,必须持证上岗,专业能力要考核。所以现在有一个趋势,就是大模特深入到这些行业就不能豁免。她们需要准入才能在行业落地,相当于大模特要参加专业考试。这是之前AI不存在的问题。
张鹏:许多国家都出台了人工智能立法,其中包含安全伦理的内容和条款。中国也出台了生成式人工智能管理办法。以后这些需求管理系统会越来越细,因为早期大家的认知还参差不齐,不知道会出现什么样的问题。随着技术的普及,大家的认知加深了,会逐渐意识到问题的关键在哪里,所以会尽量往这个方向去做。比如从最终的应用效果开始逐步延伸,对模型训练中使用的数据的安全性、版权和隐私保护,以及模型和效果的评估都制定了标准和方法。
澎湃《科技》:关于AGI或与AGI打交道,你最想知道答案的问题是什么?
张鹏:机器真的有必要拥有自我意识来实现AGI吗?去AGI有几个阶段。第一阶段是用神经网络模拟人脑,实现“系统1”能力。第二阶段是在“系统1”的基础上构建“系统2”,使智能体具有自我反思和知识提取、提炼、存储和记忆的能力,并限制“系统1”的输出。第三阶段,认知推理能力进一步提升,人机差距还是那么大,考虑是否涉及意识。
人工智能的智能水平从来没有接近过人,因为它不知道它不知道。这背后的一个问题就是没有边界。作为一个代理人,人有一个非常清晰的边界,能够区分“我”和“非我”,我知道的和我不知道的。没有界限,就无法判断自己是否知道。界限的产生,可能就是自我意识的产生。
王小航:价值取向。一旦大模式开始有了自我意识,最重要的就是价值观的对齐和人类的系统保护。所谓价值取向,就是大模特有了独立意识后,当其智力和能力媲美并超越创作者时,需要以什么样的态度对待创作者?在智力和能力都比人强的情况下,如何与超级智能共存?这就是超级比对的起源,即作为一个物种,我们可以与更高阶的新物种安全地利用、共存、生存和发展。但那是高级阶段,现在要先落地。
梁嘉恩:如何为AGI和人类的共同进化找到一条有效的路径?人们适应AGI,知道AGI擅长什么,能真正帮助人类什么,会有什么隐患和风险,达成共识和标准;AGI也在实际应用中进化,逐渐提升能力,与人类共识“看齐”,这是我们的期待。为了实现这一期望,我们需要在实际应用中找到有效的算法、技术和机制。
现在大模型这么大,如果不是这么多用户参与反馈,连OpenAI都不知道到底哪里会出现什么样的问题,哪些参数会导致这种现象。很多问题是不可控的,我们要有一个熟悉的认识过程,然后考虑用什么机制和方法来更好地“对齐”人类对这个问题的预期。这绝对不是你在实验室就能想清楚的,需要在迭代过程中形成有效的方法。
陈然:未来会有AGI或AIGC的“联合国”吗?这是人类第一次面临共同的挑战,共同的价值观挑战,监管可能会全球化,这样的组织什么时候形成,各国如何合作,我拭目以待。
王家屏:如何让机器管理机器?在未来,当我们可以把AI看成是一个有独立意识的硅基个体时,就意味着未来的社会活动可能不仅仅发生在人与人之间,也可能发生在人与机器之间,甚至是机器与机器之间。那么机器在工作的时候,也需要受到一定的道德法律,甚至法律的约束。就人类社会而言,法律约束其实也就起几个小时的作用,大部分是道德约束。这样才能以较低的成本维持整个社会的稳定,因为法律毕竟是落后的。那么这个机器是如何工作的呢?仅仅依靠人类治理,一点点时间滞后可能已经让机器做了很多事情。
目前我的思路是,用机器管理机器的逻辑首先是机器最基本的身份问题。比如一台机器,今天关了,明天又开了,还是那台机器吗?并在这种身份中积累社会价值,那么对于它来说,改变身份就意味着巨大的成本。只有当它有了价格,它才能被限制。当它有了一定的价值,就会害怕失去这个价值。这个价值对于机器来说是如何沉淀和体现的?在区块链中,实际上有一整套系统来完成这个任务,这个系统和人类的信用系统非常相似,只不过机器的动作频率和速度要比人类社会快得多。所以人类社会原有的执行模式并不适合机器去做,机器可能在几毫秒内完成很多事情。这意味着对机器的监管需要一套有自己规律或规则的自动化系统,即机器统治机器的逻辑。
古北(科幻作家):如何思考人类与数字生活共存的可能未来?OpenAI有两个流派:有效加速派和超级对齐派。超准者必须让人工智能满足人类的要求,核心需求是造福人类。有效加速派认为科学技术的发展是不可阻挡的,在一定程度上科学技术可以受到科学技术的制约。让人类摆脱低级趣味或疾病的束缚,实现高级的精神追求,是人们对数字化生活的美好展望。然而,这不可避免地涉及到技术普遍受益等社会问题。我们需要进一步拓展我们对数字生活的想象。人类在使用工具时特别喜欢拟人化,所以总想拟人化数字生活。然而,数字生活可能是一种波、一种能量或一种信息状态。最终,数字生活可能不会以和人一样的方式存在。
杜凯(北京大学人工智能研究所助理研究员):主要是关于数字生活,我认为数字生活已经进入了一个需要认真讨论的阶段。其实我们也生活在一个虚拟的世界里,周围的世界都是我们视网膜对世界的重构,每个人都是不一样的。也许一些有天赋的画家,像梵高和毕加索,把世界感知为他们的画。从这个意义上说,人和机器没有太大区别。ChatGPT的“智慧的涌现”为意识研究提供了一种新的思路。意识可能不是预先定义的,而是浮现的。传统上,做科学是自上而下进行的。而科学问题驱动的研究方法,不一定能解决意识的问题,但或许可以看看意识能否通过工程产生。(部分资料来自天桥脑科学研究所“数字生命与意识上传”研讨会)
陈秋帆:什么是意识?我是什么?存在是什么?这三个问题可能是一样的。"

作者:开云体育官网




现在致电 5243865 OR 查看更多联系方式 →

COPYRIGHT 开云体育平台官网 版权所有