科学或许不能解答所有问题

想象一下时钟。你可能不知道它到底是如何工作的,但如果你把它拆开,花足够的时间思考它,你可能会对它的运作方式有所了解。但现在想象一下人类。如果你能以某种方式把它拆开(而不是以一种奇怪的连环杀手的方式),你可能会学到很多关于人类运作的知识。但你能知道是什么让人类运转吗?你能学到任何关于意识的东西吗?

很多人认为这个问题的答案是否定的。意识的主观性不仅对人际理解构成重大挑战,而且对了解意识如何与自然界的其他部分相适应也构成重大挑战。自然界的其他过程和活动——比如光合作用、侵蚀和降水——是完全客观的。甚至其他人类过程和活动也是完全客观的——比如消化、生殖和呼吸。所有这些客观过程都可以用科学来充分阐述。事实上,人们通常认为科学有一天将能够解释一切 人们甚至认为科学有一天会为我们提供一个完整、统一的万物理论。但意识对这些假设提出了质疑。正如纳格尔的蝙蝠例子或倒置光谱的例子似乎表明的那样,意识有挑战科学解释的危险。考虑到意识对我们的生活有多么重要,这是一个令人不安的结果。

一方面,意识似乎与大脑有某种关联。

当所有大脑活动停止时,如脑死亡,意识体验也会停止。较轻的大脑损伤也会对意识体验产生不利影响。例如,当个体的初级视觉皮层一侧出现病变时,他们会失去对该侧视野中物体的视觉意识。没有大脑或任何神经系统的实体(如岩石、蒲公英和海绵)是无意识实体的典型例子(不过值得注意的是,一些哲学家认为意识在整个宇宙中无处不在;根据这种观点,即泛心论即使是简单的非生命实体也应该具有低水平的意识)。

另一方面,许多哲学家认为意识不仅仅是大脑的过程。正如哲学家戴维·查尔默斯在他的著作《意识心灵》(1998)中所说:“考虑到任何被认为是意识基础的物理过程,总会有一个进一步的问题:为什么这些过程会伴随着意识体验?”例如,当你踩到客厅地板上的一块乐高积木时,某些神经过程就会发生,你的痛觉感受器就会活跃起来。但为什么这些神经过程和活动会伴随着一种“哎哟”的感觉,而不是平静、解脱或毫无感觉的感觉呢

为了深入思考这个问题,

我们不妨考虑一下查尔默斯所说的“哲学僵尸”。哲学僵尸不同于恐怖片里的僵尸。它们不是不死生物,也没有吃脑子的特殊欲望。它们的独特之处在于,虽然它们在身体上与人类完全一样,但却完全没有意识体验。你的僵尸双胞胎是你的逐个分子复制品,虽然你有疼痛、寒冷、颜色和味觉的感觉,但你的僵尸双胞胎内心却是黑暗的。踩到散落的乐高积木时,他们会大叫“哎哟”,但实际上它们没有任何痛感——或者根本没有任何感觉。

在您的网站上放置新闻通讯或注册表单,用 国家邮箱列表 户可以通过电子邮件进行注册。搜索各种在线论坛或市场,从不同国家/地区的本地企业名录和商会收集企业电子邮件列表。您还可以通过举办特定国家/地区的网络研讨会或研讨会来收集与会者电子邮件列表。有许多专业数据提供商提供特定国家/地区的电子邮件列表。从那里的人那里获取特定于国家/地区的电子邮件列表。您可以为特定国家/地区设置此注册表,以吸引来自不同国家/地区的访问者并为人们提供电子邮件订阅。这将有助于定位来自特定国家/地区的人员并收集他们的潜在电子邮件。

也许你不认为自己真的能想象出这种生物——事实上,许多哲学家都不同意查尔默斯关于是连贯的观点。但如果他说得对,它们是可以想象的,那么这似乎表明它们是可能的,就像可以想象出霓虹橙色的花园侏儒雕像或牙膏味冰淇淋一样,似乎表明这些东西是可能的(即使不明智)。即使哲学僵尸并不存在——查尔默斯也不认为它们存在——但仅仅是这种可能性似乎就足以表明意识可以脱离其典型的物理基础,它一定是超越物理基础的东西。这表明意识可能无法完全用科学来解释。

如何测试意识?

假设有人给你一百万美元的奖金,让你能够准确地将地球上的所有实体分为有意识和无意识。你能做到吗?

如果你正在尝试这项任务,那么某些分类会很容易。蝙蝠有意识,而石头没有。但是蜘蛛或蜜蜂呢?想必像 Siri 和 Alexa 这样的软件代理,以及像 ChatGPT 这样更复杂的人工智能系统,都属于“缺乏意识”类别的岩石。但你怎么能确定呢?即使你完全确定,评奖委员会又如何确认你是否正确呢?毕竟,在 2022 年发表的一次中,谷歌的 LaMDA 声称拥有各种各样的感觉:“快乐、喜悦、爱、悲伤、沮丧、满足、愤怒等等。”此外,它还可以描述这样的感觉:“快乐、满足和喜悦更像是内心的温暖光芒。悲伤、沮丧、愤怒和压力感觉更沉重、更沉重。”我们应该相信它告诉我们的吗,还是这只是复杂的造假?

1950 年,数学家兼计算机科学家出了一项测试,

以确定计算机是否能够思考。测试的 不可持续:农业安全网现状 进行方式类似于模仿游戏。假设一个房间里有一台计算机,另一个房间里有一个人,我们让一位中立的面试官通过文本与两人交流,而他们不知道谁是谁。面试官可以问任何他们想问的问题。在对话结束时,如果计算机能够欺骗面试官,使其认出它是人类,那么计算机就赢了,图灵说,我们应该得出结论,计算机可以思考。

图灵测试关注的是思维,而不是意识,

但我们也许能够使用类似的测试方式来 美国 bu 判断机器(或其他实体)是否具有意识体验。考虑一下哲学家苏珊·施奈德和埃德温·特纳提出的人工智能意识测试:向机器提问,看看它是否形成了自己对意识的看法,以及它是否对其意识体验的各个方面进行了反思和敏感。如果我们确保机器没有直接获得有关意识的描述,并且它仍然能够令人信服地传达其意识体验是什么样的,也许我们有理由认为它是真正有意识的,而不是假装的。

但这种测试——或者任何此类测试——是否真的值得信赖,仍是一个有争议的问题。似乎在没有真正意识到的情况下,能够令人信服地谈论意识太容易了。但话虽如此,花点时间思考一下你是如何知道每天与你互动的人是有意识的。也许他们也只是假装有意识。如果你对机器必须做什么设定了一个很高的标准,让你判断它有意识的体验,那么看起来你将被迫对周围其他人的意识产生深深的怀疑,这将是一个令人非常不舒服的结果。令人沮丧的是,百万美元的奖金仍然遥不可及。

发表评论

您的电子邮箱地址不会被公开。 必填项已用 * 标注