在这一期 TED AI Show 中,伦理学家兼法律学者 Nita Farahany 讨论了神经技术的快速发展及其对隐私、自主权和认知自由的潜在影响。她解释说,尽管目前的 AI 和可穿戴神经技术(如智能手表、带有脑部传感器的耳塞和增强现实/虚拟现实设备。)尚不能直接读取我们的具体思想,但它们已经能够追踪心理状态并推断情绪、注意力水平等。
这些设备已经能够通过嵌入的传感器捕捉脑电活动,并与人工智能结合解码大脑的简单指令和心理状态。
例如,耳塞中的传感器可以检测用户的脑电波,推测他们当前的情绪、注意力、甚至潜在的健康问题。这种技术能够分析大脑发出的微弱电信号,并使用 AI 解码这些信号,将其转化为命令,如操控计算机光标或与软件交互。
目前,虽然 AI 技术还不能直接读取具体的思想(如语言或复杂的想法),但它已经可以在一定程度上推测出简单的心理状态,比如用户是专注还是分心,是开心还是难过。未来,随着生成式 AI(Generative AI)的结合,这种能力可能会进一步提升,能够通过大脑信号“预测”用户想要表达的内容。
神经技术的潜在应用
Farahany 描述了神经技术的多种正面应用,例如改善医疗健康,特别是在心理健康和大脑疾病治疗方面。随着技术的进步,我们可以更精确地了解大脑的运作方式,开发更为有效的治疗方法。同时,这些技术还能用于提高用户体验,如更自然地与虚拟现实设备交互,摆脱键盘和鼠标的束缚。
神经技术有可能改变我们与技术交互的方式,使之更加无缝和自然。例如,用户可以通过思维控制与虚拟现实设备互动,而不需要传统的输入设备。此外,神经技术还可以用于检测大脑中的疾病早期征兆,帮助医学诊断和治疗。
隐私与“认知自由”的威胁
尽管神经技术带来了许多正面应用,但 Farahany 也表达了她的担忧,特别是关于“认知自由”(cognitive liberty)的威胁。她认为,随着这类技术的发展,我们的大脑数据变得越来越容易被收集和分析,从而威胁到我们思想和精神世界的隐私。
Farahany 提出“认知自由”这一概念,旨在强调每个人对自己思想和精神状态应拥有的自主权。她担心,如果没有足够的法律和监管保护,这类技术可能被滥用,导致“神经监控”(neuro-surveillance),甚至可能影响我们思想的自由和隐私。
她举了一个极端的例子,即公司可能会通过监控员工的脑电波,判断他们是否有恋爱关系或其他违背公司政策的想法。这种对大脑活动的监控,不仅仅是隐私侵犯,甚至可能影响个人的自由思想和自主性。
未来的伦理与监管挑战
Farahany 强调,在神经技术迅猛发展的背景下,社会需要快速采取行动,为这类技术制定合适的法规和伦理标准。她呼吁通过全球性的人权框架来保护“认知自由”,将思想隐私纳入隐私权的范畴,并且防止这些数据被滥用。
她指出,虽然目前已经有一些国家(如美国的科罗拉多州和加利福尼亚州)在推动立法以保护神经数据的隐私,但这些措施还远远不够。全球应尽快制定更全面的法律,以保护人们免受未经同意的神经数据监控。
Farahany 特别提到,在技术迅速普及的情况下,确保这些权利变得尤为重要,因为人们可能会因为便利或经济压力而不自觉地放弃自己的心理隐私。例如,许多人已经习惯在社交媒体上分享他们的生活,而没有意识到这些数据可能被公司或政府滥用。未来,如果大脑数据的分享变得司空见惯,社会可能会失去保护这类数据的意识。
以下是详细内容
我是 Bilawal Sidhu,欢迎来到 TED AI Show,在这里我们探讨如何在 AI 影响一切的世界中生存和发展。
今天,我们将深入探讨由 AI 增强的神经技术,与伦理学家和法律学者 Nita Farahany 进行讨论。Nita 是《大脑之战:在神经技术时代捍卫思想自由》一书的作者,我觉得这本书既令人着迷又充满了恐惧。这本书讲述了如果不进行监管,神经技术可能如何侵犯我们最后的隐私堡垒——即思想隐私。问题是,这类技术是否不可避免?
如果是,我们该如何保护自己的认知自由?这是 Nita 提出的一个概念,最近我一直在思考。为了解答我的许多问题,我联系了 Nita。
Nita,欢迎来到 TED AI Show。
[00:04:10] Nita Farahany:
谢谢你邀请我。
[00:04:10] Bilawal Sidhu:
首先,我想问一下,你能否简要介绍一下什么是神经技术?它是如何运作的?以及公司正在追求的一些主要应用场景是什么?
[00:04:16] Nita Farahany:
当然可以。
[00:04:16] Bilawal Sidhu:
你能从高层次上解释它是如何运作的,以及公司目前主要探索的使用案例是什么?
[00:04:23] Nita Farahany:
到目前为止,当有人听到“神经技术”时,可能会联想到像 Elon Musk 正在做的事情,即他的 Neurolink 公司。
你知道的,他们会在颅骨上钻一个小孔,植入电极到大脑深处,这样就可以帮助那些失去沟通或行动能力的人恢复一些功能。这确实是神经技术的一种,但它并不是将对大多数人产生影响的神经技术。
我关注的是物联网和可穿戴设备。越来越多的人佩戴像智能手表、耳塞或虚拟现实 (VR) 和增强现实 (AR) 设备,这些设备都装有传感器,而这些传感器能够检测身体的不同方面。
每当你思考或做任何事情时,大脑中的神经元会发出微小的电信号。数十万个神经元可能会在同一时间发射,这些信号反映了不同的心理状态。无论你是高兴、悲伤、心不在焉,还是在思考上、下、左、右,这些都是可以被传感器捕捉到的电信号,然后人工智能可以解码这些信号并将其转化为命令。
大多数人已经习惯了诸如心率、步数甚至体温等信息被追踪,但市场上已经开始广泛应用的新产品是将脑波传感器嵌入这些设备中,主要是电生理传感器,通常称为 EEG 传感器。这些传感器可以放入耳塞、耳机甚至耳后的可穿戴小纹身上,用来检测大脑的电活动。
所以你真正应该把神经技术看作一种新型的可穿戴设备。虽然市场上已经有许多独立设备存在,比如前额带或者可以戴在安全帽里的传感器,但更应该关注的是我们日常佩戴的这些设备,它们被添加了新的传感器,能够捕捉脑部活动。
[00:06:37] Bilawal Sidhu:
最近发布的 Apple Vision Pro 或 Meta Quest 3,让我意识到,从某种程度上说,它们是虚拟现实头显,但从另一个角度来看,它们其实是戴在脸上的生物识别记录仪。
[00:06:44] Nita Farahany:
没错。
[00:06:44] Bilawal Sidhu:
目前这种技术在“读心术”方面可以做到什么?而还不能实现但可能即将到来的又是什么?
[00:06:57] Nita Farahany:
这是一个很好的问题。虚拟现实技术 (XR) 从基础上来说是一项全新的技术。它是戴在脸上的计算设备,不必遵循过去的使用规则,比如键盘和鼠标或游戏杆,操作方法可以被重新定义。所以,当你构建一类新技术时,完全可以重新想象与之互动的方式。
这些公司正是这么做的,他们在设备中装满了生物识别传感器,无论是摄像头、面部识别、眼睛凝视追踪还是脑波传感器,这些传感器都在不断训练,目的是推断用户的心理状态。比如,你是高兴还是悲伤?你是疲倦还是清醒?你的思维是游离的还是专注的?这些基础的情绪状态多数都可以通过训练,基于脑波活动推断出来。此外,大多数设备在光标活动方面已经训练得非常好,能通过脑-机接口设备实现上下左右的移动。所以,很多你通过鼠标可以完成的任务,现在可以通过脑-机接口设备来完成。
然而,关于可穿戴设备的“读心”能力,还没有达到的是真正解码你大脑中的完整想法或连续的语言。你现在还不能通过简单的思考“我要给我丈夫发个快速短信”来让设备解码出这段信息,发送到你的手机,并发送出短信,但这是正在向我们靠近的未来。
换句话说,随着设备的进化,意图沟通这一行为越来越多地被解码出来,而生成式 AI 在这方面会成为一个重要的游戏规则改变者。因为生成式 AI 是基于自然语言和对话进行训练的,它在预测你想输入的下一个词方面会变得更加强大。因此,将生成式 AI 的自动补全功能与脑波活动结合,再加上越来越多的大语言模型能够在设备端进行处理,意味着设备与脑波传感器会随着个体的使用不断演化,从而逐渐变得更加精准,实现越来越多的“读心”功能。
[00:09:16] Bilawal Sidhu:
这真是非常强大。所以听起来这项技术可以粗略地推断出你的脑部状态,虽然不能完全读懂你的内心独白,但如你所说,当引入更多的感知模式时,你可以结合摄像头的画面、用户的眼睛注视点,再加上生成式 AI 进行预测叠加,甚至利用这些基础的感应能力,也可以开始做出非常准确的预测。
[00:09:42] Nita Farahany:
没错。
[00:09:43] Bilawal Sidhu:
我想知道,为什么这么多公司都在追赶这一技术,并进行大量投资?有哪些你感到兴奋的积极应用场景?这种技术将如何真正帮助用户?
[00:09:55] Nita Farahany:
我认为这项技术可以通过很多方式帮助用户。我不只是把神经技术看作那些耳塞中的脑部传感器,而是把它看作一整类认知生物识别技术,它能够预测一个人正在思考和感受什么,这可能带来很多积极的应用场景。
我们越是能够准确地洞察大脑内部正在发生的事情,就越能够推出更加有针对性的产品和服务。所以,所有大科技公司都在竞相进入这个领域。比如,苹果公司在这个领域拥有大量专利和投资,你也可以看到 Meta 和谷歌等公司做了同样的事情。如果虚拟现实技术(XR)真的普及,最终一定会普及,那么用键盘和鼠标来操作这些设备显然是不合适的,必须有更自然、更无缝的方式来与设备互动。
但到目前为止,这些公司并没有把重点放在如何商品化所有的脑数据,而是致力于从根本上构建一类新的技术,并重新定义与之交互的方式。
与此同时,围绕精神健康的投资也在大规模增加,科技公司逐渐意识到大脑是一个未开发的领域,可以用于开发大量与精神健康相关的产品。因此,很多应用专注于 AI 驱动的心理健康服务、写日记或者冥想,这实际上是一个潜力巨大的行业,可能达到数十亿甚至数万亿的规模。
随着这些技术的进步,神经接口技术和大脑健康产品之间的界限将越来越模糊,这意味着我们将拥有更好的数据和手段来洞察大脑内部,并推出更加有针对性的产品和服务。我认为,这可能是最大的未开发市场之一。
[00:11:59] Bilawal Sidhu:
说得太好了。我记得 Zuckerberg 曾称神经接口技术是虚拟现实的“圣杯”,对吗?
[00:12:05] Nita Farahany:
没错。QWERTY 键盘在 XR 技术中的应用没有任何意义,对吧?它和鼠标一样,都是过时的工具。
[00:12:14] Bilawal Sidhu:
完全正确。
[00:12:14] Nita Farahany:
我们已经习惯了这些设备,但当你开始思考“我们为什么还在用鼠标来控制屏幕时”,你会意识到它的低效性。触摸屏确实是一个不错的创新,但仍然显得笨拙。
[00:12:25] Bilawal Sidhu:
是的。
[00:12:25] Nita Farahany:
我们与技术的互动效率低下,这点必须改变。
[00:12:34] Bilawal Sidhu:
你描述的这个世界听起来非常高效,假如这是合适的词语,但它也让人感到一丝诡异。我想深入探讨一下,究竟是什么让它显得诡异?你提出了认知自由这一概念,能否解释一下它的定义,为什么你认为这个词在讨论神经技术时很有用?
[00:12:59] Nita Farahany:
我大约在2010年左右提出了“认知自由”这个概念,这个词对我来说有着深刻的共鸣。它反映了我认为的自我决定权,即对我们大脑和精神体验的控制权,作为一种基本权利。这意味着什么?为什么这对人类自我实现是根本性的?
关于自我决定的文献已经在过去几十年里逐步形成,它探讨了自我决定的定义,以及为什么自我决定是人类自我实现的基本前提。你需要基本的自主权、能力以及与他人建立联系的能力。因此,对我来说,认知自由就是这些东西——是关于自我决定的支柱。技术既可以促进自我决定,也可以干扰这种能力,而认知自由则为我们设立了一个目标,即在设计或监管技术时,我们所追求的是什么?
我们正在试图为个人保留一个自我决定的空间,以使他们能够形成自我认同,拥有一个隐私的心理空间,并拥有思想自由的能力。这些都是成为一个完整自我的先决条件。因此,对我来说,认知自由作为一种基本权利,是个人能够实现自我、成为完整的人类的前提条件。
[00:14:21] Bilawal Sidhu:
我们的大脑就像是我们最隐秘的圣殿,我们认为自己对它拥有绝对的掌控权,尽管实际上,技术早已在深层次上影响我们,而我们甚至没有意识到。现在,我们正在开发这些更高带宽的感知形式,我很好奇,有没有类似的案例,比如说,过去十年或二十年里,很多人都自愿进行 DNA 测序,但他们从未想过可能会发生数据泄露。
因此,我想问的是,在脑部和神经健康的透明度不断增加的情况下,没有足够的隐私保护法规,这些医疗数据会不会被武器化,用来对付用户?
[00:15:12] Nita Farahany:
我认为很有可能。过去,很多人参加了消费者直接参与的基因检测,他们从未想到这些数据最终会被用来解决悬案,比如被执法部门收集,甚至未来可能被用于无令搜查。
一些人可能会觉得这无所谓,比如“我没有犯过罪,所以如果这能帮忙找到罪犯,那也挺好。” 但当你开始想象每种可能的应用场景时,会发现数据有很多你从未想到的使用方式,可能会被用来对付你。
我认为大脑数据比这更加根本。这不仅仅是关于执法部门将如何使用它或其他人将如何使用它的问题,而是关于拥有一个空间——一个心理隐私的空间——对于我们作为个体的存在有多么重要。这个问题太过根本,我们几乎无法理解,甚至难以想象没有这个空间的世界。可是我花了很多时间在思考这个问题,想象如果我们失去了这个空间,世界会是什么样子。
想象一下,我们小时候常常有一些秘密的想法,比如“也许我很怪异,我有不同的性别认同或性取向,或者我不想成为医生,而我的父母希望我成为医生。”如果你没有一个空间来自由思考这些问题,世界会变成什么样子?成为我们自己需要一个安全的空间去探索内心,而如果这个空间不复存在,个人成长将何去何从?
我们正逐步进入这样一个世界,而没有意识到。我们将失去这个最基本的人类特性,而我们没有采取适当的保护措施,确保这个人类关键特征不受侵犯。
[00:17:27] Bilawal Sidhu:
这正是我们面临的问题——我们正在讨论神经监控问题。我们继续往下挖,设想这个未来。你认为我们会走向一个彼此脑状态完全透明的未来吗?这将如何影响我们的个人关系?对社会又会产生什么影响?感觉这就像是推特的极端版本,不再需要用手打字表达思想,而是每个人都可以知道你内心在想什么。这实在太疯狂了。
[00:17:58] Nita Farahany:
我在杜克大学教了一门课,叫《数字时代的你》,目标是让本科生批判性地思考数字技术,并反思它们对自我的影响。课堂上我了解到几乎每个学生都分享了自己的手机位置数据,他们的所有朋友都可以实时追踪他们,简直有数百人正在追踪。我对此感到震惊。
后来,我在写书时采访了一位冥想班的老师,他们在班上使用神经设备,他们创建了 Facebook 群组,群组中的人们会分享自己的冥想脑电活动记录,比如说“看看我的伽玛波活动,看看这里我的阿尔法波活动。” 我想,“这会不会成为最新的状态更新呢?”比如,“Nita 现在心情不好,不要和她说话”或者“Nita 在想吃东西。”我的朋友可能会发信息说:“嘿,我也在想吃东西,我们去吃点东西吧。”
这类数据分享很容易变得透明,但这是否完全是件坏事呢?我不知道。有些人认为完全透明会更好,我可以接受这种论点,但当涉及到心理隐私时,我坚信个人的成长需要更大的控制权,决定是否分享以及分享哪些脑波数据。
[00:19:36] Bilawal Sidhu:
你提到的这个技术更多的是一个“同意”问题,但有时我觉得技术的实用性最终成了特洛伊木马。我们确实从这些技术中获得了很多好处,但当我们同意某些事物时,往往会带来一些我们没有预料到的后果,甚至可能我们完全没有意识到这些后果。
[00:19:55] Nita Farahany:
没错,我正是想让人们意识到这一点。过去一年发生了很多事情,部分原因是我担心神经监控的正常化。我们渐渐看不到这些风险,接受了这种新技术,而没有停下来意识到我们正在采纳的技术带来了哪些含义。
通常这些技术是通过实用性引入的,你刚才说得很好,我们被某种实用功能吸引进来,或者这种体验很有趣,唯一能获得这种体验的方式就是接受这项新技术。但我们并没有被提醒这种技术的风险,也没有真正意识到“我们正在跨越一条新界线,这是一条从未跨越过的线,它将带来深远影响。”
这涉及到人类的基本存在方式。我们与他人分享的是什么、保留的又是什么,这些都是我们定义脆弱性和亲密感的基础。我认为这不仅仅是一个“同意”问题,因为在某些时候,你可能会感受到来自同伴和社会的压力。如果你不分享位置信息,你就显得很奇怪。为什么你不和大家一样分享呢?这种社会压力促使我们逐渐走向分享脑波数据的常态,个人在无意识间放弃了自己的思想隐私,而这一过程没有任何讨论、思考或深刻的反思。
[00:21:46] Bilawal Sidhu:
是的,类似的事情在社交媒体上也发生过。人们可能会说:“我喜欢定制广告,这挺好。”这些算法对我们的愿望和欲望有着深刻的了解,效果确实很好。我们可能走向这样一个未来,人们会说:“哦,我买个便宜的 Alexa 然后会在梦中听到啤酒广告,但无所谓,反正我是在睡觉。”
[00:22:12] Nita Farahany:
是的,这种例子是真实存在的。
[00:22:14] Bilawal Sidhu:
没错。
[00:22:15] Nita Farahany:
在我的书中提到了 Coors 公司,他们因为多年无法进入超级碗中场秀广告而感到沮丧。于是他们与梦境研究人员合作,发现可以在人们最容易被暗示的状态下,即大脑意识休息而刚入睡时,植入一些品牌联想,比如将 Coors 与山脉、湖泊、溪流等联系在一起,从而让人们认为 Coors 清爽宜人。
但我想象的是一个更加反乌托邦的未来,人们戴着睡眠耳塞来监控睡眠脑波,这些设备的商业模式基于实时投放广告,比如“我们还从未在 Nita 睡觉时投放过广告,Nita 此时处于最容易被暗示的睡眠状态,她卧室里有 Amazon Echo,这是最佳投放时机。”
什么能够阻止这种情况呢?没有,唯一的阻碍是这些公司是否有道德底线。但如果这种方式是广告投放的最佳途径,并且能为广告商带来最高回报,那又有什么理由阻止他们这样做呢?
[00:23:43] Bilawal Sidhu:
哦天哪,哦天哪。这项研究,梦境中的目标广告,展示了公司和社交媒体算法的潜力,也展示了神经技术的现有能力。
[00:23:57] Nita Farahany:
没错。
[00:23:58] Bilawal Sidhu:
令人惊讶的是,社交算法不仅仅在提取或推断我们的世界观,它们还主动塑造着我们如何看待世界。
[00:24:08] Nita Farahany:
没错。
[00:24:09] Bilawal Sidhu:
它们预测我们想要什么,但随着这些平台与我们的生活交织得越来越紧密,它们几乎可以定义我们想要什么。
那么,当涉及到神经监控的威胁时,你认为这种技术的兴起会如何影响我们有意识的思想,甚至在更潜意识层面上,它会影响我们能够思考的内容吗?
[00:24:30] Nita Farahany:
这是我现在最挣扎的问题之一。