通过我眼睛的量子手 by Jason Padgett; 请参见这些作品 — 经Jason Padgett许可使用。
2002年,华盛顿塔科马的一名31岁家具销售员即将成为天才。一天晚上,他离开一家卡拉OK酒吧时,被两个男人袭击,头部多次挨打,最后他瘫倒在人行道上,失去了意识。当他醒来时,浑身是伤,勉强站起身,蹒跚地走到附近的一家医院。
在接下来的几天和几周里,杰森·帕特开始以一种全新的维度看待这个世界。旋转的水流或云朵在他眼中变成了错综复杂的线条和网格状。他开始把一切都看作是充满复杂数学结构的画布,由分形和复杂几何形状构成的层次结构。
尽管他没有正式的数学教育背景,帕德格特却发展出了对高深概念的直觉理解。他一丝不苟地用手绘制这些形状。在他遭受脑部损伤之后,从而,他变得像一个数学奇才,拥有了一种罕见的、近乎神秘的洞察力,能够洞察自然、空间和时间背后的隐秘架构。
像帕德gett那样的脑损伤案例揭示了自然的一个秘密——大脑被设计成将某些部分隔离开并保持它们安静。但当这些界限被打破,当正常的路径被关闭时,大脑会适应,并开辟新的路径,让通常独自工作的区域联合起来工作。结果可能会令人惊叹,展现出似乎近乎超自然的能力。这证明了大脑的原始韧性及其强大的适应和生存能力。
这种抑制机制,称为抑制,是人类大脑的一个典型特征。研究者伊恩·麦吉尔克里斯特(Iain McGilchrist)认为,它提供了“必要的距离感”,帮助我们在行动前拉开与世界的距离进行思考。通过抑制神经回路,它发挥着资源管理器的作用,节约能量,减少噪音干扰,确保信号清晰,使关键区域能够按复杂序列执行任务。
当前的AI模型,包括比如ChatGPT所用的模型,缺乏自我抑制能力。它们不像大脑那样调控和区分不同活动;相反,它们通过从外部来源获取的大量数据进行概率计算来生成输出。因此,它们不仅耗电量大,运行起来也很笨重,而且无法自行学习。
现在,新的基于大脑的人工智能模型已经能够模仿某些抑制的特性。它们的能耗效率要高得多,可以直接从现实世界收集的数据中学习。它们不需要反复训练,也不需要一直有人类监督;它们可以即时调整。
随着训练和运行AI的成本不断上升,这些新模型正被视为更实惠且可行的替代方案。但是,当这些AI变得更加强大时,是什么来指导它们的行为和决策呢?我们又该如何控制它们呢?能控制它们吗?
人工智能的能源挑战能耗巨大的Transformer主导了人工智能领域,几乎吸引了迄今为止所有重要的生成式AI投资。领先玩家如OpenAI、谷歌的DeepMind和Anthropic都在推进这一架构的发展上投入了大量资源,寄希望于其处理复杂任务的独特能力。例如,谷歌加大了对Transformer的投入力度,宣称理论上,通过增加足够多的推理层,这些模型可以解决几乎任何问题。这种信心反映了Transformers技术背后的宏大雄心——以及它将释放AI全部潜能的信念。
Transformer模型投资的显著增加可以归结为三个推动技术领域发展的关键因素。首先,Transformer特别擅长处理大量网络抓取的数据——包括文本、图像和视频,因此成为语言建模和视觉处理等关键任务中必不可少的工具。
其次,流入人工智能领域的资本间接地由央行十多年的刺激政策推动,这些政策使风险投资公司和企业资金充裕,纷纷寻求投资回报。在多年缺乏真正创新的市场中,这些资金自然流向了人工智能,尤其是Transformer技术。
最后,在2023年,软件行业出现了一次重大转变,因为在更紧张的预算和更缓慢的销售周期的影响下,SaaS增长停滞不前。在这个更为谨慎的环境中,公司纷纷转向自动化技术,渴望利用那些不仅能提高生产力,还能直接替代人力劳动的AI模型。正如Sarah Tavel在其博客“AI初创公司:销售工作而非软件”中指出的那样,未来不再依赖传统的软件席位,而在于能够真正“取代”席位的AI——重新定义了过去被认为不可替代的角色。
然而,Transformer模型的基础也开始出现裂痕。其无尽的能源需求已经开始引发警觉。据估计,数据中心的电力消耗可能到2030年将达到全球电力供应的21%。科技巨头如苹果公司也开始表现出谨慎,最近的研究表明大型语言模型可能已接近性能上限。这种紧张局势促使科技领导者开始探索替代能源来源,例如核能甚至聚变,并寻求在模型效率、量化和加速方面的进展。甚至量子计算也被视为可能的解决方案之一。
随着Transformer模型的局限性越来越明显且紧迫,市场正准备迎接更可持续、更高效的替代方案。
基于大脑的人工智能解决了哪些问题?以下是以大脑为基础的人工智能模型解决的三个关键问题:
能源效率:基于大脑的模型估计比其他模型节能效率高100到1000倍,采用分散和稀疏处理。
使用原始数据:与Transformer不同的是,基于脑的模型可以从直接的实时互动中学到东西。这使它们能够构建更丰富和更具情境意识的环境理解——这是相对于Transformer依赖的静态数据集而言的一大进步。
自我学习:基于原始数据的模型,受大脑启发的模型可以自我学习和适应,而不需要持续的重新训练。相比之下,Transformer依赖于代理分数(proxy scores)和自动生成的修正,这使得它们的理解局限于模式,而不是实际含义。一旦系统真正能够自我学习,这个过程就可以变得递归,从而快速达到极为先进的AI水平。
大脑高效的秘密把拇指伸直,让它离你的眼睛有一臂之遥。在这个一臂距离的拇指大小的地方,你的双眼可以清晰地聚焦,这要归功于黄斑,即负责中央视觉的视网膜上的小区域。但是大脑并不满足于如此狭窄的视野,于是它开始想办法。你的眼睛会不停地快速、细微地转动,这种动作叫做扫视,这样眼睛就能将场景分成片段来扫视。
你的整个视野横跨210度,纵跨150度。视网膜的外围区域充满了视杆细胞,这些细胞可以检测光线、运动和对比度,特别是在光线较暗的时候,构成了周边视觉。视锥细胞集中在黄斑区域,但也分布在视网膜的其他部分,有助于颜色识别和细节观察。
真正的魔法发生在大脑的视觉皮层内,位于脑部的枕叶区域。在这里,视觉数据碎片被拼接成一个平滑且稳定的图像。本质上,视觉感知是一系列巧妙的近似,基于不完美的信息,却带来了一个极其无缝的体验,并且消耗的能量很少。
人类视觉是如何工作的,这是一门介绍基于大脑的人工智能模型的入门课程。
基于大脑的模型是如何工作的1992年,杰夫·霍金斯做到了许多被博士生拒绝后梦想的事情——他创立了成功的科技公司Palm Inc.,推出了革命性的移动计算设备Palm Pilot。然而,当全世界都被他那小巧精致的设备吸引时,霍金斯的心思却在更深层次的东西上:——这新皮层。
如果展开人脑的新皮层,其面积大约与一张较大的餐巾纸差不多。这层薄而褶皱的脑部外皮控制着高级功能,如感觉知觉、复杂的思维和运动调节。新皮质的厚度大约在2.5到4毫米之间,却包含大约160亿个神经元,占大脑总体积的大约75%。
霍金斯多年来一直默默从事研究工作,他的一个理论与他在1986年于伯克利被拒绝的博士学位论文有关,他认为新皮层可以被统一地数学建模。最近,他在他的公司Numenta进行研究。2021年,他出版了《一千个大脑:一个新智能理论》A Thousand Brains, A New Theory of Intelligence,详细阐述了他基于新皮层的人工智能模型。
《千脑智能理论》(https://www.numenta.com/blog/2019/01/16/the-thousand-brains-theory-of-intelligence/)标志着与当今主流人工智能框架的重大不同之处。这一理论基于层级时间记忆的概念,属于一类正在兴起的大脑启发式方法,旨在模仿人脑固有的效率。与神经形态计算、脉冲神经网络、液态状态机和深层预测编码网络等技术一起,千脑理论指向了一个未来,即人工智能不仅处理数据,还能学习以生物方式运作。
霍金斯的理论认为,人类大脑通过神经感官映射过程来学习,根据感官输入构建三维现实模型。他提出,与其他脑区不同,新皮层在结构上是一致的;负责视觉、触觉和语言的区域在结构上非常相似。这使他提出了一种适用于所有新皮层功能的通用算法,该算法以柱状体为中心,这是一种垂直组织的结构,由六层神经元组成,每层神经元都专门负责不同的处理任务。人类大约有150,000到200,000个这样的柱状体,每个柱状体大约包含80,000到120,000个神经元。
鼠的大腦皮層列 — 来源:维基共享资源, https://en.wikipedia.org/wiki/Cortical_column
霍金斯认为,每个皮层柱是一个独立的小处理器,能够识别模式和序列信息。这些皮层柱协同工作,在不同层次识别模式,但它们选择性地通信——一个皮层柱只与少数其他皮层柱连接,而不是与所有。这种分散方式使得大脑能够在没有中央控制点或笛卡尔式地图的情况下构建一个连贯的观点。相反,每个皮层柱独立地利用预测编码处理感官数据,共同构建我们对世界的整体感知。
想象你正握着一个棒球。在成千上万个皮质柱中,只有大约2%在“活跃着”,每个皮质柱贡献一小部分感官体验——触感、视觉和声音。这些皮质柱一起“共同决定”来确定它们感知到的事物,共同形成一种集体印象:握着棒球的真实感受。
随着基于大脑的模型不断发展和优化,今天的AI基础设施正因越来越多的投资而变得越来越庞大。问题随之浮现:投资多少算太多呢?
AI 是否处于泡沫状态?在人工智能领域的投资已经变得明显偏斜,更侧重于半导体和基础设施,而非实际应用的开发。仅英伟达的数据中心每年就有着令人震惊的[$105B]年营收,而来自OpenAI、Anthropic和Midjourney等知名的人工智能应用项目的总收入则相对较为谦逊,为5亿美元。训练像GPT-4这样的模型的成本约为8000万美元,而GPT-5的预估成本则高出一个数量级之多,有估计甚至高达[$2.5亿]。这引发了一些人对是否正身处人工智能——或“Transformer”——泡沫的质疑。
我们之前也见过这种基础设施建设的热潮。在上世纪九十年代末和本世纪初初,公司纷纷投入资源准备迎接预期的互联网流量激增,当时的一些预测甚至估计数据需求每年将激增高达1000%。
因此,Level 3 Communications、Global Crossing、Qwest Communications 和 WorldCom 纷纷铺设了数以千里的光纤电缆,但最终市场需求并没有像预期的那样增长。到 2004 年,只有大约 5% 的基础设施被使用。WorldCom 在收购和网络建设上花费了超过 300 亿美元(约相当于今天的 560 亿美元),却在 2002 年因会计丑闻而崩溃。Global Crossing 在光纤上投入了 220 亿美元(约相当于今天的 410 亿美元),同样因产能过剩和沉重的债务而在同一年申请破产保护。Level 3 和 Qwest 虽然勉强存活下来,但其股价却因过度建设的网络而暴跌了近 90%。
是否人工智能处于泡沫之中,部分取决于更高效的模型何时能成为商业上可行的,以及人工智能的应用能否兑现承诺。如果在接下来的5到10年内,受大脑启发的模型能在商业上广泛使用,那我们肯定是在泡沫之中。更重要的是我们如何设计这些系统。
控制基于大脑的AI:物理与哲学的分界线Joscha Bach和其他现代AI简约主义者,如Meta的Geoffrey Hinton和Yann LeCun认为,可以通过构建将复杂现象分解为可管理的组成部分的数学模型,在任何可行的载体上创造智能。他们相信整体的和涌现的特性可以从足够复杂的系统中产生,并认为这种方法是实际模拟智能行为的一种途径。
其他人在这里提出的建议是,我们应该采取一种更全面的设计方法,认为还原论模型最终会遇到类似哥德尔在不完备定理中揭示的极限,以及帕斯卡在他几个世纪之前就提到的极限,还有冯·诺伊曼、玻尔、彭加勒、罗素、维特根斯坦、休谟和康德等以不同的方式描述的——理性有其固有的限制。他们建议,应将这种更大的视角纳入AI设计中,以指导理性,因为还原论的方法可能会导致不可预测且不期望的结果。
讽刺的是——或者说是有意为之的——这两种相互对立的哲学观点反映了人类大脑在物理上的分割。大脑的一侧体现了纯粹的还原论和理性精神,另一侧则是一个整体性的观察者。
乍一看,这种分歧似乎微不足道。毕竟,人类总是喜欢辩论。最终人们可能会认为最实用的设计将在市场上胜出。但是,正如你可能已经经历过的那样,人工智能的输出历来难以量化。随着人工智能变得越来越复杂,评估准确性和偏差也变得更加困难。
哲学方法是至关重要的,因为它将引导比我们更聪明的系统,指导它们做出决策。我们的选择方向将带来深远的影响。如果我们的选择与现实脱节,可能会带来严重的后果。在深入探讨这些视角将如何塑造人工智能未来之前,让我们首先审视一下,因为这对于未来的人工智能设计至关重要,人类大脑的每一半是如何感知世界的,以及这种感知是如何形成的。
继续阅读第二部分详情
[1] D. Eagleman, 《Livewired》(2020), 企鹅图书.
[2] J.霍华兹, 千脑说 (2021), 基础书籍。
[3] J.霍金斯, On Intelligence (2004), Times Books.
注释已根据专家建议移除,确保翻译准确且简洁。如果需要,书名"论智能"可以替换为"《On Intelligence》",但此处保持原书名。
[4] S. Wolfram, ChatGPT在做什么以及它是如何工作的? (2023),Stephen Wolfram的官方博客文章。
丹尼尔·塞克斯顿是PW Holdings的合伙人,专注于促进初创企业和大企业之间的合作。领英上加我:领英连接。更多见解请访问RightBrainCapitalist。
共同學習,寫下你的評論
評論加載中...
作者其他優質文章