<?xml version="1.0" encoding="UTF-8"?><rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	>

<channel>
	<title>智能 &#8211; 神经现实</title>
	<atom:link href="https://neu-reality.com/category/intelligent-agent/feed/" rel="self" type="application/rss+xml" />
	<link>https://neu-reality.com</link>
	<description>包罗心智万象</description>
	<lastBuildDate>Sat, 15 Nov 2025 02:18:45 +0000</lastBuildDate>
	<language>zh-Hans</language>
	<sy:updatePeriod>
	hourly	</sy:updatePeriod>
	<sy:updateFrequency>
	1	</sy:updateFrequency>
	<generator>https://wordpress.org/?v=6.7.5</generator>

<image>
	<url>https://neu-reality.com/wp-content/uploads/2018/08/WechatIMG26-32x32.png</url>
	<title>智能 &#8211; 神经现实</title>
	<link>https://neu-reality.com</link>
	<width>32</width>
	<height>32</height>
</image> 
<site xmlns="com-wordpress:feed-additions:1">129117731</site>	<item>
		<title>科学家发现：去掉推荐算法，社会极化反而更严重？</title>
		<link>https://neu-reality.com/2025/11/algorithm-and-polarization/</link>
					<comments>https://neu-reality.com/2025/11/algorithm-and-polarization/#respond</comments>
		
		<dc:creator><![CDATA[布瓦]]></dc:creator>
		<pubDate>Sat, 15 Nov 2025 02:14:13 +0000</pubDate>
				<category><![CDATA[人工智能]]></category>
		<category><![CDATA[算法]]></category>
		<guid isPermaLink="false">https://neu-reality.com/?p=10008069</guid>

					<description><![CDATA[从生成式社会模拟，到Reddit 的51亿条评论，答案并不简单。]]></description>
										<content:encoded><![CDATA[<p>长久以来，我们都认识到了社交媒体给我们的生活所带来的新挑战。在这之中，由哈佛大学法学院的凯斯·桑斯坦教授（Cass Sunstein）所提出的“信息茧房”的概念在中文世界中得到了广泛传播。<strong>“信息茧房”，顾名思义， 就是我们在社交媒体上只接触到某一类信息，导致个体对于世界的理解被困在狭小的信息之茧中。</strong>而随着个性化推荐的算法在社交媒体与短视频平台上的广泛应用，这种对于自我封闭的担忧显得更加迫切，尽管并不严谨，<strong>人们也会提到“同温层”，“过滤气泡”，“傻子共振”这样的用语，并且认为算法推荐的发展加剧了传播生态的恶化，</strong>导致个体走向封闭，使激烈的观点在社交场域中获得更多的关注。</p><p>在今天，社交媒体已经深深地嵌入了人们的日常生活，当个体面对现实世界中的信息爆炸时，对于信息进行过滤与整理似乎是一种必然的选择。为了应对社交媒体的所带来挑战，<strong>算法工程师们提出了许多平台层面的干预策略</strong>。随着推荐算法的不断完善，推送到人们面前的信息已经在变得更加平衡且丰富。<strong>与此同时，人们对于个性化推荐所带来的“信息茧房”或“同温层效应”感到担忧。</strong>例如，<strong>特定的社交平台会根据用户的政治倾向推荐同质化的内容，导致用户只能接触到片面的信息来源</strong>。从而对于良性的公共对话产生负面影响。</p><p>怀有警醒的态度生活当然是很好的，然而对于信息茧房在现实层面的具体面貌，目前仍缺乏清晰的研究。<strong>我们缺乏对于信息茧房是否存在的实证，并对于它如何影响个人的信息选择也缺乏了解。</strong>事实上，人们选择性地接触信息并不是一个新现象。也有学者指出，<strong>“同温层效应” 确实存在，但目前的担忧其实是夸大了事实。</strong>“信息茧房”这一概念引发了广泛的担忧，但这是否是一种叫魂式的担忧呢？为了更好应对我们身处的复杂世界，我们需要对于这个过程有更好的研究与理解。</p><p>在许多关于信息茧房的讨论中，<strong>人们抱有这样一种假设：</strong><strong>如果你能接触到多样化的信息，那么就能打破信息茧房</strong>。而在杜克大学社会学家克里斯·贝尔（Chris Bail）的《打破社交媒体棱镜》（Breaking the Social Media Prism）一书中，他提出了这样的一个问题：<strong>如果个体在社交媒体上接触到与自身对立的观点，这是否真的有助于他反思自己？</strong>贝尔在他的实验中发现，<strong>用户在社交媒体的日常使用中接触到的对立观点，其实并没有帮助他们反思自身，反而让他们的政治立场变得更加极端</strong>。所以哪怕信息茧房被打破，社会的极化也并不会消失。由此，贝尔提出了“社交媒体棱镜”， 他认为<strong>社交媒体并不是一面如实反映世界的镜子，而是一个会扭曲用户对自我和他人认知的棱镜</strong>。对于人这种扭曲会让用户形成错误的自我身份认同和虚假政治极化（false polarization），从而变得越来越极端。</p><p>贝尔在他的书中提到了一种喜欢在网上发泄情绪，引起大家关注的人。我想我们都很熟悉这样的人物画像，他们的目的不是表达或者寻求共识，而是制造混乱。<strong>面对这样的人时，人们很容易做出情绪化的反应。</strong>事实上，这种形象在现实中当然也存在，在《卡拉马佐夫兄弟》里，在先前表现糟糕的老卡拉马佐夫来到了一家餐厅，他在心里对自己说：“ 我总是感到，不管我走到哪里都低人一等，每一个人都想对待小丑一样对待我——那就让我真的演一次小丑吧，你们所有人，无一例外，都比我低级。” 他这样想着，然后在餐厅里大闹了一场。而不幸的是，在网络上和在现实中一样，这样的闹剧总能得到更多的关注。</p><p>最近，阿姆斯特丹大学的彼得·滕贝里（Petter Törnberg）和迈克·拉罗伊（Maik Larooij）两位作者在物理学预印本平台arXiv上发表了一篇论文，并得到了《科学》杂志的关注。在这篇名为《我们能修复社交媒体吗？利用生成式社会模拟测试亲社会干预》 （Can We Fix Social Media? Testing Prosocial Interventions using Generative Social Simulation）的论文中<sup>[1]</sup>，<strong>他们利用大语言模型生成了500个虚拟用户，并构成一个小型的社交网络</strong>。每个用户都根据美国国家选举研究中来自全国选民调查的真实用户画像，被赋予了年龄、性别、宗教信仰、政治倾向和教育程度等特征。</p><p>在三项独立的实验中，<strong>研究人员分别使用三种主流大型语言模型（LLM）——ChatGPT、Llama 和 DeepSeek——将虚拟用户扩展为包含兴趣、爱好和职业等更细致特征的个人画像，并基于这些画像生成决策</strong>。在实验过程中，系统随机选取的用户需在三种行为中进行选择：从 10 篇随机新闻文章（从 21 万个候选项中抽取）中选择一篇并撰写相关帖子；转发已有帖子；或依据自身画像关注其他用户。用户的选择会受到其信息流内容的影响，该信息流包含 10 条帖子，其中一半来自用户已关注的人，另一半则来自未关注用户的热门帖子。</p><p><strong>在每次实验中，虚拟社交网络均运行了一万个周期</strong>。然而，<strong>无论研究人员采用哪一种 LLM 模型，平台最终都不可避免地出现了三种典型的负面现象：回音室效应、影响力集中，以及极端声音的放大</strong>。</p><p>该研究随后以理想化形式测试了六种通常用于缓解社交媒体算法问题的干预策略：</p><p><strong>1. 按时间顺序推送或随机推送</strong></p><p><strong>2. 淡化主流（高转发量）内容</strong></p><p><strong>3. 平衡党派内容的桥接算法</strong></p><p><strong>4. 优先发布具有高同理心或高推理能力的帖子</strong></p><p><strong>5. 隐藏社交媒体统计数据，例如粉丝数量</strong></p><p><strong>6. 隐藏个人简介以减少基于身份的信息传递</strong></p><p>然而实验结果令人沮丧。<strong>只有部分干预措施对于系统起到了轻微的改善作用，但没有一项能够彻底地修复出现极化的系统</strong>。事实上，一些干预措施反而加剧了问题。平衡党派内容的桥接算法显著削弱了党派倾向与参与度之间的联系，并略微改善了观点多样性，<strong>但同时也加剧了社交媒体中的关注度不平等</strong>。按时间顺序推送对减少关注度不平等效果最为显著，但同时也存在弊端：<strong>它加剧了极端内容的传播</strong>。</p><p>按时间顺序推送是一种属于 Web2.0 时代的，更加古早的推送策略。<strong>人们倾向认为 BBS 论坛等按时间排序的网络社区，更容易实现注意力的平等，减少社群的分裂与极化；</strong>而采用推荐算法的社区，因“回音室效应”容易造成群体间的间隔，进而加速观点极化。而在这两位科学家的模拟中，<strong>取消了推荐算法按时间排序推送，反而加剧了极端内容的传播</strong>。这是一个有些反常识的发现。</p><p>在接受 Ars Technica 的采访时，彼得·滕贝里也提到了他作为一个学者对于在研究中对于 AI 模拟实验的批评与怀疑。但是与此同时，<strong>单纯使用观测数据，使得研究者很难验证反事实假设</strong>。因此，研究者们也会创建系统的计算机模型，并在此基础上进行实验并验证反事实假设。计算机模拟在社会行为研究领域有着悠久的历史，例如罗伯特·艾克斯罗德（Robert Axelrod）就曾在《合作的进化》（The Evolution of Cooperation）中使用计算机模拟<strong>“重复囚徒困境”竞赛，研究合作的产生与竞赛</strong>。<strong>这种方法有助于研究网络动力学的结构和发掘社会现象的涌现过程。</strong>正如彼得·滕贝里所言：“我仍然要对这些发现持保留态度，意识到这些只是模型，<strong>它们捕捉的是一种假设的世界</strong>——就像真空中的一头球形奶牛······不幸的是，<strong>在这个实验中，我们发现了一种似乎非常稳健的机制</strong>。”</p><p>而在更早之前，在《自然》杂志 2021 年发表的一项研究中<sup>[2]</sup>，多伦多大学计算机科学系的研究团队以社区平台 Reddit 过去 14 年间共计<strong>&nbsp;51 亿条评论为样本</strong>，分析了用户在 1 万多个子社区中的发言行为。结果显示，<strong>Reddit 的社区结构并非仅以“话题”划分，而是深受用户的年龄、性别与政治立场等社会因素影响</strong>。研究发现，2012 至 2015 年间，Reddit 上的政治极化程度相对稳定；但在 2016 年美国大选期间，平台的政治极化水平突然显著上升。值得注意的是，<strong>这一变化主要由当年新加入的用户推动，而老用户的立场变化极小</strong>。这一结果表明，<strong>用户的极化程度与平台使用时长关系不大，更可能受外部政治事件驱动，而非社交平台内部行为的积累所致</strong>。</p><p>在国际学术界，关于社交媒体与政治极化关系的研究多以政治取向（如左右翼）为衡量维度。然而，<strong>多数实证研究表明，社交媒体并不会显著加剧社会的极化现象</strong>。换言之，<strong>极化更多是现实政治分裂的映射，而非平台算法所制造的“回音室”或“信息茧房”效应</strong>。</p><p>也许，更接近现实的解释或许是：<strong>社会本身的分裂决定了社交媒体内容的分裂</strong>。人们在网络上看到的对立声音，并非由算法催生，而是现实世界的分裂在社交媒体世界的真实反映。<strong>即便在不存在算法干预的中性环境中，人类依然倾向于靠近与自己观点相似的群体；而面对异见群体时，自我认同的防御性强化反而会使极端立场更加突出。</strong></p><p>事实上，我想起《美国的反智传统》的作者理查德·霍夫施塔特（Richard Hofstadter）的论述，他早在上世纪60年代就开始批判他所处时代政治的偏执狂传统。“这是一种持续存在心理情结。” 也许，<strong>无论我们用纸媒交流，用电台或是电视交流，还是像现在一样在社交媒体上交流，这样的极化与偏执总是存在的，这是一种我们无法否认，也无法避免的现实</strong>。面对历史，也许我们不得不承认，与其怪罪算法，我们更加应当意识到我们作为人类的局限。当然，这也就是说，我们不要放弃，去理解这个我们所生活的世界。</p><h2 class="wp-block-heading"><strong>参考文献</strong></h2><p class="has-text-color has-link-color has-small-font-size wp-elements-228ddb391d8c5ed41e8ea72c6ad5423e" style="color:#565656">[1] Larooij, M., &amp; Törnberg, P. (2025). Can We Fix Social Media? Testing Prosocial Interventions using Generative Social Simulation. arXiv preprint arXiv:2508.03385.</p><p class="has-text-color has-link-color has-small-font-size wp-elements-62935180f6edd642860e5a33fb1c4f46" style="color:#565656">[2] Waller, I., &amp; Anderson, A. (2021). Quantifying social organization and political polarization in online platforms. Nature, 600(7888), 264-268.</p>]]></content:encoded>
					
					<wfw:commentRss>https://neu-reality.com/2025/11/algorithm-and-polarization/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
		<post-id xmlns="com-wordpress:feed-additions:1">10008069</post-id>	</item>
		<item>
		<title>智能，不只是大脑的专利</title>
		<link>https://neu-reality.com/2025/05/more-than-intelligence/</link>
					<comments>https://neu-reality.com/2025/05/more-than-intelligence/#respond</comments>
		
		<dc:creator><![CDATA[DEAN BUONOMANO]]></dc:creator>
		<pubDate>Tue, 20 May 2025 18:11:25 +0000</pubDate>
				<category><![CDATA[人工智能]]></category>
		<category><![CDATA[Featured]]></category>
		<category><![CDATA[意识]]></category>
		<category><![CDATA[神经科学]]></category>
		<guid isPermaLink="false">https://neu-reality.com/?p=10007436</guid>

					<description><![CDATA[人工智能和神经科学如何共同发展？]]></description>
										<content:encoded><![CDATA[<p>在1945年，博学多才的约翰·冯·诺依曼在一篇论文中概述了现代数字计算机的架构。这篇49页的报告中唯一的引用，来自于计算神经科学领域的一篇奠基性论文：《神经活动中固有思想的逻辑演算》（A logical calculus of the ideas immanent in nervous activity）。冯·诺依曼深知大脑与他所帮助开发的计算机之间的差异，但大脑也为他提供了灵感。事实上，他认为神经系统的运作是“表面上数字化的”。尽管早期存在一些相似之处，计算机科学与神经科学的领域迅速分道扬镳——而人工智能与神经科学的领域也将如此。</p><p>从一开始，人工智能和神经科学便是姊妹学科，自然智能为人工智能提供了样板，而神经科学的原理则为人工智能的方法提供了灵感。最为根本的原理之一是，人工智能中的许多方法基于神经科学的基本信条：信息储存在神经元之间连接的权重中。在人工智能中使用的人工神经网络（Artificial Neural Networks, ANN）中，还有一些其他受神经科学启发的原理，包括卷积神经网络（对应视觉皮层）、正则化（对应稳态可塑性）、最大池化（对应侧向抑制）、丢弃（对应突触失效）以及强化学习。</p><p>然而，许多最近推动人工智能爆炸性成功的进展，已偏离了将神经科学作为计算原理的来源。十年前，受到大脑启发的循环神经网络（RNN）似乎是人工智能解决时间相关问题（如语音识别和自然语言处理）的前进方向。然而，这一方向很快发生了变化，2017年具有里程碑意义的《你所需要的仅仅是注意力》（Attention is all you need）论文提出了新的突破。</p><p>Transformer架构的引入标志着人工智能历史上的一个重要转折点。Transformer因其惊人的强大能力以及与大脑的差异性而备受关注。它们没有循环神经网络中的循环连接，且在不连续的时间中操作——也就是说，通过离散的时间步长进行计算，且没有对前一个时间步状态的“记忆”。它们同样没有任何形式的工作记忆；相反，它们巧妙地通过每次迭代增加输入的长度来外化工作记忆。最值得注意的是，Transformer没有任何内部动力，也无法感知时间。例如，ChatGPT无法正确回答“等10秒再告诉我加拿大的首都”这一提示（至少，在不调用Python编译器的情况下是这样）。</p><p>大脑通过内部动力的循环神经网络以及其他机制（如短期突触可塑性）来编码时间和近期的感官信息。与此不同，Transformer通过为每个单词或标记表示的向量添加位置信息（如“第一”、“第二”等）来编码时间（更准确地说，是顺序性），这一方法称为位置编码。这种差异使得Transformer能够解决梯度爆炸或梯度消失的问题，在这种问题中，序列末尾生成的误差信号在反向传播到前序信息时会逐渐衰减。</p><p>Transformer在某种意义上被刻意设计为“不受时间影响”的。用时间哲学中的术语作类比，Transformer运作在一个“区块宇宙”中，其中过去、现在和未来（对于双向Transformer而言）是同时可用的。相比之下，循环神经网络运作在一个“现实主义宇宙”中，在这个宇宙中，只有当前的输入是可用的，计算是随着连续的时间展开的。</p><p>所谓Transformer中的注意力机制听起来像是生物学上的注意力，但它并不真正指代大多数认知神经科学家所认为的注意力。它本质上是为句子中所有单词对之间的关系强度赋值，而不是根据期望或随意控制来选择性地调节信息处理。此外，注意力机制的实现也缺乏生物学上的合理性。神经网络中的大多数操作对应于活动向量与权重矩阵的乘法，但注意力机制依赖于一般被认为是两个活动向量的乘法。也就是说，至少从神经元的角度来看，这是一个难以实现的数学操作。</p><p>尽管Transformer取得了成功，但它们也有自身的局限性——包括其无底洞般的能量消耗。正因如此，人工智能领域正在重新审视类似循环神经网络的方法。但新旧的类似RNN的架构，如长短期记忆网络（LSTM）、门控循环单元（GRU）和Mamba等，并不一定在神经科学领域中有直接的类比。它们往往缺乏神经电路的生物学合理性——部分原因在于，人工智能程序通常是在传统的数字计算机上实现的，这使得它们可以执行比生物神经网络更丰富的数学操作，例如LSTM的门控操作。事实上，只要人工智能仍继续通过数字计算机实现，人工智能领域的发展就将受到摩尔定律的制约，而神经科学则将继续缓慢前行。</p><p>硬件的重要性也与一个更深层的哲学问题密切相关，即在理论上，基于传统计算机实现的人工智能是否有可能具备知觉。数字计算机在离散时间中运行（由计算机的时钟频率决定），与大脑不同，它们可以轻松暂停或改变时钟速度。现在，假设我们正在运行一个新型的人工神经网络模拟，假如它是有意识的。那么，如果我们将时钟速度降低到每年转一圈，会发生什么呢？人工智能是否会在主观状态下“冻结”一年？</p><p>大多数意识理论，例如全局工作空间理论和高阶理论，似乎都默认假设意识与大脑的连续时间动态相关。在这些理论中，意识就像音乐：只有当它随着时间流动时才存在。而且，根据人工神经网络运行在CPU、GPU或TPU上（以及核心数量）的不同，在一个时间步内，ANN中的所有状态不会实时同步更新——这意味着，任何意识状态都将依赖于硬件的细节，即使输入输出关系是相同的。</p><p>关于意识依赖于大脑动态的观点，有一个例外，那就是具有争议的泛心论整合信息理论（Integrated-Information Theory,IIT）。IIT 不是一个神经科学理论，而是一个基础物理学理论——尽管它与其他物理法则无关。粗略来说，IIT 量化了相比于随机配置，当前系统状态在多大程度上限制了过去和未来的状态。IIT 进一步声称，这个量度直接等同于意识。</p><p>正如已经指出的，IIT 仅适用于离散系统。遗憾的是这意味着，IIT 对于大多数传统的物理系统是不适用的，因为这些系统是可以连续变化的。因此当尝试将 IIT 应用于我们唯一确知的有意识的事物时，这就成了一个特别严重的问题。因此，适用于大脑动态系统的意识理论似乎排除了在离散冯·诺依曼架构中运行的人工智能出现知觉的可能性。</p><p>毫无疑问，人工智能和神经科学将继续进行协同互动。人工智能在发展过程中将继续借鉴神经科学的新发现。然而，展望未来，人工智能可能会为神经科学提供更多的启示，而不是反过来。迄今为止，神经科学家对于从人工智能中获得的一些早期教训消化得较慢。其中一个教训是，人工或生物神经网络的完整连通组的价值有限。ChatGPT 的每一个连接、权重和偏倚都是已知的，但对这些知识的获取并没有转化为对其工作原理的即时或深刻理解——这并不是说这些知识没有用。一个潜在的教训可能是，神经科学家需要重新审视如何理解像大脑这样复杂且高度分布的系统的涌现性质。</p><p>计算机科学之所以独立于神经科学发展，是因为大脑并不拥有处理信息的独占权。人工智能和神经科学将继续分道扬镳，因为大脑并不拥有创造智能的独占权。</p>]]></content:encoded>
					
					<wfw:commentRss>https://neu-reality.com/2025/05/more-than-intelligence/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
		<post-id xmlns="com-wordpress:feed-additions:1">10007436</post-id>	</item>
		<item>
		<title>超25万次引用，谁是21世纪最火论文？</title>
		<link>https://neu-reality.com/2025/04/the-most-cited-papers-in-recent-25-years/</link>
					<comments>https://neu-reality.com/2025/04/the-most-cited-papers-in-recent-25-years/#respond</comments>
		
		<dc:creator><![CDATA[神经现实]]></dc:creator>
		<pubDate>Thu, 17 Apr 2025 17:15:05 +0000</pubDate>
				<category><![CDATA[人工智能]]></category>
		<category><![CDATA[医学]]></category>
		<category><![CDATA[AI]]></category>
		<category><![CDATA[生物学]]></category>
		<guid isPermaLink="false">https://neu-reality.com/?p=10006817</guid>

					<description><![CDATA[近25年来，被引用最多的论文都有哪些？]]></description>
										<content:encoded><![CDATA[<p>最近，《自然》杂志发布专题报告，回顾了科学文献数据库中被引用最多的科研论文。根据Web of Science、Dimensions和Scopus等多个数据库提供的数据，他们发现<a href="https://www.nature.com/articles/d41586-025-01124-w">人工智能、提升研究质量的科研软件和方法、癌症统计数据等主题的论文占据21世纪热门论文榜单</a>。而1951年发表于《生物化学杂志》的<a href="https://www.jbc.org/article/S0021-9258(19)52451-6/pdf">一篇描述蛋白质测定方法的论文</a>，继续稳坐迄今为止被引次数最多论文榜首。</p><p>早在2014年，<a href="https://www.nature.com/news/the-top-100-papers-1.16224">《自然》杂志就已统计过史上被引次数最多的100篇论文</a>，他们发现最知名的一些研究并未入选，例如发现高温超导体和DNA双螺旋结构解析等获得诺奖的研究。相反，上榜论文多是生物医学和统计学领域中实用性极强的技术方法，例如Lowry蛋白质测定法、Sanger测序法和PCR等。此外，像BLAST和Clustal这样的生物信息学工具、用于绘制进化树的邻接法、以及Kaplan–Meier和Cox模型等统计方法也位列其中。榜单还显示，计算机的发展推动了这些方法的普及，而工具类软件、数据库和统计模型往往能获得远超基础科学突破的引用量。</p><p>而在当前《自然》杂志更新的榜单中，排名有一半已经发生了变化，21世纪已有16篇论文跻身历史前50名。值得一提的是，微软研究人员在2015年人工智能会议上提交的一篇论文<a href="https://arxiv.org/abs/1512.03385">《用于图像识别的深度残差学习》</a>，迅速攀升至历史百大榜单第5名（WoS、Dimensions和Scopus数据库排名中位数分析）。</p><p>进一步的分析发现，这篇论文已经成为21世纪以来被引用次数最多的论文。该论文的作者提出了深度残差学习（ResNet）架构，突破性地解决了深层神经网络训练中的信号衰减问题，使网络层数达到前所未有的深度，并在2015年赢得图像识别竞赛。ResNet不仅成为深度学习发展的重要里程碑，也为后续的AI突破——如AlphaGo、AlphaFold和ChatGPT等技术的出现奠定了基础。</p><div class="wp-block-image"><figure class="aligncenter size-full"><img fetchpriority="high" decoding="async" width="1080" height="1691" src="https://neu-reality.com/wp-content/uploads/2025/04/most-cited-papers-21st.png" alt="" class="wp-image-10006819" srcset="https://neu-reality.com/wp-content/uploads/2025/04/most-cited-papers-21st.png 1080w, https://neu-reality.com/wp-content/uploads/2025/04/most-cited-papers-21st-654x1024.png 654w, https://neu-reality.com/wp-content/uploads/2025/04/most-cited-papers-21st-770x1206.png 770w, https://neu-reality.com/wp-content/uploads/2025/04/most-cited-papers-21st-981x1536.png 981w, https://neu-reality.com/wp-content/uploads/2025/04/most-cited-papers-21st-680x1065.png 680w, https://neu-reality.com/wp-content/uploads/2025/04/most-cited-papers-21st-200x313.png 200w, https://neu-reality.com/wp-content/uploads/2025/04/most-cited-papers-21st-20x31.png 20w" sizes="(max-width: 1080px) 100vw, 1080px" /></figure></div><p>不过，不同数据库对这篇论文的引用统计存在差异。谷歌学术将其列为第二高被引论文，引用次数达25.4万，而Web of Science则将其排在第三，引用略超10万。尽管排名不一，在五个主流数据库中，它的中位排名居首。然而，引用次数本身存在诸多不公平因素，例如发表时间较早、所处领域热门等都会带来积累优势。尽管《自然》曾尝试通过计量学方法调整这些影响，但由于入选文章本就引用极高，整体榜单变化不大，仅有部分疫情相关新论文有所上升。</p><p>除此之外，<a href="https://www.nature.com/articles/d41586-025-01125-9">人工智能、研究软件与方法、癌症与健康相关研究也进入21世纪被引次数最高论文榜单</a>。AI领域凭借跨学科适用性和迅猛发展势头，多篇关键论文高居榜单，包括2012年开启深度学习热潮的AlexNet、推动大语言模型发展的Transformer架构“Attention is all you need”，以及广泛应用于图像处理的U-Net网络等。开源特性和预印本文化也促进了这些论文的广泛传播。</p><p>研究软件方面，定量PCR、RNA测序分析工具DESeq2、结晶分析程序SHELX等被广泛引用。健康类论文中，GLOBOCAN癌症统计报告、癌症标志综述以及DSM-5精神障碍分类指南影响深远。此外，主题分析方法、PRISMA系统综述报告指南、I²统计量等研究质量提升工具也跻身前列，scikit-learn、lme4、G*Power等统计与编程软件的引用量也极高。</p><p>总的来看，许多论文因其快速发展趋势在引用上展现出天然优势，还有一些论文更是借助工具性、方法指南或综述性获得超高引用。然而，一个值得深思的问题也浮上水面：为什么原创性的基础研究逐渐淹没在高被引论文中？显而易见的是，引用次数已经不再能够完全评估科研质量及其影响力，或许我们是时候引入新的评价体系了。</p><hr class="wp-block-separator has-alpha-channel-opacity"/><h3 class="wp-block-heading"><strong>21世纪十大高被引论文</strong></h3><h5 class="wp-block-heading"><strong>01.</strong> <strong>Deep residual learning for image recognition</strong><br><strong>用于图像识别的深度残差学习</strong></h5><p class="has-text-color has-link-color has-small-font-size wp-elements-56920af81dd7be9e27ab2c2c089ec356" style="color:#505050">He, K., Zhang, X., Ren, S., &amp; Sun, J.<br>发表日期：2016<br>引用次数：103,756–254,074</p><p>这篇论文提出了残差学习框架（ResNet），成功解决了深层神经网络训练困难的问题。通过引入“残差连接”，网络可以更高效地学习相对于输入的变化，使得深度高达152层的模型依然易于优化，并显著提升了图像识别准确率。这一突破奠定了深度学习在计算机视觉领域的关键基础。</p><h5 class="wp-block-heading"><strong>02</strong>. <strong>Analysis of relative gene expression data using real-time quantitative PCR and the 2<sup>-ΔΔC</sup><sub>T </sub>Method</strong><br><strong>使用实时定量PCR及2<sup>-ΔΔC</sup><sub>T</sub>方法分析相对基因表达数据</strong></h5><p class="has-text-color has-link-color has-small-font-size wp-elements-77d81ddf4458b7bf94b382bb3a407ea9" style="color:#505050">Livak, K. J., &amp; Schmittgen, T. D. <br>发表日期：2001<br>引用次数：149,953–185,480</p><p>实时定量PCR数据常用的两种分析方法是绝对定量和相对定量，其中2<sup>-ΔΔC</sup><sub>T</sub>方法是一种简便实用的相对定量工具。这篇论文介绍了该方法的原理、假设与应用，并补充了两种有助于分析的衍生变体。</p><h5 class="wp-block-heading"><strong>03</strong>. <strong>Using thematic analysis in psychology</strong><br><strong>在心理学中使用主题分析法</strong></h5><p class="has-text-color has-link-color has-small-font-size wp-elements-b02db427c581b4c05712411868187c20" style="color:#505050">Braun, V., &amp; Clarke, V.<br>发表日期：2006<br>引用次数：100,327–230,391</p><p>这篇论文系统阐述了主题分析在心理学中的应用，强调其作为一种灵活且易于上手的定性研究方法的重要性。文章呼吁研究者更多关注和规范使用主题分析，认为它在心理学及其他领域的定性研究中具有广泛价值。</p><h5 class="wp-block-heading"><strong>04</strong>. <strong>Diagnostic and Statistical Manual of Mental Disorders,</strong> <strong>DSM-5</strong><br><strong>《精神障碍诊断与统计手册》第五版（DSM-5）</strong></h5><p class="has-text-color has-link-color has-small-font-size wp-elements-fdec6e8089ed35a2044fac2f17d89980" style="color:#505050">American Psychiatric Association<br>发表日期：2013<br>引用次数：98,312–367,800</p><p>《精神障碍诊断与统计手册》第五版（DSM-5）是当前全球最广泛使用的精神疾病诊断标准之一。它是对第四版（DSM-IV）及其修订版的全面更新，旨在反映过去十余年中精神病学、心理学、神经科学等领域的最新研究成果。</p><h5 class="wp-block-heading"><strong>05</strong>. <strong>A short history of SHELX</strong><br><strong>SHELX简史</strong></h5><p class="has-text-color has-link-color has-small-font-size wp-elements-136475b34cb0153bff5e31f2c3800421" style="color:#505050">Sheldrick, G. M.<br>发表日期：2007<br>引用次数：76,523–99,470</p><p>这篇论文总结了SHELX晶体结构解析软件的发展历程，回顾了其从1976年版本到现代的演进。SHELX系列尽管起源于旧式计算环境，但凭借稳定性、实用性和不断改进，至今仍被广泛应用。</p><h5 class="wp-block-heading"><strong>06</strong>. <strong>Random forests</strong><br><strong>随机森林</strong></h5><p class="has-text-color has-link-color has-small-font-size wp-elements-3dbe154dfb69afc06b010c908aec7ab8" style="color:#505050">Breiman, L.<br>发表日期：2001<br>引用次数：31,809–146,508</p><p>这篇论文介绍了随机森林算法的原理与优势。随机森林通过构建多个相互独立、基于随机特征选择的决策树组成分类器，其泛化误差会随着树数量的增加而趋于稳定。该方法在误差率上优于Adaboost，具有更强的抗噪性，并能利用内部估计评估模型性能与变量重要性，广泛适用于分类与回归任务。</p><h5 class="wp-block-heading"><strong>07</strong>. <strong>Attention is all you need</strong><br><strong>注意力机制即一切</strong></h5><p class="has-text-color has-link-color has-small-font-size wp-elements-0c81434462b8a29b9455892edb7271bf" style="color:#505050">Vaswani, A., Shazeer, N., Parmar, N., Uszkoreit, J., Jones, L., Gomez, A. N., &#8230; &amp; Polosukhin, I. <br>发表日期：2017<br>引用次数：56,201–150,832</p><p>这篇论文提出了一种全新的神经网络架构——Transformer，完全基于注意力机制，摒弃了以往依赖循环（RNN）或卷积（CNN）结构的复杂模型。Transformer结构简单、并行性强，训练效率显著提高。这一成果标志着注意力机制在序列建模中的巨大潜力。</p><h5 class="wp-block-heading"><strong>08</strong>. <strong>ImageNet classification with deep convolutional neural networks</strong><br><strong>使用深度卷积神经网络进行ImageNet图像分类</strong></h5><p class="has-text-color has-link-color has-small-font-size wp-elements-6b59d54ed8a7f33b12883ee5bacbd9d3" style="color:#505050">Krizhevsky, A., Sutskever, I., &amp; Hinton, G. E.<br>发表日期：2012/2017<br>引用次数：46,860–137,997</p><p>这篇论文介绍了深度卷积神经架构AlexNet网络在ImageNet图像分类任务中的应用。为了提高训练效率，作者采用了非饱和激活函数和GPU加速的卷积操作，并通过“dropout”技术有效减少过拟合。在ILSVRC 2012竞赛中，该模型变体以15.3%的Top-5错误率夺得第一名。这项工作开创了深度学习在图像识别领域的新时代。</p><h5 class="wp-block-heading"><strong>09</strong>. <strong>Global cancer statistics 2020: GLOBOCAN estimates of incidence and mortality worldwide for 36 cancers in 185 countries</strong><br><strong>全球癌症统计2020：GLOBOCAN对185个国家36种癌症发病率和死亡率的估算</strong></h5><p class="has-text-color has-link-color has-small-font-size wp-elements-0b48c5a00812c42bf4eed55f7f3f077e" style="color:#505050">Sung, H., Ferlay, J., Siegel, R. L., Laversanne, M., Soerjomataram, I., Jemal, A., &amp; Bray, F.<br>发表日期：2020<br>引用次数：75,634–99,390</p><p>这篇文章基于国际癌症研究机构（IARC）发布的 “GLOBOCAN 2020”数据，更新了全球癌症负担的最新情况。2020年，全球预计新增癌症病例达1930万例，死亡病例近1000万例。女性乳腺癌首次超过肺癌，成为全球最常见癌症，其次为肺癌、结直肠癌、前列腺癌和胃癌；而肺癌仍是癌症死亡的首要原因。预计到2040年，全球癌症新发病例将增至2,840万例，较2020年增长47%。</p><h5 class="wp-block-heading"><strong>10</strong>. <strong>Global cancer statistics 2018: GLOBOCAN estimates of incidence and mortality worldwide for 36 cancers in 185 countries</strong><br><strong>全球癌症统计2018：GLOBOCAN对185个国家36种癌症发病率与死亡率的估算</strong></h5><p class="has-text-color has-link-color has-small-font-size wp-elements-12219b8e4f0354aacd55ddbbaa6484f9" style="color:#505050">Bray, F., Ferlay, J., Soerjomataram, I., Siegel, R. L., Torre, L. A., &amp; Jemal, A. <br>发表日期：2018<br>引用次数：66,844–93,433</p><p>这篇文章基于“GLOBOCAN 2018”数据，评估了全球癌症负担，并重点分析了全球20个地区的地理差异。2018年全球预计将有1810万新发癌症病例和960万癌症死亡，肺癌在发病率和死亡率中均居首位，但不同国家和地区最常见及致死率最高的癌症类型差异显著，受经济发展水平和生活方式影响明显。</p>]]></content:encoded>
					
					<wfw:commentRss>https://neu-reality.com/2025/04/the-most-cited-papers-in-recent-25-years/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
		<post-id xmlns="com-wordpress:feed-additions:1">10006817</post-id>	</item>
		<item>
		<title>神经系统理解：人工智能与自然大脑交集之处</title>
		<link>https://neu-reality.com/2024/12/neural-systems-understanding/</link>
					<comments>https://neu-reality.com/2024/12/neural-systems-understanding/#respond</comments>
		
		<dc:creator><![CDATA[神经现实]]></dc:creator>
		<pubDate>Sun, 08 Dec 2024 08:51:12 +0000</pubDate>
				<category><![CDATA[人工智能]]></category>
		<category><![CDATA[大语言模型]]></category>
		<category><![CDATA[神经科学]]></category>
		<guid isPermaLink="false">https://neu-reality.com/?p=10005880</guid>

					<description><![CDATA[神经科学和人工智能的结合，能否帮助我们更好地理解大脑？]]></description>
										<content:encoded><![CDATA[<p>2023年3月，如果你偶然进入纽约大学的某个礼堂，可能会以为自己在参加一场纯粹的神经科学会议。事实上，这是一个关于人工智能的研讨会——但你的困惑是可以理解的。演讲者们谈论“切除术”，即常见于动物模型实验中的脑损伤创建手术。他们提到“探测”，比如使用电极来获取大脑信号。他们还展示了语言分析，并引用了心理学中长期以来关于“先天还是后天”的争论。</p><p>在场的一百多名研究人员中，很多人可能从七年级解剖青蛙以来就再没接触过自然大脑。但他们在会议中使用的语言反映了其领域的新里程碑：最先进的AI系统（如ChatGPT）已经在规模和复杂性上堪比自然大脑，AI研究人员几乎像研究头骨中的大脑一样研究它们。作为这一部分，他们借鉴了传统上以人类为唯一研究对象的学科：心理学、语言学和心灵哲学。而他们自己的发现也开始对这些领域产生影响。</p><p>在这个研讨会上，纽约大学心理学和数据科学助理教授格雷斯·林赛（Grace Lindsay）认为，这些学科现在的目标和方法如此接近，以至于可以合并为一个领域。她建议将合并后的科学统称为“神经系统理解”（neural systems understanding）。</p><p>她对同僚们说：“老实说，我认为神经科学将获益最大。”她指出神经科学仍然缺乏一个普遍的大脑理论。“依我看，我所在的领域未能达成目标。神经科学已经存在了100多年。我真切认为当人们开发出人工神经系统时，可以来找我们。”</p><p>相比之下，人工智能已经取得了成果：从十年前的视觉感知到最近的语言处理，多层或“深层”人工神经网络已成为大脑建模的最先进方法——至少在重现外部行为方面。这些模型不仅是大脑某个方面的理想化版本。它们做的正是自然大脑做的事情。现在你可以和机器进行真正的对话，这在几年前几乎难以实现。</p><p>哥伦比亚大学心理学和神经科学教授尼古拉斯·克里格斯科特（Nikolaus Kriegeskorte）表示：“与神经科学家们长期以来建立的计算模型不同，这些模型执行认知任务，攀登智力高峰。”他目前在扎克曼研究所（Zuckerman Institute）研究视觉。</p><p>这种转变改变了日常的科学方法论。正如在纽约大学会议上所描述的那样，与这些系统一起工作，与在人类或猕猴身上做实验差异不大。研究人员可以给它们相同的刺激，并将其内部活动与活体大脑的数据直接进行比较。他们可以创建DIY的奥利弗·萨克斯式病例研究，比如人工损伤的机器大脑可以识别披头士乐队的所有成员，但无法分辨鼓和吉他。这种直接干预在区分因果关系与相关性方面非常有用，但在人脑中是不可能的。</p><p>这些成功格外引人瞩目，因为这些系统的工作方式与大脑截然不同。所谓的神经元和突触是实际事物的极大简化版本，训练方案迥异于儿童通常的学习方式。如此异质的机制仍能产生类人输出，这让许多科学家认为细节实际上并不重要。低级别的组件，无论是活细胞还是逻辑门，都会被计算任务的要求塑造成更大的结构，就像演化利用它所拥有的一切来解决当下问题一样。</p><p>“只要架构足够优秀，表征更容易受到数据和训练过程的影响。”谷歌DeepMind的认知心理学家安德鲁·兰皮宁（Andrew Lampinen）说，“这表明在广泛的系统中，预测和理解语言的计算瓶颈是相似的。”</p><p>鉴于这种相似性，林赛、克里格斯科特和其他著名计算神经科学家在2019年的一篇论文中指出，科学家们应该开始用网络架构和学习算法来解释大脑功能，而非精细的生物机制。机器学习先驱、蒙特利尔大学计算机科学教授约书亚·本吉奥（Yoshua Bengio，该论文的共同作者）解释道：“神经科学倾向于更具有描述性，因为那更容易；你可以观察事物。但我认为提出有助于解释为什么的理论，正是机器学习的思维和理论方式（更数学的理论）有所裨益之处。”</p><h2 class="wp-block-heading">人工神经网络如何解决视觉问题？</h2><p>视觉神经科学家率先将AI与神经生物学结合，这也情有可原。20世纪50年代中期，首个硬件神经网络就是为了模仿自然视觉感知而设计的。即便如此，在接下来的几十年里，AI研究人员经常放弃任何生物逼真性的幌子，特别是在训练网络的方式上。到2010年代，当图像识别网络开始媲美人类（尽管仅在狭义任务上），其生物逼真性如何并不明确。</p><p>为了回答这个问题，麻省理工学院的神经科学家很快开发出一种基本实验范式，研究其他形式的感知和认知的研究者此后也采用了这种范式。第一步是向猴子展示视觉刺激并测量其大脑反应。然后他们用相同的刺激训练一系列人工神经网络并提取其“表征”——即网络产生的最高抽象层次的输出。要将大脑数据与此输出进行比较（通常只是一个没有特定生物学意义的数字向量）需要一个“映射模型”，该模型与人工神经网络本身不同。研究人员可以通过假设模拟和真实大脑在某些数据子集上匹配来构建这样的模型，计算它们之间的关系，然后在另一数据子集上测试这种关系。</p><p>这种方法揭示了猴子大脑和人工网络以类似方式对相同的视觉刺激作出反应。“这是我们第一次拥有能够预测神经反应的模型。”吉森大学心理学研究员凯瑟琳娜·多布斯（Katharina Dobs）说。这种一致性不仅仅是偶然产生的。这些系统被设计和训练来识别图像，但没人要求它们像自然大脑一样运作。“你发现模型中的激活和大脑中的激活之间有惊人的相似程度，你知道这完全不是必然的。”麻省理工学院认知神经科学教授南希·坎威舍尔（Nancy Kanwisher）说，“它们完全不同。一个是计算机程序，另一个是一堆由自然选择优化的生物黏液，它们最终对类似问题有类似解法的事实令人惊讶。”</p><p>自此，这些网络改变了计算神经科学家进行研究的规模。与其提出一个视觉感知模型并为其辩护，不如在一篇论文中同时比较十几个模型。2018年，一组研究人员建立了Brain-Score.org网站来对视觉模型进行排名。该网站现在已有超过200个模型，每个模型都代表视觉皮层工作方式的某种直觉。所有这些模型在某些任务上都表现得像人类一样，因此排名代表了模型更细微的方面，例如它们是否犯了我们大脑犯的同样错误，以及它们的反应时间是否与我们的反应时间一样变化。“这为我们提供了一个强大的框架来判定模型之间的优劣。”克里格斯科特说。</p><p>这些人工神经网络为解决视觉科学中的老问题开辟了新的途径。尽管这些网络常常与大脑本身一样晦涩难懂，研究人员至少可以直接访问其人工神经元——它们只是机器中的变量。例如，林赛及其同事们转向一个人工网络来探索“祖母神经元”，即几十年来关于某些脑细胞仅在你看到祖母或某个特定的人时才会激活的想法。林赛的团队证实，一个在图像上训练的人工网络确实有神经元仅在某些物体出现时才会激活。但当他们追踪网络中的信息流动时，发现这些神经元与网络识别人物或物体的整体能力无关；它们仅仅是偶然地选择性地响应。</p><p>“在这些人工神经网络模型中，我们实际上看到，神经元对图像的响应方式并不一定说明它在分类物体中所起的作用。”林赛说。</p><p>人工神经网络也使通过实验深入探讨视觉处理层次成为可能。传统神经科学方法测量早期处理层中神经元的反应，如视网膜、外侧膝状体和初级视觉皮层。这些方法表明神经元对特定方向的简单刺激（如线条和光栅）做出反应。但这些方法难以描述处理更广泛和复杂几何图案的后期层细胞。“随着你进入视觉系统的更深层次，找到某种简单特征来解释神经元的响应变得更加困难。”林赛说。</p><p>然而，人工神经网络可以找到这些特征。研究人员可以训练机器识别蓝色咖啡杯和蓝色花朵的图像。这些物体在像素层面上几乎看起来一样，并在早期层次上引发相似的反应；只有在后期层次上它们的差异才变得明显。林赛表示，机器所发展的高级表征应该与大脑的表征相匹配。“你只需将其视为一种数据分析工具——一种表示数据的不同方式——然后在大脑中寻找这种表征。你可以说这更关乎于语言，而非大脑。”</p><p>实际上，使用人工神经网络，研究人员甚至可以在现实环境中观察大脑的运作——或行话所说的“生态有效实验”。在传统的刺激-反应实验中，他们必须麻醉小鼠以消除其大脑对某些简单刺激反应测量中的噪音。林赛说，让动物自由活动，收集眼动追踪和其他行为数据，然后将其输入网络寻找不太明显的模式，这样要好得多。“这减轻了对控制条件的需求。”她补充道。</p><p>人工神经网络还揭示了视觉神经科学中关于层级结构的另一个长期存在的谜团——即为何视觉处理在功能上是专门化的。大脑成像显示视觉皮层的某些区域对面孔的反应比对其他类型的物体更强。“自fMRI问世之后，我们知道这个现象已经几十年了，但我们不知道‘为什么？面孔有什么特别之处？’”多布斯说。她说有两种可能性：我们的脑部要么天生具有专门的面部识别能力，要么通过早期生活中看到大量面孔而习得专门化。</p><p>为了找到答案，她的团队构建了一个有超过1亿个可调参数的网络，训练它识别450种不同类型的物体，并识别1700名名人的面孔。该网络是分层的，类似于视觉皮层，尽管这些层并没有与其生物对应物一一对应。然后研究人员通过损伤网络的某些部分进行实验。禁用某些单元使网络在面部或物体识别中的表现受损，但不会同时影响两者，这表明这些单元专门化于其中之一。而损伤处理基本几何图案的早期层会同样影响网络在两项任务上的表现，表明专门化发生在更深层次。</p><p>除了让网络接触大量名人之外，研究人员并没有暗示面孔有什么特别之处——例如不需要读取情绪。他们得出结论，大脑必须从经验中获得专门的面部识别能力，而当大脑或人工网络需要同时处理两个或多个任务时，它会发展出这样的专门模块。“这是为了做好这两项任务的结果。”多布斯说。作为测试，她和同事们还训练网络来分类食物。“没有证据表明视觉皮层有功能专门化的食物识别处理，所以我们认为在网络中也不应发现它。”她说，“然而当我们这样做时，意外发现了区隔。”</p><p>自那以后，其他团队发现人脑中也有专门的食物识别区域，多布斯和团队正在寻找更多例子。“如果你是汽车方面的老手，你大脑中可能也有一些神经元专门处理对汽车的识别。”她说。她们还没有检查面孔、汽车和一般物体的三重专门化，但她们发现网络可以像识别面孔一样确定汽车品牌和型号。去年发表的一篇论文表明，汽车识别网络表现出类似面孔倒置效应的现象：就像我们更难识别倒置的面孔一样，网络也难以处理倒置的汽车图片。</p><h2 class="wp-block-heading">大语言模型是否反映大脑语言区域处理？</h2><p>理解视觉已经够困难的了，理解语言则更难。坎威舍尔回忆道：“六、七年前，我在给本科生的导论课中经常随口提到一些大问题，这些问题超越了最前沿（的研究）。比如，一群神经元如何掌握句子的意义？这到底是怎么回事？我们如何思考这个问题？”教科书中的神经科学方法根本无法解决这样的问题。研究人员可以详细绘制猫的视觉皮层，但不能绘制其语言区域——它没有。动物模型最多只能捕捉语言的某些狭窄特征。中美洲的歌唱鼠有着完美的沟通礼仪，但并不以使用虚拟语气而闻名。</p><p>视觉神经科学和图像处理系统共同发展，而语言神经科学与技术之间的联系一直很松散。该领域在20世纪80年代开始采用人工神经网络，但这些早期系统并未尝试理解或生成一般语言。它们模拟了理论家认为可能是学习而非天生的特定能力，如构建动词时态，并且更以引发争议而非解决问题而闻名。“语言神经科学一直是不太令人满意的非正式领域。”麻省理工学院神经科学教授叶夫利娜·费多连科（Evelina Fedorenko）说。</p><p>随着GPT这类大语言模型问世，研究人员正在弥补失去的时间。在机械层面上，这些模型甚至比图像识别模型更算不上大脑化。与语言相关的大脑区域被认为是一个反馈回路的丛林，而语言模型是前馈系统，其中数据从输入到输出是没有环路的。然而，这些系统确实有特殊的transformer层（GPT中的“T”）行使一些反馈角色，如跟踪单词的上下文。最近的研究表明，这些层类似于大脑生物学的某些方面。“它们与之前的海马体模型相关，并且被证明在某些方面有所改进。” 兰皮宁说。他补充道，它们和所有人工神经网络一样，充其量是一个简化的版本。</p><p>尽管如此，大语言模型在模拟大脑方面的表现令人惊讶。2021年，费多连科及其同事们开始应用视觉领域同行十年来一直在使用的技术。他们从文献中收集了人们阅读和聆听句子时的大脑反应，这些反应是通过fMRI成像或为癫痫植入的颅内电极测量的。他们用相同的句子训练了一系列不同的语言模型，并创建了一个在人类和机器神经活动之间的映射模型。他们发现，这些网络不仅生成了类人文本，而且以大体类似于人类的方式生成。在他们测试的各种系统中，GPT-2（ChatGPT的前身）特别擅长模仿人类。GPT在最基本的层面上是一个高级自动更正算法，基于之前的内容预测下一个单词。他们的结论认为，我们大脑的语言区域可能也是如此。</p><p>费多连科及其同事们的研究还表明，大脑和机器之间的差异并没有看起来那么显著。支持这些模型肯定以异于人类的方式学习，其常见论点在于它们需要更多的数据。但实际上，大语言模型在大约1亿个单词后达到熟练程度。根据去年费多连科实验室博士生伊格巴尔·侯赛尼（Eghbal Hosseini）的研究，这相当于一个孩子在10岁时听到的单词数量。但如果像培养孩子那样以更阶段性的方式训练网络，而不是将整个互联网灌输给它呢？“你不会和1岁幼童谈论广义相对论、Transformer或别的东西。”Fedorenko说，“你首先谈论简单的概念和方式；给出简单的短句。”更现实的教育策略可能会使系统更好地反映人类。</p><p>Brain-Score.org现在不仅对视觉模型进行排名，也囊括了语言模型。将模型相互比较——借用自视觉神经科学家的另一策略——已经对现有系统更好地反映人类提供了一些见解。例如，费多连科和侯赛尼设计了“争议刺激”（controversial stimuli）——一些不同模型会产生不同表征的句子。“你试图构建一组刺激，能够将这些模型区分开来。”她说。好消息是他们找到了很多这样的刺激。坏消息是没有一个模型能与人类对这些句子的反应相匹配。“我们发现了模型的‘盲点’。”她补充道。</p><p>一个可能的结论是这些模型都应该被抛弃，但侯赛尼深入挖掘。他构建了一组无争议刺激，模型对这些刺激的反应一致。他发现这些反应确实与人类数据相匹配。所以，当模型之间一致时，它们也与人类数据一致，而当模型之间不一致时，它们也与人类不一致。“我们想，好吧，也许我们发现了一些东西。” 费多连科说，“也许这并非一个糟糕的实验。”她希望这些相关性能让他们弄清楚，是什么影响了模型运作的好坏。</p><p>既然已经确定大语言模型在表示大脑的语言处理方面还不错，费多连科和其他团队正在寻求解答弥漫在教科书中的谜题。例如，当我们解析一个句子时，大脑主要依赖正式的语法结构，还是考虑单词的含义？在今年4月发表的一篇论文中，费多连科的两名研究生通过各种方式调整句子，看看它们是否影响模型与大脑数据的匹配。在这项工作中，他们并没有将这些调整后的句子给人类，而只是使用人类作为参考点来研究模型内部发生的情况。</p><p>他们发现，轻微的改变，如去掉“the”或交换连续的单词，几乎没有影响。这些改变可能违反了语法规范，但没有触及单词的含义。但以影响含义的方式破坏句子，如改变名词和动词，对模型有很大影响。例如，考虑包含所有26个字母的著名句子“The quick brown fox jumped over the lazy dogs.” 一个稍微扰乱的变体是“Quick brown fox jumped over lazy dogs.”显然，我们的大脑从扰乱的句子中形成的心理图像与原句相同。研究人员发现模型也是如此。模型形成的表征显然编码了一个足够高级的含义，不受小词的影响。</p><p>但如果你输入变体“The quick brown jump foxed over the lazy dogs”，模型会与人类数据偏离，表明它生成的表征与之前有很大不同。句子的结构没有改变——仍然是&lt;冠词&gt; &lt;形容词&gt; &lt;形容词&gt; &lt;名词&gt; &lt;动词&gt; &lt;介词短语&gt;——所以模型必须依赖额外的语义信息：一只狐狸可以跳，但一个跳不能“狐狸”。“这在某种程度上与乔姆斯基生成语法学派的观点相反，该学派长期以来强调句法是语言的核心，而含义是次要的。” 费多连科说。</p><p>这个领域的一个巨大挑战是将语言与其他认知分离：逻辑、社会认知、创造力、运动控制等等。大语言模型还没有（这些能力）。尽管它们确实拥有庞大的记忆和某些推理能力，而插件或特殊用途的模块提供了其中一些其他功能，但它们仍然只是大脑语言区域的模型——在使用ChatGPT和其他系统时，你必须不断提醒自己这一点。当它们“幻觉”出信息时，这不是它们的失败，而是我们的：我们强迫它们回答超出其有限能力范围的问题。“从过去20年的认知神经科学中，我们真正学到的是语言和思维在大脑中是分开的。” 坎威舍尔说，“你可以将这一见解应用于大语言模型。”</p><p>尽管这对期望从这些系统中获得可靠信息的人来说充满挑战性，但它们对于神经科学来说作用重大——正如很多人在纽约大学那场会议上提到的那样。它们与人脑足够接近，可以让神经科学家进行直接比较。但它们又足够不同，可以帮助人们越过人类寻找感知和智能的普遍原则。这些系统已经表明，智能是普遍的——不仅限于人类，甚至不限于其他哺乳动物，而是存在于任何具有足够计算能力来提取所接触世界中显著特征的认知系统中。</p><p>来源：<a href="https://www.thetransmitter.org/neural-networks/can-an-emerging-field-called-neural-systems-understanding-explain-the-brain/">Can an emerging field called ‘neural systems understanding’ explain the brain?</a></p><p></p>]]></content:encoded>
					
					<wfw:commentRss>https://neu-reality.com/2024/12/neural-systems-understanding/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
		<post-id xmlns="com-wordpress:feed-additions:1">10005880</post-id>	</item>
		<item>
		<title>作为人工智能下一个关口的意识研究</title>
		<link>https://neu-reality.com/2024/10/ai-consciousness-gazzaniga/</link>
					<comments>https://neu-reality.com/2024/10/ai-consciousness-gazzaniga/#respond</comments>
		
		<dc:creator><![CDATA[李恒威]]></dc:creator>
		<pubDate>Thu, 17 Oct 2024 10:01:00 +0000</pubDate>
				<category><![CDATA[人工智能]]></category>
		<category><![CDATA[Featured]]></category>
		<category><![CDATA[意识]]></category>
		<category><![CDATA[神经科学]]></category>
		<guid isPermaLink="false">https://neu-reality.com/?p=10005218</guid>

					<description><![CDATA[从加扎尼加的意识学说切入。]]></description>
										<content:encoded><![CDATA[<h2 class="wp-block-heading">摘要</h2><p>随着近年来人工智能（AI）的惊人进步，AI 是否具有意识以及如何构建有意识的 AI 系统越来 越受到学界和公众的关注。要回答这类问题，我们仍然需要或者必须从意识理论中去寻找灵感和答案。立足 AI 意识问题的当前背景，我们考察了加扎尼加在《意识本能：揭秘脑是如何形成心智的》中提出的意识学说。透过脑异常这个窗口，加扎尼加得到了意识现象学的两个重要论断: 意识与体验内容不同并且是可以分开的; 意识首先是一种感受。为此，他提出了一个关于意识神经机制的模块—层级架构的主张，并 用 “开水冒泡”隐喻来形象地说明他的意识观。根据这一思路，构建有意识的 AI 系统需要我们在底层逻辑上辨明 “意识”与“智能”的差异和关系，否则，我们就会在 AI 系统是否有意识以及 AI 是否会造成对人类的生存性威胁等一系列理论问题上产生困扰。</p><h2 class="wp-block-heading">引言</h2><p>人工智能（AI）的惊人进步，尤其是在智能水平、通用性和自主性（autonomy）上的颠覆性表现，促使学界和公众越来越关心诸如 AI 的下一个关口等 AI 未来发展的深层问题，其中一个关键问题是: AI 最终是否会具有意识，以及人类能否创造出有意识的 AI? 前者是一个理论问题，后者则是一 个工程问题。围绕这两个问题，当前主要有三种观点。</p><p>第一种观点。在最近发布的一篇名为 《人工智能中的意识: 来自意识科学的启示》 ( Consciousness in Artificial Intelligence: Insights from the Science of Consciousness） 长篇论文中，图灵奖得主约书亚·本吉奥（Yoshua Bengio）联合来自哲学、神经科学以及人工智能三大领域的 19 位学者组建跨界团队，系统回顾了当代主流的意识理论以及构建有意识的人工智能系统的可能性。</p><p>他们认为，让 AI 拥有意识在科学上是可行的。他们从当代意识理论中提炼出了若干意识的指标（indicators）属性，并以此作为评估 AI 具有意识的标准。其基本观点是，尽管目前还不能确切地判定任何一个 AI 系统真的具有意识，但通过现有技术可以在 AI 系统中实现许多意识的指标属性。促使本吉奥等人对当前 AI 模型最终能否发展出意识能力持积极态度的原因在于，他们从当代意识理论中提炼出的指标属性在计算功能主义的意义上确实是能够逐步在 AI 系统中实现的。因此，他们设想的工程策略非常直接，就是不断地增加系统功能以使其满足具有意识的相关指标属性。事实上，在如何让机器拥有意识的问题上，全局神经工作空间理论 (global neural workspace theory，GNWT） 的倡导者 斯坦尼斯拉斯·迪昂 (Stanislas Dehaene）就提出过，当我们将正常成年人脑特有的两种信息计算功能———全局广播 C1 和自我监控 C2———赋予机器时，其行为表现就好像它是有意识的。</p><p>第二种观点。与秉持计算功能主义判定 AI 系统是否有意识的立场不同，以整合信息理论（integrated information theory，IIT）为代表的一类观点首先将意识的关键锚定为意识体验的主观方面或现象意识（phenomenal consciousness）。IIT 认为，意识体验的主观性或现象性 ( phenomenality）是由系统的内在因果力决定的，而不是由外在观察者看到的功能表现所决定的。 IIT 的支持者克里斯托 夫·科赫（Christof Koch）强调意识与智能 ( intelligence）是不同的，他将意识与智能看作两个正交的维度: 当前 AI 系统有很高的智能，但却没有意识; 与之相反，一个基于生物工程的类脑器官会具 有一定程度的意识，但却没有智能。</p><p>第三种观点。认知神经科学家安东尼奥·达马西奥（ Antonio Damasio）、雅克·潘克赛普（Jaak Panksepp）等人主张从生命演化的角度来看待和审视意识。他们认为生命与心智具有连续性，唯有与现实生命活动联系起来，属于心智范畴的诸多概念才能被深入理解。达马西奥和潘克赛普都强调感受之于意识的核心和基础地位。达马西奥指出，“内稳态感受（homeostatic feelings）本身自发和自动地 就是有意识的”，潘克赛普认为，意识并不取决于高级认知功能（或高级智能），而是产生自更基 础的情感心智（affective mind）和感受。达马西奥认为，AI 的一些先驱为了走捷径采用了更为 “经济” 的方式，即他们仅仅致力于让机器模拟更容易客观地加以评估的智能，而回避了那些让他们觉得过于主观从而难以科学介入的情绪感受。但依据心智的生命观，恰恰是那些根植于生命自我调节的情感要素才是 AI 实现意识的关键。因此，要让 AI 系统拥有意识，首先要构建出该系统的 “内稳态感受”，而 “为了做到这一点需要为机器人提供一个满足存续所需规范和调整的身体”。</p><p>总的看来，要回答 “AI 是否具有意识以及如何构建有意识的 AI”这类问题，我们仍然需要或者必须从意识理论中寻找灵感和答案。正因如此，我们注意到 “认知神经科学之父”加扎尼加（Michael S. Gazzaniga）在其专论意识的著作 《意识本能: 揭秘脑是如何形成心智的》中提出的意识学说。本文将讨论加扎尼加意识学说的关键思想，即他关于意识的现象学和神经机制——模块—层级架构。加扎尼 加的意识学说将有助于澄清 “AI 是否具有意识以及如何构建有意识的 AI”这类问题。</p><h2 class="wp-block-heading">一、脑异常与意识现象学</h2><p>通常，机器的故障反而能让人们更好地认识它的工作原理。同样，脑异常（脑损伤和脑疾病）也是人们间接窥视意识现象学以及意识现象学表现与脑的神经结构—动力学关系的一个极佳窗口。透过脑损伤和脑疾病这个窗口，加扎尼加得到的一个基本观察是，意识是有韧性的（ resilient） ，它很难被彻底抹除。由于意识在神经上的韧性（resilience），使得脑异常与意识现象学之间存在复杂的关系， 而加扎尼加关于意识的本质、功能和机制的学说在很大程度上源于对这种复杂关系的认识。</p><h3 class="wp-block-heading">意识与体验内容是有区别的</h3><p>脑异常案例给加扎尼加带来的一个关键启示是，不能把意识与体验内容等同起来。换言之，不同的脑异常会给患者带来各种异乎寻常的体验内容，但意识一直持存着（persisting）。加扎尼加举了很多病例来说明这个区别，以及这个区别对理解意识的本质和构建意识的机制的重要性。</p><p>阿尔茨海默病会缓慢地在全脑各处造成严重的神经损伤，例如当内嗅皮层和海马神经元发生病变 后，患者会出现短时记忆丧失。随着病情的加重，一个人在知、情、意三个方面的能力都会严重下降，患者神情木讷，寡言少语，言辞不清，行动迟缓，甚至认不出自己至亲的人。尽管患者 “体验 到的世界越来越局限，体验的内容也很古怪，与过去正常时自我体验到的完全不同”，但只要他的心脏还在跳动，“尽管内容如棋局的盘面一样变化不定，但他的意识仍然会在受退化蚕食的脑中幸存下来”。</p><p>精神分裂症患者存在感知、思维、情感、意志等多方面的障碍，其中最突出的症状是幻想（hallucination）和妄想（delusion），例如，患者总觉得别人在背后指点和监视自己。加扎尼加在书中描述了一个被称为 “B先生”的精神分裂症患者，他总认为自己正被联邦调查局（FBI）特别关注，自己每时每刻的行为都被监视，而且联邦调查局还将他每日的生活录制为 “B先生秀”的节目向公众播放。尽管 B 先生对世界的体验内容与正常人相去甚远，但这就是他真实的主观世界，并且他总是努力在认知上做一番解释，以使他的体验世界变得合情合理。援引精神分裂症，加扎尼加想提出的观点 是: 尽管 B 先生的脑功能出现了异常（他的体验内容与正常人相去甚远），但 B 先生的意识并没有消失，他依然能够觉知到自身的存在。</p><p>人类意识体验的内容很大部分是语言性的。我们现在知道，人类的语言能力依赖特定的生物结构，语言的学习、理解和表达由不同的脑区负责，不同脑区的损伤会导致不同的失语症。例如，威尔尼克区（ 语言的听觉中枢）受损会导致感觉性失语，患者以口语理解障碍为突出特点，对他人和自己的言语均不能理解，严重时答非所问，但患者自发语言呈流利性，常滔滔不绝地独自说个不停，却用词混乱、语法紊乱，使人无法理解。尽管不同语言区的损伤会导致不同的意识体验，但没有一个会摧毁意识本身。再如狼孩，毫无疑问他具有意识，也有意识体验，但他未习得语言时的体验内容与假设他学会说话时的体验内容将非常不同。</p><p>菲尼亚斯·盖奇（Phineas Gage）可能是脑损伤案例中最有名的。他的左侧前额叶在一次铁路施 工现场的爆炸事故中因一根钢钎穿过头骨而遭到严重损伤。在事故后他的个性发生巨大变化，他过去对待同事那种富有同理心的人格已经被暴躁好斗的意识体验取代，但他的意识毫无疑问地还在。“不管额叶综合症患者情绪失控的潜在原因是什么，有一个事实在所有病例中都是一致的: 患者仍然有意识。”</p><h3 class="wp-block-heading">意识与感受</h3><p>脑异常案例给加扎尼加带来的另一个关键启示是，意识首先是一种感受（feeling）。事实上，让意识成为 “难问题”的正是感受，也正因为感受，哲学和科学才不得不面对如芒在背的 “主观性”。意识研究领域提倡、接受和支持这个观点的人不在少数，像内格尔（Thomas Nagel） 、查默斯（David Chalmers）、托诺尼（Giulio Tononi） 、科赫、汉弗莱（Nicholas Humphrey） 、潘克赛普、达马西奥、索姆斯（Mark Solms）等都是典型。例如，达马西奥将感受置于意识（乃至心智）的中心地位，认为“感受是意识之源”，“归根结底，意识是作为一种感受开始的，它固然是一种特殊感受，但仍然是 一种感受”。</p><p>长期以来，存在着这样一种信念，即认为所有形式的意识都来源于大脑皮层，没有大脑皮层，人们不仅没有意识，而且也无法在任何层面上产生意识。但脑异常病例提供了质疑和反对这种信念的证据。先天无脑畸形儿患者或积水性无脑畸形儿患者因为遗传和发育异常或疾病导致大脑皮层缺失或只残余少量大脑皮层。对这些患儿的研究发现，这类孩子 “不仅是清醒的，时常表现出警觉性，而且能对周围环境做出情绪反应，或是对环境事件做出有针对性的反应”。与这些患儿熟悉的人尽管一眼就能看出患儿与大脑皮层健全的孩子之间的差别，但关键是，他们从不否认这些患儿有意识，能对刺激做出适当的反应，能与正常的孩子一样体验种种感受，诸如疼痛、冷暖、快乐。</p><p>加扎尼加援引积水性无脑畸形的病例等证据是要证明，皮层下结构可以独立地产生有意识的主观感受，大脑皮层对这类原始的主观感受来说并不是必需的，但大脑皮层却是一系列增强认知能力和丰富体验内容的神经基础。加扎尼加将负责情绪和情绪感受（emotional feelings）的皮层下结构比喻为意识的引擎，而大脑皮层的演化和发育则极大地扩展和丰富了体验的内容。只要支持情绪感受的“皮层下引擎” 完好运作，大脑皮层中的任意部分都能够产生意识体验。 皮层下结构中的边缘系统、间脑、中脑等区域在演化上先于大脑皮层，与生命的维持和存续所涉及的情绪反应和情绪感受密切相关。 “如果我们将意识看作对事物的主观体验，那么情绪必然是意识 的基本组件。”据此，加扎尼加提出笛卡尔“我思，故我在”的基础是“我感受，故我在”（sentio ergo sum）：笛卡尔实际上只需借由皮层下结构产生的感受就能锚定他作为一个 “我”的存在，其中可以不涉及大脑皮层的高级认知功能，不需要高度发达的概念性的 “我思”就能 “我在”。相比成年人的认知控制能力，额叶还未发育完全的婴幼儿的控制能力会更加依赖皮层下结构。</p><h2 class="wp-block-heading">二、意识的神经架构</h2><p>在意识科学的时代，止步于描述各种脑异常（脑损伤和脑疾病）导致的引人入胜的意识现象学是不够的，加扎尼加的目标是透过现象学在认知神经科学上推进意识的自然科学研究。人脑中每时每刻都进行着无数电、化学和激素过程，但我们的体验却好像是一个丝滑统一的整体，脑是如何将这些过程组织起来产生出这种统一性的意识? 加扎尼加的科学目标就是试图阐明精心演化的脑是如何曲尽其妙形成奇迹的，即物质是如何形成心智的。</p><p>脑异常的意识现象学是我们推断意识神经机制极富价值的线索和指引。如上所述，加扎尼加特别重视从脑异常病例中得到的意识现象学的这两个重要论断: 论断 1 是意识与体验内容不同，并且是可以分开的，某种体验内容的异常或消失并不代表意识本身的丧失; 论断 2 是意识首先是一种感受。托诺尼等人的整合信息理论，从意识的五条现象学公理（axiom）出发去构想能够支撑这些公理的物理 系统必须满足的神经结构—动力学条件的假设，即相应的五条物理学公设（postulate） 。加扎尼加依照同样的方法也构建了一个神经架构，以便解释上述两个重要论断以及一系列意识现象学。</p><p>加扎尼加认为，要充分地理解意识的本质和特点就必须同时考虑皮层下结构和大脑皮层在意识中的地位和作用。依据论断 2，加扎尼加为其意识的神经架构添加的第一个结构是皮层下结构，因为单独的皮层下结构也能生产有限类型的意识体验 （尤其是情绪感受）。依据论断 1，加扎尼加增加的第二个结构是皮层结构，因为尽管大脑皮层不是产生意识所必需的，但只要有皮层下加工过程的支持， 大脑皮层就能为有机体提供类型多样的丰富的认知内容，为有机体获得更高级的心智能力（ 概念思维和反思）铺平道路。论断 1 尤其表明，体验内容不可能由脑内某个 “超级中枢的” （Grand Central）单一结构产生，因此要解释体验内容的神经韧性就必须采取另一种方式来思考。为此加扎尼加认为，只有以模块—层级方式构造的脑才能解释有关意识现象学的种种脑异常的事实。在他的学说中，意识的神经架构依赖的关键概念包括模块、层级（或分层） 、协议（protocol）、整合等。</p><h3 class="wp-block-heading">模块—层级架构</h3><p>简单地说，脑是由模块构成的神经网络。其中，每个确定的模块本身也是一个专门的、局部的神经网络，负责行使某个特定功能。一方面，为实现专门的功能，相对于模块之间较为松散的连接，模块内部的连接要更为致密；另一方面，脑是由大量相对独立的运行模块形成的一个功能整体，因此， 模块之间的通信和协调是至关重要的。再者，一些模块是分层的，也就是说，模块本身由亚模块组成，亚模块又由亚—亚模块构成。加扎尼加认为，从神经科学上讲，意识就是由成千上万个相对独立运作的模块相互作用形成的某种整体功能。所以，他一再强调意识不是一个事物（thing），而是一种功能（或能力），“它是一个嵌入架构中的过程的产物，就好比民主并不是一个事物，而是一个[社会体系运行]过程的结果”，是一种功能（或能力） 。</p><p>对模块—层级架构而言，协议是理解其运作的一个基本概念。每个层级的模块之所以能相对独立地工作，是因为每个层级都拥有自己的工作协议。所谓 “协议”，是指一组规定层级内和层级间的接口或交互作用的规则或规范明细。波音 777 飞机是典型的模块—层级架构的复杂系统，其中飞机座椅 就是处于其中一个层级的模块。加扎尼加以座椅层级的模块为例来说明协议的特点。在建造波音 777 飞机时，对制造座椅模块的工程师来说，他所需要的信息只是一套有关固定于该飞机机舱内座椅的尺寸标准，而无须知道也不用关心发动机模块的尺寸标准，譬如空气动力学、合金材质、燃油等的参数。只要满足这套标准，座椅制造工程师可以尽情发挥他在设计和制造上的创意和灵活性。显然，</p><p>“协议既是对该层级的约束，但也允许在那些约束范围内有灵活性”。由于模块—层级架构系统中不同层级模块的形态完全不同，因此在它们之间传输的必要信息必须针对特定的层级进行抽象，即不同 层级的模块之间必须要有接口参数，例如，舱内座椅与整个机舱的接口参数主要涉及座椅的空间布局、固定强度等。在一个模块—层级架构的系统中，其层级 “堆栈”（stack）中的每一层级的模块会依 据相应的协议加工从下一层模块接收输出信息，并将结果传递给上一层模块或返回给下一层模块。每个层级的模块都不 “知道”前一个层级模块接收的输入信息是什么样的，也不知道前一个层级模块对信息做了哪些加工，它也不需要知道这样的信息。协议使得各层只能加工那些接收自邻层的信息。</p><p>一个模块可以单独作为一个层级，但更高层级的模块是如何产生的呢? 这时我们就需要 “整合”概念了。“低级功能活动部分无法单独创建 ‘高级’体验，但在层级架构中，新的功能活动层级可以从低的功能活动层级中产生”，导致新层级涌现（emergence） 的就是整合。可以说整合是宇宙间最神奇的机制，原子模块因整合形成了分子模块，分子模块因整合形成细胞模块，神经细胞模块因整合 形成功能脑区模块，功能脑区模块因整合形成整个脑系统。 “人脑拥有很多高度整合的模块，使得我们能够将不同模块的信息结合在一起，形成抽象的思维”，并最终诞生有意识的、反思的心智。</p><h3 class="wp-block-heading">模块—层级架构的优势</h3><p>脑为什么以模块—层级架构的方式构造和运行呢? 加扎尼加在书中论述了这种架构存在的一些显著优势。首先，模块—层级架构的脑能够减少能量消耗。脑被分成各个单元，因此在完成特定任务时，只需一个给定模块中的区域保持活跃就可以了。很显然，这种模块—层级架构与一体架构，即实现任何一个功能都要调用全局相比，肯定是一种更节能的构造方式。“这就好比你夏天住在凤凰城（Phoenix），如果你在晚上只开卧室空调，就比给整个房子制冷要省钱。”其次，模块—层级架构的脑在功能上也更高效。专业分工是古今中外所有社会系统运行中的普遍现象，因为一个事务由专业人 士来处理肯定会更高质高效。如果社会系统没有分工，造成的结果不仅是没有社会合作，而且每个人都被迫成为多面手，最终的后果肯定是他哪一项职责都无法胜任。同样，如果脑是一个浑然一体的单元，它就无法应对环境对有机体发出的多样的、性质不同的挑战。幸好有相对独立运行的模块分工， 脑才能通过协调这些 “专家”完成种种超级挑战。“比起事事每个人都做一点，诸专家同时做带来的经济产出更高。这样看来，为了能有效地同时处理多种类型的信息，脑以模块化的方式演化就显得很合理了。”最后，模块—层级架构的脑蕴含着一个也许对有机体而言最重要的优势: 灵活性。有机体能对不断变化的环境做出更快的适应或演化。原因很简单，由于模块是相对独立的，一个模块的修改、复制或升级不会危及或触动其他运转正常的模块，这种方式使得有机体在应对新问题和新挑战时 能更灵活地做出调整。同时，当系统出现故障时，也更容易辨识出问题的源头，我们不需要修理或报 废整个系统，只要处理出问题的层级或层级部件即可。此外，加扎尼加认为，即使不考虑模块—层级架构之于有机体演化的优势，这种架构也有助于有机体更好地学习新技能，因为倘若每次学习一门新技能，整个脑都大范围地调整一次，那么有机体就很可能因为学习新技能而丢失了已有的技能。</p><p>总之，模块—层级架构的好处是， “它在资源稀缺时节省能量，在时间有限时允许专门的并行认知（parallel congnitive）加工，在新的生存压力出现时更容易改变功能，并允许我们学习各种新技能”。加扎尼加认为，如果我们深思其理，就会发现脑根本不可能以模块—层级架构以外的其他任何方式来进行构造。</p><h3 class="wp-block-heading">小世界网络</h3><p>大胆一点，我们可以说，模块—层级架构是一个普遍的宇宙学事实。神经科学家格奥尔格·施特里特（Georg Striedter）的研究发现，模块—层级架构的脑在神经元的连接上遵循三条法则: 第一， 一个神经元通常连接的神经元数量不会随着脑尺寸的增加而改变，也就是说，随着脑的扩容，尽管脑的整体连接性会下降，但脑的局部加工更为独立; 第二，脑的整体连接长度尽可能保持最短，这样，大多数神经元只与临近神经元相连，使得局部神经元之间能够建立高效的通信，从而自然形成一些具有专门功能的局部区域，如此一来，模块就出现了；第三，脑中神经元之间不是所有的连接都是最小化的，因为为了协调各模块完成更复杂的加工和实现功能，脑中相对独立的不同层级的模块之间需要 形成通讯连接，这就出现了一些间隔较远的模块之间的 “快捷”（short cut）连接。</p><p>脑依循上述法则形成的架构也就是所谓的 “小世界” （small-world）架构。脑的小世界网络一方面需要模块（神经元聚类）实现专门功能，另一方面它又需要模块之间通过连接形成更高层级的模块，以实现更复杂的功能。如此一来，就出现了模块内相对致密的连接与模块间相对稀疏的连接，如图 1。</p><figure class="wp-block-image size-full"><img decoding="async" width="1006" height="756" src="https://neu-reality.com/wp-content/uploads/2024/10/image-97.png" alt="" class="wp-image-10005219" srcset="https://neu-reality.com/wp-content/uploads/2024/10/image-97.png 1006w, https://neu-reality.com/wp-content/uploads/2024/10/image-97-770x579.png 770w, https://neu-reality.com/wp-content/uploads/2024/10/image-97-680x511.png 680w, https://neu-reality.com/wp-content/uploads/2024/10/image-97-200x150.png 200w, https://neu-reality.com/wp-content/uploads/2024/10/image-97-20x15.png 20w" sizes="(max-width: 1006px) 100vw, 1006px" /><figcaption class="wp-element-caption"><strong>图 1.小世界网络。</strong>（ A） 富人俱乐部神经元与非富人俱乐部神经元之间的关系。由局部互连形成的群体中的神经元可以通过与富人俱乐部通道搭上关系取得其他局部群体的信息。（ B）神经群落（ 模块）是由致密互连的神经元形成的群体构成的。模块网络的典型特征就是存在若干神经群落。模块内部的连接往往要比模块之间的连接短。这样一来，受制于空间的模块就有助于节约与连接和沟通有关的成本。模块之间的功能整合要求增加高成本长距离的轴突投射以连接在空间上 远距离的脑区，这就产生了连接器枢纽，它可以接入数量多到不成比例的长途的模块间连接，它具有一个高参与度指数，并且在网络中占据着一个在拓扑上更为中心或者 “潜在瓶颈”的角色。</figcaption></figure><h2 class="wp-block-heading">三、脑心演化的嵌套层级理论</h2><p>在对意识本性的理解上，加扎尼加与潘克赛普的观点相当接近。潘克赛普等人从生命演化的视角提出了一个脑心（BrainMind）或心脑（MindBrain）演化的嵌套层级理论（图 2）。对于哺乳动物，其脑心由三个层次的过程组成，分别是初级过程（primary-process）、次级过程（secondary process）和三级过程（tertiary process）。</p><figure class="wp-block-image size-full"><img decoding="async" width="746" height="554" src="https://neu-reality.com/wp-content/uploads/2024/10/image-98.png" alt="" class="wp-image-10005220" srcset="https://neu-reality.com/wp-content/uploads/2024/10/image-98.png 746w, https://neu-reality.com/wp-content/uploads/2024/10/image-98-680x505.png 680w, https://neu-reality.com/wp-content/uploads/2024/10/image-98-200x149.png 200w, https://neu-reality.com/wp-content/uploads/2024/10/image-98-20x15.png 20w" sizes="(max-width: 746px) 100vw, 746px" /><figcaption class="wp-element-caption"><strong>图2.脑的每一个系统中进行的自下而上和自上而下 （ 循环） 因果作用。</strong>该图概述了一种假设，即高级心脑功能要发挥作用就必须与低级脑心功能进行整合，其中初级过程被描绘成正方形，次级学习过程被描绘成圆形，在顶端的三级过程被描绘成矩形。</figcaption></figure><p>初级过程是一些位于新皮层下的（sub-neocortical）脑结构，实现对哺乳动物生命状态的调控， 是哺乳动物脑心中古老且普遍的价值结构，它们以原生情感（raw affect）的形式表达对环境的价值评价。哺乳动物的原生情感有三个一般类型：情绪性情感（emotional affect），源于情绪行动系统，体现为行动的驱力、动机和意图; 体内平衡情感（homeostatic affect），源于脑—身体的内感受器，表现为饥渴、口渴、性欲等；感官性情感，源自外感受感官，表现为被触发的令人愉悦或厌恶的情感。</p><p>次级过程是基于基底神经节的情绪学习和记忆机制，包括：经典条件作用（例如，通过杏仁基底外侧核和中央核实现的恐惧情绪）；工具的和操作的条件作用（例如，通过伏隔核实现的探索行为）；行为习惯和情绪习惯（由背侧纹状体实现，很大程度上是无意识的）。通过将原生情感与感知相结合，次级过程赋予哺乳动物广泛的条件性学习（conditioned learning）能力。大鼠对猫的铃铛声的恐惧采用的就是次级情绪过程的基本认知策略。</p><p>三级过程是基于新皮层实现的高级心智过程，新皮层是在人类身上特别发达的脑结构，它促成了丰富的认知和思想，尤其是在人类生活中极为显著的反思和慎思能力，包括: 认知执行功能（诸如由额叶皮层实现的思想和规划）；对情绪的反思和调节（主要涉及内侧额叶区）；做出选择和采取行动的 “自由意志”。</p><p>潘克赛普认为，心智存在需要区分开的两个方面，即心智的情感方面（affective aspect）与认知方面（cognitive aspect） ，而他的心智理论特别强调情感在心智中的基础性，“我们的观点是，理解情感对于我们理解人类本质而言至关重要”，“从根本上说，情感是我们心理存在的基石……原生情感感受是整个心智装置的原始基础——它们是核心—自我的原初生物基质——也许是 ‘灵魂’概念的 神经基础”。为此，潘克赛普将意识分为两种类型或形式: 情感意识（affective consciousness）与认知意识（cognitive consciousness） 。首先出现的是演化上较为古老的情感意识，这是一种对原生情绪感受的意识；认知意识在演化上则是一个相对的后来者，它不仅丰富了对世界的认知，还使得个体可以对自己的情绪感受进行思考。这种区分在意识研究中有相当的普遍性，例如，现象意识与通达意识（access consciousness）的区分、现象意识与认知意识的区分等。潘克赛普提出，当初级过程这个演化上古老的系统跟划定 “自我”与外部世界之间界限的这一最初的神经 “身体地图”联系在一起时，主观的情感体验就诞生了。因此原生情感首先反映的是生物体与环境之间的一种价值关系或 “态度”，尽管这种价值关系肯定与生物体对环境的感知和认知判断有关。原生情感本身既不聪明也不智能，但它是人类和动物的脑心共享的演化上同源的结构—功能，它为不同物种的高级心智活动提供了许多相似的生物 “价值结构”和生存指引。不同哺乳动物新皮层的大小和复杂性千差万别，致使它们呈现出不同类型和水平的认知能力和智能，但是在解剖学和神经化学上与新皮层存在显著区别，深藏在大脑皮层之下的同源情感基质在所有哺乳动物中是极为相似的。由于脑的模块—层级架构既嵌套又彼此循环连接，因此在人类高度发达的意识体验——反思意识（reflective consciousness）或自知意识（autonoetic consciousness）中，情感与各种相当抽象的言 语思想和观念混为一体，以至于我们很难将意识的认知方面与情感方面剥离开，从而以最纯粹的形式来理解情感和感受，但原生情感即使在人类成人身上仍然以一种充满活力的意识形式表现出来， “大部分人都会记得他们在愤怒时握紧拳头，脸色通红，非常害怕，并且感受到深深的悲伤和喜悦”。</p><p>脑心演化的嵌套层级理论显然符合加扎尼加的模块—层级架构的思想，即模块—层级既在结构—功能上相对独立，又在结构上双向连接（循环因果关系），从而实现结构—功能的协调和整合。在脑心的嵌套层级中，初级过程情感指引和推动次级过程的学习机制，之后，这两者又与三级过程的认知能力相结合，从而形成了尤其呈现于人类水平的心智景观。理解这一点会极大地帮助我们更全面地认识脑心复杂性。</p><h2 class="wp-block-heading">四、“开水冒泡” 隐喻</h2><p>现在，我们可以结合模块—层级架构和脑心演化的嵌套层级理论来审视加扎尼加提出的有关意识的 “开水冒泡”隐喻。</p><p>情感意识与认知意识的区分与加扎尼加得出的 “论断 2” 和 “论断 1” 正好是对应的。能够恰好同时说明这两点的脑异常病例就是加扎尼加做过精深研究的裂脑人现象。当连接两侧脑半球的胼胝体被神经外科医生切断后，一个人的脑中会出现两套意识体验。一方面，由于皮层下结构被两个脑半球所共有，因此裂脑患者有着相同的情绪驱动力和感受，这表明情感意识（感受）的基础性 （论断 2） ; 另一方面，由于负责高级认知的新皮层不同，因此两套意识体验在同一时间拥有不同的认知—情感内容，这表明认知意识的神经韧性，也就是说脑损伤会造成特定的认知—情感缺陷，却无法完全消弭意识（论断 1） 。这使得加扎尼加认识到，“意识体验表面看上去是一个统一的整体，但实际上是协同（in concert）发生的，其中多个系统彼此并行运行，它们分别输出各自的加工结果”。再者，裂脑研究还让加扎尼加认识到， “意识不是某个使得我们所有心智事件都变得有意识的特殊网络的产物。相反，每个心智事件都由一些有能力使我们意识到它们加工结果的脑模块管理”。这些加工结果（即体验内容） 由不同的模块产生，就像一壶开水中沸腾的泡泡，它们一个接一个出现，并在一段时间后破裂，被其他泡泡取代，这是一个在时间上无缝衔接的持续的动态过程。为此，加扎尼加将意识出现的过程比喻为 “开水冒泡”。</p><p>通过意识如何出现的开水冒泡隐喻，加扎尼加认为，人们通常关于 “意识体验是一部连贯的电影或者是一段连续的流 （a continuous stream） ”的直觉是一种错觉 （ illusion） 。事实上，意识体验是由许多相对独立的 “认知”泡泡组成，通过嵌套层级中的循环连接与皮层下的 “情感”泡泡紧紧地交织在一起，最终合成为一连串（ a stream）的认知—情感泡泡，随着它们腾跃到表面的时间而被连接为一个看上去连续的整体。</p><p>究竟是哪个意识体验的泡泡最终冒出来呢? 换言之，究竟是哪个模块的加工结果最终胜出呢? 这就涉及控制的问题。“泡泡是胡乱腾跃出来的，还是某种动态控制系统的产物? 是否存在一个控制层级，负责给一些泡泡放行，同时抑制其他泡泡?”某一时刻某个过程占据了你的意识高峰，其他一些过程则被挤了出去，竞争失败的信息加工不会被意识到，这部分结果只表现在无意识水平上。</p><p>对模块加工的控制受两个方面的影响。简单地说，一种是由外部刺激自下而上形成的结果，另一种是由生物体内部的选择机制自上而下造成的结果。就自下而上来说，例如，如果你吃一块糖，那么胜出的自然是负责加工甜味感觉的模块，而不可能是加工苦味感觉的模块。就自上而下来说，“从螃蟹到鸟类再到灵长动物，我们在许多动物中都发现了某种形式的选择性信号增强机制，表明这是一种被我们最后一个共同祖先所共有的能力”。之所以会出现这种信号增强机制，根本原因在于，生物体不可能关注刺激其各个感官的所有信息，而是必须有选择地考虑那些与其生存最相关的信息，最好是优先考虑那些迫切的关于危险、食物、交配的信息，而不是其他的。这种选择机制在所有生命形式中保存着。最终，这种选择性信号增强就演化为现在所说的 “注意”。不论是自下而上还是自上而下的控制，模块加工结果之间的竞争和最终的胜出归根到底是受生物体原生情感——追求最优生存状态是所有生命的最终目的或目标——的支配。</p><h2 class="wp-block-heading">结语</h2><p>1938 年，弗洛伊德在回应行为主义者的强烈攻击时写道，意识是 “一个无可比拟的事实，它藐视所有的解释和描述。尽管如此，如果有人谈到意识，我们就能立刻并且通过我们最个人化的体验知 道它意味着什么。一个极端的思路——比如美国行为主义学——认为，可以构建一门无视这一事实的心理学！”相比于弗洛伊德的时代，在当今科学界，意识的地位早已今非昔比，无视意识的科学肯 定是狭隘的和不完整的。但构建有意识的 AI 系统，这首先不是一个工程问题，而是一个理论问题， 因为一个系统有意识与有智能可能在底层逻辑上完全不同: “也许对我来说最令人惊讶的发现是，我现在认为我们人类永远不会造出一个模仿我们个人意识的机器。无生命的硅基（silicon-based）机器以一种方式工作，而有生命的碳基（carbon-based）系统则以另一种方式工作。”当我们澄清了“意识”与 “智能”的差异和关系，我们就会克服在 “AI 系统是否有意识以及 AI 是否会造成对人类 的生存性威胁” 等一系列理论问题上的困扰。</p><p></p>]]></content:encoded>
					
					<wfw:commentRss>https://neu-reality.com/2024/10/ai-consciousness-gazzaniga/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
		<post-id xmlns="com-wordpress:feed-additions:1">10005218</post-id>	</item>
		<item>
		<title>诺贝尔奖授予AI领域，传统研究方法要消亡了吗？</title>
		<link>https://neu-reality.com/2024/10/nobel-prize-chemistry/</link>
					<comments>https://neu-reality.com/2024/10/nobel-prize-chemistry/#respond</comments>
		
		<dc:creator><![CDATA[神经现实]]></dc:creator>
		<pubDate>Wed, 09 Oct 2024 08:31:00 +0000</pubDate>
				<category><![CDATA[人工智能]]></category>
		<category><![CDATA[合成生物学]]></category>
		<category><![CDATA[机器学习]]></category>
		<guid isPermaLink="false">https://neu-reality.com/?p=10005875</guid>

					<description><![CDATA[随着机器学习方法越来越多应用在研究中，这是否意味着传统理论即将消亡？]]></description>
										<content:encoded><![CDATA[<p class="has-background" style="background-color:#f8f8f8"><strong>2024年诺贝尔化学奖一半授予大卫·贝克（David Baker），表彰他“在计算蛋白设计方面的贡献”；另一半由德米斯·哈萨比斯（Demis Hassabis）和约翰·M·朱珀（John M. Jumper）共同获得，以表彰他们“在蛋白结构预测方面的贡献”。贝克成功完成了几乎不可能的任务，构建了全新的蛋白质类型。哈萨比斯和朱珀则开发了一个人工智能模型，解决了一个存在50年的难题：预测蛋白质的复杂结构。当科学界最高奖项授予AI预测蛋白结构，随着机器学习方法越来越多应用在研究中，这是否意味着传统理论即将消亡？</strong></p><p>据传，被一个苹果砸在头上之后，艾萨克·牛顿发现了他的第二定律——那个关于万有引力的定律。经过大量实验和数据分析，他意识到力、质量和加速度之间存在着根本性的关系。因此，他提出了一个理论来描述这种关系，即F=ma公式，并且可以用其来预测苹果之外的其它物体的行为。事实证明，他的理论是正确的（至少对于我们这些后人来说已经足够精确）。</p><p>牛顿的这种提出理论的方式和当今科学的发展方式截然不同。Facebook的机器学习工具能够比任何心理学家都更准确地预测你的偏好；DeepMind所开发的程序AlphaFold能够根据蛋白质所含的氨基酸，对蛋白质结构进行截至目前为止最准确的预测。然而，这两个系统都对它们的工作原理缄默不言，它们无法告诉我们：为什么你更喜欢这个或那个信息；为什么这个序列会生成那样的结构。</p><p>你无法掀开幕布来窥视其中的机制。这些系统没有提供任何解释，无法提供一套能说明如何将这个变成那个的规则。简而言之，它们没有理论支持。它们能工作，并且做得很好，如此而已。我们每天都在见证Facebook的预测程序对社会的影响。许多人相信AlphaFold将改变现代医学[3]*。</p><p>在牛顿到马克·扎克伯格之间的某处，理论退居了二线。在2008年时，时任《连线》杂志的主编克里斯·安德森（Chris Anderson）就预言了它的消亡。他认为，我们已经积累了如此多的数据，并且相比于人类，计算机发现数据间关系的能力已经强得多，这就暴露出：我们所提出的理论不过是对现实的过度简化。古老的科学研究方法——假设、预测、检验——很快将被扔进历史的垃圾箱。我们将不再寻找事物的原因，而是满足于其中的相关性。</p><p>事后看来，我们可以说安德森所看到的是真实的（他并不是唯一一个这样认为的人）。大量数据向我们展示出的这种复杂性无法被传统意义上的理论所阐述。德国图宾根马克斯普朗克生物控制论研究所所长、计算神经科学家彼得·达扬（Peter Dayan）说：“我们的能力已经滞后了，无法写出那些会有助于描述的理论，甚至不知道它们会是什么样。”</p><p>《科学》杂志的总编辑霍尔顿·索普在《蛋白质，无处不在的蛋白质》一文中写道：“这是一个重大的突破，其原因有二：它解决了这个在待办事项清单上待了50年的科学问题。就像费马大定理或引力波一样，科学家们一直在努力解决它。其次，这个技术很大程度上改变了这个领域，就像基因编辑工具CRISPR和冷冻电镜技术一样，将会极大地加速科学发现。无论如何，这都是一个双重意义上的重要年度突破。”</p><p>克里斯·安德森在《理论的终结》一文中指出：“（随着人们从百字节到千字节，再到兆字节甚至太字节，）大量数据的诞生，以及处理这些数字的统计工具，为我们提供了一种了解世界的全新方式。相关性取代了因果性，即使没有连贯的模型、统一的理论或任何机械解释，科学也能取得进步。没有理由坚持我们的旧方式了。是时候问一问：科学可以从谷歌那里学到什么？”</p><h2 class="wp-block-heading">理论拒绝消亡的三个原因</h2><p>但安德森对理论终结的预测似乎为时过早——或者他的论文本身可能过于简单化了。尽管Facebook和AlphaFold这样的无理论（theory-free）预测引擎取得了成功，但理论拒绝消亡的原因仍有很多。这些成功启发了我们去追问：获取知识的最佳方式是什么？科学从何而来？</p><p>理论拒绝消亡的第一个原因是，我们已经意识到，人工智能，尤其是被称为神经网络的机器学习方法，由于它们无需接受任何的学习指导只是从数据中完成学习，本身是容易出错的。例如，谷歌搜索引擎和亚马逊招聘工具会记录下偏见*。</p><p>第二个理由是，人类对没有理论的科学深感不安。我们不喜欢处理黑匣子——我们想知道为什么。</p><p>第三个理由是，目前可能仍然有很多传统类型的理论——即人类可以理解的理论——可以有效地解释很多尚未被发现的现象。</p><p class="has-background has-small-font-size" style="background-color:#f8f8f8">*译者注：《卫报》在2016年的一篇名为《谷歌如何以右翼偏见传递虚假信息》中指出：“谷歌的搜索算法及其自动完成功能优先考虑那些宣称气候变化是骗局、同性恋是罪恶、桑迪胡克大规模枪击事件从未发生过的网站。”《路透社》在2018年的名为《亚马逊废弃了对女性有偏见的秘密人工智能招聘工具》中提到：由于该智能招聘工具是从近10年提交给公司的简历中来学习，而男性在科技领域中占有主导地位，因此它在评估时自动地对“女性”这个词语进行了惩罚。</p><h2 class="wp-block-heading">更准确的预测</h2><p>所以，理论还没有灭亡，但它正在改变——或许已经面目全非。普林斯顿大学心理学家汤姆·格里菲斯（Tom Griffiths）说：“那些当你拥有大量数据时讲得通的理论，与那些在少量数据下有道理的理论，看起来是完全不同的。”</p><p>格里菲斯一直在使用神经网络来帮助改进他所在的领域，即人类决策领域的现有理论。在1970年代，经济学家丹尼尔·卡尼曼（Daniel Kahneman）和阿莫斯·特沃斯基（Amos Tversky）提出了一种目前十分流行的前景理论（prospective theory，后来为卡尼曼赢得了一座诺贝尔奖），它解释了人们在涉及经济风险时如何做出决策，其核心观点是人们的决策并非总是理性的。</p><p>然而，在2021年6月的《科学》杂志上[8]，格里菲斯的小组描述了他们在一个庞大的决策数据集上训练神经网络的过程，该数据集包含人们在一万个风险选择场景中做出的决策。他们用该网络来预测人们的进一步决策行为，并与前景理论的预测做了比较。他们发现，虽然前景理论预测得很好，但神经网络在该理论失败（即预测失败）之处，显示出了它的价值。</p><p>格里菲斯说，这些反例信息量很大，因为它们揭示了现实生活中存在的更多复杂性。例如，正如前景理论所描述的那样，人们会不断地根据传入的信息权衡其概率。但是，当大脑要计算的相互竞争的概率太多的时候，他们可能会转向不同的策略——例如，以经验法则为指导——股票经纪人的经验法则可能与青少年比特币交易员的经验法则不同，因为它们来自不同的经验。</p><p>“简单地说，我们是在使用机器学习系统，来识别那些我们看到的东西与我们的理论不一致的情况。”格里菲斯说。数据集越大，人工智能所学习到不一致情况就越多。其最终结果不是传统意义上的理论，即关于人们如何做出决定的精确主张，而是一组受某些约束的主张。描述它的一种方式是“如果……则……”这样的分叉树。这很难用数学来描述，更不用说用语言描述了。</p><p>普林斯顿心理学家的发现仍然勉强能算作可解释的，是现有前景理论的扩展。但随着它们揭示出越来越多的复杂性，它们会变得越来越不可解释——其发展过程的逻辑顶点就是Facebook或AlphaFold所体现的无理论预测引擎。</p><p>一些科学家对此感到满意，甚至渴望这样做。语音识别软件先驱弗雷德里克·耶利内克（Frederick Jelinek）说：“每次我解雇一名语言学家时，语音识别器的性能就会提高。”他的意思是理论阻碍了进步——而那时不过是20世纪80年代。</p><p>或者以蛋白质结构为例。蛋白质的功能很大程度上取决于其结构，因此，如果想要设计一种药物来阻断或增强某种蛋白质的作用，则需要了解它的结构。AlphaFold在实验结构数据上进行了训练（数据是通过X射线晶体学等技术推导出来的）。目前，它的预测对于有实验数据的蛋白质而言比没有实验数据的蛋白质更可靠。剑桥附近的EMBL欧洲生物信息学研究所（EMBL-EBI）前主任珍妮·特桑顿（Janet Thornton）说，它的可靠性还一直在提高，缺乏理论并不会阻止药物设计师使用它。“AlphaFold所做的也是一种科学发现，它只会加深我们对生命和治疗的理解。”</p><p>然而其他人显然对科学的发展方向不太满意。例如，批评者指出，神经网络可能会产生虚假的相关性，尤其是在它们训练的数据集很小的情况下。所有数据集都是有偏见的，因为科学家们收集数据的方式并不是均匀或中立的，而是始终基于某些假设或假定的。这些假设对谷歌和亚马逊的人工智能造成了破坏性影响。正如埃克塞特大学的科学哲学家萨碧娜·莱奥内利（Sabina Leonelli）所描述的：“我们使用的数据环境非常扭曲。”</p><p>虽然这些问题确实存在，但达扬并不认为它们是不可克服的。他指出，人类也会产生偏见，并且与人工智能的偏见截然不同。“人类偏见以既难被发现，也难被纠正的方式存在。”实际上，如果一个理论产生的预测不如人工智能可靠，那么很难说机器是两者中更为偏颇的那一个。</p><h2 class="wp-block-heading">可解释性</h2><p>新的科学面临的一个更艰难的障碍可能是我们人类解释世界的需要——即能够用因果关系来描述它。在2019年，西雅图华盛顿大学的神经科学家宾尼·布鲁顿（Bingni Brunton）和迈克尔·贝耶勒（Michael Beyeler）写道，这种对可解释性的需求，可能阻碍了科学家们对大脑产生新的洞见——只能从大型数据集中涌现的洞见。但他们也对此表示体谅。他们写道，如果要将这些洞见转化为药物和设备等有用的东西，“这些计算模型所输出的洞见必须能够向临床医生、终端用户以及行业解释，并得到这些群体的信任。”</p><p>如今，“可解释的人工智能”已成为热门话题，它旨在弥补可解释性的鸿沟。然而，这一鸿沟或许只会越来越大，我们可能会面临权衡取舍：我们愿意为可解释性放弃多少可预测性？</p><p>AI科学家苏米特·曹帕拉（Sumit Chopra）在纽约大学研究如何将机器学习应用于医疗保健中。他给出了一个磁共振图像的例子。要生成这样的图像通常需要大量原始数据，因此也需要较长的扫描时间。但如果你的目的只是准确地进行检测，例如检测癌症，这样的图像其实是没必要的。你可以通过训练一个AI，来确定只需要原始数据中的哪一小部分就足以产生准确的诊断。这种方法已经得到了验证，而曹帕拉的团队也已经这样做了*。然而放射科医师和患者显然依旧更相信图像本身，“我们人类对自己靠眼睛就可以理解的二维图像更感到舒服。”</p><p class="has-background has-small-font-size" style="background-color:#f8f8f8">*译者注：该团队在2021神经信息处理系统大会(NeurIPS)发表了《通过学习以加速核磁共振筛查》（Learning to Learning to Accelerate MR Screenings）论文，提出了一种直接从扫描仪采集的原始测量值推断临床相关变量的方法AcceleRated MRScreener（ARMS），在数据采集过程中实现20倍的加速，从而使该技术更便于临床筛查。</p><h2 class="wp-block-heading">通则与直觉</h2><p>对后理论科学的最后一个反对意见是，可能存在着有用的旧式理论——即从离散例子中提取出的通则——仍然有待发现，并且只有人类才能做到这一点，因为它需要我们的直觉。换句话说，它需要一种通过直觉将一些个例的属性归结为相关的一般规则的能力。我们认为牛顿是天才的原因之一在于，为了提出他的第二定律，他必须忽略一些数据。他必须想象物体不受空气阻力的干扰的情况，即在真空中下落。</p><p>在2021年的《自然》杂志上，波鸿鲁尔大学的数学家克里斯蒂安·斯顿普（Christian Stump）将这一直觉步骤称为“创作过程的核心”。然而，他写这篇文章的目的则是表明，人工智能首次完成了这一过程。DeepMind建立了一个机器学习程序，该程序促使数学家在纽结理论（knots）中得获得新的洞见——新的通则。</p><p>结语</p><p>如今，科学过程的每一个阶段几乎都留下了人工智能的足迹。我们越将它纳入我们对知识的追求，它就越会改变这种追求。我们必须学会和它共处，但我们可以向自己保证的一件事是：我们仍然在提出问题。正如巴勃罗·毕加索在20世纪60年代所说，“计算机是无用的。他们只能给你答案。”</p><p>翻译：Lu</p><p>校对：Sixin</p><p>编辑：杨银烛</p><p>原文：<a href="https://www.theguardian.com/technology/2022/jan/09/are-we-witnessing-the-dawn-of-post-theory-science">Are we witnessing the dawn of post-theory science?</a></p><p></p>]]></content:encoded>
					
					<wfw:commentRss>https://neu-reality.com/2024/10/nobel-prize-chemistry/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
		<post-id xmlns="com-wordpress:feed-additions:1">10005875</post-id>	</item>
		<item>
		<title>人工智能环保吗</title>
		<link>https://neu-reality.com/2023/03/artificial-intelligence-cerebrum/</link>
					<comments>https://neu-reality.com/2023/03/artificial-intelligence-cerebrum/#respond</comments>
		
		<dc:creator><![CDATA[Charmaine Lai]]></dc:creator>
		<pubDate>Thu, 16 Mar 2023 09:02:25 +0000</pubDate>
				<category><![CDATA[人工智能]]></category>
		<category><![CDATA[耗能]]></category>
		<category><![CDATA[认知科学]]></category>
		<guid isPermaLink="false">https://neu-reality.com/?p=10004259</guid>

					<description><![CDATA[用于人工智能的成本正在以惊人的速度流失。这不仅体现在真金白银上，在能源消耗上更是如此。]]></description>
										<content:encoded><![CDATA[<p style="font-size:16px">在过去十年，人工智能（特别是深度学习）取得了显著成效。当Siri读懂你说的话、脸书认出了你的表亲、谷歌地图为你重新规划路线时，都大概率涉及到了深度学习系统。</p><p style="font-size:16px"><strong>鲜为人知的是，这些模型正消耗着惊人的成本，不仅体现在真金白银上，也体现在能源消耗上。</strong>照目前的迹象来看，人工智能只会给气候危机火上浇油。可相比之下，我们的大脑（功耗小于40瓦）可就高效多了。如果我们把基于神经科学的技术应用到人工智能中，那么用于计算的能耗将有可能大大降低，从而减少温室气体排放。这篇博文旨在解释到底是什么导致了人工智能过大的能源消耗，以及如何用基于大脑（工作原理）的技术解决这种过高的能源成本问题。</p><h2 class="has-text-align-center has-medium-font-size wp-block-heading"><strong>为什么人工智能如此耗能？</strong></h2><p style="font-size:16px">首先，我们有必要简单了解一下深度学习模型的工作原理。深度学习模型的“智能”之处和你的大脑并不一样。它们不以结构化*的方式学习信息。与你不同，它们不懂什么是因果关系*、上下文*或类比*。深度学习模型是用“蛮力”的统计技术*。</p><p style="font-size:16px">例如，你要是想训练一个深度学习模型来辨认一张猫的照片，你需要向它展示上千张由人类标记过的猫的图像。该模型并不知道猫比狗更有可能爬树、玩羽毛*。因此除非我们拿包含树和羽毛的猫的图像来训练它，否则它不会知道这些物体的存在可以帮助对猫的识别。而<strong>为了做出这些推断，我们需要用所有可能的物体组合图片对模型进行“蛮力”训练。</strong></p><p class="has-background" style="background-color:#e6e6e696;font-size:12px">*译者注:<strong>结构化：</strong>作者此处想表达的也许是深度学习模型不像人一样建立各种概念，而且知道这些概念之间的关系（因果关系、先后关系、相似/相邻关系）。但深度学习模型确实是以结构化的方式来学习信息的——模型在加入归纳偏置后具有某种等变特性，能够处理特定结构的数据（图像、时间序列、图结构的数据等）。因此此处表述不准确。</p><p class="has-background" style="background-color:#e6e6e696;font-size:12px"><strong>因果关系：</strong>诚如作者所言，机器学习模型一直为人诟病之处便是其仅习得关联，而非因果。但近期有研究已经开始探索似乎在大语言模型中涌现的因果关系，如Can Large Language Models Distinguish Cause from Effect?等。亦有相当多研究者开始关注因果表示学习这一新兴领域。</p><p class="has-background" style="background-color:#e6e6e696;font-size:12px"><strong>上下文：</strong>事实上，上下文学习对自GPT3之后的大语言模型来说并不是什么难事，并诞生了in-context learning这样一个专门研究这一能力的子领域。近期包括Can language models learn from explanations in context?，Emergent Abilities of Large Language Models，What learning algorithm is in-context learning? Investigations with linear models在内的多项研究进一步探索了其机制。</p><p class="has-background" style="background-color:#e6e6e696;font-size:12px"><strong>类比：</strong>近期已有研究表明，类比推理能力在大语言模型中涌现，如Emergent Analogical Reasoning in Large Language Models所述。</p><p class="has-background" style="background-color:#e6e6e696;font-size:12px"><strong>深度学习模型是用“蛮力”的统计技术：</strong>原文如此，不一定正确。</p><p class="has-background" style="background-color:#e6e6e696;font-size:12px"><strong>该模型并不知道猫比狗更有可能爬树、玩羽毛：</strong>值得注意的是，作者此处所描述的深度学习系统更多聚焦于单任务系统。但事实上，早在几年前，多任务学习（multitask learning）便已经成为十分流行的范式，并且目前最引人瞩目的一些深度学习系统更开始强调一个模型适用于多种任务，如DeepMind的Gato，Google的PaLM等。</p><p style="font-size:16px">这些运用“蛮力”的统计模型所产生的巨大能源需求是由于以下几个特点：</p><p style="font-size:16px"><strong>需要成百万上千万的训练样本。</strong>在猫的例子中，训练好一个模型需要正面、背面、侧面、不同品种、不同颜色、不同阴影以及不同姿势的猫的图片。一只猫的形态有无数种可能性，因此为了成功识别一只猫，模型必须在众多版本的猫（的图片）上进行训练。</p><p style="font-size:16px"><strong>需要很多的训练周期。</strong>从错误中学习是训练模型这一过程中的一部分。如果模型错误地把猫标记为浣熊，该模型需要重新调整它的参数以将图像分类为猫*，再重新进行训练。它从一次次错误中慢慢学习，这也需要一遍遍的训练。</p><p style="font-size:16px"><strong>当遇到新的信息时得从头训练。</strong>如果这个模型现在要去识别它从未见过的卡通猫，我们得将蓝色卡通猫和红色卡通猫添加到训练集中，从头对它进行训练。该模型无法循序渐进地学习*。</p><p style="font-size:16px"><strong>需要很多的权重和乘法。</strong>一个典型的神经网络包含很多由矩阵表示的连接或权重，其中一个或多个矩阵构成一层。为了计算一个输出，神经网络的后续层需要执行大量的矩阵乘法，直至最后得到一个结果。事实上，计算单个层的输出就需要数百万次浮点运算，而一个典型的神经网络可能包含数十到数百层，这使得其计算极其耗能。</p><p class="has-background" style="background-color:#e6e6e696;font-size:12px">*译者注:<strong>猫：</strong>原文为浣熊，此处应指猫。</p><p class="has-background" style="background-color:#e6e6e696;font-size:12px"><strong>该模型无法循序渐进地学习：</strong>原文如此。但这一说法并不准确，机器学习中的增量式学习（incremental learning）或与其高度相关的在线/持续学习（online/continual learning）的目标便是循序渐进地学习，并期望最终能够建模从未见过的数据（分布外泛化），甚至识别从未见过的物体（零样本推断）。</p><h2 class="has-text-align-center has-medium-font-size wp-block-heading"><strong>人工智能会消耗多少能源？</strong></h2><p style="font-size:16px">一篇来自麻萨诸塞大学阿默斯特分校的论文称，“<strong>训练一个人工智能模型可以产生的碳排放量，相当于五辆轿车在整个使用期中的排放量。</strong>”然而，<strong>这项分析仅仅只针对一次训练而已。</strong>当模型经过反复训练而改进时，其能耗会激增。许多大公司每天都在训练成千上万个这样的模型，它们对此问题都十分重视。Meta就是这样一个公司，其最近发表的论文探索了人工智能对环境的影响、研究了解决问题的方法、并呼吁有所行动。</p><p style="font-size:16px">当前最新的语言模型包含了数以亿计乃至万亿计的权重。其中一个流行的模型GPT-3就有1750亿个机器学习参数。该模型在NVIDIA V100 GPU上训练，虽然研究人员尚未披露该模型的能源使用情况，但通过研究人员的计算，如果使用A100系统则需使用1024个GPU、耗时34天、花费460万美元来训练此模型，也就是936兆瓦时。此外，谷歌AI刚刚公布了具有5400亿个参数的模型PaLM（Pathways Language Model）。随着模型变得越来越大以应对愈加复杂的任务，它们对服务器的需求呈指数增长。</p><figure class="wp-block-image size-full"><img loading="lazy" decoding="async" width="768" height="455" src="https://neu-reality.com/wp-content/uploads/2023/03/image-26.png" alt="" class="wp-image-10004262" srcset="https://neu-reality.com/wp-content/uploads/2023/03/image-26.png 768w, https://neu-reality.com/wp-content/uploads/2023/03/image-26-385x228.png 385w, https://neu-reality.com/wp-content/uploads/2023/03/image-26-20x12.png 20w" sizes="(max-width: 768px) 100vw, 768px" /><figcaption><strong>在深度学习的时代，用于训练人工智能系统的算力呈指数增长</strong><br>—<br>https://www.economist.com/technology-quarterly/2020/06/11/the-cost-of-training-machines-is-becoming-a-problem</figcaption></figure><p style="font-size:16px">自2012年以来，<strong>训练这些人工智能系统所需的计算资源每3.4个月就会翻一番。</strong>一位商业合作伙伴告诉我们，他们的深度学习模型足以为整座城市供电。这种能源使用的上升与许多组织声称在未来十年内实现“碳中和”的目标背道而驰。</p><h2 class="has-text-align-center has-medium-font-size wp-block-heading"><strong>我们该如何减少人工智能的碳足印？</strong></h2><p style="font-size:16px">为了解决这个具有挑战性的问题，我们的建议是：向大脑学习。人脑是一个真正的智能系统最好的例子，然而它只消耗很少的能量（基本上与点亮一盏灯泡的能量相同）。与深度学习的低效率相比，人脑的效率极其显著。</p><p style="font-size:16px">那么人脑是如何高效运作的呢？我们根植于神经科学的研究指出了一条让人工智能更加高效的路线。以下是大脑在不过多使用能量的情况下却能出色地处理数据的背后的几个原因：</p><p style="font-size:16px"><strong>1 / 稀疏性</strong></p><p style="font-size:16px">大脑中的信息编码是非常稀疏的，这就像在一长串主要为零的字符串中零星掺杂着一些非零值。这与计算机的表示方法不同，后者通常是密集的。<strong>由于稀疏表征有很多零元素，因此它们在和其他数字相乘时可以被消掉而只剩下非零值。</strong>而大脑中的表征非常稀疏，其中多达98%的数字都是零。</p><p style="font-size:16px">如果我们可以通过具有类似稀疏度的人工智能系统表示信息，那么就可以消除大量的计算。我们已经证明，在深度学习的推断任务（inference tasks，例如在视觉系统中识别猫）中使用稀疏表征可以将功率性能在不损失任何准确度的前提下提高到三至一百倍以上（具体取决于网络、硬件平台和数据类型）。</p><p style="font-size:16px">深入了解：将稀疏性应用于机器学习</p><p style="font-size:16px">将大脑的稀疏性转移到深度神经网络（DNN）有两个关键点：激活稀疏性（activation sparsity）和权重稀疏性（weight sparsity）。稀疏网络可以限制其神经元的活动（激活稀疏性）和连接（权重稀疏性），从而显著降低模型的大小和计算复杂度。</p><figure class="wp-block-image size-full"><img loading="lazy" decoding="async" width="936" height="356" src="https://neu-reality.com/wp-content/uploads/2023/03/image-27.png" alt="" class="wp-image-10004263" srcset="https://neu-reality.com/wp-content/uploads/2023/03/image-27.png 936w, https://neu-reality.com/wp-content/uploads/2023/03/image-27-770x293.png 770w, https://neu-reality.com/wp-content/uploads/2023/03/image-27-20x8.png 20w, https://neu-reality.com/wp-content/uploads/2023/03/image-27-385x146.png 385w" sizes="(max-width: 936px) 100vw, 936px" /><figcaption><strong>当神经网络中的权重和激活函数都很稀疏时，我们只需要计算包含非零元素的乘积，从而消除绝大部分相乘</strong><br>—<br>https://arxiv.org/abs/2112.13896</figcaption></figure><p style="font-size:16px"><strong>2 / 结构化数据</strong></p><p style="font-size:16px">你的大脑通过感官信息流和不断移动来对这个世界进行建模。这些模型具有三维结构，所以你的大脑能理解猫的左视图和右视图，而不必单独去学习它们。<strong>这些模型基于我们所谓的“参照系”，它让学习变得结构化，使我们能够建立包含各种对象之间关系的模型。</strong></p><p style="font-size:16px">我们可以纳入猫和大树、羽毛都有关联的概念，而不必去看数百万只猫与大树的实例。与深度学习相比，使用参照系构建模型所需的样本要少得多。只需猫的几个视图，模型就能通过变换数据来理解猫的其他视图，而无需专门针对这些视图进行训练。这种方法可以将训练集减小好几个数量级。</p><p style="font-size:16px">深入了解：通过参照系来结构化学习</p><p style="font-size:16px">参照系就像地图上的网格或坐标轴。你所知的每一个事实都与参照系中的某个位置一一配对，你的大脑则在参照系中不断移动来回忆储存在不同位置的事实。这使你能够在脑海中移动、旋转和改变事物。你可以在参照系里根据蓝色和现实中猫的样子来想象一只蓝色卡通猫长什么样，而不需要看一百张从各个角度拍的蓝色卡通猫图片。</p><figure class="wp-block-image size-full"><img loading="lazy" decoding="async" width="600" height="338" src="https://neu-reality.com/wp-content/uploads/2023/03/image-28.png" alt="" class="wp-image-10004264" srcset="https://neu-reality.com/wp-content/uploads/2023/03/image-28.png 600w, https://neu-reality.com/wp-content/uploads/2023/03/image-28-20x11.png 20w, https://neu-reality.com/wp-content/uploads/2023/03/image-28-385x217.png 385w" sizes="(max-width: 600px) 100vw, 600px" /><figcaption><strong>参照系表示你的身体相对于环境的位置，以及事物之间相对的位置</strong><br>—<br>https://www.youtube.com/watch?v=LaAYuygr7_8&amp;ab_channel=Numenta</figcaption></figure><p style="font-size:16px"><strong>3 / 持续学习</strong></p><p style="font-size:16px">你的大脑在学习新事物的同时不会忘却之前所学的东西。当你首次见到一种动物时（比方说土狼），你的大脑不需要重新学习一切关于哺乳动物的知识。大脑把一个针对土狼的参照系添加到记忆中，然后标注其与其他参照系（例如狗）的异同，并共享那些相通的子结构（例如尾巴和耳朵）。这种递增式的学习只需要很少的能量。</p><p style="font-size:16px">深入了解：用活跃树突（active dendrites）来进行多任务和持续学习</p><p style="font-size:16px">生物神经元有两种树突：远端（distal）和近端（proximal）。如今我们所见的人工神经元只模拟了近端的树突。我们已经证明，通过把远端树突合并到神经元模型，神经网络可以在不忘却旧知识的前提下学习新知识，从而避免重新学习的需要。</p><figure class="wp-block-image size-full"><img loading="lazy" decoding="async" width="1024" height="397" src="https://neu-reality.com/wp-content/uploads/2023/03/image-29.png" alt="" class="wp-image-10004265" srcset="https://neu-reality.com/wp-content/uploads/2023/03/image-29.png 1024w, https://neu-reality.com/wp-content/uploads/2023/03/image-29-770x299.png 770w, https://neu-reality.com/wp-content/uploads/2023/03/image-29-20x8.png 20w, https://neu-reality.com/wp-content/uploads/2023/03/image-29-385x149.png 385w" sizes="(max-width: 1024px) 100vw, 1024px" /><figcaption><strong>比较一个典型深度学习网络中的点神经元（左）、一个大脑皮层中的锥体神经元（pyramidal neuron）（中）、一个结合了锥体神经元特性的活跃树突（右）</strong><br>—https://www.frontiersin.org/articles/10.3389/fnbot.2022.846219/full</figcaption></figure><p style="font-size:16px"><strong>4 / 优化的硬件&nbsp;</strong></p><p style="font-size:16px">如今的半导体架构都是为深度学习优化的，这其中，神经网络密集而不具备结构化学习的能力*。但我们如果想创造更可持续的人工智能，就需要让硬件也能包含上述三个属性：稀疏性、参照系和持续学习。我们已经创造了一些支持稀疏性的技术。这些技术将稀疏表示映射到密集的计算环境中，从而提高推断和训练性能。长远来看，我们不难想象这些基于大脑原则优化的架构将有潜力提供更多的性能提升。</p><p class="has-background" style="background-color:#e6e6e696;font-size:12px">*译者注：原文如此，不代表正确。</p><p style="font-size:16px">深入了解：互补稀疏性</p><p style="font-size:16px">在2021年，我们引入了互补稀疏性。这是一种利用稀疏权重和稀疏激活函数来提升性能的技术，从而实现更节能的硬件。我们最近用互补稀疏性在FPGA上运行推断任务，并在吞吐量和能源效率上取得了近百倍的进步。</p><figure class="wp-block-image size-full"><img loading="lazy" decoding="async" width="768" height="504" src="https://neu-reality.com/wp-content/uploads/2023/03/image-30.png" alt="" class="wp-image-10004266" srcset="https://neu-reality.com/wp-content/uploads/2023/03/image-30.png 768w, https://neu-reality.com/wp-content/uploads/2023/03/image-30-20x13.png 20w, https://neu-reality.com/wp-content/uploads/2023/03/image-30-385x253.png 385w" sizes="(max-width: 768px) 100vw, 768px" /><figcaption><strong>用80%的互补稀疏度将五个稀疏矩阵（具有稀疏权重）打包成一个“密集”的矩阵，并且将其与稀疏激活函数结合起来进行处理</strong><br>—<br>https://arxiv.org/abs/2112.13896</figcaption></figure><h2 class="has-text-align-center has-medium-font-size wp-block-heading"><strong>迈向更可持续的未来</strong></h2><p style="font-size:16px">继续构建更大型、计算量更密集的深度学习网络不是通向创造智能机器的可持续途径。Numenta（原作者）认同的是通过一种基于大脑的方法来构建高效且可持续的人工智能。我们必须开发更聪明的、而不是工作更勤快的人工智能。</p><p style="font-size:16px"><strong>更少的计算量、更少的训练样本、更少的训练次数与优化的硬件相结合，可以显着改善能源使用。</strong>如果我们的计算量减少十倍、训练样本减少十倍、训练次数减少十倍、硬件效率提高十倍，那么系统的整体效率将提高一万倍。</p><p style="font-size:16px">短期内，Numenta希望能大幅降低推断（inference）中的能耗。Numenta的中期目标是将这些技术应用到训练中，并随着训练次数的减少，预计可以节省更多的能源。从长远来看，随着硬件的逐渐增强，Numenta看到了将性能改进上千倍的潜力。</p><p style="font-size:16px">从大脑中提取抽象的原理然后应用到如今的深度学习架构中会把我们推向可持续的人工智能。如果读者想详细了解Numenta在创建节能的人工智能方面的工作，请查看原文以了解更多。</p><h2 class="wp-block-heading" style="font-size:16px"><strong>后记</strong></h2><p style="font-size:16px"><strong>lemon：</strong>最开始知道Numenta这家公司是因为读了Jeff Hawkins的<em>On Intelligence</em>，这本书描述了一种直截了当的接近“强人工智能”的方式——模拟人类的大脑皮层。Numenta的出发点是：既然智能可以从人类的大脑皮层中产生，那么模拟大脑皮层的算法也将获得智能。我深深地被这个想法吸引。模拟大脑皮层vs人工神经网络，到底谁更胜一筹呢？我十分期待答案揭晓的那天。</p><p style="font-size:16px"><strong>P：</strong>读原文时，我的第一感觉就是文章本身带有很强的主观色彩，尤其是在试图证明AI只是“用蛮力的统计技术”时，有相当多刻意且过时的观点。诚然，大模型的训练开销和碳排放巨大，比如原文提到的，GPT-3的训练碳排放相当于五辆小汽车的终身排放。但是，我们也必须承认从大模型中涌现出来的惊人能力。尽管这篇文章写于去年五月，当时当然还没有ChatGPT，但已经有不少研究发现了在大语言模型中涌现的多种能力，比如我们注释的推理和类比等等。不过，我个人也十分认同Bengio、Botvinick、LeCun等学者去年提出的NeuroAI的核心观点，即从硬件和软件层面向人脑的架构学习，进一步推进AI的发展。总而言之，我们希望读者了解当前已经取得的进展，以及在把AI的边界继续向前推进时所能获得的潜在收益。</p><p style="font-size:16px"><strong>Sixin：</strong>这是一家旨在将神经科学原理融入人工智能产品的公司。为了宣传自己，开头部分可能会出现一些稻草人谬误，夸大了深度学习的一些问题。正如译者与校审者在注释中所补充的，随着研究者们不懈努力，这些问题其实已经部分甚至全部得到了解决，读者可以按图索骥。不过，本文所提出的参考人脑“稀疏性、结构化、学习持续性”三种特点来降低人工智能产品能耗的想法还是很有启发性的，读者可以去粗取精。</p><p class="has-background" style="background-color:#e6e6e696;font-size:12px">作者：Charmaine Lai, Subutai Ahmad, Donna Dubinsky &amp; Christy Maver |&nbsp;译者：lemon&nbsp;|&nbsp;审校：P&nbsp;| 编辑：sixin、M.W.&nbsp;|&nbsp;封面：Valeriy Zarytovskiy&nbsp;|&nbsp;排版：光影&nbsp;|&nbsp;原文：https://www.numenta.com/blog/2022/05/24/ai-is-harming-our-planet/</p><figure class="wp-block-image size-large"><img loading="lazy" decoding="async" width="1024" height="632" src="https://neu-reality.com/wp-content/uploads/2023/03/image-31-1024x632.png" alt="" class="wp-image-10004267" srcset="https://neu-reality.com/wp-content/uploads/2023/03/image-31-1024x632.png 1024w, https://neu-reality.com/wp-content/uploads/2023/03/image-31-770x476.png 770w, https://neu-reality.com/wp-content/uploads/2023/03/image-31-385x238.png 385w, https://neu-reality.com/wp-content/uploads/2023/03/image-31-20x12.png 20w, https://neu-reality.com/wp-content/uploads/2023/03/image-31.png 1080w" sizes="(max-width: 1024px) 100vw, 1024px" /></figure><figure class="wp-block-image size-large"><img loading="lazy" decoding="async" width="1024" height="632" src="https://neu-reality.com/wp-content/uploads/2023/03/image-32-1024x632.png" alt="" class="wp-image-10004268" srcset="https://neu-reality.com/wp-content/uploads/2023/03/image-32-1024x632.png 1024w, https://neu-reality.com/wp-content/uploads/2023/03/image-32-770x476.png 770w, https://neu-reality.com/wp-content/uploads/2023/03/image-32-385x238.png 385w, https://neu-reality.com/wp-content/uploads/2023/03/image-32-20x12.png 20w, https://neu-reality.com/wp-content/uploads/2023/03/image-32.png 1080w" sizes="(max-width: 1024px) 100vw, 1024px" /></figure>]]></content:encoded>
					
					<wfw:commentRss>https://neu-reality.com/2023/03/artificial-intelligence-cerebrum/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
		<post-id xmlns="com-wordpress:feed-additions:1">10004259</post-id>	</item>
		<item>
		<title>为何ChatGPT如此擅长一本正经地胡说八道</title>
		<link>https://neu-reality.com/2023/03/chatgpt-language-artificial-intelligence/</link>
					<comments>https://neu-reality.com/2023/03/chatgpt-language-artificial-intelligence/#respond</comments>
		
		<dc:creator><![CDATA[MATTEO WONG]]></dc:creator>
		<pubDate>Thu, 16 Mar 2023 08:45:43 +0000</pubDate>
				<category><![CDATA[大语言模型]]></category>
		<category><![CDATA[人工智能]]></category>
		<category><![CDATA[神经科学]]></category>
		<guid isPermaLink="false">https://neu-reality.com/?p=10004227</guid>

					<description><![CDATA[语言本身并非思想的媒介，更像是一个信使。作为思想的借代/提喻，语言的效果或许并不是很好。]]></description>
										<content:encoded><![CDATA[<p style="font-size:16px">语言常被认为是思维驾驭着的工具，人们“表达出”、“说出想法”，人们遵循着“思维的列车”或是“意识流”。而人类创造的一些巅峰——音乐，几何，计算机编程，则被定义为隐喻语言。这其中隐含了一种假设，即大脑通过一系列单词来处理世界以及我们对世界的体验。这种假定的联系也正是ChatGPT和类似程序如此神奇的原因：AI能够用类似人类的语言回答任何提词，这意味着机器具有某种意图，甚至是感知。</p><p style="font-size:16px">但随后程序说了一些完全荒谬的东西，例如在“nineteen”中有12个字母、或是旗鱼是哺乳动物——语言智能的“面纱”就此掉落。<strong>尽管ChatGPT可以生成流畅甚至优雅的散文，轻松通过困扰了AI领域超过70年的图灵测试基准，但它也可能看起来非常愚蠢，甚至危险</strong>：它在数学上会出错，无法给出最基础的烹饪建议，还会表现出令人震惊的偏见。</p><p style="font-size:16px">在一篇新论文*中，认知科学家和语言学家通过将语言交流和思维行为分离来解决这种不协调：具有一种能力并不代表具有另外一种。在专家们专注于生成式人工智能颠覆我们生活和工作的潜力之际，他们的争论也应该迫使人们去重新评估人工智能于人类智能的局限与其复杂性。</p><figure class="wp-block-image size-large is-resized ticss-3a78c1d4"><img loading="lazy" decoding="async" src="https://neu-reality.com/wp-content/uploads/2023/03/image-2-1024x365.png" alt="" class="wp-image-10004228" width="1024" height="365" srcset="https://neu-reality.com/wp-content/uploads/2023/03/image-2-1024x365.png 1024w, https://neu-reality.com/wp-content/uploads/2023/03/image-2-770x274.png 770w, https://neu-reality.com/wp-content/uploads/2023/03/image-2-385x137.png 385w, https://neu-reality.com/wp-content/uploads/2023/03/image-2-20x7.png 20w, https://neu-reality.com/wp-content/uploads/2023/03/image-2.png 1080w" sizes="(max-width: 1024px) 100vw, 1024px" /><figcaption>Mahowald, Kyle, et al. &#8220;Dissociating language and thought in large language models: a cognitive perspective.&#8221; arXiv preprint arXiv:2301.06627 (2023). https://arxiv.org/abs/2301.06627</figcaption></figure><p class="has-background" style="background-color:#e6e6e696;font-size:12px"><strong>*译者注：</strong>本文考虑了大语言模型在语言使用的两个不同方面的表现来评价其能力，即&#8221;形式语言能力&#8221;——包括指定语言的规则和模式的知识，以及&#8221;功能语言能力&#8221;——现实世界中语言理解和使用所需的一系列认知能力。大语言模型在形式语言的任务中表现令人深刻，却在很多需要功能语言能力的测试中失败。</p><p style="font-size:16px">研究人员解释道，<strong>作为思想的借代/提喻，语言的效果或许并不是很好。</strong>毕竟人们是基于视觉与语言思维的连续性来识别自我的*，无法用语言表达一个想法的体验，或许和语言本身一样是人类所特有的。这项研究的两位主要作者之一、麻省理工学院的认知神经科学家安娜·伊万诺娃（Anna Ivanova）也说道，当代对人脑的研究也表明“语言与思想之间存在分割”。对使用数十种语言的人们进行脑扫描后，研究人员发现了一个特殊的神经元网络*，其激活与所使用的语言无关（包括虚构的纳维语Na’vi和多斯拉克语Dothraki*）。</p><div class="wp-block-group"><div class="wp-block-group__inner-container is-layout-flow wp-block-group-is-layout-flow"><p class="has-background" style="background-color:#e6e6e696;font-size:12px">*译者注：<strong>识别自我：</strong>在Visual Thinking: The Hidden Gifts of People Who Think in Pictures, Patterns, and Abstractions一书中，Temple Grandin提到了一种思维风格的连续体，大致分为三部分，其中一端为语言思考者——更倾向于有序的、基于符号的方法，而另外一端则是，对象可视化思考者——他们通过使用具体的、类似于照片的心理图像来得出结论，而在中间的则是空间可视化思考者，他们似乎结合了抽象和具体的方法。链接：https://www.newyorker.com/magazine/2023/01/16/how-should-we-think-about-our-different-styles-of-thinking</p>

<p class="has-background" style="background-color:#e6e6e696;font-size:12px"><strong>研究人员发现了一个特殊的神经元网络：</strong><a href="https://www.nature.com/articles/s41593-022-01114-5" data-type="URL" data-id="https://www.nature.com/articles/s41593-022-01114-5">https://www.nature.com/articles/s41593-022-01114-5</a></p>

<p class="has-background" style="background-color:#e6e6e696;font-size:12px"><strong>虚构的纳维语Na’vi和多斯拉克语Dothraki：</strong>分别为《阿凡达》与《冰与火之歌》中的虚构语言。</p></div></div><p style="font-size:16px">该神经元网络一般不涉及包括数学，音乐与编程在内的思想活动。此外，许多丧失了理解和处理语言能力的失语症患者，仍然拥有计算或是其他非语言性心智任务的能力。结合来看，<strong>这两项证据表明语言本身并非思想的媒介，它更像是一个信使。</strong>人类语言的特殊之处便在于，它能够使用语法和词汇来与涉及了其他脑区的功能相连通，例如社交与逻辑。</p><p style="font-size:16px">虽然ChatGPT和其他类似的软件，展现出了将单词串联在一起的令人难以置信的能力，但它们在其他任务上却很吃力。如果你想要一封向孩子解释“圣诞老人是虚假的”的信，它会生成一个由圣诞老人本人签名的感人回复。这些大语言模型，或被称为LLMs*，基于前文的一切预测一句话中的下一个单词（例如在“相较于”后接上“主流看法”）。但如果让ChatGPT做一些基本计算和拼写，或是为煎蛋给出建议，你可能会得到语法完美的废话：“如果你在煎蛋时用力过大，蛋壳就会碎裂。”</p><p class="has-background" style="background-color:#e6e6e696;font-size:12px">*译者注：LLMs，Large language mode</p><p style="font-size:16px"><strong>这些缺陷表明了一种与人脑中所存在的相同的区别，即拼凑单词与拼凑想法的区别</strong>——论文的作者分别称之为形式语言能力与功能语言能力。该论文的另外一名作者，德克萨斯大学奥斯汀分校（the University of Texas at Austin）的语言学家凯尔·马霍瓦尔德（Kyle Mahowald） 表示“语言模型确实很擅长生成流利且合乎语法的语句，但这并不一定意味着一个东西能够生成符合语法的语言，它就能够进行数学计算、逻辑推理、思考或者确认社会语境。”</p><figure class="wp-block-image size-large"><img loading="lazy" decoding="async" width="1024" height="512" src="https://neu-reality.com/wp-content/uploads/2023/03/image-4-1024x512.png" alt="" class="wp-image-10004230" srcset="https://neu-reality.com/wp-content/uploads/2023/03/image-4-1024x512.png 1024w, https://neu-reality.com/wp-content/uploads/2023/03/image-4-770x385.png 770w, https://neu-reality.com/wp-content/uploads/2023/03/image-4-20x10.png 20w, https://neu-reality.com/wp-content/uploads/2023/03/image-4-385x193.png 385w, https://neu-reality.com/wp-content/uploads/2023/03/image-4.png 1080w" sizes="(max-width: 1024px) 100vw, 1024px" /><figcaption>&#8211;&nbsp;Shahbaz Ali Khan&nbsp;&#8211;</figcaption></figure><p style="font-size:16px">如果人类大脑的语言网络不负责数学，音乐或编程这些思考任务，那么一个在TB级文本上训练的人工“神经网络”也就没理由擅长这些。作者写道，“与认知神经科学的证据一致，LLMs的行为突出了擅长语言和擅长思考之间的差异。”ChatGPT在一些商学院和法学院的考试中取得中等分数的能力，与其说是理解能力的象征，不如说只是泡影。</p><p style="font-size:16px">尽管如此，关于下一代语言模型的炒作仍然四起：下一代将会在更多的单词之上进行训练，并且拥有更强大的计算能力。ChatGPT的创始者OpenAI声称，他们的程序正在靠近所谓的通用智能，这将会使机器与人类处于同等智慧水平。如果该比较成立，那么仅仅是让模型更擅长于单词预测并不能让他们接近这个目标。换句话说，你可以驳斥ChatGPT这样的AI程序具有灵魂或是像外星人入侵这类观念。</p><p style="font-size:16px">伊万诺娃和马霍瓦尔德认为需要不同的训练方式来促进AI的更进一步发展——例如<strong>针对逻辑或是社会推理的方法，而非单词预测。</strong>ChatGPT可能已经在该方向上跨出了一步，它不仅是阅读大量文本，还包含了人类反馈，监督者（用户）可以评论是什么构成了好或坏的回答。但由于缺乏ChatGPT的训练细节，尚不明确人类输入的目标是什么，程序显然认为1000同时大于和小于1062。（OpenAI在2023.2.2发布了对ChatGPT的更新，据说提高了它的“数学能力”，但据报告，它仍在努力解决基本的文字问题。）</p><figure class="wp-block-image size-large"><img loading="lazy" decoding="async" width="1024" height="834" src="https://neu-reality.com/wp-content/uploads/2023/03/image-5-1024x834.png" alt="" class="wp-image-10004231" srcset="https://neu-reality.com/wp-content/uploads/2023/03/image-5-1024x834.png 1024w, https://neu-reality.com/wp-content/uploads/2023/03/image-5-770x627.png 770w, https://neu-reality.com/wp-content/uploads/2023/03/image-5-20x16.png 20w, https://neu-reality.com/wp-content/uploads/2023/03/image-5-385x314.png 385w, https://neu-reality.com/wp-content/uploads/2023/03/image-5.png 1080w" sizes="(max-width: 1024px) 100vw, 1024px" /><figcaption>&#8211;&nbsp;Paweł Jońca&nbsp;&#8211;</figcaption></figure><p style="font-size:16px">而应该注意的是，有人认为大语言模型在语言方面并不如伊万诺娃和马霍瓦尔德写的那样优秀，它们不过是被美化了的自动填充器，其缺陷和能力一样大。认知科学家和著名的人工智能研究人员盖瑞·马尔库斯表示“语言不仅仅是句法，它还和语义相关。这不仅仅是因为人工智能聊天机器人不懂数学或如何煮鸡蛋，它们也难以理解一个句子是如何从其各部分的结构中衍生出含义的。”</p><p style="font-size:16px">例如，想象三个排成一排的塑料球：绿色球、蓝色球、蓝色球，有人让你抓“第二个蓝色球”，你能够理解他们指的是序列中的最后一个球，但一个聊天机器人可能会将指令理解为指的是第二个球，而它恰好也是蓝色的。马尔库斯说“大语言模型擅长语言的说法是被夸大的。”但是对伊万诺娃而言，像蓝球这样的例子需要的并不只是编译单词，还需要设想一个场景，因此“这并非关于语言本身，而是语言使用。”</p><figure class="wp-block-image size-large"><img loading="lazy" decoding="async" width="1024" height="512" src="https://neu-reality.com/wp-content/uploads/2023/03/image-6-1024x512.png" alt="" class="wp-image-10004233" srcset="https://neu-reality.com/wp-content/uploads/2023/03/image-6-1024x512.png 1024w, https://neu-reality.com/wp-content/uploads/2023/03/image-6-770x385.png 770w, https://neu-reality.com/wp-content/uploads/2023/03/image-6-20x10.png 20w, https://neu-reality.com/wp-content/uploads/2023/03/image-6-385x193.png 385w, https://neu-reality.com/wp-content/uploads/2023/03/image-6.png 1080w" sizes="(max-width: 1024px) 100vw, 1024px" /><figcaption>&#8211;&nbsp;Shahbaz Ali Khan&nbsp;&#8211;</figcaption></figure><p style="font-size:16px">无论它们的语言使用多么令人叹服，像ChatGPT这类程序仅通过书籍和维基百科输入数据，关于它们实际上 “理解”了多少这个世界，仍然存在着一场有益的辩论*。伊利诺伊大学厄巴纳-香槟分校的计算语言学家罗克珊娜·吉鲁（Roxana Girju）认为“<strong>意义不是给出的。意义是在我们的互动和讨论中商定的，不止是和其他人，还有和这个世界的互动。</strong>这是我们在参与语言活动的过程中所达到的目标。”如果这是正确的，那么构建一个真正智能的机器将需要一种不同的结合语言和思想的方式，不只是分层不同的算法，还需要设计一个程序，例如同时学习语言和如何处理社会关系。</p><div class="wp-block-columns is-layout-flex wp-container-core-columns-is-layout-1 wp-block-columns-is-layout-flex"><div class="wp-block-column is-layout-flow wp-block-column-is-layout-flow" style="flex-basis:100%"><p class="has-background" style="background-color:#e6e6e696;font-size:12px">*译者注<a href="https://arxiv.org/abs/2208.02957">https://arxiv.org/abs/2208.02957</a></p></div></div><p style="font-size:16px"><strong>伊万诺娃和马霍瓦尔德并没有彻底否认语言是人类智慧缩影的观点，他们将其复杂化了。</strong>人类之所以“擅长”语言，是因为我们将思想与表达结合在了一起。一个能够熟练掌握语言的规则并运用的计算机，必然是智能的；然而另一方面，正是狭隘地模仿人类语言限制了其发展。但在我们用我们的有机体大脑更好的理解硅基大脑前，<strong>我们需要新的观点和新的单词来理解语言本身的意义。</strong></p><h2 class="ticss-cf1d0c4c wp-block-heading" style="font-size:16px">后记</h2><p style="font-size:16px"><strong>阿朔：</strong>看到这篇文章后，我的第一反应是《我是谁，或什么》中收录的一篇文章——《马克3型兽的灵魂》，文章描述了机械动物，主人公启动了它之后，它便开始在地板上搜寻，在插座面前停下，伸出一对插头试着插进了电源，并发出了和猫一样的呼噜声——就像在进食。主人公的朋友在用锤子打伤它之后，它流出了红色的液体，并发出了轻柔的哭声，给了那位朋友很大的冲击。</p><p style="font-size:16px"><br>这只机械动物没有任何的语言能力，也没有很高的“智力”，但却让人难以对它下杀手。所以对我来说，认同一个个体，是取决于它的语言能力吗？亦或是身体内的蛋白质？或许重要的是它能否向我传达“意义”，我能否将自我投射于它，马克3型兽虽然简单，却明确的传达了生存的欲望，仿佛是它意识到了自身的处境。</p><p style="font-size:16px"><br>在ChatGPT刚面世时，我便开始思考：“这是我想要的强人工智能吗？”我想，至少暂时，答案是否定的。</p><p style="font-size:16px"><strong>Qiumsky：</strong>在ChatGPT能说出“语法完美的句子”背后，（至少）有两点需要大家明确：第一，句子的内在结构应该呈现出树状的层级，而不是表面所显现出的线性结构；第二，单词之间的组合并不依靠概率，而是存在一些其他的决定性因素。在更深入探讨ChatGPT如何反映“言说与思考之差”之前，如何让ChatGPT真正地理解语言，同样值得我们去思考。</p><p class="has-background" style="background-color:#e6e6e696;font-size:12px">作者：MATTEO WONG&nbsp;|&nbsp;译者：阿朔&nbsp;|&nbsp;审校：Qiumsky&nbsp;|&nbsp;排版：骐迹&nbsp;|&nbsp;封面：Carmela Montanero 原文：<a href="https://www.theatlantic.com/technology/archive/2023/01/chatgpt-ai-language-human-computer-grammar-logic/672902/">https://www.theatlantic.com/technology/archive/2023/01/chatgpt-ai-language-human-computer-grammar-logic/672902/</a></p><figure class="wp-block-image size-large"><img loading="lazy" decoding="async" width="1024" height="632" src="https://neu-reality.com/wp-content/uploads/2023/03/image-8-1024x632.png" alt="" class="wp-image-10004237" srcset="https://neu-reality.com/wp-content/uploads/2023/03/image-8-1024x632.png 1024w, https://neu-reality.com/wp-content/uploads/2023/03/image-8-770x476.png 770w, https://neu-reality.com/wp-content/uploads/2023/03/image-8-385x238.png 385w, https://neu-reality.com/wp-content/uploads/2023/03/image-8-20x12.png 20w, https://neu-reality.com/wp-content/uploads/2023/03/image-8.png 1080w" sizes="(max-width: 1024px) 100vw, 1024px" /></figure><figure class="wp-block-image size-large"><img loading="lazy" decoding="async" width="1024" height="632" src="https://neu-reality.com/wp-content/uploads/2023/03/image-9-1024x632.png" alt="" class="wp-image-10004238" srcset="https://neu-reality.com/wp-content/uploads/2023/03/image-9-1024x632.png 1024w, https://neu-reality.com/wp-content/uploads/2023/03/image-9-770x476.png 770w, https://neu-reality.com/wp-content/uploads/2023/03/image-9-385x238.png 385w, https://neu-reality.com/wp-content/uploads/2023/03/image-9-20x12.png 20w, https://neu-reality.com/wp-content/uploads/2023/03/image-9.png 1080w" sizes="(max-width: 1024px) 100vw, 1024px" /></figure><figure class="wp-block-image size-large"><img loading="lazy" decoding="async" width="1024" height="632" src="https://neu-reality.com/wp-content/uploads/2023/03/image-10-1024x632.png" alt="" class="wp-image-10004239" srcset="https://neu-reality.com/wp-content/uploads/2023/03/image-10-1024x632.png 1024w, https://neu-reality.com/wp-content/uploads/2023/03/image-10-770x476.png 770w, https://neu-reality.com/wp-content/uploads/2023/03/image-10-385x238.png 385w, https://neu-reality.com/wp-content/uploads/2023/03/image-10-20x12.png 20w, https://neu-reality.com/wp-content/uploads/2023/03/image-10.png 1080w" sizes="(max-width: 1024px) 100vw, 1024px" /></figure>]]></content:encoded>
					
					<wfw:commentRss>https://neu-reality.com/2023/03/chatgpt-language-artificial-intelligence/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
		<post-id xmlns="com-wordpress:feed-additions:1">10004227</post-id>	</item>
		<item>
		<title>大脑中的反向传播</title>
		<link>https://neu-reality.com/2020/05/backpropagation-and-the-brain/</link>
					<comments>https://neu-reality.com/2020/05/backpropagation-and-the-brain/#respond</comments>
		
		<dc:creator><![CDATA[神经现实]]></dc:creator>
		<pubDate>Sun, 31 May 2020 06:12:24 +0000</pubDate>
				<category><![CDATA[人工智能]]></category>
		<category><![CDATA[神经科学]]></category>
		<guid isPermaLink="false">https://neu-reality.com/?p=10001440</guid>

					<description><![CDATA[虽然大脑与backprop之间存在诸多不同，但在本文中，我们想指出大脑有能力执行backprop中的核心算法。]]></description>
										<content:encoded><![CDATA[<p>俗话说得好：大脑要学习，突触可塑性少不了。大脑中的神经元能调控自身与其它神经元之间的连接强度，这一点我们早在上世纪七十年代就知道了。但我们也知道，学习的突触可塑性理论有一个缺陷，那就是我们不能通过单个突触的强度变化，来解释整个神经网络的行为：要明白学习，我们不能只考虑每个突触的可塑性，还要考虑它的行为学影响。因此，我们需要弄清楚大脑如何协调整个神经网络范围内的突触可塑性。</p><p>在机器学习领域中，人们在人造神经网络中研究突触应该如何表现才能实现效率最大化，这样也就能规避生物性的限制。为了得到这样一个人工神经网络，首先，我们要规定一个神经网络的结构，也就是该网络中有多少个神经元，神经元之间又该如何连接。举个例子，人们一般用的都是含有多层神经元的深度网络（deep networks），因为这种网络结构在很多任务上都表现较好。接下来，我们需要定义一个误差函数（error function）。这样一个误差函数可以告诉我们：这个网络目前表现如何？我们应该如何调整其中的神经元连接来减少误差？</p><p>当前，“backprop”（即back propagation，反向传播之简称）是机器学习领域最常用、最成功的深度神经网络训练算法。用backprop训练的网络在最近的机器学习浪潮中占据着中流砥柱的地位，承担上了语音和图像识别、语言翻译等任务。Backprop也推动了无监督学习（unsupervised learning）的进步，在图像和语音生成、语言建模和一些高阶预测任务中已不可或缺。与强化学习互相配合，backprop能完成许多诸如精通雅达利游戏，在围棋和扑克牌上战胜人类顶尖选手等控制任务（control problems）。</p><p>Backprop算法将误差信号（error signals）送入反馈连接（feedback connections），帮助神经网络调节突触强度——这个套路已经被老一辈的监督学习（supervised learning，也就是根据外界提供的“正确目标”所进行的学习）算法用得滚瓜烂熟。但与此同时，大脑中的反馈连接似乎有着不同的作用，且大脑的学习大部分都是无监督学习（在外界信息中找出其隐含的结构，并对之进行建模）。因此，自然会有人发问：backprop算法能不能告诉我们大脑是如何学习的呢？</p><p>虽然大脑与backprop之间存在诸多不同，但在本文中，我们想指出大脑有能力执行backprop中的核心算法。中心思想就是大脑能利用反馈连接来激发神经元活动，从而以局部计算出的误差值来编码“类反向传播的误差信号”（backpropagation-like error signals）。在这里，我们将一系列看似不尽相同功能的学习算法归入一个叫做“NGRAD”的算法框架中。NGRAD（neural gradient representation by activity differences）指的是通过活动误差进行神经梯度表征的算法。NGRAD框架向我们展示了，我们也许能够在规避实际应用问题的前提下实现反向传播。这对于任何具有前馈和反馈连接的大脑回路都具有一定的讨论意义，但本文中主要探讨皮质结构中的表现。大脑皮质（cortex）具有多层的分级结构，且有许多特征与深度网络相似。</p><p><strong>请在微信公众号<a href="https://mp.weixin.qq.com/s/MuCrH2f2h0zyEoPOdJvnhA">阅读全文</a>。</strong></p><p class="has-very-light-gray-background-color has-background has-small-font-size">原文：Lillicrap, T.P., Santoro, A., Marris, L.&nbsp;<em>et al.</em>&nbsp;Backpropagation and the brain.&nbsp;<em>Nat Rev Neurosci</em>&nbsp;<strong>21,&nbsp;</strong>335–346 (2020). https://doi.org/10.1038/s41583-020-0277-3<br>编译：山鸡，阿莫東森</p><figure class="wp-block-embed is-type-rich is-provider-nature-reviews-neuroscience"><div class="wp-block-embed__wrapper">
https://www.nature.com/articles/s41583-020-0277-3
</div></figure>]]></content:encoded>
					
					<wfw:commentRss>https://neu-reality.com/2020/05/backpropagation-and-the-brain/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
		<post-id xmlns="com-wordpress:feed-additions:1">10001440</post-id>	</item>
		<item>
		<title>AI也有偏见，我们该如何信任它们？</title>
		<link>https://neu-reality.com/2020/05/xai/</link>
					<comments>https://neu-reality.com/2020/05/xai/#respond</comments>
		
		<dc:creator><![CDATA[amecolli]]></dc:creator>
		<pubDate>Mon, 11 May 2020 10:29:02 +0000</pubDate>
				<category><![CDATA[人工智能]]></category>
		<category><![CDATA[神经现实精选集]]></category>
		<category><![CDATA[算法]]></category>
		<guid isPermaLink="false">https://neu-reality.com/?p=10001393</guid>

					<description><![CDATA[如果AI革命不可避免，至少一个可被解释的系统能够更好地融入崭新的算法社会契约。]]></description>
										<content:encoded><![CDATA[<p>1970年，爱德华·肖特利夫（Edward H. Shortliffe）在斯坦福大学的实验室里开始着手编写一个Lisp程序。这个名为MYCIN的系统通过一系列的是非问题帮助医生判断病人是否患有遗传性血液疾病，并根据病人体重建议抗生素用量。作为历史上最早的专家系统之一，MYCIN的正确率仅为65%，相较血液科医师80%的正确率相去甚远，而且由于程序过于庞大，最终也没有投入使用。</p><p>2019年，150名受试者来到UCLA的VCLA中心，观看Baxter机器人打开附有安全锁的药瓶。随后，Baxter向其中一些受试者解释了自己是如何打开药瓶的，剩下的人没有得到任何解释。最后，实验者向所有人提问：你在多大程度上相信这个机器人会开药瓶？</p><p>在过去的半个世纪里，机器的计算与储存能力突飞猛进，我们可以轻松地在计算机上运行像MYCIN一样相对简单的系统，甚至可以训练深度神经网络、支持向量机（Support Vector Machine）等更加复杂的模型达到接近专业医生的诊断水平，或是让机器人完成相对复杂的精细动作。</p><p>但是，AI系统的性能提升也带来了新的问题：如果这些系统进入我们的生活，你会信任它们作出的决定吗？</p><h4 class="wp-block-heading">为何要解释AI？</h4><p>AI如日中天，我们为什么要停下来思考怎么解释它？</p><p>2016年5月，ProPublica发布了一篇名为《机器偏见》的调查报告，聚焦一个名为COMPAS的AI系统。COMPAS被广泛应用于美国司法量刑。它基于已有的犯罪记录，尝试预测被告被再次逮捕的概率，得出一个1到10分之间的分数——分数越高，它建议的量刑越重，以期更有效地惩治潜在的再犯。</p><p>ProPublica分析了18000多人的COMPAS分数和犯罪记录，发现黑人与白人的分数分布明显不同——在犯罪历史、再逮捕记录、年龄、性别都相同的条件下，黑人被告得到更高COMPAS分数的概率高于白人被告45%。另外，有48%在两年内被再次逮捕的白人被告的COMPAS分数被低估，几乎是黑人被告的两倍。因为数据来自具有结构性不公的环境（既有司法系统倾向于区别对待不同人种），COMPAS的（草率）决定也受此影响。然而，由于COMPAS是一个黑箱系统，法官只能看到分数，对内部的决策机制一无所知，导致他们无法有效评估系统的建议。另一篇调查报告更是指出，COMPAS的准确率相当于几乎没有刑事司法专业知识的人。</p><p>无独有偶，2015年，有用户发现谷歌的图像识别系统将自己的黑人朋友标记为“大猩猩”，在推特上引起轩然大波。直到2018年，谷歌仍然没有完全修复这一漏洞，只是将灵长类的标签从系统中移除，并称“图像识别技术还不成熟”。同样是2015年，纽约西奈山医院用70万病人的数据训练了一个名为“深度病人”的深度神经网络，用以辅助医疗诊断。“深度病人”对精神分裂症的预测出乎意料地准确，但没有医生知道为什么，自然也无法应用于自己的临床诊断；当它被用于分析医院以外的X光片时，系统正确率莫名出现了大幅下降。</p><p>“数据不会说谎。”但这绝不意味着我们不需要仔细审视它们，或是给予基于数据之上的AI系统无条件的信任。肖特利夫的MYCIN系统本质上是一个决策树，属于“透明”的模型——我们可以画出从数据输入开始完整的决策过程，从而评估MYCIN的决定。深度神经网络的性能远远优于决策树，但它是一个“黑箱”——我们几乎不可能确切地知道它在算什么。性能与可解释性似乎此消彼长。</p><p>对一位只追求正确率和性能的算法工程师来说，黑箱AI未必不受待见：一个能够准确预测95%的事件的黑箱系统，肯定比另一个正确率只有65%、更透明的系统好。可是，当工程师需要调整系统内部“零件”的时候（比如修复谷歌图像识别系统），黑箱会让这项任务无比艰难：到底是哪一步出错了？是用于训练的数据有问题，还是模型本身的性能不足，或是损失函数（loss function）有待改进？置身黑箱之外的工程师很难一针见血地指出病灶。</p><p>我们中的大多数人也许极少有机会成为工程师、法官、医生，但这不妨碍黑箱AI对我们的生活造成影响。与我们的一厢情愿相反，不够透明的AI系统非但没有比人类更客观、公正、精确，反而加深了既存的偏见和不公正，对数字民主和基本人权构成威胁，而对这些系统的控制、介入和审计也更为困难。当我们无法解读AI作出的决策，对它未来的预期不过是纸上谈兵，信任也无从谈起。</p><p>可解释AI（Explainable AI，即XAI）想要解决的正是这类问题。XAI认为，通过解释AI系统的决策过程，人类能够更好地理解它的机制、优缺点、潜在影响等特性，从而更有效地预测系统的行为，达到逐步建立信任关系的效果。如果AI革命不可避免，至少一个可被解释的系统能够更好地融入崭新的算法社会契约——例如伊亚德·拉万（Iyad Rahwan）提出的社会回环（Society-in-the-loop）——与人类共生存，而不必成为敌对的关系。</p><h4 class="wp-block-heading">我需要一个解释</h4><p>可解释AI终究是为人服务的（好比高阶编程语言是为了人类设计的，否则机器之间的“交流”大可以用机器编码之类人类无法轻易读写的“语言”）。所以“解释性”也是相对人而言的。关于黑箱AI系统，什么样的解释才是好的解释？心理学家和哲学家早就开始分头研究，但各执一词。</p><p>解释常常需要阐述特定的因果关系或因果模式，例如“我不吃杏仁，因为我对坚果过敏”。这样的解释非常贴切（没有转移话题），直接明了（不存在循环论证），逻辑严密。有的现象却很难用通俗的因果关系解释——请试着回答，“我掷了一次骰子，为什么朝上的一面是3？”当然，你可以引用物理法则来解释掷骰子的具体过程，但我可能一头雾水。为了避免这样的尴尬，你也许会提及相关的（非因果的）概念，比如“随机性”，或是用类比等手法让你的解释更容易被听众接受（比如上一段的第一句话）。一般而言，因果关系在解释中占据不可动摇的地位，但不是唯一的手段。</p><p>既然解释本身可以有各种形式，为了筛选出最好的可解释AI，我们为什么不直接问：你理解这个系统在做什么吗？相关的心理学研究也的确使用了类似的方法来推断人们是否能够通过描述性解释理解某一概念。它们发现，客观上，当受试者对某一概念有更好的理解时，他们能通过主观的直觉感觉到自己的认知进步，好比“茅塞顿开”。</p><p>然而，耶鲁大学的列昂尼德·罗森布里特（Leonid Rozenblit）和弗兰克·凯尔（Frank Keil）提出的“解释深度的错觉”（Illusion of Explanatory Depth）仿佛当头一棒。罗森布里特和凯尔让受试者首先评价自己对某一工具（比如拉链）的理解，然后详细地解释这个工具的工作机制，并再次评价自己的对它的理解。他们发现，相比一开始，试图解释后的受试者对自己理解的评价明显下滑，仿佛突然意识到自己其实一知半解。这就是“解释深度的错觉”。这种错觉影响着所有人（包括小孩子），并且只作用于解释性的知识。完全相反的情况也不少见：人们会自称不理解一个动力系统，却能熟练地使用它。</p><p>另一方面，规范（normative）解释在哲学（尤其是科学哲学）中发扬光大。规范解释有意忽略个人因素，比如认知能力，而是关注“应有”的理解。因此，规范理解可以被视为一种基准，用来分析哪些信息应当被包含在解释里，以及受众会有何种程度的理解。更进一步地说，好的（规范）解释应当从理解的目的出发，基于受众与黑箱AI的关系给出不同的解释。显然，修补系统漏洞的工程师和审核系统公正性的法官所需的理解是不同的。我们可以合理假设前者具有足够的技术知识背景，也许将计算模型可视化就提供了足够好的解释。后者需要的是更抽象的文字解释，比如“其他条件不变，COMPAS系统预测黑人被告和白人被告被再次逮捕的概率不同。”两种都是好的（规范）解释，一旦互换却可能成为各自的鸡肋。</p><p>规范解释看似更加直截了当，但在实际应用中还没有确切实现或评估的共识。描述性解释似乎也不甚完美。时至今日，我们仍未整合描述性解释和规范解释，关于解释的研究和可解释AI还在齐头并进。</p><h4 class="wp-block-heading">有了可解释的AI就万事大吉吗？</h4><p>2017年开始，美国国防高级研究计划署（DARPA）投资了一系列XAI的项目，包括UCLA的VCLA中心的研究项目。2018年，ACM主办了第一届FAT*会议，关注AI系统的公正性、问责制和透明度。同年，AAAI与ACM共同举办第一届AIES（人工智能、伦理与社会）会议。谷歌、微软等科技公司也陆续参与XAI的研发。各界对于XAI的关注促成了许多“拆穿”黑箱AI的尝试，从DeepMind提出的机器心智理论（Machine Theory of Mind），到将黑箱神经网络转化为“透明”的布尔电路（Boolean circuit），再到LIME（Local Interpretable Model-Agnostic Explanation）等通过近似黑箱模型提取重要特征的方法。虽然XAI目前解释的对象主要是工程师等研发人员，但是在未来，我们将会看到更多面向大众的XAI，比如向你解释如何开药瓶的Baxter。</p><p>XAI并不是终点；它最多算一个起点，而我们还有许多亟待解决的问题。首先，对黑箱AI的解释可以被悄无声息地篡改，可以完全牛头不对马嘴，而且很难察觉。哈佛大学的希玛宾度·拉卡拉朱（Himabindu Lakkaraju）和她的学生们发现，只需在模型上动一些简单的手脚，就能让它滥用COMPAS数据集里的种族信息决定量刑，但一旦LIME来“视察”，它立刻摆出无辜的嘴脸，完全不露馅。这就意味着，即使有XAI为工具，我们对AI的信任也不应当盲目地依赖系统的可靠性和（表面上）信息的透明性，理智与批判性思考将格外重要。</p><p>其次，针对AI的条例的制定相对滞后于研发和应用。XAI的出现将会让这个问题更加复杂——由于黑箱AI难以捉摸，且只有少数人具备解读/修改的能力，研发机构不必过分担心自己的科研成果泄漏（除非算法模型被一锅端）。如果面向用户和公众的解释成为需求、甚至必须，既有的AI系统——无论透明与否——都有可能面临一系列的风险，包括知识产权（利用反向工程重建系统）和系统安全（恶意的对抗攻击）。信任与保密两者的张力之下，XAI应当提供的解释的具体内容尚无定论。</p><p>再者，偏见和不公不会因为解释本身而消失；恰恰相反，解释会暴露更多一直以来潜行在我们周围的伦理问题。ProPublica对COMPAS的调查使人不禁发出疑问：系统性的种族偏见究竟在何种程度上渗透了美国过去十年间的量刑？随着XAI的进步，一个个黑箱AI的庐山真面目逐渐显露在我们眼前，不难想象其中有像COMPAS一样的“帮凶”。我们能否通过公开讨论解决结构性问题、完善问责制，这将是对AI和人类社会共同的挑战。</p><h4 class="wp-block-heading">参考文献</h4><p class="has-very-dark-gray-color has-text-color" style="line-height:1.7;font-size:12px">Choi, A., Shi, W., Shih, A., &amp; Darwiche, A. (2019). Compiling Neural Networks into Tractable Boolean Circuits. AAAI Spring Symposium on Verification of Neural Networks (VNN), Stanford, CA.<br>Defense Advanced Research Projects Agency. (n.d.). Explainable Artificial Intelligence (XAI). Retrieved from https://www.darpa.mil/program/explainable-artificial-intelligence<br>Edmonds, M., Gao, F., Liu, H., Xie, X., Qi, S., Rothrock, B., Zhu, Y., Wu, Y. N, Hongjing, L., &amp; Zhu, S. (2019). A tale of two explanations: Enhancing human trust by explaining robot behavior. Science Robotics, 4(37). https://doi.org/10.1126/scirobotics.aay4663<br>Keil, F. (2006). Explanation and understanding. Annual Review of Psychology, 57.<br>Larson, J., Angwin, J., Kirchner, L., &amp; Mattu, S. (2019, March 9). How We Analyzed the COMPAS Recidivism Algorithm. Retrieved from https://www.propublica.org/article/how-we-analyzed-the-compas-recidivism-algorithm<br>Miotto, R., Li, L., Kidd, B. A., &amp; Dudley J. T. (2016). Deep Patient: An Unsupervised Representation to Predict the Future of Patients from the Electronic Health Records. Nature Scientific Reports, 6(1), 26094.<br>Rabinowitz, N.C., Perbet, F., Song, H.F., Zhang, C., Eslami, S.M., &amp; Botvinick, M.M. (2018). Machine Theory of Mind. ArXiv, abs/1802.07740.<br>Rahwan, I. (2018). Society-in-the-loop: programming the algorithmic social contract. Ethics and Information Technology, 20(1), 5–14. https://doi.org/10.1007/s10676-017-9430-8<br>Rozenblit, L., &amp; Keil, F. (2002). The misunderstood limits of folk science: an illusion of explanatory depth. Cognitive Science, 26(5), 521–562. https://doi.org/10.1207/s15516709cog2605_1<br>Slack, D., Hilgard, S., Jia, E., Singh, S., &amp; Lakkaraju, H. (2020, Feb 3). Fooling LIME and SHAP: Adversarial Attacks on Post hoc Explanation Methods [Paper presentation]. AAAI/ACM Conference on AI, Ethics, and Society 2020, New York, NY. https://doi.org/10.1145/3375627.3375830<br>Yu, V. L., Fagan, L. M., Wraith, S. M., Clancey, W. J., Scott, A. C., Hannigan, J., Blum, R. L., Buchanan, B. G., &amp; Cohen, S. N. Antimicrobial Selection by a Computer: A Blinded Evaluation by Infectious Diseases Experts (1979). JAMA, 242(12), 1279–1282. http://doi.org/10.1001/jama.1979.03300120033020<br>Yong, E. (2018, January 29). A Popular Algorithm Is No Better at Predicting Crimes Than Random People. Retrieved from https://www.theatlantic.com/technology/archive/2018/01/equivant-compas-algorithm/550646/</p>]]></content:encoded>
					
					<wfw:commentRss>https://neu-reality.com/2020/05/xai/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
		<post-id xmlns="com-wordpress:feed-additions:1">10001393</post-id>	</item>
	</channel>
</rss>
