<?xml version="1.0" encoding="UTF-8"?><rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	>

<channel>
	<title>神经网络 &#8211; 神经现实</title>
	<atom:link href="https://neu-reality.com/tag/%E7%A5%9E%E7%BB%8F%E7%BD%91%E7%BB%9C/feed/" rel="self" type="application/rss+xml" />
	<link>https://neu-reality.com</link>
	<description>包罗心智万象</description>
	<lastBuildDate>Sun, 29 Dec 2024 16:05:13 +0000</lastBuildDate>
	<language>zh-Hans</language>
	<sy:updatePeriod>
	hourly	</sy:updatePeriod>
	<sy:updateFrequency>
	1	</sy:updateFrequency>
	<generator>https://wordpress.org/?v=6.7.5</generator>

<image>
	<url>https://neu-reality.com/wp-content/uploads/2018/08/WechatIMG26-32x32.png</url>
	<title>神经网络 &#8211; 神经现实</title>
	<link>https://neu-reality.com</link>
	<width>32</width>
	<height>32</height>
</image> 
<site xmlns="com-wordpress:feed-additions:1">129117731</site>	<item>
		<title>液态神经网络：机器学习的未来？</title>
		<link>https://neu-reality.com/2023/03/liquid-neural-networks-closed-form/</link>
					<comments>https://neu-reality.com/2023/03/liquid-neural-networks-closed-form/#respond</comments>
		
		<dc:creator><![CDATA[Steve Nadis]]></dc:creator>
		<pubDate>Mon, 27 Mar 2023 10:11:46 +0000</pubDate>
				<category><![CDATA[神经科学]]></category>
		<category><![CDATA[神经网络]]></category>
		<guid isPermaLink="false">https://neu-reality.com/?p=10004399</guid>

					<description><![CDATA[基于线虫神经系统的神经网络获得了前所未有的速度和适应性。]]></description>
										<content:encoded><![CDATA[<p style="font-size:16px">人工智能研究人员在神经网络（一种粗略模拟人脑结构的计算机程序）上取得了一系列的成功。但尽管进展迅速，神经网络仍然相对不灵活，几乎不能在运行时做出改变或适应陌生环境。</p><p style="font-size:16px">在2020年，麻省理工学院的两名研究人员带领团队推出了一种基于现实生活中的智能、而非人工智能的新型神经网络<sup>[1]</sup>。<strong>他们从微小的秀丽隐杆线虫（Caenorhabditis elegans）中汲取灵感，创造了所谓的 “液态神经网络” （liquid neural networks）。</strong>经过在2022年的突破，这种新型网络现在或许已足够灵活，足以在某些应用中取代传统的神经网络。</p><p style="font-size:16px">加州大学伯克利分校的机器人学家肯•戈德伯格（Ken Goldberg）表示，<strong>“液态神经网络提供了一种优雅而简洁的替代方案。”</strong>他还表示，实验已经表明，这些网络可以运行得比其他所谓的连续时间神经网络（continuous-time neural networks，一种对随时间变化的系统进行建模的网络）更快、更准确。</p><figure class="wp-block-image size-large"><img fetchpriority="high" decoding="async" width="1024" height="543" src="https://neu-reality.com/wp-content/uploads/2023/03/image-74-1024x543.png" alt="" class="wp-image-10004400" srcset="https://neu-reality.com/wp-content/uploads/2023/03/image-74-1024x543.png 1024w, https://neu-reality.com/wp-content/uploads/2023/03/image-74-770x409.png 770w, https://neu-reality.com/wp-content/uploads/2023/03/image-74-320x170.png 320w, https://neu-reality.com/wp-content/uploads/2023/03/image-74-640x340.png 640w, https://neu-reality.com/wp-content/uploads/2023/03/image-74-20x11.png 20w, https://neu-reality.com/wp-content/uploads/2023/03/image-74-385x204.png 385w, https://neu-reality.com/wp-content/uploads/2023/03/image-74.png 1080w" sizes="(max-width: 1024px) 100vw, 1024px" /><figcaption>拉敏•哈萨尼（Ramin Hasani，右）和马蒂亚斯•莱希纳（Mathias Lechner，左），设想了一种基于秀丽隐杆线虫神经系统的新型的灵活的神经网络。<br>—<br>Ramin Hasani</figcaption></figure><p style="font-size:16px">这项新设计的主力成员拉敏•哈萨尼<sup>[2]</sup>（Ramin Hasani）和马蒂亚斯•莱希纳<sup>[3]</sup>（Mathias Lechner）多年前就意识到，如果以制造能够适应意外情况的弹性神经网络为目标，线虫可能是最理想的模型生物。<strong>线虫长约一毫米，为底栖生物（于水体下层觅食的生物），是为数不多人类已经完整绘制出其神经元连接的生物之一，它能展现出一系列高级行为：移动、寻找食物、睡觉、交配甚至通过经验学习。</strong>莱希纳说：“它生活在多变的现实世界中，几乎在任何条件下都可以表现得很好。”</p><p style="font-size:16px">抱着对这种不起眼的线虫的尊重，他和哈萨尼研究出了他们的新型液态神经网络。网络中每个神经元都由一个方程控制，该方程预测其随时间而变化的行为。这些方程相互关联，就像互相连接的神经元一样。该网络主要在求解一整个互相关联的方程组，使其能够表征系统在任何给定时刻的状态——这与传统神经网络的非常不同，后者只给出在特定时刻的结果。</p><p style="font-size:16px">莱希纳说：“<strong>传统神经网络只能告诉你在第一秒、第二秒或第三秒时发生了什么。但我们这样的连续时间模型可以描述在第0.53秒、2.14秒或其他你选择的任何时间正在发生的事情。</strong>”</p><figure class="wp-block-image size-large"><img decoding="async" width="1024" height="603" src="https://neu-reality.com/wp-content/uploads/2023/03/image-75-1024x603.png" alt="" class="wp-image-10004401" srcset="https://neu-reality.com/wp-content/uploads/2023/03/image-75-1024x603.png 1024w, https://neu-reality.com/wp-content/uploads/2023/03/image-75-770x453.png 770w, https://neu-reality.com/wp-content/uploads/2023/03/image-75-385x227.png 385w, https://neu-reality.com/wp-content/uploads/2023/03/image-75-20x12.png 20w, https://neu-reality.com/wp-content/uploads/2023/03/image-75.png 1080w" sizes="(max-width: 1024px) 100vw, 1024px" /><figcaption>&#8211;&nbsp;Alexander Tek &amp; Victoria Arseni&nbsp;&#8211;</figcaption></figure><p style="font-size:16px">液态网络在处理人工神经元之间的突触连接时也有所不同。在标准神经网络中，这些连接的强度可以用一个数字（权重）表示。<strong>在液态网络中，神经元之间的信号交换是一个由“非线性”函数表示的概率过程，这意味着对输入的反应并不总是成比例的。</strong>例如，输入量的翻倍所导致输出量改变不一定翻倍，而是可大可小。这种内在的可变性是这些网络被称为“液态”的原因。神经元的反应可能会因其接收到的输入而异。</p><p style="font-size:16px">传统网络的核心算法是在训练期间设置的，这期间这些系统会接受大量的数据，从而校准其权重的最优值。<strong>而液态神经网络有更强的适应性。</strong>“它们能够根据观察到的输入改变其基本方程，从而改变神经元响应的速度。”麻省理工学院计算机科学与人工智能实验室主任达尼埃拉•鲁斯（Daniela Rus）说道。</p><p style="font-size:16px">为了展示这种能力，一项早期的测试试图用液态神经网络来驾驶自动驾驶汽车。传统神经网络只能以固定时间间隔分析汽车摄像头的视觉数据。而由19个神经元和253个突触组成的液态神经网络（按照机器学习的标准来说，它可以称得上是微型）可以更加灵敏地响应<sup>[4]</sup>。关于液态神经网络的这几篇论文的合著者之一鲁斯说：“<strong>我们的模型可以在诸如蜿蜒路段等情况下更频繁地采样。</strong>”</p><p style="font-size:16px">莱希纳说，该模型成功地让汽车保持在车道上，但它有一个缺陷：“它速度非常慢。”问题源于表示突触和神经元的非线性方程——如果不进行重复计算，计算机无法得到这些方程的解，于是它们需要迭代（iterate）才能最终收敛得到解决方案。这通常由被称作求解器的专用软件包对每个突触和神经元单独进行处理。</p><figure class="wp-block-image size-large"><img decoding="async" width="986" height="1024" src="https://neu-reality.com/wp-content/uploads/2023/03/image-76-986x1024.png" alt="" class="wp-image-10004402" srcset="https://neu-reality.com/wp-content/uploads/2023/03/image-76-986x1024.png 986w, https://neu-reality.com/wp-content/uploads/2023/03/image-76-770x800.png 770w, https://neu-reality.com/wp-content/uploads/2023/03/image-76-20x21.png 20w, https://neu-reality.com/wp-content/uploads/2023/03/image-76-385x400.png 385w, https://neu-reality.com/wp-content/uploads/2023/03/image-76.png 1080w" sizes="(max-width: 986px) 100vw, 986px" /><figcaption><strong>液态神经网络有更强的适应性。“它们能够根据观察到的输入改变其基本方程，从而改变神经元响应的速度。”麻省理工学院计算机科学与人工智能实验室主任达尼埃拉•鲁斯说道。</strong><br>—<br>Daniel Jackson</figcaption></figure><p style="font-size:16px">在2022年，该团队在一篇论文<sup>[5]</sup>中揭示了一种新的液态神经网络以克服这一瓶颈。这个网络依赖于相同类型的方程，但他们提出了一项关键进展：<strong>哈萨尼发现，这些方程不需要通过繁琐的计算机计算来解决。相反，该网络可以使用近乎精确的或“闭合式”（closed-form）的解决方案来运行。</strong>这种闭合解原则上可以通过笔和纸来解决。通常，这些非线性方程没有闭合解，但是哈萨尼想出了一个足够好的近似解来替代。</p><p style="font-size:16px">鲁斯说：“<strong>有一个闭合解意味着你可以在方程内直接插入参数值进行基本的计算，从而得到一个答案。你可以通过一次计算就得到答案，而不是让计算机不断计算直到最终答案接近正确的结果。</strong>这减少了计算时间和能耗，从而极大地加快了计算过程。”</p><p style="font-size:16px">伊利诺伊大学厄巴纳香槟分校的计算机科学家萨扬•米特拉（Sayan Mitra）说：“他们的方法在不牺牲准确性的情况下，比竞争对手快了几个数量级。”</p><p style="font-size:16px">哈萨尼表示，<strong>他们最新的网络不仅速度更快，而且异常稳定，这意味着系统可以处理大量的输入而不至于失控</strong>。“这项研究最主要的贡献是，单凭该网络的结构，就足以将稳定性和其他性质纳入这些系统中。”科罗拉多大学博尔德分校的计算机科学家斯里拉姆•桑卡拉纳拉亚那良（Sriram Sankaranarayanan）说道。液态网络似乎在它的最佳位置上运行：它们的复杂程度足以让有趣的事情发生，却不会太过复杂，以至于导致混乱的行为。</p><figure class="wp-block-image size-large"><img loading="lazy" decoding="async" width="1024" height="576" src="https://neu-reality.com/wp-content/uploads/2023/03/image-77-1024x576.png" alt="" class="wp-image-10004403" srcset="https://neu-reality.com/wp-content/uploads/2023/03/image-77-1024x576.png 1024w, https://neu-reality.com/wp-content/uploads/2023/03/image-77-770x433.png 770w, https://neu-reality.com/wp-content/uploads/2023/03/image-77-20x11.png 20w, https://neu-reality.com/wp-content/uploads/2023/03/image-77-385x217.png 385w, https://neu-reality.com/wp-content/uploads/2023/03/image-77.png 1080w" sizes="(max-width: 1024px) 100vw, 1024px" /><figcaption>&#8211;&nbsp;Hussein Jimmy&nbsp;&#8211;</figcaption></figure><p style="font-size:16px">目前，麻省理工学院的小组正在一架自主飞行无人机上测试他们最新的网络。虽然该无人机是针对森林导航进行训练的，但他们已将其转移到了剑桥的城市环境中，以观察其在新条件下的表现。莱希纳表示初步的结果十分鼓舞人心。</p><p style="font-size:16px">除了完善当前的模型外，该团队还在努力改进其网络的结构。莱希纳说：“下一步是确定我们需要多少个，或者说至少需要多少个神经元来执行给定的任务。”该团队还希望设计一种连接神经元的最佳方式。<strong>目前，每个神经元都与其他所有神经元相连，但这不是线虫神经系统的工作方式——它们的突触连接更具选择性。</strong>通过进一步研究线虫的神经元连接系统，他们希望能确定哪些神经元应该被关联在一起。</p><p style="font-size:16px">除了像自动驾驶和飞行等应用外，液态神经网络似乎非常适合分析电力网、金融交易、天气等其他随时间波动的现象。此外，哈萨尼表示，液态神经网络的最新版本能被用来“以之前无法实现的规模进行大脑活动模拟”。</p><p style="font-size:16px">米特拉对这种可能性十分感兴趣。他说：“从某种意义上说，这有些诗意。这意味着该研究正在形成一项闭环。<strong>神经网络的发展正在将我们从自然界中汲取的灵感转化为对自然更先进的理解。</strong>”</p><h2 class="wp-block-heading" style="font-size:16px"><strong>后记</strong></h2><p style="font-size:16px"><strong>Lemon：</strong>这种受“虫脑”信息处理启发的人工神经网络结构的特点是高度灵活和适应性强，这也正是目前人工神经网络正面临的挑战。就像线虫能够根据环境变化而做出不同反应，“液态神经网络”也能根据输入和任务的变化实时改变其结构和功能，从而在自动驾驶等应用中表现出良好的性能。生物的大脑无疑是人工智能领域里一种让人兴奋的参考对象。</p><p style="font-size:16px"><strong>殷尚墨羽：</strong>“液态神经网络”是一种很有创意的尝试，它和传统人工神经网络的区别，有些类似于“模拟信号”和“数字信号”的关系：前者精确而连续地反映信号的真实强度，后者则用离散采样的方式高效地编码信号。在特定的计算场景下，模拟信号仅仅基于基本的物理/数学定律，就能发挥数字信号需要通过大量编程才能达到的效果，我想文中“液态神经网络”可能也类似。期待看到它解决更多的实际问题。</p><p style="font-size:12px"><strong>参考文献</strong></p><p style="font-size:12px">[1]&nbsp;https://arxiv.org/abs/2006.04439</p><p style="font-size:12px">[2]&nbsp;https://www.csail.mit.edu/person/ramin-hasani</p><p style="font-size:12px">[3]&nbsp;https://mlech26l.github.io/pages/</p><p style="font-size:12px">[4]&nbsp;https://www.nature.com/articles/s42256-020-00237-3</p><p style="font-size:12px">[5] https://www.nature.com/articles/s42256-022-00556-7</p><p class="has-background" style="background-color:#e6e6e696;font-size:12px">作者：Steve Nadis&nbsp;|&nbsp;译者：Lemon&nbsp;| 审校：殷尚墨羽&nbsp;| 编辑：M.W.&nbsp;| 封面：Kristina Armitage&nbsp;|&nbsp;排版：盐&nbsp;| 原文：<a href="https://www.quantamagazine.org/researchers-discover-a-more-flexible-approach-to-machine-learning-20230207/">https://www.quantamagazine.org/researchers-discover-a-more-flexible-approach-to-machine-learning-20230207/</a></p><figure class="wp-block-image size-large"><img loading="lazy" decoding="async" width="1024" height="632" src="https://neu-reality.com/wp-content/uploads/2023/03/image-78-1024x632.png" alt="" class="wp-image-10004404" srcset="https://neu-reality.com/wp-content/uploads/2023/03/image-78-1024x632.png 1024w, https://neu-reality.com/wp-content/uploads/2023/03/image-78-770x476.png 770w, https://neu-reality.com/wp-content/uploads/2023/03/image-78-385x238.png 385w, https://neu-reality.com/wp-content/uploads/2023/03/image-78-20x12.png 20w, https://neu-reality.com/wp-content/uploads/2023/03/image-78.png 1080w" sizes="(max-width: 1024px) 100vw, 1024px" /></figure><figure class="wp-block-image size-large"><img loading="lazy" decoding="async" width="1024" height="632" src="https://neu-reality.com/wp-content/uploads/2023/03/image-79-1024x632.png" alt="" class="wp-image-10004405" srcset="https://neu-reality.com/wp-content/uploads/2023/03/image-79-1024x632.png 1024w, https://neu-reality.com/wp-content/uploads/2023/03/image-79-770x476.png 770w, https://neu-reality.com/wp-content/uploads/2023/03/image-79-385x238.png 385w, https://neu-reality.com/wp-content/uploads/2023/03/image-79-20x12.png 20w, https://neu-reality.com/wp-content/uploads/2023/03/image-79.png 1080w" sizes="(max-width: 1024px) 100vw, 1024px" /></figure><figure class="wp-block-image size-large"><img loading="lazy" decoding="async" width="1024" height="632" src="https://neu-reality.com/wp-content/uploads/2023/03/image-80-1024x632.png" alt="" class="wp-image-10004406" srcset="https://neu-reality.com/wp-content/uploads/2023/03/image-80-1024x632.png 1024w, https://neu-reality.com/wp-content/uploads/2023/03/image-80-770x476.png 770w, https://neu-reality.com/wp-content/uploads/2023/03/image-80-385x238.png 385w, https://neu-reality.com/wp-content/uploads/2023/03/image-80-20x12.png 20w, https://neu-reality.com/wp-content/uploads/2023/03/image-80.png 1080w" sizes="(max-width: 1024px) 100vw, 1024px" /></figure>]]></content:encoded>
					
					<wfw:commentRss>https://neu-reality.com/2023/03/liquid-neural-networks-closed-form/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
		<post-id xmlns="com-wordpress:feed-additions:1">10004399</post-id>	</item>
		<item>
		<title>“民主”的神经网络：向不完美妥协</title>
		<link>https://neu-reality.com/2020/06/democracy-in-neurons/</link>
					<comments>https://neu-reality.com/2020/06/democracy-in-neurons/#respond</comments>
		
		<dc:creator><![CDATA[杨闰哲]]></dc:creator>
		<pubDate>Mon, 01 Jun 2020 15:40:40 +0000</pubDate>
				<category><![CDATA[神经科学]]></category>
		<category><![CDATA[神经现实精选集]]></category>
		<category><![CDATA[神经网络]]></category>
		<guid isPermaLink="false">https://neu-reality.com/?p=10001458</guid>

					<description><![CDATA[“民主”的神经元模型是简陋的，它不是生物大脑运作的真实方式，而是一种非常粗略的近似；但“民主”的神经元却又是简单高效的，它们构建了今天深度学习技术的基础。]]></description>
										<content:encoded><![CDATA[<p class="has-very-dark-gray-color has-very-light-gray-background-color has-text-color has-background">就像人类社会的运转需要一套共同的决策规则，大脑的运转也依赖于神经元之间的某种契约。自上世纪40年代起，理论神经科学家就试图通过数学模型，解释神经元活动背后隐含的“民主规则”：McCulloch-Pitts模型是鼓掌通过式的民主，Linear Threshold模型是乔治·奥威尔式的民主，Hubel和Wiesel提出了神经元民主的层级结构 —— 在视觉系统里有好脾气的“简单公民”和坏脾气的“复杂公民”。“民主”的神经元模型是简陋的，它不是生物大脑运作的真实方式，而是一种非常粗略的近似；但“民主”的神经元却又是简单高效的，它们构建了今天深度学习技术的基础。“民主”的神经网络似乎印证了丘吉尔的那句名言，“民主是最糟的政体，除了其它那些已经试过的不能用的之外。”</p><h3 class="wp-block-heading">世界上最热闹的“社交网络”，就在你头脑里</h3><p>在我们小小的颅腔里住着860亿个神经元，它们有的易燃易怒，脾气暴躁；有的郁郁寡欢，消极厌世；它们每天都在对我们经历的事物各抒己见，争吵不休。如果你不能想象大脑里每天沸沸扬扬的辩论实况，那就想一想微博或推特—— 一个不过月活3、4亿用户的社交网络 —— 每天是如何制造热点、生产和传播假新闻、或者粉圈互撕到服务器宕机的。我们的大脑规模约等于二十多个这样的社交网络，平均每个用户有1000位粉丝。而且这些用户活跃时战斗力非凡，平均每个神经元3至4秒就发一次推，大脑短短一小时产生的信息足以淹没任何超话热搜。</p><p>即使是一个平日里看起来非常好脾气的人，他的大脑中也充满了不间断的争执。举例来说，即使像是“看到一块芝士蛋糕”这样一个简单、统一的事件单位，也是大脑中成千上百的神经元激烈辩论结果。每个参与其中的神经元——从视网膜，到视觉皮层，再到下颞叶——通过产生动作电位、释放神经递质来发表见解。神经元们似乎总是很难达成一致，比如视网膜中的双极神经元（bipolar cells）往往乐于表达赞同，让其他神经元更加兴奋，而无长突细胞（amacrine cells）总是悲观否定，抑制其他神经元的活动。但无论如何，这些常常意见相左的神经活动终究会汇总成一个明确的、无可辩驳的概念，并让我们不禁咽了咽口水。</p><p>不仅仅是简单的“刺激-反应”过程，神经科学家们相信，我们所有的情感、记忆、思考和创造，都是这群吵吵闹闹的“乌合之众”的共同决定。它们是如何做到的？</p><h3 class="wp-block-heading">两个原则：经验就是动作电位的模式，学习就是突触连接的改变</h3><p>把大脑看作一个网络，并非一个新鲜的概念。早在社交网络的概念尚未发明的20世纪40年代，科研人员就试图用网络模型解释大脑的运作机制。在这类模型中，大脑被看作一幅只有节点和连边的计算图，网络中的每一个节点象征一个神经元，每一条连边象征着两个神经元之间的突触连接，信息在网络中有向地从一个节点流向另一个节点，分布式地在每个节点被计算和处理。比如在小鼠的大脑中，每个神经元从树突接受来自其他神经元的电信号，在胞体上进行计算，再从轴突通过动作电位把计算结果发送给其他神经元。</p><figure class="wp-block-image size-large is-style-default"><img loading="lazy" decoding="async" width="974" height="560" src="https://neu-reality.com/wp-content/uploads/2020/06/12313123d.png" alt="" class="wp-image-10001459" srcset="https://neu-reality.com/wp-content/uploads/2020/06/12313123d.png 974w, https://neu-reality.com/wp-content/uploads/2020/06/12313123d-770x443.png 770w" sizes="(max-width: 974px) 100vw, 974px" /><figcaption class="wp-element-caption">▷ <strong>小鼠视觉皮层L2/3中的三个兴奋性神经元。图中较粗有许多凸起的枝干为神经元的树突，（底部）较细较光滑的枝干为神经元的轴突。</strong><a href="https://microns-explorer.org/phase1">图片来源：MICrONS Explorer</a></figcaption></figure><p>为了把这类计算模型和大脑的认知功能联系起来，神经科学家们提出了两个普遍接受的原则：</p><ul class="wp-block-list"><li>我们所有丰富的内部体验和外部活动，不过是神经元持续的动作电位模式。</li>

<li>我们从过去经验中学习的能力，大多归功于神经元之间突触连接的可塑性。</li></ul><p>这两个原则，在大脑的结构和功能之间搭起一座桥梁。只要知道神经元之间的突触连接，我们就可以从某种程度上解释大脑是如何一步一步地处理信息的。不同的局部连接结构赋予了大脑不同的功能；这些结构中持续的电信号，构成了我们的行为和体验，比如速记一串电话号码；这些突触连接的动态变化，给予了认知系统迭代进步的能力，比如学习新技能。</p><p>谢灵顿反射弧（Sherrington‘s reflex arc）可能是最早把突触连接和功能联系起来的模型，可以被视作最早的“神经网络”。动物反射行为通常由从感觉神经元到运动神经元的一系列突触链执行，这种特殊的链状神经结构被叫做反射弧。一个完整的反射弧通常包括五部分：感受器负责从环境接受信息，传入神经将信息传导至神经中枢，再由传出神经将反应返回到效应器。如果用计算图表示，反射弧就是一个包含五个节点的路径，每个节点被激活的顺序反映了刺激到反应的一系列因果关系。</p><p>“现代神经科学之父”卡哈尔（Santiago Ramón y Cajal）的学生德诺（Rafael Lorente de Nó）提出了循环的突触连接可能是中枢神经系统的基本结构。和反射弧的开放结构不同，突触环（synaptic loops）是一条闭合的链，从而使神经活动的模式得以保持。谢灵顿的学生格雷厄姆·布朗（Graham Brown）在研究脊髓的节律性时也提出，一些神经活动有可能在大脑的内部生成，而不依赖于即时的刺激-反应关系。反射弧在被外界刺激之前是不活跃的，但是因为环状突触结构和内部生成的神经活动，大脑的活动可以不依赖于外界刺激。进一步，唐纳德·赫布（Donald Hebb）在1949年提出的“细胞集结理论”（cell assembly theory）认为不同的神经元集群构成了神经系统的基本功能单元，并讨论了突触可塑性的形式。神经元之间反复的突触通讯，可以强化它们之间的连接，从而形成德诺说的能够保持神经活动的突触环。</p><p>赫布、德诺、布朗、谢灵顿等人的想法，最终通过数学抽象为神经网络。最著名的两类基本模型，就是感知机（perceptrons）和联想记忆网络（associative memory networks）。感知机模型常常被用来解释视觉系统是如何识别物体，而联想记忆网络则试图解释大脑是如何存储和提取信息的。</p><p>1957年由弗兰克·罗森布拉特（Frank Rosenblatt）提出的感知机模型，是对谢灵顿反射弧概念的数学抽象与推广。和反射弧一样，信息在网络中的流动也是单向的，即从输入到输出。但与反射弧不同的是，感知机允许许多输入汇聚到单个神经元，也允许单个神经元有多个输出。感知机也可以看作是单层的前馈神经网络（feedforwad networks）。在前馈神经网络中，突触连接不允许形成环链。</p><p>联想记忆网络往往带有回路和环链，今天被归类为循环神经网络（recurrent networks）或者回馈神经网络（feedback networks）。而感知机模型则非常适用于研究大脑对外界刺激的即时响应。在人工智能技术大行其道的今天，用于图像识别的人工神经网络，多数类似于原始的感知机模型；而用于阅读理解的网络，则往往包含了许多循环结构来维持工作记忆。</p><div class="wp-block-image is-style-default"><figure class="aligncenter size-large"><img loading="lazy" decoding="async" width="683" height="1024" src="https://neu-reality.com/wp-content/uploads/2020/06/12231231242-683x1024.png" alt="" class="wp-image-10001461" srcset="https://neu-reality.com/wp-content/uploads/2020/06/12231231242-683x1024.png 683w, https://neu-reality.com/wp-content/uploads/2020/06/12231231242-770x1154.png 770w, https://neu-reality.com/wp-content/uploads/2020/06/12231231242.png 902w" sizes="(max-width: 683px) 100vw, 683px" /><figcaption class="wp-element-caption">▷ <strong>百花齐放的人工神经网络模型，大多模型都是从感知机和联想记忆网络演化而来。</strong>图片来源：<a href="https://towardsdatascience.com/the-mostly-complete-chart-of-neural-networks-explained-3fb6f2367464">Fjodor van Veen</a></figcaption></figure></div><p>两条原则——经验就是动作电位的模式，学习就是突触连接的改变——使得通过模拟神经网络来实现认知功能的联结主义人工智能变得充满希望。计算机科学家与神经科学家们相信，无论多复杂的功能，都可以从庞大的神经网络中涌现，只要找到了对的突触连接方式。深度学习技术成功的关键，就是运用第二条原则来找到执行特定功能的神经网络。虽然今天计算机科学家们使用的更新突触连接的算法，和神经科学家普遍发现的赫布法则非常不同。</p><p>关于第二条原则的讨论我们可能需要另一篇文章来展开。而今天这篇文章会试图向你证明，单单第一条原则可能已经足够有趣。作为经验载体的动作电位是如何在神经网络中计算与传播的？网络中的一个神经元常常从与之相连的一众神经元接听信息，这些吵闹的神经元常常有着非常不同的神经活动和突触电位，神经元是如何整合这些不同意见的？</p><h3 class="wp-block-heading">一人一票制：民主决策的基石</h3><p>神经元的动作电位和突触电位是时刻变化的，它们涉及到膜电压和离子通道开闭之间的复杂相互作用。为了建模每个神经元的行为，理论神经科学家有时会忽略其中的这些复杂性。一种非常流行的简化是，当同时激活的兴奋性突触数量足够时，神经元就会激发动作电位。这一简化是合理的，因为单个兴奋性突触后电位（excitatory postsynaptic potential）通常比激发动作电位所需的电压差小很多。因此，突触后神经元的胞体需要对同时激活的那些兴奋性突触后电位求和，使得其总电压有可能超过激发阈值。</p><p>1943年，沃伦·麦卡洛克（Warren McCulloch）和沃尔特·皮茨（Walter Pitts）为这种对动作电位求和的神经元建立了数学模型。McCulloch-Pitts神经元同时接受多个输入并产生单个输出（但可能发送给多个神经元）。神经元输入和输出都用二元变量0或1表示，0为沉默，1为活跃。每个神经元都有一个阈值参数θ，表示激发神经元所需的最小兴奋性突触数量。如果在某一时刻的输入总和大于或等于θ，则神经元的输出为1；否则输出为0。我们可以连接多个这样的McCulloch-Pitts神经元，使得一个神经元的输出就是另一个神经元的输入。这一简单的数学过程也有对应的生物解释：突触前神经元的放电可以激活另一个神经元上的突触后电位。把许许多多这样的McCulloch-Pitts神经元连接在一起，我们就构建了一个神经网络。</p><p>比上述的0和1稍稍复杂一些，最初的McCulloch-Pitts神经元同时考虑了兴奋性和抑制性突触的存在。类似一套民主投票规则，兴奋性突触的1记一张赞成票，抑制性突触的1记一张反对票，0为弃权票。所有突触前的神经元都可以表达它们意见，突触后神经元汇总这些意见再进行决策。</p><div class="wp-block-image is-style-default"><figure class="aligncenter size-large"><img loading="lazy" decoding="async" width="974" height="495" src="https://neu-reality.com/wp-content/uploads/2020/06/cccddffw1.png" alt="" class="wp-image-10001462" srcset="https://neu-reality.com/wp-content/uploads/2020/06/cccddffw1.png 974w, https://neu-reality.com/wp-content/uploads/2020/06/cccddffw1-770x391.png 770w" sizes="(max-width: 974px) 100vw, 974px" /><figcaption class="wp-element-caption">▷ <strong>McCulloch-Pitts神经元的工作原理：兴奋性突触一人一票，抑制性突触一票否决。</strong></figcaption></figure></div><p>如果突触后的神经元是兴奋性的，那么它属于神经网络中那一类持有乐观立场投票者，只会投赞成或者弃权票；相反如果突触后的神经元是抑制性的，那么它属于悲观的且特立独行的投票者，只会投反对票或者弃权票。这一限制遵循了神经科学中称为戴尔法则（Dale‘s principle）的规律，一个神经元只会向其他的神经元分泌相同的神经递质，从而形成要么兴奋性要么抑制性的突触。虽然今天神经学家已经发现了许多戴尔法则的反例，但是在大部分情况下，这一规律还是有普遍性的。</p><p>在McCulloch-Pitts模型中，对于兴奋性的神经元，如果它收到的来自其他神经元的“赞成票”（激活的兴奋性突触）数量达到某个阈值，比如超过半数，并且没有神经元向它投“反对票”，它就会向与之相连的其他神经元投“赞成票”（1），否则弃权（0）；对于抑制性的神经元，如果它收到的来自其他神经元的“赞成票”（激活的兴奋性突触）数量达到某个阈值，并且没有神经元向它投“反对票”，它就会向与之相连的其他神经元“反对票”（1），否则弃权（0）。如果一个神经元收到了“反对票”（有抑制性突触被激活），那么无论神经元本身是兴奋性还是抑制性，都会投弃权票（0）。</p><p>McCulloch-Pitts 模型可以看作一种“鼓掌通过”式的民主，只要投赞成票的兴奋性神经元超过一定数量，就可以激发突触后神经元作出决定。同时，抑制性的神经元还具有“一票否决”权，只要它对刺激不满意，它就可以使下游的神经元不响应。在这种体制中，每个神经元唯一需要关心的变量就是投票通过的阈值。低阈值的神经元像是人群中极易被煽动的坏脾气，只要有少量神经元冲它发火，它也会跟着发火；而高阈值的神经元则木讷许多，需要大量神经元同时对它苦口婆心地劝说，它才会审慎地透出自己宝贵的一票。</p><p>这种民主制度虽然简单粗暴，但已经可以解决许多复杂问题。我们在后面会介绍到，高阈值的兴奋性McCulloch-Pitts神经元相当于逻辑电路中的“与门”，低阈值的兴奋性McCulloch-Pitts神经元相当于逻辑电路中的“或门”，而抑制性神经元的作用和“非门”类似。一个由McCulloch-Pitts神经元构成的网络，在某种程度上等价于一个逻辑电路。我们的视觉系统也可以从类似的角度被解释。</p><p>McCulloch-Pitts是最简单的神经元模型，但它也缺失了许多重要的生物细节。其中最值得注意的一点是，在McCulloch-Pitts模型中，所有的兴奋性输入是被同等对待的。如果激活，则记为一票，每一票都同等重要。神经元的“身份”在这一民主机制中被完全革除了。而真正的生物神经元并非能做到如此绝对公平公正。神经元之间往往会形成不同强度的突触。这意味着突触后神经元会有意地更重视某些神经元的意见，而轻视另外一些。</p><p>将突触强度的差异性纳入考虑的神经元模型，叫做线性阈值神经元（Linear Threshold neurons）。和McCulloch-Pitts模型一样，它也遵循了民主最基本的一人一票原则，记活跃为 1，沉默为 0，只是有的突触在最终计票时会被赋予更高的权重。这一更像是《动物庄园》式的民主，“所有神经元生来平等，但有的神经元比其他神经元更平等”。只有当来自所有突触的投票的加权和大于或等于预设的某个阈值θ，突触后的神经元则被激活。</p><div class="wp-block-image is-style-default"><figure class="aligncenter size-large"><img loading="lazy" decoding="async" width="974" height="516" src="https://neu-reality.com/wp-content/uploads/2020/06/wedf3112.png" alt="" class="wp-image-10001464" srcset="https://neu-reality.com/wp-content/uploads/2020/06/wedf3112.png 974w, https://neu-reality.com/wp-content/uploads/2020/06/wedf3112-770x408.png 770w" sizes="(max-width: 974px) 100vw, 974px" /><figcaption class="wp-element-caption">▷ <strong>线性阈值神经元的工作原理：兴奋性的突触拥有正权重，抑制性突触拥有负权重，投票结果由加权和决定。</strong></figcaption></figure></div><p>此外，在线性阈值神经元模型中，抑制性神经元不再有一票否决权。相反它采取了一种更加公平的做法，兴奋性的突触拥有正权重，抑制性突触拥有负权重，只有当来自兴奋性突触的声音盖过了那些抑制性突触，并达到阈值，突触后神经元才会被激活。McCulloch-Pitts模型可看作一种兴奋性突触权重均为1的线性阈值神经元。而要让抑制性神经元像在McCulloch-Pitts模型中那样可以“独裁”，只需把抑制性突触的权重设为兴奋性突触总数的相反数。</p><p>无论是 McCulloch-Pitts 神经元还是线性阈值神经元，都只刻画了神经元活跃（1）与不活跃（0）两种状态。而生物神经元的放电速率是连续分级的。另外，在线性阈值神经元中，神经元的输入是电流强度（假设突触强度与神经元活动相乘得到电流），输出是放电速率，这意味着胞体在进行一种将输入电流转换为放电速率的计算。这种观点电生理学家也经常采用，他们通过频率-电流曲线来表征神经元，每个突触产生的电流与其突触强度以及突触前神经元的放电速率成正比。</p><p>今天深度学习技术中使用的神经元模型，其基本思路与线性阈值神经元非常相似。考虑到神经元放电速率是连续分级的，它们以实数作为神经元的输入输出以及突触权重。区别于McCulloch-Pitts或线性阈值神经元用一个阈值划分激活还是沉默，它们采用一些“激活函数”来得到连续且单调递增的输出。这就像每位选民可以更加细腻地表达自己的支持程度，比如投出赞同度为65%选票，而不是绝对的0或1。而突触后神经元输出的支持率，则由它接受的支持率的加权总和决定。</p><h3 class="wp-block-heading">视觉系统：选择性和不变性</h3><p>我们已经知道单个神经元是如何运作的 —— 如果我们愿意忽视大量复杂的生物细节，那么每个神经元所做的计算，不过是一种简单的民主投票。一个由许许多多这种过分简化的神经元构成的网络，却已经可以执行非常复杂的任务 ——比如视觉识别。</p><p>我们之前提到，高阈值的兴奋性McCulloch-Pitts神经元相当于逻辑电路中的“与门”，低阈值的兴奋性McCulloch-Pitts神经元相当于逻辑电路中的“或门”。高阈值的神经元像是木讷的好脾气，不易被激活；而低阈值的神经元像是人群中极易被煽动的坏脾气，容易被激活。高阈值的神经元对于输入刺激更加挑剔，只对特定输入响应，行为相对简单；而低阈值的神经元的响应门槛很低，对许多相似的输入都会响应，行为相对复杂。换句话说，高阈值神经元试图实现对输入的选择性（selectivity），而低阈值神经元试图捕捉输入中的不变性（invariance）。</p><p>选择性和不变性，正是视觉系统的两大特点。我们能够从视野中识别出一块“芝士蛋糕”，依赖于神经系统的选择性将蛋糕的视觉特征和其他物体加以区分；同时，类似于赫拉克利特的河流，受视角、亮度、颜色、位置、背景的影响，我们不能两次看到同样的“芝士蛋糕”，我们需要神经系统抓住“芝士蛋糕”视觉特征的一些不变性，来排除与这一识别过程无关的变量。</p><p>神经科学家对视觉皮层的研究，将McCulloch-Pitts神经元的这些计算特性与视觉过程联系起来，并启发了广泛用于计算机视觉的卷积神经网络（convolutional neural networks）。1959年，诺贝尔生理学奖得主大卫·休伯尔（David Hunter Hubel）与托斯坦·威泽尔（Torsten Nils Wiesel）发现大脑初级视觉皮层（V1）中的一类称为“简单细胞”的神经元，能对视野中具有特定空间朝向的刺激选择性地做出反应。一个“简单细胞”会响应接近特定方向的光条，而不响应具有其他方向的光条。</p><figure class="wp-block-image size-large is-style-default"><img loading="lazy" decoding="async" width="974" height="427" src="https://neu-reality.com/wp-content/uploads/2020/06/23424fse.png" alt="" class="wp-image-10001466" srcset="https://neu-reality.com/wp-content/uploads/2020/06/23424fse.png 974w, https://neu-reality.com/wp-content/uploads/2020/06/23424fse-770x338.png 770w" sizes="(max-width: 974px) 100vw, 974px" /><figcaption class="wp-element-caption">▷ <strong>Hubel和Wiesel在麻醉后的猫眼前放一块屏幕，并往屏幕上投射不同朝向的光条。他们将有玻璃包裹的钨丝微电极插入猫的初级视皮层，记录神经元的电活动。他们发现当只有当光条转向特定角度时，“简单细胞”的放电最为强烈。</strong>图片来源于参考文献[2]，有修改</figcaption></figure><p>休伯尔和威泽尔还在实验中发现，除了“简单细胞”外，V1 还包含另一类称作“复杂细胞”的神经元。它们像“简单细胞”一样，具有方向选择性（orientation selectivity），但它们的反应对刺激光条在感受野（receptive field）内的位置不敏感。这种对位置不敏感的特点很好地建立了“复杂细胞”对于特定光条的位置不变性（location invariance）。而“简单细胞”对刺激光条在其感受野的兴奋性子区域内的具体位置相当敏感。</p><p>为了解释V1中的神经元呈现出的方向选择性和位置不变性，休伯尔和威泽尔在1962年的一篇论文中提出了一个神经网络模型。在他们的模型中，“简单细胞”是具有高阈值的McCulloch-Pitts神经元，从外侧膝状核（lateral geniculate nucleus，LGN）中一些感受野沿直线排列的神经元接收输入。如果一束光条恰好有相同的朝向和位置，所有这些LGN神经元就会被激活，从而激活与这些神经元相连的视觉初级皮层中的高阈值的“简单细胞”。但如果光条的朝向发生变化，则只有这些LGN神经元中的部分被激活，兴奋性的输入总和未达到阈值，“简单细胞”不会被激活。这就实现了“简单细胞”对方向的选择性。</p><p>实现“复杂细胞”的位置不变性需要神经网络的层级结构。在Hubel-Wiesel模型中，“复杂细胞” 是具有低阈值的McCulloch-Pitts神经元，它们从一些具有相同方向选择性“简单细胞”接受输入。如果光条的朝向恰好是那些“简单细胞”的偏好刺激，那么至少有对应于一个位置的“简单细胞”会被激活，从而激活低阈值的“复杂细胞”。这解释了为何刺激在感受野中的位置不会影响“复杂细胞”的活动。</p><figure class="wp-block-image size-large is-style-default"><img loading="lazy" decoding="async" width="974" height="510" src="https://neu-reality.com/wp-content/uploads/2020/06/fefefefe222.png" alt="" class="wp-image-10001467" srcset="https://neu-reality.com/wp-content/uploads/2020/06/fefefefe222.png 974w, https://neu-reality.com/wp-content/uploads/2020/06/fefefefe222-770x403.png 770w" sizes="(max-width: 974px) 100vw, 974px" /><figcaption class="wp-element-caption">▷ <strong>如果不考虑抑制性输入，高阈值的 McCulloch-Pitts 神经元相当于执行逻辑合取操作，当且仅当所有输入都为 1 时，输出为 1，否则输出为 0；低阈值的 McCulloch-Pitts 神经元相当于执行逻辑析取操作，当且仅当所有输入都为 0 时，输出为 0，否则输出为 1。不同阈值的 McCulloch-Pitts 神经元，可以用来解释视觉皮层中“简单细胞”和“复杂细胞”的行为。Hubel-Wiesel 模型通过组合高阈值的“简单细胞”和低阈值的“复杂细胞”，实现了视觉系统的方向选择性和位置不变性。</strong>图片来源于参考文献[1]，有修改</figcaption></figure><p>Hubel-Wiesel 的视觉模型，可以看成是一种神经元民主的层级结构。在视觉系统里有好脾气的“简单公民”和坏脾气的“复杂公民”。好脾气的“简单公民”需要从更基层的LGN神经元听取投诉意见。只有当大量向它汇报的神经元发表了意见，才会引发它的怒火并投出一票。而“复杂公民”则从“简单公民”那儿收集信息。只要有“简单公民”投票支持，它就无法抑制自己投票的冲动。“简单公民”对意见进行筛选，“复杂公民”对意见进行整合。这种层级化的组合使得神经系统可以实现复杂的特征抽取以及更高级的认知功能。</p><p>受Hubel-Wiesel模型的启发，日本计算机科学家福岛邦彦（Kunihiko Fukushima）于1980年设计了一个可以自动识别手写数字的人工神经网络Neocognitron。手写数字可能不像自然图片（例如人类或动物）那样复杂，但是要识别这些数字仍然极具挑战。由不同人手写的数字通常看起来会非常不同，甚至一个人重复写几次相同的数字也可能有很大的差异。Neocognitron把交替的“简单细胞”和“复杂细胞”作为网络设计的基本结构，来捕捉不同数字之间的特征差异以及相同数字共享的不变特征。</p><figure class="wp-block-image size-large is-style-default"><img loading="lazy" decoding="async" width="974" height="270" src="https://neu-reality.com/wp-content/uploads/2020/06/ww1222121.png" alt="" class="wp-image-10001470" srcset="https://neu-reality.com/wp-content/uploads/2020/06/ww1222121.png 974w, https://neu-reality.com/wp-content/uploads/2020/06/ww1222121-770x213.png 770w" sizes="(max-width: 974px) 100vw, 974px" /><figcaption class="wp-element-caption"><strong>▷ 最经典卷积神经网络 — LeNet-5的结构。该神经网络可以用于手写体数字识别，输入为28&#215;28像素的图片，输出的10个神经元分别代表数字0-9中的一类。卷积层的神经元类似于 Hubel-Wiesel 模型中的“简单细胞”，用于实现视觉过程的选择性，池化层中的神经元类似 Hubel-Wiesel 模型中的“复杂细胞”，用于实现视觉过程的不变性。简单细胞和复杂细胞交替的层级结构，帮助神经网络提取关于视觉输入的高级特征。</strong></figcaption></figure><p>另一个借鉴了V1中“简单细胞”和“复杂细胞”层级结构例子，就是卷积神经网络的鼻祖LeNet。这一著名的神经网络由图灵奖得主杨立昆（Yann LeCun）于1989年在贝尔实验室设计。卷积神经网络包含交替的卷积层（convolution layer）和池化层（pooling layer）。卷积层中神经元类似于“简单细胞”，通过对输入的卷积操作，实现视觉过程的选择性，池化层中的神经元则类似“复杂细胞”，将卷积层空间上临近的输出，通过取平均或者取极大值整合为一个神经活动，用于实现视觉过程的不变性。交替的卷积层和池化层，几乎是今天所有用于计算机视觉的深度神经网络的基础模块。</p><h3 class="wp-block-heading">异或问题：神经元民主的逻辑困境</h3><p>用于单个神经元的民主规则是简单的，McCulloch-Pitts神经元是鼓掌通过式的民主，激活与否取决于活跃的兴奋性突触的多寡；线性阈值神经元是乔治·奥威尔式的民主，有的突触比其他突触享有更大权重。虽然单个神经元的作用很简单，但是神经网络的功能可以很复杂。比如在具有层级结构的神经网络中，神经元之间分布并行的民主互动可以还原大脑视觉初级皮层的信息处理过程。</p><p>这种复杂性从简单规则中涌现的奇妙现象，和康威的生命游戏（Conway&#8217;s game of life），沃夫勒姆的110号规则（Wolfram&#8217;s rule 110）有着异曲同工之妙，今天已经广为人知，并成为联结主义人工智能的中心思想。但是在神经网络还是新生事物的上世纪60年代，它的普适性接受了一场严酷的考验。这场考验直接将人们对单层神经网络研究推向终结，导致了神经网络的第一次寒冬。</p><p>发起这场考验的人，正是大名鼎鼎的“人工智能之父”，图灵奖得主马文·闵斯基（Marvin Lee Minsky）。他在1969年与西摩·佩珀特（Seymour Aubrey Papert）合著的《感知机》（Perceptrons）中，证明了单层的神经网络无法计算“异或问题”（XOR problem）。异或是一种基本的逻辑操作，当且仅当两个事件中有且仅有一者为真时，它们的异或结果为真。许多认知任务都需要进行异或计算，比如判断一个迷宫的连通性。</p><figure class="wp-block-image size-large is-style-default"><img loading="lazy" decoding="async" width="974" height="370" src="https://neu-reality.com/wp-content/uploads/2020/06/frfefefwfwe111d1.png" alt="" class="wp-image-10001471" srcset="https://neu-reality.com/wp-content/uploads/2020/06/frfefefwfwe111d1.png 974w, https://neu-reality.com/wp-content/uploads/2020/06/frfefefwfwe111d1-770x293.png 770w" sizes="(max-width: 974px) 100vw, 974px" /><figcaption class="wp-element-caption"><strong>▷ 无论是 McCulloch-Pitts 神经元的民主规则，还是线性阈值神经元的民主，都无法实现奇偶投票规则。神经元的激活特性可以由决策边界刻画。只有线性可分的问题才可被单层神经网络计算。</strong></figcaption></figure><p>奇偶判断可以看作是异或问题的延伸。无论是McCulloch-Pitts神经元的民主规则，还是线性阈值神经元的民主，都无法实现奇偶投票规则。即当且仅当被激活的兴奋性神经元个数为奇数时，突触后神经元激活；被激活的兴奋性神经元个数为偶数时，突触后的神经元不活跃。</p><p>从几何的角度，神经元的激活特性可以由一条决策边界（decision boundary）刻画（在高维空间中是一个超平面），突触的强度决定了决策边界的斜率，神经元的激发阈值决定了决策边界的截距。只有当刺激落在决策边界的激活一侧时，神经元才会被激活。能被一条决策边界区分的问题叫做线性可分问题。异或问题和奇偶问题恰好是线性不可分的，无论我们如何旋转和平移决策边界，都不能让神经元得到区分奇偶的输出。</p><p>神经元民主规则的这一缺陷，直接让神经网络的研究一度陷入停滞。虽然闵斯基等人当时已经注意到，多层的神经网络是可以等价任何逻辑电路，并解决异或问题的，但是用于多层的神经网络训练的算法那时尚未发明，且训练需要大量的计算资源。这些问题在今天都已经被解决。</p><p>基于简单民主规则的神经元模型沿用至今已经近80年历史，而最近一篇发表在《科学》杂志上文章表明，或许人类大脑的神经元并不严格遵循这些模型所呈现的计算特性。</p><figure class="wp-block-image size-large is-style-default"><img loading="lazy" decoding="async" width="974" height="583" src="https://neu-reality.com/wp-content/uploads/2020/06/453563878.png" alt="" class="wp-image-10001472" srcset="https://neu-reality.com/wp-content/uploads/2020/06/453563878.png 974w, https://neu-reality.com/wp-content/uploads/2020/06/453563878-770x461.png 770w" sizes="(max-width: 974px) 100vw, 974px" /><figcaption class="wp-element-caption"><strong>▷ 人类大脑皮层2/3层的锥体神经元的顶端树突可以进行类似异或的非线性运算，而胞体可以进行与/或等线性运算。</strong>图片来源：<a href="https://science.sciencemag.org/content/367/6473/83/tab-figures-data">Albert Gidon et al., Dendritic action potentials and computation in human layer 2/3 cortical neurons. Science. 2020.</a></figcaption></figure><p>和小鼠大脑的神经元相比，科学家发现人类大脑皮层2/3层的锥体神经元，有着非常不同的钙介导树突状动作电位dCaAPs。随着刺激强度的增加，dCaAPs会先激活后减弱强度。也就是说人类锥体神经元的顶端树突可以直接进行非线性的异或运算。神经元模型是不断发展的，一人一票的民主规则或许只是一个漫长的过渡方案。也许在不久的将来，我们会考虑更多的生物现实，引入新的数学规则，以实现更高智能的神经网络。</p><h3 class="wp-block-heading">阿罗定理：完美民主的不可能性</h3><p>我们的理智从一片喧嚣中诞生。无论头脑中的那个热闹无比的神经元网络，在外界看来是如何地嘈杂无序，它的内部始终维持着一些松散而高效的秩序。网络局部的不同拓扑结构，为实现整体的复杂认知功能提供了丰富的组件——线性排列的神经元，形成了支持“刺激-反应”过程的反射弧；环状循环连接的神经元，可以维持神经活动的模式，被看作是工作记忆的实现方式；高低阈值神经元交替的分层连接，解释了视觉的选择性和不变性。网络中的每个神经元并不会做任何复杂的事情，它们都只需遵从一个简单的民主规则，把其他神经元输入的意见整合成自身的意见，然后再输出。</p><p>民主的神经元模型从来都不是完美的模型，它局限于线性可分的问题，并且忽略了大量的生物学现实。民主本身也不可能是完美的社会规则。诺贝尔经济学奖得主肯尼斯·阿罗（Kenneth Joseph Arrow），曾提出一个著名的不可能性定理（Arrow&#8217;s impossibility theorem），证明不可能存在一种完美的社会选择机制，使个人的偏好通过多数票规则转换为社会偏好。</p><p>和二元的神经元模型投票不同，在阿罗的投票模型中，每个人都可以把选项按自己的偏好排序。民主的目的是根据每个人的意见，生成一个集体公认偏好排序。他认为“完美”的民主规则需要具备三个性质：</p><ol class="wp-block-list"><li>一致性（unanimity），如果所有人认为A比B好，那么在最终排序中也要A比B好；</li>

<li>无关选项独立性（independence of irrelevant alternatives, IIA），如果有人改变偏好，但是A和B的相对位置不变，那么在结果中A和B的相对位置也不应改变；</li>

<li>非独裁（non-dictatorship），最终生成的集体偏好不应该总和某个人的偏好一致。</li></ol><p>根据阿罗的证明，我们总是可以构造一些情形，使得这三条必要的性质无法同时满足。如果一个民主规则是满足一致性和IIA的，那么这种规则一定是独裁的。</p><p>无法达到的完美或多或少令人有些遗憾和沮丧。但无论是人类社会的公共决策还是神经网络的数学建模，不完美的民主规则却总是能出人意料地运转良好。向不完美的妥协或许比完美本身有更加深远的意义，它揭示了自然的可能性疆界，也成就了人类的奇妙。</p><h3 class="wp-block-heading">参考文献</h3><p class="has-text-color has-small-font-size" style="color:#545454">[1] Seung HS, and Yuste R. 2012. Appendix E: Neural Networks in Principles of Neural Science, Fifth Edition. McGraw-Hill Education.<br>[2] Connors B, Bear M, Paradiso M. 2006. Neuroscience: Exploring the Brain, Third Edition. Lippincott Williams and Wilkins.<br>[3] Hubel DH, Wiesel TN. 1962. Receptive fields, binocular interaction and functional architecture in the cat’s visual cortex. J Physiol 160:106–154.<br>[4] LeCun Y, Boser B, Denker JS, Henderson D, Howard RE, Hubbard W, Jackel LD. 1989. Backpropagation applied to handwritten zip code recognition. Neural Comput 1:541–551.<br>[5] Fukushima KM. 1980. Neocognitron: A self-organizing neural network model for a mechanism of pattern recognition unaffected by shift in position. Biol Cybern 36:193–202.<br>[6] Felleman DJ, Van Essen DC. 1991. Distributed hierarchical processing in the primate cerebral cortex. Cerebr Cortex 1:1–47.<br>[7] Minsky M, Papert SA. 2017. Perceptrons: An introduction to computational geometry. MIT press.<br>[8] Gidon A, Zolnik TA, Fidzinski P, Bolduan F, Papoutsi A, Poirazi P, … &amp; Larkum ME. 2020. Dendritic action potentials and computation in human layer 2/3 cortical neurons. Science, 367(6473), 83-87</p><p class="has-very-dark-gray-color has-very-light-gray-background-color has-text-color has-background has-small-font-size">编辑：EON；封面：由zhu为神经现实设计</p><p></p>]]></content:encoded>
					
					<wfw:commentRss>https://neu-reality.com/2020/06/democracy-in-neurons/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
		<post-id xmlns="com-wordpress:feed-additions:1">10001458</post-id>	</item>
	</channel>
</rss>
