Self-organizing Map

自组织特征映射SOM 引言:SOM是一种典型的“无监督学习”模型,一般用法是将高维的input data在低位空间表示,也是一种降维方法。 值得注意的是在《Few-Shot Class-Incremental Learning》这篇论文中,作者提出的是 Topology-preserving Knowledge Incremental framework也是一种自适应的聚类算法,但它的创新点在于incremental learning,可以为新增的分类来增加特征空间的质点,并不改变原有的拓扑结构。 除SOM之外,其他常见的自组织(竞争型)神经网络还有Counter propogation and Adaptive Resonance Theory等 生物学背景 生物学研究表明,在人脑的感觉通道上,神经元的组织原理是有序排列的。当外界的特定时空信息输入时,大脑皮层的特定区域兴奋,而且类似的外界信息在对应的区域是连续映像的。生物视网膜中有许多特定的细胞对特定的图形比较敏感,当视网膜中有若干个接收单元同时受特定模式刺激时,就使大脑皮层中的特定神经元开始兴奋,输入模式接近,与之对应的兴奋神经元也接近;在听觉通道上,神经元在结构排列上与频率的关系十分密切,对于某个频率,特定的神经元具有最大的响应,位置相邻的神经元具有相近的频率特征,而远离的神经元具有的频率特征差别也较大。大脑皮层中神经元的这种响应特点不是先天安排好的,而是通过后天的学习自组织形成的。 SOM模拟了生物神经系统的侧抑制现象,一个神经细胞兴奋以后,会对周围其他神经细胞产生抑制作用。 在网络结构上来看,它的经典范式非常简单: 一层输入层 一层竞争层 两层之间各神经元实现双向连接,竞争层之间的神经元还存在横向连接。 在学习算法上,不同于MLP以网络误差为训练准则,而是模拟生物神经元之间的兴奋、协调与抑制、竞争作用的信息处理的动力学原理来指导网络的学习。 必须要说明的是如今的som网络设计可以突破传统的结构,我觉得引入reservoir network等网络可以做到更多的事情。 竞争学习的概念与原理 Winner-Take-All 规则就是网络的输出神经元之间相互竞争以求被激活,结果在每一时刻只有一个输出神经元被激活。 我在这里想到了Decision-making model的相关特性,相邻神经元之间使用动力学方程建立相互作用的过程,我认为这种建模方式更有生物可解释性,从那篇gait recognition论文中也可以看出优势。 对于SOM,获胜神经元的获取来源于权重向量和输入模式向量的相似性度量,最相似的权重向量判别为竞争获胜神经元。 对于知道哪个神经元获胜之后,我们可以调整神经元的输出和训练调整权重: 竞争学习的步骤为: 向量归一化 寻找获胜神经元 网络输出与权值调整 步骤3完成以后返回步骤1继续训练知道学习率衰减至0。 SOM 典型结构 SOM网权值调整

Architectures of neuronal circuits

参考智源社区发布文章《Science重磅综述:神经环路结构——使大脑“计算机”高速运转的系统》 https://hub.baai.ac.cn/view/9949 常见的环路模式(circuit motifs) 一、前馈兴奋(feedforward excitation) 兴奋性神经元之间的一系列连续连接构成前馈兴奋,是信号从一个神经区域传递到另一个区域的主要方式。在每个阶段,神经元通常从多个突触前连接接收信号输入,并通过分支轴突向多个突触后连接(发散式兴奋)输出信号。 收敛式兴奋(convergent excitation)能使突触后连接选择性地对突触前连接的确定神经元作出反应。当多个输入神经元携带相同但不相关的信号时,也能提高信号的信噪比。 发散式兴奋(divergent excitation)则是将同一信号被多个下游通路处理。 比如哺乳动物的视觉系统,信号从光感受器→双极细胞→视网膜神经节细胞→外侧膝状核(LGN)神经元→第4层初级视觉皮层(V1)神经元→其他层的V1神经元→皮层上层神经元 二、前馈抑制和反馈抑制(Feedforward and feedback inhibition) 两种广泛使用的模式是前馈抑制和反馈抑制。 在前馈抑制中,抑制性神经元从突触前的兴奋性神经元接收信号输入,因此抑制性和突触前兴奋性输入都汇聚于突触后神经元。 在反馈抑制中,抑制性神经元接收来自兴奋性神经元的输入,并将其投射回兴奋性神经元。 在上述的视觉通路中,几乎每一个兴奋性连接都伴随着前馈抑制、反馈抑制或两者兼有。例如LGN神经元直接激活V1 GABA释放神经元,对第4层兴奋性神经元提供前馈抑制,第4层兴奋性神经元也激活V1 GABA释放神经元,对自身提供反馈抑制。 三、侧抑制(Lateral inhibition) 侧抑制是一种广泛存在的环路模式。它通过放大平行通路之间的活性差异来选择要传递到下游环路的信息。 例如,脊椎动物视网膜中光感受器神经元激活水平细胞(horizontal cell),对附近的许多光感受器神经元进行反馈抑制。这一行为作用于下游神经节细胞的典型中央-周围感受区域,从而增强这些下游神经元对空间或颜色对比信息的提取能力 四、相互抑制(Mutual inhibition) 相互抑制被广泛应用于具有节律性活动的环路中,如涉及运动的环路。在更长的时间范围内,相互抑制也可以用来调节大脑状态,如睡眠-觉醒周期。 具有特定功能的特殊环路结构 一、连续性拓扑映射(Continuous topographic mapping) 连续拓扑映射是神经系统中呈现信息的一种常用组织方式。相邻的输入神经元通过轴突有序的投射连接到相邻的目标神经元。由于其稳健的发育机制,拓扑映射可以提供处理连续层次信息的便捷方式。它具有很多信息处理计算上的优势。 例如,视网膜拓扑映射通过侧抑制来促进局部对比度的提取能力,从而加强物体识别。此外,通过在相邻的地方安置环路元件,映射可以通过最小化环路长度来节省能源。“回旋式神经网络”(convolutional neural networks(包含回旋计算且具有深度结构的前馈神经网络,是深度学习的代表算法之一)的设计就借鉴了拓扑映射,极大地减少了调整人工神经网络所需的变量数,从而加快了计算速度。 二、离散并行处理(Discrete parallel processing) 离散并行处理通过离散的信息通道并行呈现和处理信号。 三、维度扩展(Dimensionality expansion) 在维度扩展结构中,来自相对少量的输入神经元的信号发散到数量多得多的输出神经元上(图5C),允许输出神经元呈现不同的信号输入组合。 待求证:这是否与 reservoir network 相关呢?该网络也是将低维的神经信号模式投射到高维空间,使得这些模式特征可以在高维空间中线性可分。 一个维度扩张的例子是内嗅皮层→齿状回颗粒细胞→CA3锥体神经环路。大量的齿状回颗粒细胞可以对来自内嗅皮层的关于空间和物体的信息进行模式分离,并由海马下游环路进一步处理。但与蘑菇体和小脑皮层不同,该环路不能进行学习和训练。这可能是因为海马区微环路进行的是无监督学习,而小脑和蘑菇体微环路进行的是有监督的强化学习。 四、循环回路(Recurrent loops) 神经系统充满了循环回路,在这些回路中,神经元通常通过中间神经元相互连接。这些循环回路从特定的神经区域到大脑的大部分区域,在规模上是不均一的。

[CN] Continuous-attractor Neural Network

Si Wu, Kosuke Hamaguchi, and Shun-ichi Amari. “Dynamics and computation of continuous attractors.” Neural computation 20.4 (2008): 994-1025. 本篇参考吴思老师公众号的文章《【学术思想】连续吸引子神经网络:神经信息表达的正则化网络模型》,并根据冷泉港亚洲暑期学校的讲座和智源学术沙龙的报告来详细阐释CANN的工作原理,全文用中文行文。 连续吸引子神经网络的数学模型 吸引子指的是一个动力学系统在不接受外界输入情况下靠自身动力学就能维持的非静息的稳定状态(active stationary state)。要构成一个的吸引子网络,需要两个基本条件: 神经元之间有兴奋性的互馈连接 (recurrent connection),这样在没有外界输入的情况下,靠神经元之间的正反馈,网络就能维持住稳定活动;同时我们也要求兴奋性连接是局部的,这样才能形成有意义的空间局部活动; 网络中要有抑制性作用,这样才能避免系统活动因反复的正反馈而爆炸。 Hopfield模型采用吸引子的思想解释了大脑在收到部分或模糊信息条件下的联想式记忆机制。但经典的Hopfield模型没有考虑神经元之间连接的对称结构,因而其具有的吸引子(多个)在空间上是相互孤立的。 在吸引子网络的基础上,如果我们进一步要求神经元之间的连接具有空间平移不变性的对称结构,这时网络就将具有一簇连续的、而不是孤立的吸引子(注意,考虑到真实生物系统的神经数目足够大,为了方便,后面讨论都假设神经元数目是无穷的);这些吸引子在参数空间上紧密排列,构成一个连续的状态子空间。 一维CANN数学模型 神经元的突触总输入$u$的动力学方程如下: $$ \tau \, \frac{du(x, t)}{dt} = -u(x,t) + \rho \int dx' J(x,x')\, r(x',t) + I_{ext} $$ 其中$x$表示神经元的参数空间位点,$u(x)$代表在参数空间位点x上的神经元的突触总输入,$r(x^′​,t)$为神经元($x'$)的发放率,由以下公式给出: $$ r(x,t) = \frac{u(x,t)^2}{1+k\rho\int{dx’u(x',t)^2}} $$ 该模型没有单独考虑抑制性神经元,而是将其作用效果包含在除法归一化作用中。而神经元($x$)和($x'$)之间的兴奋性连接强度$J(x, x')$由高斯函数给出: $$ J(X,x') = \frac{1}{\sqrt{2\pi} \alpha} \, exp\left( - \frac{|x-x'|^2}{2\alpha^2}\right) $$ 我们看到其具有平移不变性,即其为$(x-x’)$的函数。外界输入$I_{ext}$与位置$z(t)$有关,公式如下: $$ I_{ext}=A \, exp \left[ - \frac{|x-z(t)|^2}{4\alpha^2}\right] $$