Hi, I am ztqakita

Brandon Zhang

An undergraduate Student at BUPT

My major is computer science. I have done many interesting school projects and currently I am doing research intern in AAIS, PKU. For future I prepare to do research in Brain-inspired computing.

Leadership
Team Work
Programming
Deligent
Rigorous

Skills

Experiences

1
Research Intern
TsingHua University

July 2020 - Sep 2020, Remote intern

Advised by Prof. ChangShui Zhang.

Responsibilities:
  • Preprocess EEG data.
  • Predict emotion and shooting ability based on multimode data.

Research Intern
TsingHua University

Jan 2021 - Apr 2020, Remote intern

Worked with THUIR research group.

Responsibilities:
  • EEG data analysis.
  • Analyze the relation between EEG and user behaviour.
2

3
Incoming Ph.D. student
Peking University

July 2021 - Present, Remote research study

Supervised by Prof. Si Wu

Responsibilities:
  • Global to local information processing

Projects

Intel 8086
Contributor Apirl 2020 - May 2020

An Intel 8086 CPU emulator in Python with GUI.

Pascal to C
Contributor Mar 2021 - April 2020

Yet another trifling Pascal to C compiler.

RISC-V on T-core Report
Owner Aug 2020 - Sep 2020

RISC-V on T-core final report written by LaTex

ztqakita blog
Owner Sep 2020 - Present

A Hugo theme for personal blog.

Recent Posts

Card image cap
Self-organizing Map

自组织特征映射SOM 引言:SOM是一种典型的“无监督学习”模型,一般用法是将高维的input data在低位空间表示,也是一种降维方法。 值得注意的是在《Few-Shot Class-Incremental Learning》这篇论文中,作者提出的是 Topology-preserving Knowledge Incremental framework也是一种自适应的聚类算法,但它的创新点在于incremental learning,可以为新增的分类来增加特征空间的质点,并不改变原有的拓扑结构。 除SOM之外,其他常见的自组织(竞争型)神经网络还有Counter propogation and Adaptive Resonance Theory等 生物学背景 生物学研究表明,在人脑的感觉通道上,神经元的组织原理是有序排列的。当外界的特定时空信息输入时,大脑皮层的特定区域兴奋,而且类似的外界信息在对应的区域是连续映像的。生物视网膜中有许多特定的细胞对特定的图形比较敏感,当视网膜中有若干个接收单元同时受特定模式刺激时,就使大脑皮层中的特定神经元开始兴奋,输入模式接近,与之对应的兴奋神经元也接近;在听觉通道上,神经元在结构排列上与频率的关系十分密切,对于某个频率,特定的神经元具有最大的响应,位置相邻的神经元具有相近的频率特征,而远离的神经元具有的频率特征差别也较大。大脑皮层中神经元的这种响应特点不是先天安排好的,而是通过后天的学习自组织形成的。 SOM模拟了生物神经系统的侧抑制现象,一个神经细胞兴奋以后,会对周围其他神经细胞产生抑制作用。 在网络结构上来看,它的经典范式非常简单: 一层输入层 一层竞争层 两层之间各神经元实现双向连接,竞争层之间的神经元还存在横向连接。 在学习算法上,不同于MLP以网络误差为训练准则,而是模拟生物神经元之间的兴奋、协调与抑制、竞争作用的信息处理的动力学原理来指导网络的学习。 必须要说明的是如今的som网络设计可以突破传统的结构,我觉得引入reservoir network等网络可以做到更多的事情。 竞争学习的概念与原理 Winner-Take-All 规则就是网络的输出神经元之间相互竞争以求被激活,结果在每一时刻只有一个输出神经元被激活。 我在这里想到了Decision-making model的相关特性,相邻神经元之间使用动力学方程建立相互作用的过程,我认为这种建模方式更有生物可解释性,从那篇gait recognition论文中也可以看出优势。 对于SOM,获胜神经元的获取来源于权重向量和输入模式向量的相似性度量,最相似的权重向量判别为竞争获胜神经元。 对于知道哪个神经元获胜之后,我们可以调整神经元的输出和训练调整权重: 竞争学习的步骤为: 向量归一化 寻找获胜神经元 网络输出与权值调整 步骤3完成以后返回步骤1继续训练知道学习率衰减至0。 SOM 典型结构 SOM网权值调整

Card image cap
Architectures of neuronal circuits

参考智源社区发布文章《Science重磅综述:神经环路结构——使大脑“计算机”高速运转的系统》 https://hub.baai.ac.cn/view/9949 常见的环路模式(circuit motifs) 一、前馈兴奋(feedforward excitation) 兴奋性神经元之间的一系列连续连接构成前馈兴奋,是信号从一个神经区域传递到另一个区域的主要方式。在每个阶段,神经元通常从多个突触前连接接收信号输入,并通过分支轴突向多个突触后连接(发散式兴奋)输出信号。 收敛式兴奋(convergent excitation)能使突触后连接选择性地对突触前连接的确定神经元作出反应。当多个输入神经元携带相同但不相关的信号时,也能提高信号的信噪比。 发散式兴奋(divergent excitation)则是将同一信号被多个下游通路处理。 比如哺乳动物的视觉系统,信号从光感受器→双极细胞→视网膜神经节细胞→外侧膝状核(LGN)神经元→第4层初级视觉皮层(V1)神经元→其他层的V1神经元→皮层上层神经元 二、前馈抑制和反馈抑制(Feedforward and feedback inhibition) 两种广泛使用的模式是前馈抑制和反馈抑制。 在前馈抑制中,抑制性神经元从突触前的兴奋性神经元接收信号输入,因此抑制性和突触前兴奋性输入都汇聚于突触后神经元。 在反馈抑制中,抑制性神经元接收来自兴奋性神经元的输入,并将其投射回兴奋性神经元。 在上述的视觉通路中,几乎每一个兴奋性连接都伴随着前馈抑制、反馈抑制或两者兼有。例如LGN神经元直接激活V1 GABA释放神经元,对第4层兴奋性神经元提供前馈抑制,第4层兴奋性神经元也激活V1 GABA释放神经元,对自身提供反馈抑制。 三、侧抑制(Lateral inhibition) 侧抑制是一种广泛存在的环路模式。它通过放大平行通路之间的活性差异来选择要传递到下游环路的信息。 例如,脊椎动物视网膜中光感受器神经元激活水平细胞(horizontal cell),对附近的许多光感受器神经元进行反馈抑制。这一行为作用于下游神经节细胞的典型中央-周围感受区域,从而增强这些下游神经元对空间或颜色对比信息的提取能力 四、相互抑制(Mutual inhibition) 相互抑制被广泛应用于具有节律性活动的环路中,如涉及运动的环路。在更长的时间范围内,相互抑制也可以用来调节大脑状态,如睡眠-觉醒周期。 具有特定功能的特殊环路结构 一、连续性拓扑映射(Continuous topographic mapping) 连续拓扑映射是神经系统中呈现信息的一种常用组织方式。相邻的输入神经元通过轴突有序的投射连接到相邻的目标神经元。由于其稳健的发育机制,拓扑映射可以提供处理连续层次信息的便捷方式。它具有很多信息处理计算上的优势。 例如,视网膜拓扑映射通过侧抑制来促进局部对比度的提取能力,从而加强物体识别。此外,通过在相邻的地方安置环路元件,映射可以通过最小化环路长度来节省能源。“回旋式神经网络”(convolutional neural networks(包含回旋计算且具有深度结构的前馈神经网络,是深度学习的代表算法之一)的设计就借鉴了拓扑映射,极大地减少了调整人工神经网络所需的变量数,从而加快了计算速度。 二、离散并行处理(Discrete parallel processing) 离散并行处理通过离散的信息通道并行呈现和处理信号。 三、维度扩展(Dimensionality expansion) 在维度扩展结构中,来自相对少量的输入神经元的信号发散到数量多得多的输出神经元上(图5C),允许输出神经元呈现不同的信号输入组合。 待求证:这是否与 reservoir network 相关呢?该网络也是将低维的神经信号模式投射到高维空间,使得这些模式特征可以在高维空间中线性可分。 一个维度扩张的例子是内嗅皮层→齿状回颗粒细胞→CA3锥体神经环路。大量的齿状回颗粒细胞可以对来自内嗅皮层的关于空间和物体的信息进行模式分离,并由海马下游环路进一步处理。但与蘑菇体和小脑皮层不同,该环路不能进行学习和训练。这可能是因为海马区微环路进行的是无监督学习,而小脑和蘑菇体微环路进行的是有监督的强化学习。 四、循环回路(Recurrent loops) 神经系统充满了循环回路,在这些回路中,神经元通常通过中间神经元相互连接。这些循环回路从特定的神经区域到大脑的大部分区域,在规模上是不均一的。

Achievements

Best Presenter

Champion

Graduation

Award Winner