Science Frontier
- Feng's view on current science
- Feng's view on current science
2. 伤左半球不太影响speech recognition(由声音查lexicon),因为右侧有备胎。伤左半球一般不能识别音节(元音加辅音,一般为声音波形的packet),因为背流处理识别音节只单左侧。伤左半球一般造成conduction失语症(数数时1234#@#678,想说5但是说不出来)。有病人能识别音节(背流正常腹流伤)但是不理解意义(比如外国人说话每个单词都清楚放一起不知道讲什么),有病人能识语义(腹流正常背流受伤)但是不识别音节(如妈妈说吃苹果,你就按命令去吃,但是问你妈妈说苹果了吗,你不知道)。
3. 语言学:声波-频谱-因素-音节-音词形(er代表人)-词义-词组-句意-文章意义(实际并不是完全并行,分不清音节也可以理解词义)
4. 视觉背流(where流)在parietal与躯体感觉区接触,该处神经元不仅对眼前的苹果放电,闭上眼睛去reach 苹果也放电(即神经元同时受到视觉motor effecter影响)。optic ataxia共济失调,能知道眼前物体是方的,但是够不到。visual agosia,能够到物体但是不知道物体张什么样。
5.被动听声音,双侧STS、STG放电。speech的fMRI减掉背景音的fMRI得speech音素处理的区域(Fig3)。假单词也使得音素黄区放电,甚至lexical接口区放电,但是不能激活iT的具体形象意义。
6. Fig4:reproduce speech。前向通路:双侧STS处理声音,spt将声音表达map到motor articulatory区。feedback monitoring还可以纠正发音错误(conduction失语症就是Sensory不能提供guidance给speech sound sequencimg)。应该有working memory功能保持默读声音或音素时序表达。
7 Spt为声道相关的sensomotor integration。音乐家听完曲子后,用mental哼哼方式重复spt放电明显,用mental play keyboard方式重复spt放电明显弱。Spt为PlanumTemporal的一部分,接受多模态输入(如speech、tone、music、spatial sound、visual speech、sign image等),神经元根据输出端的motor effecter组织在一起。
2. 认知地图得a识别分解世界为离散状态,b学并建立各状态间联系,cEncode状态到价值的好坏,d基于此做plan与结果预测。整体用多结构分布式model-based goaldirected完成于海马和OFC
3. 海马:为mapping(spatial或抽象因果关系),bind对外部的sensory features与内部情绪motivation价值形成关系database。encode外部世界做认知推理
4. OFC:基于奖励/价值的行为选择。形成并维持task state(尤其非直接observable的task,如经过trials后意识到每次左转有奖励)。意识到task变化。task state 的认知地图
5. Fig1 a-c为海马placecell(PC)对位置的coding,多PC顺次放电代表所经历的trajectory。公共段的world state相同,左、右转有各自海马n放电表达不同状态。有non-spatial factor可以影响PC放电。 Fig1d-f OFC在decision making task中的放电表达。OFC.n放电于(cue,action,outcome)来encode当前task state。对特定味道某OFC.n放电与否依赖于其所存在的整个sequence。
6. 海马PC反应于环境整体拓扑(无奖励相关Reinforcement),也受到non-spatial factor调节(如从左边经过A地某cell放电,从右边经过某地则不放电)。能prospectively explore world model。能直接experience能inference。
7。 OFC能学response-outcome关系,识别当前outcome-value变化。能parse world为离散state,并assign value给每个state。能track task的variables(如买房子时有人要考虑孩子上学的因素),能prospective不全task info来前瞻结果before experiencing。伤mOFC不影响explicit task行为(左箭头就左拐),影响unobservable task行为(多次尝试后知道左转有奖励)。OFC能将大量variables(如买房子考虑地段价位朝向楼层学区等)融为一个worth value。该价值源于state表达用于指导行为。
8. BOX: 海马OFC有直接相互作用,海马经由subiculum传CA1信息给OFC,OFC需要经由旁海马(perihinal, posterihinal,entorhinal)传信息。OFC与海马还经由thalamus reunion核来协调信息流方向。海马OFC信号支配VTA,VTA为多巴元key于associative学习,用奖励期望误差来调整突触以期做正确行为选择来获得更多未来奖励。海马OFC信号支配vStriatum,其ramp cell encode reinforcement的时间。(伤海马影响奖励时间预测,伤OFC影响奖励幅度预测)
9. Fig2a-b鼠用’试错’的方式学策略(如左转有奖励)。会在choicepoint处做VTE(vicarious trial and error),海马PC做look ahead模拟不同path,OFC对相应模拟path做评估’有无奖励’。海马PC放电做prospective和retrospective模拟,PC放电受到context调节(从何方向来,到何方向去)。OFC全程放电敏于path是否有奖励,task switch中OFC能integrate奖励与response信息来更新rule task表达。
10. 稳定时海马OFC coherent oscillation于theta波段(5-12Hz)。rule switch时coherence破坏,随着试错而慢慢提升coherence。
11. 糖果放在卧室(contextA)的抽屉里而不是厨房(context)的抽屉里。海马劲量差异化表达卧室和厨房的抽屉位置,而次要表达抽屉与糖的关联。OFC尽量差异表达有无糖的差异,而次要表达抽屉的位置。
12. Fig2c precondition期中性stimulus A铃声出现后B铃声再出现,海马建立两者association。condition期B出现后面包出现,海马建立两者之间联系,OFC建立对面包和奖励expectancy以及B铃声与奖励expectancy联系。test期A铃声同过推理也能产生奖励expectancy。
13. 海马key于associative scaffolding (各种联系)建立,OFC 基于scaffolding于来做奖励预测来drive response。
14. 海马善于link info于时序sequence,反应所学的connection,使得海马能encode retrieve并且explore mental model of state space. 海马做抽象associative learning。OFC更根于生物重要性,自身需求,如学捕食,devaluation(发霉吃坏过肚子)的食物。
15. OFC发信息给海马,使得海马敏于奖励、movtivation、goal,使海马做goal-dependent navigation。海马发space和关系信息给OFC,使得OFC能bind outcome期望与相应的path/position/味道序列等,这样就能找到合适path等behave来得到最大value outcome。
2. 325个探测n中有94个differential.n(放电能区分高低音调,E.g.低调n:对低音调放电明显强于对高音调放电)。 其中72个位兴奋性,即来高低音调后放电强于静息期放电;22个位抑制性,即来高地音调后放电变弱于静息期放电。
3. Fig2. 低调n为例。a对低高音调都提高放电频率,且对低音调提高强度更多。b-d为三个低调n:(1)他们都在tone期对低音实验放电更强,delay、color、choice期也有类似强度差别。(2)delay期整体activation变弱,但任然有放电维持WkM。(3) color、choice期n.reactivate来帮助选择颜色按钮。(4) color期的红绿按钮放电差别一致与tone期对高低音调放电差别both in sign和幅度. (浅绿是该n对低音调放电;浅红是该n对高音调放电;深绿是该n对绿按钮放电;深红是该n对红按钮放电;)
4. Fig3。左侧是5个高调n在tone期与choice期的放电强度,倾向于高音调和红按钮放电强。右侧是5个高调n在tone期与choice期的放电强度,倾向于低音调和绿按钮放电强。
5. Fig4. a猴子根据音调找到正确按钮的trials,4个不同期两两对比delta,发现有正相关(重要n点分布在一三象限中),这与表一同。94个differential n中~65个n在不同时期区分高低调红绿钮是一致的。b猴子根据音调找到错误按钮的trials,说明猴子做task的时候没走脑子,散点图也没有跨时期相关性。c图红色为高调n,在对角项左上方,喜欢对红按钮放电强度大。
6. Fig0.视觉分腹流(红色)背流(蓝色),听觉分腹流(黄)背流(绿色)。他们高级处理区在associative区(temporal, occipital,parietal交叉区也即fig0文字区),他们的association可以通过声音想到图像,通过文字找到读音等。但是跨时间的ass就需要PFC参与了,上述4种颜色连到PFC的箭头提供info交互,而association需要如本文所研究的dlPFC.n
1.Core Object Recognition: 哺乳类通过’视腹流’对物体快速准确的识别过程。该视腹流为前馈、等级、reflexive、cascade 神经计算并通过population coding表达于IT neurons
2.神经学:定位功能区、测量神经动态、研究神经算法解释神经元功能;计算机视觉:工程算法模拟、实现人水平识别;
3.三个层次:单个IT.n.rsp;pop.coding意涵;识别行为
4.Retina-LGN-V1-V2-V4-pIT-cIT-aIT,串行处理,每级延迟10ms。Retina LGN为点sensor,V1已经manifold tangled,逐层untangle obj.id manifold 而易于分离出image parameter
5.invariance于view condition of 大小,retinal位置,形态,光线,背景
6.两obj的manifold如白纸被对齐后团在一起,腹流逐层分块来untangle展开白纸,得到selectivity与invariance。高层神经元的pop.rsp.vec能被简单weighted summation decoder解调,从中提取出想要的信息
7.实验上伤单IT.n后perception diverse,可完全blind部分视场,可完全不影响。IT.n放电由combined img.ftr调控,不专门encode obj.id(pop.n.rsp 可以),单个IT.n更tolerant于各参数变化.
8.IT解调窗口(150-200ms),fireRate coding(泊松过程) id、位置、大小、orientation等
9.视腹流的流水线工人类比,士兵组织管理类比。每层利用下层输入的信息做非线性变化产生输出结果以更好满足高层的要求,高层对你工作反馈评价来指导你改变w来更好加工数据和安排下游工作。每个员工只RT知道上层指示和下层汇报,不关心其他层goal。信息不断汇集到高层(可见森林),高层指示层层下达指导并分级部署工作。同层内并行无协调(ff快速处理online op)处理不同任务,层间串行增加处理深度复杂度。上对下提要求,下对上报告进度。G决定整体架构。
10.Hubel Wiesel提出AND.op(组合识别)OR.op(容忍variation)的NLN(normlised 线非线模型),很好解释V1行为。作者提出subpop在局部subspace做untangle。
11.时间连续性助obj在状态空间表达manifold上连续,助识别的invariance与tolerance机制产生
12.用大量实验神经学测量的数据知道算法选择,配合各层的homogeneity,只需算法迭代,看是否能解释所测猴神经元的电生理。
2018 诺贝尔化学奖 2:George Smith & Sir Gregory Winter,抗体的噬菌体展示
2018 诺贝尔化学奖 :part1-酶的进化设计, Frances Arnold
2018 诺贝尔物理奖 part2:超强超短激光
dorsal流 [motion]:
视杆细胞-LGNm-V1-V2-MT-MST-Parietal-(PPH-mEC-Hipp)/dlPFC
ventral流: [颜色、form]:
视椎细胞-LGNp-V1-V2-V4-IT-(PRC-lEC-Hipp)/OFC
今天这篇文章讲’感觉运动控制中的决策’,附带三篇Nat.R.NS关于sensorimotor文章的keypoints。
对感觉运动系统的研究是一个相当复杂的问题,因为它涉及做信息采集的视觉听觉躯体感觉系统、处理方位速度关系的Parietal皮层、负责价值判断运动规划决策导航的Frontal-limbic皮层、具体实时误差处理感觉上传的小脑系统、以及各关节协调运动反射信号传递的Spinal和周神经、肌肉等系统的协同工作。感觉运动控制目前吸引大量顶级科研机构关注研究,从人工智能知识表达、RL、policy等学习到机器人优化反馈控制look-forward预测,到中风帕金森病人康复疗法都受益于神经学在该领域的研究成果。
本文具体讲述1.单target实验中,神经做运动corrective反应分motor system 和 visual system。2. competing target实验中,Fronto-parietal系统在目标选择前同时表达多个objects,init自动选取平局路径以减少修正cost、以及该平均是基于motor map而非vis.map。3. 实时快速切换目标时,应急plan与决策时间点。4.Drift diffusion模型如何解释change mind的decision与confidence变化。5.sequencing action的look ahead机制、以及如何优化控制sensory采样来提高收集信息的能力。
1. Gallivan, J. P., Chapman, C. S., Wolpert, D. M. & Flanagan, J. R. Decision- making in sensorimotor control. Nat. Rev. Neurosci. (2018).
2. Engel, A. K., Fries, P. & Singer, W. Dynamic predictions: Oscillations and synchrony in top–down processing. Nat. Rev. Neurosci. 2, 704–716 (2001).
3. Scott, S. H. Optimal feedback control and the neural basis of volitional motor control. Nat. Rev. Neurosci. 5, 532–546 (2004).
4. Wolpert, D. M., Diedrichsen, J. & Flanagan, J. R. Principles of sensorimotor learning. Nat. Rev. Neurosci. 12, (2011).
Deepmind 通过GQN来处理静态场景的工作发表在Science上,基于此的动态状态处理模型td-VAE则朝向人类智慧又迈进一步。以往人们利用Hidden Markov Model来迭代式预测未来状态,Gregor则用神经网络一次性time-skip式做预测,这不但大幅度减少计算量,从神经角度上看该策略也更接近人类思维。
作者利用RNN(蓝球)来观测收集环境信息产生状态矢量St以供预测未来与action选择。t2时刻Agent观察到x2并用(1)来更新自己的状态s2。该状态s2经过MLP(multilevel perceptron)神经网络产生隐变量z2的分布均值与方差,即得分布p2B(z2|s2),再由(2)可采样出具体隐变量矢量z2。有了t2-t1间更多的信息,我们可以对z1有更好的描述,即后验分布q1I(z1|z2,s2,s1),它可实现于MLP网络。q1I可以指导z1的先验p1B来改变参数来更准确地描述z1的分布(通过降低cost函数KLD项)。p1B或q1I可采样出具体z1,经过绿球预测网络得到低准确度的z2分布p2P(z2|z1,dt),该分布在优化中不断趋近于更准确的p2B,通过改变p2P网络参数而最小化cost的L1项得以实现。隐变量z的具体内容是否准确,需要通过重建网络p2D的优化来实现,即最小化cost的Lx项,这样z矢量经p2D网络所重建的图像最接近于观察x2。网络以上述方式训练好后,可以预测dt时刻后的隐变量zt,并可以通过pD网络来一步重构出未来的观测。
td-VAE是deepmind近年来成果的集大成者,原理、结论都及其震撼。
通过分析人脑MRI信号,可以求得人脑组织结构、白质束连接状态、功能区放电相关性等。Granger Causality可以通过对脑BOLD信号Ut分析,得到不同脑区activation的有向影响关系FY→X|Z。G-Causality可被解读为 “the degree to which the past of Y helps predict X, over and above the degree to which X is already predicted by its own past and the past of Z”。该法建模于VAR矢量自回归模型(1)。在无原因Y的reduced model(16),当前的Xt信号只能由X.past来解释,而有Y的full model(15)则能解释掉更多(由Y.past引起的)Xt的信号,此Y对X的G-Causality就量化反映在两项残差差别(18)上。Y→X的关系还可以同时受到Z的影响,VAR(20-22)可以condition out掉Z的作用避免spurious G-Causality的出现。从互功率谱密度CPSD的角度也可以求解G-Causality,通过BOLD时序可以计算出自协矩阵Yitak(5), 用傅里叶求出其互功率谱密度S(7),再分解出转移矩阵H以及残差协方差sigma(9),而后G-Causallity谱fY→X可求取于(27),平均掉所有频率lambda亦可得到时域G-Causality FY→X(30)。VAR时域参数(Ak,Sigma), Yitak,以及CPSD均可以等价描述信息流G因果关系。MVGC综合利用这些关系、提供了一个很有效的G-Causality计算平台。
convDRAW,Gregor和Wierstra将DRAW网络去掉Attention并加上卷积层提取feature和重建的版本。原理:原图x与剩余图epsilon经卷积网络提取特征后送给第一隐藏层的encoder E1,E1在hdt-1的指导下更新(2)所关注内容的lat.ftr Z1的近似后验分布q(z1|het),而后具体采样出z1~q(Z1|het) (3)并送给同层Decoder D1做重建(5)。重建根据所采样的ftr code Z1来还原渲染出原图,在本文D1所蕴含的lat.ftr.vec Z1的prior p(Z1|hd) 应该由variational的q(Z1|he) 来不断逼近(7)。T此迭代后,重建卷积模块R的神经元放电rT用于参数化输出图片各像素分布(9),而后采样出convDRAW所生成的图片x~px。多层次convDRAW原理与之相同(12-22)。本网络的目标函数用到Hinton的bits-back coding,待看。从意义上看,h是图片特征而Z是按该特征概率分布分布所使用的编码。我们希望用最短的代码Z压缩图片或者说用Z最有效的前位bits来提取传递图片最关键特征 (11)。从形式上看,Encoder各层次对lat.ftr Zi的后验q(Zi|het)应与Decoder所用先验p(Zi|hdt)相接近,即最小化KL(qi|pi) (11)。实验结果告诉我们初始迭代,convDRAW会关注图片的宏观结构信息(高层次特征神经元放电多);迭代中后期则是逐步添加图片细节信息(低层次神经元放电多)。且convDRAW是基于feature的VAE,可以做压缩编码用且实验效果好于JPEG压缩。这点是PixelRNN等靠相邻像素依赖关系恢复细节模型说做不到的。
tDCS辅助MI-BCI做中风病人康复
中风后病人需要不断锻炼来招募神经元做受累功能网络重建,中重度病人往往很难支配受累肢体。Mental imagery(MI)-Brain computer interface(BCI) 技术可以在病人脑想象各种受累动作时用脑电图(EEG)提取mu-ERD/S信号来驱动机器手臂助受累手运动。transcranial direct current stimulation(tDCS)在受累M1加阳极电刺激来提升该区域神经元放电excitibility进而增加activation水平和受累脑区神经网络功能重建。
本文针对19个病人(分sham和real组)做tDCS+MI-BCI康复训练,发现1)post-stroke病人任然可以在MI-BCI帮助下提升motor performance(康复训练后FMA score显著提升)。2)相比于sham组,tDCS intervention显著增加病人MI信号检出准确性。3)tDCS组显著增加受累脑区mu-ERD信号强度。4)tDCS组显著提升受累脑区excitibility(相比于shame组,tDCS的RMT值显著降低)。4)DTI测量发现受累区cortical spinal tract 和双侧collosal corpus 白质束的FA值只在tDCS组有显著提升。5)pCASL MRI发现脑血流CBF与临床FMA有正相关关系,等诸多乐观结论。
总之,阳极tDCS能增加脑皮层神经元放电能力,这有助于脑网络调整恢复由中风引起的功能丧失。尽管tDCS如何改进病人康复能力仍有待高人在机理上做出解释而指导更为有效的康复安排。
人脑研究最大的困难是不能打开脑壳来测,故磁共振成像技术是无伤测量脑功能与结构的主要手段。MRI最大的困难是动态研究时间解析度太低(~3秒),故脑电波EEG、磁波MEG在此方面作为补偿(他们本身空间解析度又太差)。本文讲脑电波磁波重要技术 ERD/S“事件相关去同步/同步”。
先介绍了脑波的5个频带范围(还有mu波)与对应脑功能特点。首先神经元放电低频同步是表征休息的idle状态,而当神经元开始处理各自任务时,其放电就表现为与众不同(即退出同步)并可测量到ERD。因为低频(alpha和mu以下)震荡慢,神经元同步容易且范围广,所以pre-task测量的低频ERD信号强。高频带(如高beta和gamma)能更快处理更复杂问题,这往往需要更多的attention参与。在空间上ERD/S只出现于task相关脑区;在时间上会先后出现alp.ERD, gamma.ERS, beta.ERS等阶段模式, ERD代表神经元开始工作,而我觉得中高频ERS更可能表达high attention下的局部一坨neurons在短时休息。本文还具体讲述了如何测量计算ERD/S,不同task的脑图时空特征等。
ERD/S是物理可观测的,我们可以通过该信号来实现意念控制。Subject想象身体动作,M/EEG从不同脑区测量各肢体对应的多频带ERD/S信号,并以此来控制机器手臂实现手抓取操、用脚走路等动作。
DRAW网络是KarolGregor和DaanWierstra提出的另一个经典AI架构。DRAW引入attention机制,可以像人一样不断glimps世界的片段,并在画板上逐步积累绘制出他的对世界理解。
原理:t-1时刻,Decoder网输出hdect-1,并据此产生t时刻read模块的关注区以及产生相应的关注数据[x,xthat] (21-27)。该关注数据进入RNNenc,计算出关注区latent.ftr矢量zt的统计分布Q (5,1,2),并据(6)此采样出latent.ftr.vec zt而传给Decoder网。Decoder网利用此zt code来更新RNNdec输出hdect (7),此输出一方面指导write模块在canvas上修改绘画完善作品(8),另一方面更新关注信号来指导read模块做新的观察(21)。如此反复T个t.steps,积累出各像素值的概率分布sigmoid(cT),从而采样出输出图片xhat (16)。DRAW的优化利用minimiz descrption length(MDL)。在zt~Q(Zt|htenc)分布下,Decoder网需要调整参数来产生最像x的图片xhat given zt(9);Encoder网也得调整参数来使它所提取的Zt的后验Q更接近真实分布P (10)。DRAW的关注区由12x12的阵列高斯滤波器来实现,5个核心参数 [中心位置gX、gY,步长delta,精度sigma,强度系数gamma] 均由hdect经W线性变换(21)给出。最终DRAW能像人一样逐步写出数字、画出图片。
GQN(Generative Query Network)是deepmind近年来多项成果的一个综合展示。GQN.agent用自己的眼睛(camera)对环境做几次观察,过观图像经repr网络可以构建出对整体场景的表达矢量r,Gen网络再根据r和query矢量vq来渲染并产生对应的观察。GQN的预测图像与真实观察几乎没有区别,而且该网络还能自动智能地产生遮挡、透视、阴影等渲染效果。不同于VAE直接对每次观察提取抽象特征,GQN对场景的表达有viewpoint不变性,即尽管不同角度下Agent的观察不同,但它知道这是同一间屋子。GQN的场景表达中有obj的空间位置、大小、颜色,地板纹理、光线方向等信息,这些信息的表达矢量还满足’场景代数’,举例来说r红色三角—r蓝色三角+r蓝色圆球=r红色圆球。GQN的场景表达矢量r会随着观察中关键信息的捕获而陡然降低对外界的Bayes Suprise,这些场景表达信息构成了Agent对环境的理解。这种带有viewpoint 不变性的场景理解还可以供给机器手做policy学习,效果远好于直接从图片像素学习。
GQN是一个Variational Auto Encoder(VAE)架构,实现上用到convLSTM组件。训练的目标是对各层隐变量zl的先验pi分布(Gen网络提供)与后验q分布(repr网络提供)近视相等(即KL divergence/ELBO 低)。训练的feedforward过程中按照架构有向连接图,逐层更新隐变量z采样,计算ELBO;backpropogation时,根据ELBO对phi(repr网参数)、对theta(gen网参数)的梯度来调整网络参数提高性能。应用时,Gen网络接收到conv网络提供诸多观察的场景表达矢量r以及query角度vq矢量,而后根据自身所习得的先验分布逐层迭代产生所query的隐变量zl,直到LSTM最高层输出uL矢量。该矢量经yeta.g变换出输出图片像素各点的高斯分布均值(方差由退火法给出),最终按此分布GQN采样出对应query viewpoint的imagination图像。
GQN是deepmind通向人工智慧宏伟蓝图的一个环节,看此文前你最好按顺序先看一遍DLGM-DARN-DRAW-convDRAW这一系列成果,这些都是静态场景处理。GQN之后deepmind将开始处理动态场景。K.Gregor新文章temporal differernce VAE已经展示对远程未来的一步推理能力,不久的将来要争取率先配合上奖惩、语言、情绪、文化等高级认知因素,使得AI真正的活起来。
DeepMind的DaanWierstra是个牛人,以前读的一些经典AI文章都是他写的。他做的东西很重要、很有趣、很有深度,索性花点时间系统性地介绍一下他近年来的研究。
DARN(Deep auto regressive network)也是Variational AutoEncoder(VAE)架构,有Encoder、Decoder两部分。从Encoder visible层输入二进制图片x,乘权重W加偏置b后做sigmoid变换,得出第一隐藏层各神经元放电概率p(h1|x),然后01采样h1~p(h1|x)得具体神经元activation矢量h1。第二隐藏层有AR(自回归)属性,j号神经元放电概率p(hj2|h21:j-1,h1)不但依赖前层h1,还依赖于同层前端neurons’ activation h21:j-1, 然后01采样hj2~p(hj2|h21:j-1,h1),如此计算各神经元条件概率、据此采样01放电,直到最高抽象层的最后神经元。Encoder最高处activation hL作为图片x的抽象特征/压缩编码,被发送给Decoder网络来重建图片。Decoder网自顶向下重建,处理原理同Encoder,逐层逐神经元反复计算各条件概率、据此采样01放电直到Decoder visible层(有AR属性)。前馈处理使我们得到图片预测,提升网络性能需要反馈调参数。这里用到Hinton的bits-back coding原理。用编码的description length作为DARN网路的cost函数,其期望值对网络各参数的梯度由无偏estimator的MonteCarlo approximation来计算。最终,由大数据Training的Encoder能识别图片中object background等的重要特征并表达为h;Decoder网络则习得大量知识于参数当中,或者说Decoder网有p(X|H)的能力,你他condition到feature矢量hL=‘白色肥猫’上,他就能画出白肥猫的图片,你令hL=‘红烧肉’他又能产生好吃的红烧肉图片。这就是DARN网络的原理与用途。
变分AutoEncoder是AI领域很火的一个话题,本文就是该领域早期的一篇基石性的文章。传统stochastic AutoEncoder 利用深度Encoder(recogonition网络)来提取抽图像象特征,Decoder(generative 网络)来重建图像。网络训练结束,参数确定下来,path任何处的信息流都是由输入图片唯一确定的,因此叫deterministic。但该网络有个与生俱来的缺点,他会机械地对输入端图片的瑕疵也进行Encoding、Decoding,以致于输出图像Variance大训练难于收敛。本文让Recog.网提取图片特征的均值方差,再按该统计分布采样出feature矢量给Gen网,来重建出图像估计。由于阅图无数的DLGM网络已经习得对外部大千世界的prior,因此对小概率的图片瑕疵(如涂抹、破损、残缺)就能在feature采样阶段本能地做处理掉,从而提高训练的稳定性和速度。但该架构难点在如何backpropogate error过feature采样模块回recog网来更新网络参数。Deterministic模型可以直接求各个模块的梯度;stochastic模型有特征采样模块,得求cost期望值对latent feature均值方差的梯度。latent feature矢量是recog网与gen网交互的核心、是图片压缩的结晶。他可能有图片object大小方位颜色纹理等信息,他也可能有一些人类不能理解的更有效的神奇特征。对大量不能理解特征很难期望,但聪明的先贤提出了oracle神谕分布q(.)的概念。无论神奇feature是什么样如何分布,我这个very flexible的q(.)总能照猫画虎地与你长相差不多。而且睿智先贤还告诉我们用free energy原理可以优化求解出这样的q(.)。因为这个q(.)是一个多变形态’函数’的函数,所以关于q(.)的free energy就是一个泛函,而他的求解就是一个泛函变分的问题、本文这样的架构就是Variational AutoEncoder(VAE)。深度神经网络可以提供这样形式的神谕分布q(.),Free Energy可以作为我们的cost function,本文又提出统计gauss backpropogation (GBP) 来解决跨采样模块参数优化问题(将不能求的期望的梯度,变为能求的梯度的期望),这样就有了我们今天看到的DLGM网络。
本文数学公式让你目眩神迷,但如果你知道物理多自旋相互作用的平均场近似,那这些公式将变得那么自然和谐、行云流水。看AI架构有时让你茫然若失,但当你理解了人脑神经对外在世界的处理机制,这些架构又何尝不是顺理成章、命也使然呢。
DeepMind真是Reinforcement learning的圣堂。他们的DQN(deep Q network)解决了机器输入端直接raw sensory input的问题,DPG(deterministic policy gradient)解决输出端高维连续控制信号输出的问题,融合上述两网精华则铸就了机器人控制的神器DDPG(deep DPG)。DeepMind的很多文章都是高端之作堪称经典,读起来让人爱不释手。
DDPG基于Critic-Actor架构。Critic网络(Q网):就当前状态st以及所选action at,评估长期回报期望值,即q.value。Actor网络(u网):根据当前状态st来选择控制信号at以期得到最大q.value。本质来讲DDPG想求解一个与环境/task相关的Q(s,a)函数,但这个终极理想是可欲不可求的。可以用类比来解释一下DDPG的策略:尽管找不到跑得最快的那个人来做参考,但是我可以争取超过前面自己的影子,经无数次努力后,会惊奇地发现你和影子都达到很高水准。Q’、u’就是DDPG的影子网络。网络优化时取Replay Memory的若干transitions(st,at,rt,st+1)作为输入。前馈时,手头的Q网络用(st,at)帮你算一个qt,影子Q’网络算的更准一点yt=rt+Q’t+1因为他用(rt,st+1,at+1=u’(st+1)),这样你就看到差距Error=(yt-qt)2,然后再backpropogate这个error来更新Q网络的参数。有了这些transitions,你还可以弄到actor的u网络来计算所输出的action控制信号对u网络参数的导数,以及弄到critic的Q网络来计算q.value对action的导数,两者相乘就会告诉你u参数该如何调控才能提高机器人的长期回报q.value。当Q与u网参数都更新后,作者又用soft update来更新影子网络Q’、u’的参数。如此不舍昼夜勤功不辍地更新Q、Q’、u、u’四网参数,直到你一展身手,发现自己竟练就神功、天下无敌,尽管仍不知终极武学是何境界。
本文是一片修炼内功的心法,读该文,通经活络神清气爽!
语言是人区别于动物最显著特征。更确切地说由于人类拥有独特脑Broca pars opercularis(BA44区)以及通过白质束Arcuate Fascicles(AF)相连接的 pSTG(posterior Superior Temporal Gyrus)的相互作用,使得我们拥有独特的等级结构化语法处理能力,进而拥有复杂的思维与深邃的智慧。AI尚不能’活’起来也许就是因为还没有人类这套思考的工具。
本期我们就讲讲声音语言如何由耳蜗听毛细胞按频率采集,经耳蜗核、上橄榄核、下丘核、中膝体而上传达初级听皮层A1。而后这些声信号如何在STC(superior temporal cortex)被切分为音素整合为音节、在ATL(anterior temporal lobe)中找到词义、在FOP(frontal operculum)中拼合为词组、在BA44形成复杂句意认知。脑视觉听觉系统分为dorsal流与ventral流,分别处理Where和what信息。作者认为语言处理系统、腹背各有两流。Ventral.1:pSTG-iFOF(inferior fontal-occipital fascicles)-BA45主要负责解密声音转为词义。Ventral.2:ATL-UF(uncinate fascicles)-FOP负责多词义拼合。Dorsal.1:BA44-AF-pSTG负责复杂语法处理形成句意。Dorsal.2:pSTG-SLF(superior longitudinal fascicles)-PreMotorCortex负责声音/语义到motor/决策的信息传递。ATL是multimodality hub,ventral part处理视觉流高端特征,superior part处语言流抽象特征,此处多模式融合可提供字典属性,通过抽象语义可以检索对应到图像、味道等,反之亦然。个体发育中,孩子十岁前Dorsal.1通路尚未myelination完全(猴子类似)故而只能理解/表达简单语法。十岁后BA44发育成熟,出现成人样EEG反应信号特征、脑功能呈现非对称性(左半球BA44负责复杂语法构建,右侧负责韵律相关处理),进而拥有复杂思维能力的基础,即等级结构化语法处理体系。
语言不是说话、更不是伪装欺骗争斗的工具。语言是内在的、最好是真实的,她能帮你理清思维、正确认识自己与世界,助你建构智慧且健康的灵魂。
DRQN(deep recurrent Q network)是一篇非常不错的AI文章,它用到卷积网络、长短记忆LSTM、和Q学习等重要的AI模块。本文原创之处在于将deepmind提出的DQN(deep Q network)网络的第一全连接层换成带有记忆的LSTM,这样就不需要输入端保存连续4帧图片来提供完整信息以实现MDP(Markov Decision Process)。本文具体讲了DQN做reinforcement learning的原理,比如如何更新Q网参数,如何用replay memory、separate target Q网、RMSProp消除Q网参数更新时产生震荡的问题,如何搭建DRQN架构及训练中用到的bootstrapped sequential/random updates等策略。10帧DQN训练后第一卷积层神经元最强activation特征反映了对Pong球拍的识别,第二卷积层神经元放电特征反应了对球运动的识别,第三卷积层神经元对球与拍相互作用的识别,以及单帧DRQN LSTM层神经元放电反应了对high level球与球拍作用事件的识别,这些结论深刻启发了我如何来理解卷积网络、recurrent网络、Q网的作用以及他们在人视皮层、海马、Frontal Cortex的对应工作原理。
本文是一篇深度好文,告诉你机器是如何认识这个世界并总结成语言,这本质就是思维和意识存在的形式。人又何尝不就是这样。
整个网络的功能:1.给入图片,2.按Attention指导分析图片,3.逐字输出对图片的总结。如何实现:作者将224x224的图片喂给VGG网络,产生出(14,14,512)的图片特征,这个特征量a(与LSTM之前的输出态ht-1)通过attention网络产生对不同位点的关注度𝜶i以及更新综合关注特征量zt,再与之前输出的单词yt-1、LSTM输出态ht-1一同concatenate成[Eyt-1,zt,ht-1]矢量喂给LSTM来更新出本时刻输出态ht,翻译的Multiperceptron网络再根据[Eyt-1,zt,ht,a]来做出m维度单词意义embeding矢量,经由L0转为预测本时刻t输出单词概率yt矢量,从字典中挑出输出句子的第tth个单词,如此循环C次,顺序产生C个单词构成的句子来描述她对图片的理解。文章对attention的处理分为两种方法:1.stochastic hard attention:利用Attention网络给出14x14个关注位点关注度,再以此为参数来形成关注点multinoulli分布,再多次MC采样来做统计前馈计算zt,以及反馈更新网络参数矩阵。因其为MC采样Attention,故关注位点可视化为高斯小白球形式。2. deterministic soft attention:利用Attention网络给出的关注度加权求和出context vector zt的期望值,翻译网络的单词概率输出在softmax一阶泰勒近似下的logit值可由[Eyt-1,zt,ht]的期望值做线性表出,这种光滑可微的函数形式连接可以直接用back propogate的方式让网络学习优化参数。因其attention为众关注位点加权求和,故attention可视化为片状区域,更接近人的直观。
本文虽不是Nature Science文章,但就其理论水平、结论震撼程度、以及在机器认知上的启示都是无与伦比的。深度好文不可不细读!
有些文章读起来让人感觉如饮甘泉、如获至宝,本文就是这么一篇文章。比大部分Nature主刊营养价值高,适合以后反复重听该视频。
作者将脑皮层synapse plasticity过程分为两个部分:1. 由高级皮层所反馈(fb)回的信号作为该突触是否将做plsticity的tag。如V1将视觉信号前馈(ff)式传到高级皮层PFC,PFC在众多候选方案中选出action来执行,同时通过fb信号标记该路径上的突触,以便未来同样条件下能选出或拒绝同样方案。fb信号经由High Order Thalamus核投射回V1的L1层,其兴奋性神经递质Glu能打开NMDA.R受体,Ca2+可从受体孔道流入树突,激活CAMKII,准备突触plasticity相关蛋白。2. neural modulators释放所携带RPE (Reward prediction error)信息来决定被Tagged的突触将做potentiation (有利于以同样action获取奖励) 或depression (拒绝此action以避免惩罚)。这个过程正是AI policy gradient 的核心机制。本文又具体讲述Dopa、Ach、5-HT、NA四种分子在奖励、attention、food/reproduction、arousal相关的作用。讲述了猴子Grating训练V1神经元如何调整tuning曲线来提高旋转识别能力,如何利用LIP神经元来区分运动方向,FEF如何fb引导V1做目标曲线tracing,揪老鼠胡子实验中fb信号如何影响其S1突触产生LTP,奖励conditioning实验中fb Ca2+如何携带奖励信息等。讲述了皮层内部、皮层间、皮层丘脑神经元间连接结构特点。讲述了synapse plasticity的gating、steering过程,以及相应的分子相互作用通路。
所谓’朝闻道夕死可矣’,我想说的正是这篇文章
Boston最近在Nature Review Neuroscience上发表了一篇文章,讲Basal Ganglia (BG)、小脑之间的连接关系以及在整体脑网络中的作用。他们的研究结论对神经科学以及人工智能的发展都很有启发作用。
人类因为进化出复杂的大脑皮层而会使用工具、掌握语言、拥有智慧。大脑利用Hebbian Associative Learning (cells that fire together, wire together) 建立神经元间联系,助下游网络抽象feature提取,语法语义整合,情感逻辑计算等。他的特点是用得多长得大,长得大能力强。如出租车司机的负责地点记忆的海马灰质会随着驾龄而增厚;爱因斯坦大脑的处理数学计算空间思考的Angular Area显著大且复杂于常人,这也导致周边处理语言的区域生长空间狭小而致不善于交流。所以不善言辞也未必是坏事。BG是基于奖励的reinforcement学习中心,中脑VTA与SNc通过多巴胺信号指导BG做action选择,比如见到美女就走不动道儿;遇到美食就不再想保持身材,因为繁殖和食物始终是动物最难以抗拒的奖励。小脑基于error (sensory信号与小脑网络预测的差) 做监督学习,协调人的精细运动。酒喝多了,小脑生理异常,你就很难控制腿部肌肉站稳、控制臂手肌肉去抓取东西。
大脑与BG、大脑与小脑之间的联系已经有很多研究成果,本文通过Rabies Virus反向传输特性发现1)BG的STN核经由Pons核将奖励相关信息发给小脑皮层;2)小脑Dentate核经由丘脑CL核将action detail信息传给BG的Striatum而后影响GPe的间接通路。这就是为什么帕金森病人尽管难于启动运动甚至启动情感(多巴元degeneration,BG奖励相关功能失常),但却一直表现出小脑相关的手部震颤特征。
Nature Review Neuroscience是我最喜欢的journal,很多文章读后让人高潮迭起欲罢不能。本文就是这么一篇非常经典的Nature.R.NS
钙离子在神经生物学中是最重要的信使信号,它传递控制肌肉收缩、细胞分裂、神经突触改变等。对于神经元来说,钙离子就像是辣椒白菜至于韩国人是不可或缺的。利用荧光蛋白,人们可以通过光学显微镜观察到钙离子动态在动物生理行为功能上的作用。但这也仅限于就透明的斑马鱼或者培养皿中神经元做观察研究。本文作者将纳米材料技术与细胞生物技术结合,首次实现对钙离子动态做3D功能性磁共振成像。
文章具体讲了如何从大肠杆菌中培养并提纯钙离子敏感的synptotagmin蛋白的C2AB片段,如何将铁氧纳米颗粒包裹上脂膜、插入phosphatidylserine(PS) 、以及最终制备出MaCaReNa (Magnetic Ca2+-responsive Nanoparticles)溶液的每个细节。MaCaReNa在钙离子环境中能聚集其磁性纳米颗粒而改变tissue的横向磁化率,进而钙离子浓度可以反应于磁共振T2w信号强度上。其逻辑是,上游神经元所产生的动作电位释放轴突神经递质Glutamate,下游神经元树突NMDA受体打开钙离子通道,细胞外钙离子内流到树突内,导致细胞外空间钙离子浓度下降,处于胞外的MaCaReNa因而解聚,横向弛豫率下降,MRI所测T2w信号变亮。也就是测量到T2w信号变化,反映神经层面钙离子动态,以及其驱动该动态的神经放电活动。
脑结构功能测量指向更高的时间空间解析度以及更多样信息,科学家在经典方法折腾数十载已近穷途末路。借鉴前沿纳米技术,无疑能给幽暗的医疗影像领域打开一扇窗。
Google DeepMind 组本期在Nature发表了一篇文章’Vector-based navigation using grid-like representations in artificial agents ’。作者在训练LSTM recurrent网络来做路径积分时,其线性层units出现类人脑EntorhinalCortex(EC)区GridCell、HeadDirectionCell、BoderCell的空间放电特征。在动物中,GridCell以六边网格放电的方式供空间信息编码给海马区PlaceCell,以定位自己在空间所处的位置。本文Grid网络线性层units activation(或称grid code,g矢量)提供同样的空间位置编码信息给下游policy网络做矢量导航。Policy网络在奖励机制驱动下做ReinforcementLearning,再配以grid code所蕴含的to goal欧几里德距离和allocentric方向, 能计算出非常准确有效实时的ActionCommand来指导Agent直接抵达goal position。在SunburstMaze实验中,该GridCell.Agent展示了动物特有的’走捷径’能力和’tranverse unvisited path’能力;而在goal-driven和goal-door的觅食竞赛中,该AI老鼠则轻松战胜其他AI.Agents甚至人类专家。
本文内容非常精彩,很多方法结论引人深思。机器在supervisedLearning下能自然产生动物导航相关神经元放电特征,这对神经科学研究理解GridCell,BorderCell等机制与作用有着重要的启示。文章对Recurrent LSTM网络、视模块卷积网络、决策处理的policy网络的implementation、训练以及相互配合使用也足以打动大多AI科学家。本文还具体讲了如何计算gridness、gridscale、resultant vector length、border score以及如何用这些指标来识别神经元类型;如何做firing-rate map及其自相关谱;如何计算reliability、decode accuracy;如何通过reshffule filed、bootstrap、effectsize来做显著性计算等。这些对于神经科学、数学、AI科学家深入理解导航相关诸多理论都是大有裨益的。
GridCell与PlaceCell最近异常火爆,其发现者Moser夫妇和O’Keefe因此荣获2014年度诺贝尔医学生理学奖。其热度又蔓延到人工智能领域, DeepMind在用recurrent网络做路径积分时观察到Entorhinal Cortex(EC)中GridCell、HeadDirectionCell等类型的放电特征。再用这种Grid网络及vision模块计算结果来支持agent做reinforcement learning,其导航能力超过人类专家水平(下期讲)。今天要讲的这篇文章也与GridCell相关,是我们中心Timothy Behrens组在Science上发表的。
每天放学后你骑上自行车,脑中EC区的GridCells便以六边对称网格放电的形式指导你穿越一个个地标建筑最后回到家中。GridCell被认定是生物内在导航的基础,但科学家最近发现人脑medial frontal,medial parietal, lateral temporal corties也有类似于GridCell放电类型的神经元存在。 因为这些区域都相关于概念知识的操作,如记忆、想象、场景重建、价值评估等,所以人们自然会猜测在这些nonspatial区域GridCell可能以它的方式(六边对称网格)处理概念知识相关问题。为了证明该猜想,Tim组巧妙地设计了stimulus(鸟形态)-outcome(圣诞礼物) (S-O)association实验。本文详细讲述了实验设计安排,脑MRI数据采集,前期处理,统计分析,结果解释的每个细节,囊括了专业脑功能分析的方方面面。该实验利用的是相对coarse(对比神经元放电信号)的fMRI数据,但却能精确定位到GridLike出现的每个脑区,也测得了每个实验者的内在网格角度。在此基础上发现,当每个trial的鸟形态变化角与网格角六边对称aligned好时,实验者的S-O association表现显著好于misaligned的情况。作者还发现在vmPFC和EC区只有六边对称的regressor能从BOLD时序中提取出显著信号,而四、五、七、八边对称都不可以。而且六边网格的角度还存在跨实验sessions不变的特性(如测试间隔大于一周,或者跨脑区网格角不变)等。下面是綦峰对本文的具体讲解。
若今世还有人值得崇拜,那一定是Jeoffery Hinton。Hinton开启了人工智能(神经网络)的时代,对他的工作我只能说’高山仰止心向往之’。现虽不能至,仍不妨通过他的作品来感受巨人智慧之光的照耀。
今天我们讲一篇Hinton的文章,’Distillating the Knowledge in a Neural Network’. 本文充分体现了Hinton对神经网络运转机制的深刻理解与敏锐的洞察力。目前神经网络的应用基本只局限于实验室和大公司。比如尽管我们对DeepMind的alphaGo倾爱有佳,但由于网络结构复杂计算量巨大,还很难把它搬到你我手机电脑上来娱乐大众。本文distillation学习就着力解决如何将cumbersome model耗巨量资源所学的知识有效转移到小的distilled models,并最终部署到手机等小型用户终端。在研究中Hinton敏锐洞察到模型所学知识的存在形式,他先让distilled model在正常温度下(softmax中T=1)学cumbersome model的常规主流知识,再让distilled model调高温度进而快速学习cumbersome model低概率错误预测所蕴含的宝贵经验。作者将该方法验证于常规MNIST project,Google Android voice search project,和经6个月多核并行训练的JFT图片识别project,均得到非常理想的效果。文中,Hinton通过幼虫成虫的类比告诉我们自然生物的Train和Test phase有着不同的架构和目标函数;他用BMW的错误识别为垃圾车或胡萝卜的例子告诉我们网络知识存在哪里、如何提取;他所提出的specialist model又效法了人脑Fusiform专业处理人脸识别的机制。林林总总给你无限智慧的启迪。读大师的作品如沐春风,期待您能听綦峰讲解,更期待有心的您能亲自拜读大师的每一个文字。
自动驾驶汽车技术(AVT)是未来科技产业重点之一,它构建于人工智能、高速通信等高科技成果基础之上,将塑造未来科技与生活。本期将介绍麻省理工自动驾驶技术组在该领域是如何展开工作的。
硬件上,MIT-AVT 用车载CANbus消息唤醒CANelot的328p microcontroller来自动开启或关停自动驾驶数据采集系统。Banana Pi是该系统的大脑,通过GPIO可以收发HVD230.CAN的行驶车况等信息、STMicro的IMU惯性系统信息、MTK3339的GPS方位车角度信息等,还可以通过USB接入四个Logitech C920的视频音频数据,并将所有数据引入外接硬盘予以保存。
软件上,MIT-AVT通过低端软件来做硬件控制和数据采集。CANelot的C程序控制对Banana board的供电。RIDER(RT Intelligent Environment Recording)系统工作于tweaked Linux上,可以配置自动驾驶系统的方方面面。RIDER先startup各子模块,将连接好的Camera、IMU、GPS、CAN数据按指定格式存于硬盘,也可通过GSM将系统状态信息传给远端的工程师进行诊断,它还负责数据同步、知识提取、可视化数据等相关工作处理。
算法上,MIT-AVT利神经网络做以下功能:1. 人脸识别,分析驾驶员双目gaze、长时间glance状况和面部情绪等;2. 躯体skeleton分析,这有助于AI学习驾驶员是如何在不同状况下处理驾驶操作;3.车前视野感知,通过camera图片判断前方哪里有人、交通灯、建筑物等。
更多内容请看綦峰就’MIT Autonomous Vehicle Technology Study: Large-Scale Deep Learning Based Analysis of Driver Behavior and Interaction with Automation’ 的讲解
最近中兴被美禁购芯片,引发国内一片哗然。众砖家纷纷表示此乃中美5G(第五代无线通信)较力的结果。为了主导5G,中美欧韩等国都玩了命的折腾。那什么是5G,为什么芯片禁购可以直接休克中兴这家企业呢?
1G的时候,手持大哥大的你就可以横行街头,那时2.4Kbps就可以笑傲江湖。3G的时候,买个CDMA手机的你可以略带鄙夷地对宿舍哥们说’老子这个可以宽带上网’,其实速度也就2Mbps。未来5年将进入5G时代,那时的你也许聊天都得用3D VR/全息眼镜,往来都得乘坐自动驾驶汽车。介时通讯速度将达到GHz,她是如此之快,以致于你不需再背个电脑更不知什么叫硬盘,只需一只手机和身边那朵’神奇的云’,就可以存取处理任何信息。
5G最大特点是’更快’,这快的基础就构建于有着同样快速的’芯’。本期就讲一篇我们北京大学电子学系彭练矛院士在GHz芯片领域的突破性工作。该工作发表为2018年Nature Electronics创刊第一期第一篇的Research文章。该文深入地讲述了彭老师组如何巧妙地设计微纳米半导体结构,将碳纳米管薄膜FET 5-stage RingOscillator由282MHz提升到5.54GHz的工作频率。该文也细致地介绍了Top Gate CNT 集成电路制作工艺的每个环节和未来发展的方向。通过学习我们将清楚地认识到芯片产业对于’高端’产业链各环节的依赖;从化学试剂配方,到纳米电路设计,加工工艺升级,以及配套精密检测的仪器研发等,无一不需要高端人才的聪明才智与国家企业的大力支持。更多精彩内容请您关注綦峰就’碳纳米管薄膜GHz集成电路’的讲解。
今天讲网络,一个科学技术工作者耳熟能详的话题。从微信社交网络,5G无线互联网络,道路交通网络,脑神经网络,到生物分子相互作用网络,无时无处不充斥着网络科学的身影。各种交互网络内部往往非常复杂,但都普遍归于用图论相关的数学模型来抽象研究。我们用节点表达网络元素(如某个人,手机,地点,神经元,蛋白分子等),用边表达元素间相互作用(如朋友关系,通讯联系,投递商品,电化学信号传导,分子间相互作用等)。每个节点有自己的权益诉求(如趋利避害,节省时间,创造效用,最大化生命长度等),也具备各自的能力特点(如发布消息,打电话,选择飞机而非货车的快递方式,发送兴奋/抑制动作电位,变构来影响下游蛋白活性等)。节点与周边邻居相互交流构成社区/子网/模块,模块在通过合作竞争形成更大的网络(如你和你周边同学构成了北京大学,北大再与其他高校乃至中小学构成国家教育体系,教育再与金融、体育、军队等一同构成国家,中国在与其他国家一同生活与这个地球。脑神经元也是如此,某pryamidal neuron 与周边各类神经元构成对手部肌肉的控制区,该区再与控制脚腿舌脸等神经元一同构成motor区,motor区再与认知、决策、情绪、社交等区域一同构成脑前叶,前叶再与枕、顶、颞叶构成脑皮层,脑皮层在与小脑、脑干、subcortical灰质,白质,构成大脑,而后再与脊髓周边神经一同构神经系统)。自然界就是这样,常常不由自主地用hierarchical modular结构来搭建网络。在不断优胜劣汰的进化演化中,产生了我们现在的社会、大脑等复杂网络体系。有了这些睿智灵活的网络,人们将活得更加开心长久。想知道人脑网络是怎样工作和被研究的吗,请听綦峰就’复杂脑网络交互动态’的精彩讲解。
之前我们讲了物理学家如何在Si上做单电子自旋qubit的ESR操作,今天我们介绍Harvard大学Yacoby组在Science上发表的一篇文章-’静电耦合单三态qubit纠缠’。双电子自旋量子点系统构建在GaAs半导体基底,通过外加磁场营造S/T0双能级体系,脉冲静电场可开关两qubit间耦合,磁场梯度控制量子态绕x轴进动,Hanh序列降低散相影响提升相干时间。最终实现了双qubit的CPHASE操控(受控相位门)并制备了可观测的双电子自旋BellState。有了这些基础工作,理论上讲人们就有了所有量子计算机所需的乐高积木。加之该体系与传统半导体加工工艺的兼容性,可以期许未来数年量子计算机将进入寻常百姓家,做那些经典计算机不可能完成的计算任务。
准备这个视频时,会不禁想起自学半导体物理和微光机电系统的情景。那时还是个斯伦贝谢的程序员,也不知道学这些东西有什么用,但还是每天想尽办法挤出时间迫不及待兴奋不已地去看很多诸如此类的视频。年少时对科学纯真的追求,现在由衷致以敬意。如果没有当时那点莫名其妙,今天哪会有缘享受科学世界这份美轮美奂。接下来綦峰将与你一同赏析美丽科学的一个侧面,量子纠缠。
当今世界上什么科学技术领域会引领时代发展?数学计算机科学家会说是神经网络,深度学习相关的人工智能;医学家和生物学家会说是和基因蛋白相关的分子生物技术;化学家会说是微光机电相关的纳米材料技术;物理学家则会说是量子通信计算相关的量子信息学。本期Nature发表了一篇名为’可编程双qubit量子处理器’的文章。就此,我想系统性介绍一下量子计算机领域的前沿进展。
说量子计算为科学前沿一点不为过。当今科学界面临的一个大难题就是摩尔定律渐趋失效。以往每18个月提升一倍的电脑计算能力将不再发生。现在的处理器加工工艺已经将每层半导体做到20个原子,当我们再想通过有效利用原子做计算时,所能进展的空间已经所剩无几。而且几年后当我们把半导体层做到几个原子时,你可知芯片已经进入了量子世界。 今天我们已经处在后半导体时代,对于未来,专家一致看好‘量子计算机将成为新时代的主角’。也正是这个原因,各大科技巨头,无论是否有硬件功底,争相投资于量子计算机的研究。目前,Google和IBM专注于superconducting qubit技术研发;Microsoft致力于搞topological qubit,而硬件巨头Intel则基于传统半导体工艺,主推量子点qubit技术。
接下来我们将做三个视频分别讲解单原子qubit,双qubit逻辑门,以及可编程双qubit处理器的工作原理,计算原理以及Si基底量子点电路的加工工艺。传统数字电路告诉我们,当你可以实现AND和NOT两个操作时,那么任意复杂运算(从加减乘除,到傅里叶变换,到AI程序)将都可以在此基础上实现。量子计算理论也告诉我们,当one qubit gate 和 two qubit CNOT(controlled NOT) 实现后,量子计算将会畅行无阻。未来的计算机是个什么样子,你难道不想知道吗?不妨看看接下来有关量子计算机的视频。
去年Nature以封面文章的形式刊载了斯坦福大学Esteva以Transfer Learning来训练深度卷积网络,并通过观察图片来诊断皮肤病,其诊断准确率已经超过皮肤科医生水平。本期Nature又讲述了如何训练一个简单通用的神经网络来轻松完成诸多医疗影像领域只有专家才能完成的图像重建工作。
在医疗影像邻域,无论是X-ray,PET-CT,多模态MRI等,都需要专家团队来负责从数据采集,图像重建,到病理解释的一连串烧脑工作。但无论哪种医疗影像模式,甚至雷达探测,GR引力波分析,地震测井,他们本质都是反问题的处理,即通过信号测量反推出产生该信号的物质的结构。传统上我们需要精心设计扫描实验,掌握数据产生采集原理,才能做重建工作。在大数据风行的今天,只要你有充足图片喂给神经网络来学习(甚至本文sensor data可以自己制造),它就会像人脑一样通过改变突触权重来自动建立sensor与影像间联系。同样架构与同样超参数可以适应五花八门的反问题求解,这点像极了人脑。人脑通过基本相同的皮质结构,来灵活处理视觉,听觉,运动,语言,计算,决策,识别,记忆等方方面面‘科学上的’难题。就好像我们即便不懂得多普勒原理,也能通过声音判断汽车朝我们开来;即便不懂得气象学建模计算,也能够通过乌云判断马上要下雨。
未来,也许不再需要医生,棋师,影像专家的存在。未来,当快速高效智能的神经网络碰上浩如烟海的网络大数据,会发生什么,也许只在乎于你的想象力。
2017年诺贝尔化学奖授予三位冷冻电镜领域的学者,奖励他们对冷冻电镜技术的发展做出突出贡献。下面视频就冰冻电子显微镜原理,单分子蛋白3D重建算法,以及生物化学应用等诸多方面进行了深入的讲解。
Jacques Dubochet提出用Plunge & Freeze 的方法来冰冻处理样品,开启cryoEM的广泛研究。Joachim Frank的工作重点在‘2D投影重建3D分子结构算法’。Richard Henderson早期工作在电子晶相学上,近期在单粒子原子解析度成像上做出卓越贡献。
研究蛋白3D结构是当今科学最热门的领域。中国科学家施一公,颜宁都是这个领域顶尖的科学家。生命体都是生物大分子搭建起来的’乐高积木‘,因此研究人的生老病死关键在要弄清楚这些‘乐高积木’块儿的结构与功能。以往分子功能结构的研究手段主要是X-ray晶体衍射和NMR谱分析。近年来随着各种电子器件飞速发展,cryoEM已经突破解析度局限,实现原子级别成像。在不远的将来CryoEM将取代X-ray在蛋白结构解析上的地位。不用极端困难地纯化结晶生物分子,利用cryoEM,人们将进行大通量的各种生物分子及其不同构象功能的研究。
2017年诺贝尔物理奖颁发给MIT和Caltech的物理学家Rainer Weiss,Barry Barish和Kip Throne。以表彰他们在LIGO(激光干涉引力波观测站)建设以及引力波事件观测中做出的卓越贡献。
2015年9月14日 09:50:45 UTC,位于美国西北部Hanford和南部Lovingston的两个LIGO探测器同时观测到人类第一个引力波事件GW150914. 该引力波信号持续0.2秒钟,频率由35Hz扫到250Hz,最大引力波应变幅度仅有1.0*10-21. 经广义相对论计算,该引力波是由双黑洞互绕后合并过程产生的。信号可靠度达5.1西格玛,即假事件观测概率为20万年才会发生一次。该事件发生在距离我们13亿光年以外(或者说发生在13亿年以前)。起初有两个黑洞分别是36和29倍太阳质量,最终合并为一个62倍太阳质量的大黑洞,在此过程中有3个太阳质量的物质被转为能量,并以引力波的形式辐射向宇宙各个角落。在2015.09.24,聪明的人类幸运地观测到了他的发生,并根据所得信号还原出该黑洞合并事件的每个细节。
引力波的观测本身是件不可能完成的任务,三位科学家通过超人的才智和坚毅的品质完成了人类的这一创举。如果说冷冻电子显微镜为人类打开了一双观看微观世界的眼睛,那么LIGO则为人类装上了一双聆听宇宙的耳朵。科学世界无限精彩,学习这些科学壮举令人感动不已,那么请随綦峰一同走入引力波的世界吧。
2017年诺贝尔医学生理学奖颁发给三名美国科学家Jeffry Hall, Michael Rosbash, 和Michael Young,以表彰他们在circadian rhythm关键分子的发现,以及反馈控制机制阐明上的突出贡献。科学家的工作揭示了生命体是如何利用转录转译分子相互作用网络来形成内源性生物钟,并在此基础上节律性调控诸如睡眠,荷尔蒙分泌,血压体温,新陈代谢等生理与行为模式。 近年来分子生物技术飞速发展,诺奖工作尽管光辉闪耀,但已不能反映该领域蓬勃发展的当今现状。綦峰将就Takahashi 于2017年发表在NatureReviewGenetics上的一篇综述文章,以老鼠为模型来具体讲解:1)Circadian 网络的核心组件, 2)外部环境如何影响分子生物钟系统,3)生物钟系统如何输出影响老鼠生理与行为。该领域的成果对未来研究肿瘤抑制,代谢失调,失眠机理,以及开发相应靶向药物都是至关重要的。 人们日出而作日落而息,与自然相得益彰。而有些人却常为失眠所困扰。你想了解这背后的科学道理吗?不妨听听綦峰是怎么说的吧!
2017年诺贝尔经济学奖颁发给芝加哥大学教授,经济学家Richard H. Thaler, 以表彰他在行为经济学上做出的卓越贡献。Thaler将心理学成果引入到经济学与市场分析之中,成功解释了现实中人与公司的有限理性行为。Thaler在经济理论上卓有建树,提出了禀赋效应,头脑账户理论,享乐修改,Planar-Doer model 等著名经济学理论,也设计出TokenVsMug以及Dictator I/II实验。Thaler还将这些理论成果应用于社会福利,养老投资等公共政策的制定,改善人类生活。本视频将分五点来展开介绍Thaler的贡献。 1)有限理性原理:传统经济学的基本假设是人与公司的行为决策都是理性的。消费者花钱来使自己各方面需求得到最大满足,公司会主动生产消费者最喜欢的产品来最大化收益。但现实告诉我们,真实的市场行为时常是非理性的,会系统性偏离传统经济学的预测。1944年,冯纽曼提出Expected Utility Theory,认为人的决策是基于生命总体效用最大化的原则。该理论在经济学,神经科学,以及人工智能领域都是milestone级别的指导性原则。DeepMind 开发的alphaGo就是基于此原则来优化自己走棋的策略,即所谓的增强学习。但是个体行为却常常不遵循这一理论,比如尽管人们知道吸烟有害健康,还是会选择吸烟..., 更多精彩内容敬请关注綦峰的深入讲解!
2016年诺贝尔生理医学奖颁发给Yoshinori Ohsumi以表彰其在细胞自噬机制研究上做出的贡献。Ohsumi以酵母为模型,发现了细胞自噬过程的关键分子,揭示了整个自噬过程的分子通路,为人类理解研究对抗癌症等疾病的分子生物机制提供了深刻的洞见。
首先介绍了2017年诺奖得主JP Sauvage、sir J Fraser、BL Feringa分子机器领域的贡献。而后具体讲解机械键、电化学motion control、Rotaxane、分子肌肉、分子电梯、光控分子马达、Azobenzene分子开关、单向旋转机构、分子火箭、异构化旋转、纳米阀门、分子剪刀、纳米电梯、纳米蛋白合成器、以及纳米小汽车的制作与控制原理。未来也许是个奇幻异彩的纳米世界,你不可以不知道前沿的纳米进展、不可以不学习美妙的纳米技术。
本文利用此纳米颗粒量化可逆检测目标分子在化学反应中的基团距离变化。通过引入顺磁Enhancer和超顺磁Quencher,磁共振T1信号会受到Q-E距离而别调节亮暗。实验显示该分子距离尺能成功测量活体分子cleavage、binding、folding 和 unfolding等。是未来宏观磁共振研究生物体内在分子变化的绝佳平台
Jack Gallant组利用简单GLM模型分析fMRI成功描述了人脑语义分析图谱。被试在听数小时故事,期间功能磁共振扫描整个头部得BOLD信号。故事讲述被被分解为语义features的时间函数,再与所测的同步的voxel-wise BOLD信号做线性回归。回归系数矩阵就被赋予不同voxel说处理不同语义的概率统计。再通过所谓的PrAGMATiC模型将voxel-based语义map转化成不同语义片以供研究人员更好理解不同大脑区域所处理的信息类别。