小米mix2充电接口5和mix2哪个充电

1.老板很重要!非常重要!选择老师,除了看科研水平,一定要nice的!要真正关心学生的,这样文章毕业的压力会小很多。&br&2.忽略实验室氛围,积极向上充满正能量的,每天都很想去实验室;相反,每天吐槽嚼舌根等着看笑话的还是远离好。&br&3.不要眼高手低,不要只想不做,不要只做不思考。&br&4.不及时整理数据和备份,定期做好总结和备份,写文章时轻松很多。&br&6.不要一天到晚宅在实验室,要有自己的业余生活,学会调节压力!!!此外,多运动,身体好是本钱。
1.老板很重要!非常重要!选择老师,除了看科研水平,一定要nice的!要真正关心学生的,这样文章毕业的压力会小很多。 2.忽略实验室氛围,积极向上充满正能量的,每天都很想去实验室;相反,每天吐槽嚼舌根等着看笑话的还是远离好。 3.不要眼高手低,不要只…
&p&研究生年底毕业,经常看着实验室的学弟学妹整天不在实验室,真是想苦口婆心的劝劝啊。&/p&&p&1、研一大家基本上都是上课的时间,但是其实课并不多,而且有一些非专业的课比如政治或者语言课,完全不用花那么多时间,在不上课的时候多去图书馆看看书,或者多跟实验室的师兄师姐多交流交流,提前打好做科研的基础,包括对自己本专业的一些基础架构和基本环境的熟悉,还有一些基础知识的积累,不要等到研二开始做科研了才在那儿补,那个时候再开始其实已经比别人落后很多了,尽早发文章,自己要有珍惜时间的意识,没有课的时候不要整天窝在宿舍睡大觉,打游戏,研究生时间不长,一下子就过去了,在这三年时间里面要完成从学生到供职者的转型,工作一定要做在前头,切忌像没头的苍蝇,浑浑噩噩就把研一耗完。&/p&&p&2、导师的选择很重要,不同的导师对 学生的付出有时候差距会很大,所以在上研之前一定不要怕麻烦多问问学姐学长本学院有哪一些老师对学生专心,不吝啬指导,同时他在学院的学术和人脉资源也要丰厚,说不定能够在你找工作的时候引荐也是很可能的,所以慎重选择导师,一定一定要多比较多问前人经验。&/p&&p&3、学会理财,学会记录自己的每一笔花销去了哪里,毕竟很多研究生都会有了自己的收入,要么是奖学金要么是其他,成年人要知道为自己积累这些最基本的生活技能。&/p&&p&4、假期多出去旅行旅行,特别是你想去工作的城市,多了解了解自己这个行业的就业动向,多参加社会活动,积累一定的人脉。&/p&&p&5、研究生期间一开始发文章不要冲着水会去,想要提高想要真正学到一点东西,一开始就把自己的目标定得高一些,如果一开始就瞄着水会水刊,那基本上是和顶会无缘了,因为一开始你就对自己没有信心,没有信心自己可以有所建树。&/p&&p&6、保持英语的熟练程度,每天读一篇paper其实不难,每天保持阅读外文文献的习惯,小积累有大进步,同时在看文献的时候注意做读书笔记,毕竟靠脑子想记得所有的知识点不是那么现实。&/p&&p&7、学会使用一些可以提高自己工作效率的工具,但是不要陷入工具的科普里,同一种功能的工具有一个就好了,不用太多,学会简化自己的生活,让自己的目标变得简单。&/p&&p&8、每天注意锻炼,不要吃完饭就坐在那里,肚子上容易堆积脂肪,我见过很多本科时候帅帅瘦瘦的学长,到了硕士博士都开始挺大肚子了,也不注意个人形象的管理,说实话,每天锻炼还有利于保持清醒的头脑,让你每天的工作精力满满。&/p&&p&9、周六周日可以出去走走,但是一周一天的休息时间就可以了,周六其实是工作时间,多给自己积累一些工作后的资本。&/p&&p&10、另外还有多培养培养自己的兴趣爱好,我平时会写写字,打打剑,出去拍拍照,这些都会让你的生活不那么孤单,呃,当然你如果有对象的话,可以把这些时间匀出来谈恋爱咯~&/p&
研究生年底毕业,经常看着实验室的学弟学妹整天不在实验室,真是想苦口婆心的劝劝啊。1、研一大家基本上都是上课的时间,但是其实课并不多,而且有一些非专业的课比如政治或者语言课,完全不用花那么多时间,在不上课的时候多去图书馆看看书,或者多跟实验…
&p&得到了教训的路过&/p&&p&我体会到的是我们的高教体系从来没有教授我们如何去形成科研思维,通常都只给结果,从来不告诉你证明过程是怎样的。可是科研这事情是需要在未知中探索的,当面对结果的异常,有几个人能理性分析?实验中更多的是重复同样的错误而已。&/p&&br&&p&好了,我要说的就是我们没有接受过方法论的训练,也就是逻辑思维能力和探索思维的培养。据我了解,国内高校也就TOP5的一些院系会开设专门的批判性思维的具体培训课程。我买到的《批判性思维教程》是北大谷振诣的。在这里我谈及的只是基本的一些原理,都是重复书中的内容,尤其复杂系统的一些参考书仅仅是入门级别的,并不是专业书籍比如神经网络之类的,但是确实给我以启发。这些观点都是我自己主动去阅读,去学习,并且感觉受益颇多,和大家分享下。&/p&&br&&p&1.线性思维:笛卡尔-牛顿体系,(参考书目《第一哲学沉思录》、《谈谈方法》、《探求真理的指导原则》、《自然哲学原理》)笛卡尔指出:“当我们面对一个复杂的现象的时候,需要将现象分解成一个个简单的过程,逐个研究。”就好比面对一个复杂的机械,我们将其拆解,研究每个零件,最终能重新组装。这就是我们认识复杂现象的基本过程。他同时指出:“当面对一个没有完全理清的问题的时候,必须停下来仔细思考,切不可贸然前进,因为你一切研究的出发点就是不确定的,有可能是错误的,这样得来的结论也就不可能是确定的和正确的。” 笛卡尔体弱多病,每天早上喜欢躺在床上躺一上午,让大脑思考,等他想明白了以后再着手工作。事实上,我们现在能理解的范围就是采用笛卡尔-牛顿的方法去研究的,即&b&分解-重构&/b&。获得了许多重大成就,在朴素的机械系统面前,这个方法是可靠的。&/p&&br&&p&2.非线性思维: 复杂系统,耗散体系(参考书目《复杂》、《哥德尔、爱舍尔、巴赫:集异壁之大成》、《混沌与秩序:生物系统的复杂结构》、《进化生物学》)。对于现代自然科学,尤其我们生物医学系统,更多的是无法用线性思维去解释的。这个系统是存在自组织,反馈的一个巨大网络系统,是不可能用单纯的线性思维来探究的。就好比经典的三体问题,采用复摆研究,只有当引力的影响减弱的时候,才会表现出一些有序的规律。整体上来说,有序是孤岛,混沌是大海,我们线性思维只能研究的是这些孤岛的规律,而面对浩瀚的混沌大海,这是超出我们理性的认知的,康德也说脱离理性的范围我们什么也不知道。这就是我们目前人脑能达到的极限了。&/p&&p&
但是并不是说我们不能获得新的收获,既然是网络系统,无尺度网络的概念告诉我们网络中的热点符合幂律分布,20%的点产生了80^%的效应,剩下80%的点包含了剩余的20%效应,因此,当我们集中研究这些热点中的20%部分往往能得到很大的收获。比如生物医学领域的G蛋白偶联受体,现已知的革命性的一些药物中40%都是和G蛋白偶联受体相关,就拿革命性的药物吉非替尼来说,改变这一个受体的功能,就能显著控制增殖,侵袭,促进凋亡,能显著延长具有EGFR位点突变的肺腺癌患者的生存期。这就是抓住了重点。&/p&&br&&p&总结:我们人认识复杂现象的时候,有且只能通过笛卡尔-牛顿体系来进行分解-重构,但是这个体系并不能解释浩瀚而复杂的混沌之海。这是我们的固有缺陷,也许这个问题的解决只有依靠人工智能的发展了。但是现阶段不代表我们就束手无策,当我们抓住网络系统中的热点,也能探索出新的成果来。&/p&
得到了教训的路过我体会到的是我们的高教体系从来没有教授我们如何去形成科研思维,通常都只给结果,从来不告诉你证明过程是怎样的。可是科研这事情是需要在未知中探索的,当面对结果的异常,有几个人能理性分析?实验中更多的是重复同样的错误而已。 好了…
&p&初涉科研的几个建议:&/p&&p&1,&b&不要沉湎于教科书,永远觉得自己的基础打得不牢。&/b&&/p&&p&是不是要把 温伯格三卷+若干advance topics on QFT都精通了以能做粒子物理?那你恐怕博士无法按期毕业了。如果你只是算个费曼图搞搞唯象的话,peskin第一部分的基础+code足够应付了。如果是做中微子物理, 会矩阵对角化就行了(自黑)。所以,永远不要试图把所有背景知识一下子都学会,科研的本质在于创造。 当然,你也要学会在研究的过程中将有用的基础知识补上。&/p&&p&2, &b&永远不要死磕做不出来的题目。&/b&&/p&&p&实在做不出来就放一放,对的,就像C. N. Yang当年推non-abelian 规范场一样,从研究生开始做怎么算都会卡住。机缘一到,天上掉下个mills, 水到渠成~。 考虑到目前学术界残酷的生存状态,死磕更是要不得。当然,如果你觉得这个题目确实有意思,可以在闲暇的时候回到这个题目,没准就产生突破了。&/p&&p&3,&b&不要永远只是停留在想的阶段,而不是去做。&/b&&/p&&p&见过太多同学有各种idea,但就只是停留在口头上,却不肯实际去研究下到底是否可行。这种现象或者因为懒惰,或者出于缺少自信。但须知懒惰就毕不了业,而自信则是在实际操作过程中建立的。所以,勤奋而勇敢地面对吧。 &/p&&p&4, &b&尽量不要太独,要善于和别人合作。&/b&&/p&&p&你一个新人,啥都不会,给师兄打个下手顺便把技术都学来,没有比这个更划算了,不要过分在意排名啊,公不公平这些。另外科研本身是个苦活,一个人躲在角落里弄容易出抑郁症。和小伙伴有idea一起搞,有paper一起看,大碗喝酒大口吃肉,岂不美哉?&/p&&p&5,&b&吃好,喝好,睡好,闲暇之余尽量去撩妹/汉,发展业余爱好,丰富生活减轻压力。&/b&&/p&
初涉科研的几个建议:1,不要沉湎于教科书,永远觉得自己的基础打得不牢。是不是要把 温伯格三卷+若干advance topics on QFT都精通了以能做粒子物理?那你恐怕博士无法按期毕业了。如果你只是算个费曼图搞搞唯象的话,peskin第一部分的基础+code足够应付了…
可以看下我写的几篇博客,第一篇是基础,第二篇是一个具体的应用,第三篇也是个简单的应用介绍,按照这个顺序看就行,希望有所帮助&br&&a href=&///?target=http%3A//blog.csdn.net/qq_/article/details/& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&Attention model - 迷川浩浩的博客 - 博客频道 - CSDN.NET&i class=&icon-external&&&/i&&/a&&br&&a href=&///?target=http%3A//blog.csdn.net/qq_/article/details/& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&基于Visual attention的图片主题生成 - 迷川浩浩的博客 - 博客频道 - CSDN.NET&i class=&icon-external&&&/i&&/a&&br&&a href=&///?target=http%3A//blog.csdn.net/qq_/article/details/& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&基于attention的video描述 - 迷川浩浩的博客 - 博客频道 - CSDN.NET&i class=&icon-external&&&/i&&/a&&br&&br&其实我觉得Attention model就是比以前的网络多训练了一个有关于Attention的东西,这个东西需要用到递归过程来更新,所以一般是和RNN结合起来的,当然空间CNN也行&br&&br&以前我们用网络都是一个卷积模板得到一个特征向量,然后会得到许多个特征向量,每个特征向量通过全连接输入到下一层,每个特征向量的贡献是一样的,但是显然是不合理&br&&br&比如我们做文本翻译的时候,cat and dog,翻译成“猫和狗”,显然cat 对于“猫”的贡献要远超过其他几个单词,所以Attention model 就是来训练这个权重,随着过程的进行,每次特征向量的权重都在变化,比如cat用完了,下一次网络可能就会更加关心and 和 dog这两个单词,所以下一个单词翻译成“和” “狗”的概率会增加,使得最后的结果优于传统的RNN或者CNN网络
可以看下我写的几篇博客,第一篇是基础,第二篇是一个具体的应用,第三篇也是个简单的应用介绍,按照这个顺序看就行,希望有所帮助
&p&用一句在知乎数学问题下面已经快被用烂的话说就是:&/p&&br&&img src=&/v2-85eefe00cccf275d94ea7f7ec6214225_b.png& data-rawwidth=&600& data-rawheight=&356& class=&origin_image zh-lightbox-thumb& width=&600& data-original=&/v2-85eefe00cccf275d94ea7f7ec6214225_r.png&&&blockquote&年轻人,在数学里,你不能要求(完全)理解一些事,你只能熟悉它们了。&/blockquote&&br&&p&那么怎么样才能真正的『熟悉』数学呢?&/p&&br&&p&光看书是没有用的。数学是一门『手艺』,就像光看书或者听别人说没办法学会游泳,学会骑自行车一样,光是看书、听课之类的是不可能真正学会数学的。&/p&&br&&p&你需要合上书,去操作,去重现,自己去完成整个的过程,去体会每一个细节。然后你才有可能明白小到一个定理,大到一套方法是要干什么,他的条件为什么要那样给出,他每一个step是要达到什么目的,相互之间的逻辑链条又是什么样的,中间有什么样的obstacle,又是怎么克服的。&/p&&br&&p&真正做完了这些,你应该就可以仿照你重现的那些东西给出一个类似的稍微『弱化』一些的结论,或者能够举出几个能够反映它的本质内容的例子。&/p&&br&&p&那么到这一步,你就可以算是『熟悉』了,你也就自然会感到『理解』了。&/p&
用一句在知乎数学问题下面已经快被用烂的话说就是: 年轻人,在数学里,你不能要求(完全)理解一些事,你只能熟悉它们了。 那么怎么样才能真正的『熟悉』数学呢? 光看书是没有用的。数学是一门『手艺』,就像光看书或者听别人说没办法学会游泳,学会骑自…
曾经写过一篇小文,&a href=&///?target=http%3A//.cn/s/blog_574a437f01019poo.html& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&初学者如何查阅自然语言处理(NLP)领域学术资料_zibuyu_新浪博客&i class=&icon-external&&&/i&&/a&,也许可以供你参考。&br&&br&&p&昨天实验室一位刚进组的同学发邮件来问我如何查找学术论文,这让我想起自己刚读研究生时茫然四顾的情形:看着学长们高谈阔论领域动态,却不知如何入门。经过研究生几年的耳濡目染,现在终于能自信地知道去哪儿了解最新科研动态了。我想这可能是初学者们共通的困惑,与其只告诉一个人知道,不如将这些Folk Knowledge写下来,来减少更多人的麻烦吧。当然,这个总结不过是一家之谈,只盼有人能从中获得一点点益处,受个人认知所限,难免挂一漏万,还望大家海涵指正。&/p&&br&&p&1. 国际学术组织、学术会议与学术论文&/p&&p&自然语言处理(natural language processing,NLP)在很大程度上与计算语言学(computational linguistics,CL)重合。与其他计算机学科类似,NLP/CL有一个属于自己的最权威的国际专业学会,叫做The Association for Computational Linguistics(ACL,URL:&a href=&///?target=http%3A//aclweb.org/& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&ACL Home Page&i class=&icon-external&&&/i&&/a&),这个协会主办了NLP/CL领域最权威的国际会议,即ACL年会,ACL学会还会在北美和欧洲召开分年会,分别称为NAACL和EACL。除此之外,ACL学会下设多个特殊兴趣小组(special interest groups,SIGs),聚集了NLP/CL不同子领域的学者,性质类似一个大学校园的兴趣社团。其中比较有名的诸如SIGDAT(Linguistic data and corpus-based approaches to NLP)、SIGNLL(Natural Language Learning)等。这些SIGs也会召开一些国际学术会议,其中比较有名的就是SIGDAT组织的EMNLP(Conference on Empirical Methods on Natural Language Processing)和SIGNLL组织的CoNLL(Conference on Natural Language Learning)。此外还有一个International Committee on Computational Linguistics的老牌NLP/CL学术组织,它每两年组织一个称为International Conference on Computational Linguistics (COLING)的国际会议,也是NLP/CL的重要学术会议。NLP/CL的主要学术论文就分布在这些会议上。&/p&&p&作为NLP/CL领域的学者最大的幸福在于,ACL学会网站建立了称作ACL Anthology的页面(URL:&a href=&///?target=http%3A//aclweb.org/anthology-new/& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&ACL Anthology&i class=&icon-external&&&/i&&/a&),支持该领域绝大部分国际学术会议论文的免费下载,甚至包含了其他组织主办的学术会议,例如COLING、IJCNLP等,并支持基于Google的全文检索功能,可谓一站在手,NLP论文我有。由于这个论文集合非常庞大,并且可以开放获取,很多学者也基于它开展研究,提供了更丰富的检索支持,具体入口可以参考ACL Anthology页面上方搜索框右侧的不同检索按钮。&/p&&p&与大部分计算机学科类似,由于技术发展迅速,NLP/CL领域更重视发表学术会议论文,原因是发表周期短,并可以通过会议进行交流。当然NLP/CL也有自己的旗舰学术期刊,发表过很多经典学术论文,那就是Computational Linguistics(URL:&a href=&///?target=http%3A//www.mitpressjournals.org/loi/coli& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&MIT Press Journals&i class=&icon-external&&&/i&&/a&)。该期刊每期只有几篇文章,平均质量高于会议论文,时间允许的话值得及时追踪。此外,ACL学会为了提高学术影响力,也刚刚创办了Transactions of ACL(TACL,URL:&a href=&///?target=http%3A//www.transacl.org/& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&Transactions of the Association for Computational Linguistics (ISSN: X)&i class=&icon-external&&&/i&&/a&),值得关注。值得一提的是这两份期刊也都是开放获取的。此外也有一些与NLP/CL有关的期刊,如ACM Transactions on Speech and Language Processing,ACM Transactions on Asian Language Information Processing,Journal of Quantitative Linguistics等等。&/p&&p&根据Google Scholar Metrics 2013年对NLP/CL学术期刊和会议的评价,ACL、EMNLP、NAACL、COLING、LREC、Computational Linguistics位于前5位,基本反映了本领域学者的关注程度。&/p&&p&NLP/CL作为交叉学科,其相关领域也值得关注。主要包括以下几个方面:(1)信息检索和数据挖掘领域。相关学术会议主要由美国计算机学会(ACM)主办,包括SIGIR、WWW、WSDM等;(2)人工智能领域。相关学术会议主要包括AAAI和IJCAI等,相关学术期刊主要包括Artificial Intelligence和Journal of AI Research;(3)机器学习领域,相关学术会议主要包括ICML,NIPS,AISTATS,UAI等,相关学术期刊主要包括Journal of Machine Learning Research(JMLR)和Machine Learning(ML)等。例如最近兴起的knowledge graph研究论文,就有相当一部分发表在人工智能和信息检索领域的会议和期刊上。实际上国内计算机学会(CCF)制定了“中国计算机学会推荐国际学术会议和期刊目录”(&a href=&///?target=http%3A//www./sites/ccf/aboutpm.jsp%3FcontentId%3D3& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&CCF推荐排名&i class=&icon-external&&&/i&&/a&),通过这个列表,可以迅速了解每个领域的主要期刊与学术会议。&/p&&p&最后,值得一提的是,美国Hal Daumé III维护了一个natural language processing的博客(&a href=&///?target=http%3A///& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&natural language processing blog&i class=&icon-external&&&/i&&/a&),经常评论最新学术动态,值得关注。我经常看他关于ACL、NAACL等学术会议的参会感想和对论文的点评,很有启发。另外,ACL学会维护了一个Wiki页面(&a href=&///?target=http%3A//aclweb.org/aclwiki/& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&ACL Wiki&i class=&icon-external&&&/i&&/a&),包含了大量NLP/CL的相关信息,如著名研究机构、历届会议录用率,等等,都是居家必备之良品,值得深挖。&/p&&br&&p&2. 国内学术组织、学术会议与学术论文&/p&&p&与国际上相似,国内也有一个与NLP/CL相关的学会,叫做中国中文信息学会(URL:&a href=&///?target=http%3A//www./& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&中国中文信息学会&i class=&icon-external&&&/i&&/a&)。通过学会的理事名单(&a href=&///?target=http%3A//www./lingdao.php& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&中国中文信息学会&i class=&icon-external&&&/i&&/a&)基本可以了解国内从事NLP/CL的主要单位和学者。学会每年组织很多学术会议,例如全国计算语言学学术会议(CCL)、全国青年计算语言学研讨会(YCCL)、全国信息检索学术会议(CCIR)、全国机器翻译研讨会(CWMT),等等,是国内NLP/CL学者进行学术交流的重要平台。尤其值得一提的是,全国青年计算语言学研讨会是专门面向国内NLP/CL研究生的学术会议,从组织到审稿都由该领域研究生担任,非常有特色,也是NLP/CL同学们学术交流、快速成长的好去处。值得一提的是,2010年在北京召开的COLING以及2015年即将在北京召开的ACL,学会都是主要承办者,这也一定程度上反映了学会在国内NLP/CL领域的重要地位。此外,计算机学会中文信息技术专委会组织的自然语言处理与中文计算会议(NLP&CC)也是最近崛起的重要学术会议。中文信息学会主编了一份历史悠久的《中文信息学报》,是国内该领域的重要学术期刊,发表过很多篇重量级论文。此外,国内著名的《计算机学报》、《软件学报》等期刊上也经常有NLP/CL论文发表,值得关注。&/p&&p&过去几年,在水木社区BBS上开设的AI、NLP版面曾经是国内NLP/CL领域在线交流讨论的重要平台。这几年随着社会媒体的发展,越来越多学者转战新浪微博,有浓厚的交流氛围。如何找到这些学者呢,一个简单的方法就是在新浪微博搜索的“找人”功能中检索“自然语言处理”、 “计算语言学”、“信息检索”、“机器学习”等字样,马上就能跟过去只在论文中看到名字的老师同学们近距离交流了。还有一种办法,清华大学梁斌开发的“微博寻人”系统(&a href=&///?target=http%3A//xunren.thuir.org/& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&清华大学信息检索组&i class=&icon-external&&&/i&&/a&)可以检索每个领域的有影响力人士,因此也可以用来寻找NLP/CL领域的重要学者。值得一提的是,很多在国外任教的老师和求学的同学也活跃在新浪微博上,例如王威廉(&a href=&///?target=http%3A///u/& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&Sina Visitor System&i class=&icon-external&&&/i&&/a&)、李沐(&a href=&///?target=http%3A///mli65& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&Sina Visitor System&i class=&icon-external&&&/i&&/a&)等,经常爆料业内新闻,值得关注。还有,国内NLP/CL的著名博客是52nlp(&a href=&///?target=http%3A///& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&我爱自然语言处理&i class=&icon-external&&&/i&&/a&),影响力比较大。总之,学术研究既需要苦练内功,也需要与人交流。所谓言者无意、听者有心,也许其他人的一句话就能点醒你苦思良久的问题。无疑,博客微博等提供了很好的交流平台,当然也注意不要沉迷哦。&/p&&br&&p&3. 如何快速了解某个领域研究进展&/p&&p&最后简单说一下快速了解某领域研究进展的经验。你会发现,搜索引擎是查阅文献的重要工具,尤其是谷歌提供的Google Scholar,由于其庞大的索引量,将是我们披荆斩棘的利器。&/p&&p&当需要了解某个领域,如果能找到一篇该领域的最新研究综述,就省劲多了。最方便的方法还是在Google Scholar中搜索“领域名称 + survey / review / tutorial / 综述”来查找。也有一些出版社专门出版各领域的综述文章,例如NOW Publisher出版的Foundations and Trends系列,Morgan & Claypool Publisher出版的Synthesis Lectures on Human Language Technologies系列等。它们发表了很多热门方向的综述,如文档摘要、情感分析和意见挖掘、学习排序、语言模型等。&/p&&p&如果方向太新还没有相关综述,一般还可以查找该方向发表的最新论文,阅读它们的“相关工作”章节,顺着列出的参考文献,就基本能够了解相关研究脉络了。当然,还有很多其他办法,例如去&a href=&///?target=http%3A//videolectures.net& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&http://&/span&&span class=&visible&&videolectures.net&/span&&span class=&invisible&&&/span&&i class=&icon-external&&&/i&&/a&上看著名学者在各大学术会议或暑期学校上做的tutorial报告,去直接咨询这个领域的研究者,等等。&/p&
曾经写过一篇小文,,也许可以供你参考。 昨天实验室一位刚进组的同学发邮件来问我如何查找学术论文,这让我想起自己刚读研究生时茫然四顾的情形:看着学长们高谈阔论领域动态,却不知如何入…
默认是没有启用快捷键切换输入法的。在 System Preferences / Keyboard / Keyboard Shortcuts / Keyboard & Text Input 里面勾选 Select next source in Input menu,然后点击定义快捷键。我一般设置的是 Ctrl + Space (和 Windows 下类似)。
默认是没有启用快捷键切换输入法的。在 System Preferences / Keyboard / Keyboard Shortcuts / Keyboard & Text Input 里面勾选 Select next source in Input menu,然后点击定义快捷键。我一般设置的是 Ctrl + Space (和 Windows 下类似)。
这大概是我泡知乎以来,看到&u&最有价值&/u&的题目之一,没有撕逼、没有站队、没有冷嘲热讽,所有的答案,即便只给出名字和一行功能介绍,对其他人还是有帮助。&br&&br&可惜的是,现在已有九百多个答案,想一个一个读完似乎不太容易。所以我把一些通用性高的软件,用Weavi依用途分类并加上简介。&br&&br&目前整理到前十高票的答案,如果看的人多,之後将陆续补充。&br&&br&网址是:&a href=&///?target=https%3A///92079& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&Weavi&i class=&icon-external&&&/i&&/a&&br&&br&点击目录名称,即可看到分类之下的软件;滑动鼠标即可回到上层。&br&&br&--&br&新开通专栏,在此打个广告:&a class=&internal& href=&/weavi&&Weavi与写作 - 知乎专栏&/a&&br&&br&主题是写作者感兴趣的各种信息,以及Weavi的各种应用。欢迎有兴趣的朋友们多加关注,谢谢。
这大概是我泡知乎以来,看到最有价值的题目之一,没有撕逼、没有站队、没有冷嘲热讽,所有的答案,即便只给出名字和一行功能介绍,对其他人还是有帮助。 可惜的是,现在已有九百多个答案,想一个一个读完似乎不太容易。所以我把一些通用性高的软件,用Weavi…
&p&我明白很多入门深度学习者的疑惑。因为当初,我也是关注着这个问题进来的。&/p&&p&其实,我在《TensorFlow技术解析与实战》当中讲解过“深度学习入门的七个步骤”:&/p&&p&要想入门深度学习,需要两个工具,即算法知识和大量的数据,外加一台计算机,如果有GPU就更好了,但是因为许多入门初学者的条件有限,没有GPU也可以,本书的许多讲解都是基于Mac笔记本完成的。&/p&&p&我把深度学习的入门过程整理成如图所示的7个步骤。&/p&&br&&img src=&/v2-106c8a513be_b.png& data-rawwidth=&682& data-rawheight=&898& class=&origin_image zh-lightbox-thumb& width=&682& data-original=&/v2-106c8a513be_r.png&&&br&&br&&p&下面就来详细介绍一下这7个步骤。&/p&&p&1.学习或者回忆一些数学知识&/p&&p&因为计算机能做的就只是计算,所以人工智能更多地来说还是数学问题[1]。我们的目标是训练出一个模型,用这个模型去进行一系列的预测。于是,我们将训练过程涉及的过程抽象成数学函数:首先,需要定义一个网络结构,相当于定义一种线性非线性函数;接着,设定一个优化目标,也就是定义一种&i&损失函数&/i&(loss function)。&/p&&p&而训练的过程,就是求解最优解及次优解的过程。在这个过程中,我们需要掌握基本的概率统计、高等数学、线性代数等知识,如果学过就最好,没学过也没关系,仅仅知道原理和过程即可,有兴趣的读者可以涉猎一些推导证明。&/p&&p&2.掌握经典机器学习理论与基本算法&/p&&p&这些基本算法包括支持向量机、逻辑回归、决策树、朴素贝叶斯分类器、随机森林、聚类算法、协同过滤、关联性分析、人工神经网络和BP算法、PCA、过拟合与正则化等。[2]&/p&&p&在本书“实战篇”的第8章到第13章的例子中也有贯穿这些算法知识,保证读者可以用它写出一个小的TensorFlow程序。&/p&&p&3.掌握一种编程工具(语言)&/p&&p&Python语言是一种解释型、面向对象、动态数据类型的高级程序设计语言。Python是很多新入门的程序员的入门编程语言,也是很多老程序员后来必须掌握的编程语言。我们需要重点掌握使用线性代数库和矩阵的操作,尤其是Numpy、Pandas第三方库,也要多试试机器学习的库,如sklearn,做一些SVM及逻辑回归的练习。这对直接上手写TensorFlow程序大有裨益。&/p&&p&有些工业及学术领域的读者还可能擅长MATLAB或R,其实现算法的思想和Python也很类似。&/p&&p&同时考虑到许多读者是使用C++、Java、Go语言的,TensorFlow还提供了和Python“平行语料库”的接口。虽然本书是主要是基于Python讲解的,对于其他语言的原理和应用API也都非常类似,读者把基础掌握后,只需要花很短的时间就能使用自己擅长的语言开发。另外对于Java语言的同学,本书第18章会讲解TensorFlowOnSpark,第19章会讲到TensorFlow的移动端开发。&/p&&p&4.研读经典论文,关注最新动态和研究成果&/p&&p&一些经典论文是必读的。例如,要做手写数字识别,若采用LeNet,要先阅读一下LeNet的学术论文;要做物体目标检测的训练,若选定MSCNN框架,可以先读MSCNN相关的论文。那么,论文从哪里找呢?那么多论文应该读哪篇呢?&/p&&p&下面以GoogleNet的TensorFlow实现为例。在GitHub[3]上,一般在开头的描述中就会说明这个模型所依据的论文,如图所示。&/p&&p&顺着这篇论文阅读,可以大致了解这个网络的实现原理,对迅速上手应用有很大的作用。同时,我在第6章也会对LeNet、AlexNet、ResNet这几个常见的网络进行讲解,帮助读者举一反三。&/p&&br&&img src=&/v2-1d5c9fcef0f360d96f34cdd9ad0445b2_b.png& data-rawwidth=&942& data-rawheight=&274& class=&origin_image zh-lightbox-thumb& width=&942& data-original=&/v2-1d5c9fcef0f360d96f34cdd9ad0445b2_r.png&&&br&&p&很多做模式识别的工作者之所以厉害,是因为他们有过很多、很深的论文积累,对模型的设计有很独到的见解,而他们可能甚至一行代码也不会写,而工程(写代码)能力在工作中很容易训练。许多工程方向的软件工程师,工作模式常常在实现业务逻辑和设计架构系统上,编码能力很强,但却缺少论文积累。同时具有这两种能力的人,正是硅谷一些企业目前青睐的人才。&/p&&p&读者平时还可以阅读一些博客、笔记,以及微信公众号、微博新媒体资讯等,往往一些很流行的新训练方法和模型会很快在这些媒体上发酵,其训练神经网络采用的一些方法可能有很大的启发性。&/p&&p&5.自己动手训练神经网络&/p&&p&接着,就是要选择一个开源的深度学习框架。选择框架时主要考虑哪种框架用的人多。人气旺后,遇到问题很容易找到答案;GitHub上关于这个框架的项目和演示会非常多;相关的论文也会层出不穷;在各个QQ群和微信群的活跃度会高;杂志、公众号、微博关注的人也会很多;行业交流和技术峰会讨论的话题也多;也能享受到国内外研究信息成果的同步。&/p&&p&目前这个阶段,TensorFlow因为背靠谷歌公司这座靠山,再加上拥有庞大的开发者群体,而且采用了称为“可执行的伪代码”的Python语言,更新和发版速度着实非常快。目前TensorFlow已经升级到1.0版,在性能方面也有大幅度提高,而且新出现的Debugger、Serving、XLA特性也是其他框架所不及的。此外,一些外围的第三方库(如Keras、TFLearn)也基于它实现了很多成果,并且Keras还得到TensorFlow官方的支持。TensorFlow支持的上层语言也在逐渐扩大,对于不同工程背景的人转入的门槛正在降低。&/p&&p&在GitHub[4]上有一个关于各种框架的比较,从建模能力、接口、模型部署、性能、架构、生态系统、跨平台等7个方面进行比较,TensorFlow也很占综合优势。截至2017年1月,TensorFlow的star数已经超过了其他所有框架的总和,如图1-8所示。&/p&&p&因此,从目前来看,投身TensorFlow是一个非常好的选择,掌握TensorFlow在找工作时是一个非常大的加分项。&/p&&br&&img src=&/v2-0c22e32cba6ee61faaf0a06f_b.png& data-rawwidth=&1206& data-rawheight=&266& class=&origin_image zh-lightbox-thumb& width=&1206& data-original=&/v2-0c22e32cba6ee61faaf0a06f_r.png&&&br&&br&&p&接下来就是找一个深度神经网络,目前的研究方向主要集中在视觉和语音两个领域。初学者最好从计算机视觉入手,因为它不像语音等领域需要那么多的基础知识,结果也比较直观。例如,用各种网络模型来训练手写数字(MNIST)及图像分类(CIFAR)的数据集。&/p&&p&6.深入感兴趣或者工作相关领域&/p&&p&人工智能目前的应用领域很多,主要是计算机视觉和自然语言处理,以及各种预测等。对于计算机视觉,可以做图像分类、目标检测、视频中的目标检测等;对于自然语言处理,可以做语音识别、语音合成、对话系统、机器翻译、文章摘要、情感分析等,还可以结合图像、视频和语音,一起发挥价值。&/p&&p&更可以深入某一个行业领域。例如,深入医学行业领域,做医学影像的识别;深入淘宝的穿衣领域,做衣服搭配或衣服款型的识别;深入保险业、通信业的客服领域,做对话机器人的智能问答系统;深入智能家居领域,做人机的自然语言交互;等等。&/p&&p&7.在工作中遇到问题,重复前六步&/p&&p&在训练中,准确率、坏案例(bad case)、识别速度等都是可能遇到的瓶颈。训练好的模型也不是一成不变的,需要不断优化,也需要结合具体行业领域和业务进行创新,这时候就要结合最新的科研成果,调整模型,更改模型参数,一步步更好地贴近业务需求。&/p&&p&[1] 这里,一些人担心人工智能超越人类还会产生哲学和伦理问题。我认为做这种讨论还为时尚早,严谨的数据基础是要突破的主要方向。&/p&&br&&p&[2] 推荐读者阅读李航老师的《统计学习方法》,很快就能入门。&/p&&br&&p&[3] &a href=&///?target=https%3A///tensorflow/models/tree/master/inception& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&https://&/span&&span class=&visible&&/tensorflow/m&/span&&span class=&invisible&&odels/tree/master/inception&/span&&span class=&ellipsis&&&/span&&i class=&icon-external&&&/i&&/a&&/p&&br&&p&[4] &a href=&///?target=https%3A///zer0n/deepframeworks& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&https://&/span&&span class=&visible&&/zer0n/deepfr&/span&&span class=&invisible&&ameworks&/span&&span class=&ellipsis&&&/span&&i class=&icon-external&&&/i&&/a&&/p&&br&&p&最后,初学者建议选择一本权威细致的TensorFlow教材,比如《TensorFlow技术解析与实战》。这本书的特点是基于TensorFlow1.1版本,技术讲解极为细致,配合人脸识别、图像识别、智能机器人的TensorFlow实战案例,也包揽了所有TensorFlow的高级特性。(&a href=&///?target=https%3A///.html& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&《TensorFlow技术解析与实战》(李嘉璇)【摘要 书评 试读】- 京东图书&i class=&icon-external&&&/i&&/a&)&/p&&br&&img src=&/v2-fe51a0baa_b.png& data-rawwidth=&1072& data-rawheight=&1344& class=&origin_image zh-lightbox-thumb& width=&1072& data-original=&/v2-fe51a0baa_r.png&&
我明白很多入门深度学习者的疑惑。因为当初,我也是关注着这个问题进来的。其实,我在《TensorFlow技术解析与实战》当中讲解过“深度学习入门的七个步骤”:要想入门深度学习,需要两个工具,即算法知识和大量的数据,外加一台计算机,如果有GPU就更好了,…
已有帐号?
无法登录?
社交帐号登录
2476 人关注
348 条内容
1854 人关注
8405 人关注
842 条内容

我要回帖

更多关于 小米mix2 无线充电 的文章

 

随机推荐