回答图片问题,这个人为女生问你图她什么怎么回答要这样回答?

这是 Quora 的最新节目,针对特定话题进行系列的问答。如果你不了解 Quora,可以把它看作美国版的知乎,不过里面大咖云集,奥巴马、Elon Musk、Bill Gates 都会在上面回答问题。 

这是针对特定话题的问答系列,而有什么能比机器学习更适合作为开头的第一个话题呢?机器学习无疑是今天最炙手可热的技术之一,在过去几年间实现了深度学习等许多进展,而许多企业也将注意力和资源投向了这一领域。

这个 Quora 机器学习问答系列将会邀请众多这个领域的大神来答疑解惑。

这次参加的是 Yoshua Bengio,电脑科学家,毕业于麦吉尔大学,在MIT和AT&T贝尔实验室做过博士后研究员,自1993年之后就是蒙特利尔大学任教,与 Yann LeCun、 Geoffrey Hinton并称为“深度学习三巨头”,也是神经网络复兴的主要的三个发起人之一,在预训练问题、为自动编码器降噪等自动编码器的结构问题和生成式模型等等领域做出重大贡献。他早先的一篇关于语言概率模型的论文开创了神经网络做语言模型的先河,启发了一系列关于 NLP 的文章,进而在工业界产生重大影响。此外,他的小组开发了 Theano 平台。

现在仍然在完善嘉宾名单,不过已经有另外6位也确认了会参加这次活动。

百度首席科学家,斯坦福大学计算机科学系和电子工程系副教授,人工智能实验室主任。吴恩达是人工智能和机器学习领域国际上最权威的学者之一,同时也是在线教育平台Coursera的联合创始人。曾与谷歌顶级工程师合作建立全球最大的“神经网络”——“谷歌大脑”。

2014年5月16日,吴恩达加入百度,担任百度公司首席科学家,负责百度研究院的领导工作,尤其是Baidu Brain计划。

Pedro Domingos是华盛顿大学的教授,他是机器学习领域的领头研究者,并且因研究出能够进行不确定推理的马尔可夫逻辑网络而著名。Domingos 获得了里斯本技术大学的本科和硕士学位,然后在加利福尼亚大学尔湾分校拿到了硕士和博士学位。在IST做了两年的助理教授后。它与1999年加入华盛顿大学并且现在是一名教授。

谷歌总部研究科学家,在谷歌研究人工智能、机器学习、计算机视觉与自然语言理解。他于2011年加入谷歌,此前是加拿大温哥华英属哥伦比亚大学的计算机科学和统计学终生副教授。他已发表80多篇会议或期刊论文,是《机器学习:概率视角》的作者,该教材长达1100页,由麻省理工出版社2012年出版,并获得2013 DeGroot 统计科学最佳书籍奖。 

咨询公司ClopiNet(为模式识别、机器学习、统计数据分析、以及数据挖掘提供咨询服务)的创始人兼总裁,纽约大学健康信息学和生物信息学中心(CHIBI)客座教授。她在机器学习领域是国际知名的学者,与Drs Vapnick和Boser一起发明了核SVM分类器,也发明了基于SVM的特征选择方法RFE。

卡耐基梅隆大学教授,Marianas Lab 公司的 CEO。研究方向包括以下几个方面:

算法的可扩展性: 这意味着推动算法达到互联网一般的规模,使的他们在不同机器分布,设计出融合和修改模型来适应这些要求。

Kernels方法是线性方法非线性化和非参数画的有效手段。我的研究兴趣包括支持向量机(SVM),高斯过程和条件随机场。

统计建模: 贝叶斯非参数是解决许多建模问题的好方法。很多时候综合运用Kernels方法和可扩展性可以得到让人满意的方案。

康奈尔大学计算机科学系和信息科学系教授。他于2001年完成博士学位后加入该系。主要研究方向是机器学习、支持向量机、数据学习理论、文本分类、文本挖掘等。他是 ACM Fellow, AAAI Fellow 和 Humboldt Fellow。

我们非常期待你能提出问题、参与这个活动,也非常激动于能够为分享这个奇妙的领域的知识做出贡献。

Q1:在理解深度学习工作原理的道路上,我们已经前进了多远?

与有些人的想法相反,我相信我们对于深度学习的基础已经有了不错的基本理解,例如:

我们理解了卷积结构和递归结构的分布式表征、深度、以及元素与函数空间中的偏好(或者更通俗的说法是,先验,priors)相对应,并且我们有理论来解释为何其中一些偏好可以带来重要的(有时候是指数级增长的)统计优势(这意味着可以用更少的数据达到相似的准确度);我的书中有更多的对于最近一些论文的详细描述,我最喜欢的一篇是NIPS 2014的“关于深度神经网络线性区域的数量(On the Number of Linear Regions of Deep Neural Networks)”(Q1a)。过去和现在,研究人员对于各种深度学习模型的解释力也做了许多工作。

不过,当然,我们需要更多更多的理论!许多时候我们都会处于无法理解实验结果的境地里。

Q2:你怎么看强化学习?它是像Yann LeCun说的那样,是画龙点睛的一笔吗?

如果我们只使用强化信号来引导学习,那么我同意Yann LeCun的说法,它是画龙点睛的最后一笔。糟糕的是:当使用的全局强化信号并不是对于特征的已知可微函数时(这种事经常发生),扩大能根据这个信号而训练的隐藏单元的数量(或是行动维度)就会有严重的问题。行动的样例数量、随机样本数量、或是尝试次数,随着单元数量的增加,可能不得不至少以线性的速度增长,才能在质量的信度分配方面达到和反向传播技术差不多的水平。如果行动空间很大,这会是一个很麻烦的问题。然而,就像在Yann提到这件事时说的那样,我们在做强化学习的时候也应该做非监督式学习。那么它就会变得更具可信度,能够在大规模的环境下发挥作用。

Q3:理解大脑对于理解深度学习来说有多重要?反过来呢?

就像许多早期从事神经网络研究的人(包括我的同事Geoff Hinton和Yann LeCun)一样,我相信,当我们思考我们对于大脑已经知道了什么的时候,我们会有不错的机会来从中学习一些对于搭建AI来说有用的东西,并且这一点随着神经科学家们收集了越来越多的大脑数据而变得越来越确定。这个信念与相反的想法也是有联系的——为了真正理解为何大脑让我们拥有智能,我们需要对于大脑中发生的事构建一个“机器的学习”的解释,也就是说,搭建一个计算的、数学的模型来解释我们的大脑是怎样学习如此复杂的东西、又怎样表现出如此成功的信度分配的。为了验证这个解释,我们应该能够运行一种机器学习算法,它拥有从神经生物学中提取出来的基本原则,但它没有必要理解这些原则(但是可能有必要将这些原则在它的“大脑”中实现,或是为它提供一些我们与生俱来的知识)。就我所知的而言,我们对于大脑怎样做一些反向传播技术做得很好的事情还没有一个可信的机器学习解释——也就是说,还没有明白,脑内神经元突触应该怎样产生变化,才能让作为一个整体的大脑对于世界有更好的理解、做出更好的行为。这是这些日子经常在我脑海中徘徊不去的话题之一。

Q4:有没有深度学习永远不能学会的东西?

这取决于你说的深度学习指什么。如果你指的是现在我们知道的算法,那么答案很有可能是“是的”。但是,毫无疑问,随着这个领域的研究不断探索,深度学习还在继续演化,很明显深度学习的应用范围有不断扩大的趋势。神经网络曾经在模式识别问题上非常成功,音素识别和物体识别都是很好的例子。然而,我们可以看到越来越多神经网络方面的工作正在靠近传统的AI领域,比如推理、知识表征、以及操作符号数据。我相信,这些近期的工作只不过是冰山一角,但是当然我的手里并没有水晶球来做预言。如果我们未来对于深度学习的定义中,包括了以受神经启发的算法来复制所有人类认知能力的能力,那么“这个领域中没有深度学习学不会的事情”的假设就是相当合理的。不过,到时候,可能会有一些人类永远不能学会的任务;对于这些任务,很容易得出结论:没有机器能完美地完成这些任务,因为用来训练的样本数量太局限了。

Q5:你对于Kaggle和其他机器学习竞赛有什么看法?

就像许多其他东西一样,适量的机器学习竞赛是很好的。激励一些愿意与人竞争的学生(特别是新学生)是一件很棒的事。这让他们真正地学习如何操作机器学习,只读论文你是学不到这些的。基准测试也扮演着重要的角色,让我们的注意力能集中到超越此前最新技术的全新方法上。但是它们不应该被用来作为抛弃那些败于基准测试的研究的理由。如果有什么东西在一个基准测试上表现很好,这可能意味着我们应该向它投以一些关注,但是相反的推论却并不正确。你可能有一个伟大的想法,但是你做出的方法现在表现得却不是很好,因为有一个讨厌的细节问题压抑了它的表现——而这可能在下一年就能被修正过来。这些日子,机器学习评论者们对于实验结果的比较被赋予了过多的重要性。我相信这是某种懒惰。查阅比较结果的表格的确比在实际上尝试理解论文中的思想要简单得多,局限在它给出的可能性里也的确更为轻松。

Q6:深度学习研究将去往何方?

研究从定义上来说就是在不断探索的,这意味着(a)我们不知道什么能起效,以及(b)我们需要探索许多途径,我们需要整个科学社区在研究方向上有很大的差异性。所以我只能告诉你我目前的直觉,我在哪些地方看到吸引了我直觉的重要挑战和机遇。这里是其中的一些:

非监督式学习是关键,我们现在的做法还并不正确(我和其他人在这一方面写过、说过很多观点试图纠正)

深度学习研究可能会继续扩张,从原本的传统模式识别任务扩张到AI的全部任务,包括符号操作、记忆、规划和推理。这对于完整地理解自然语言和与人对话(也就是说,通过图灵测试)来说将会非常重要。相似的是,我们见证着深度学习正在延伸到强化学习、控制、以及机器人学的领域,而这只不过是一个开始。

对于AI,我们可能仍然需要再获得许多知识,更好地理解大脑并尝试找到大脑运作的机器学习解释。

最大似然可以加以改进,当在复杂的高维度领域中学习时(非监督式学习和结构化输出情景中兴起的情况)它不一定是最佳的目标。

基于深度学习的AI(不只是消费者产品)将会很大地受益于计算力的大幅提高,这可能意味着出现专门的硬件;这是因为,AI需要大量关于世界的知识(然后对它们进行推理),这就需要用非常大量的数据来训练大型模型,这一切都需要比我们现在使用的高得多的计算力。

其他见我对于Q12“开放的研究领域”问题的答案。

Q7:2015年你读过的哪一篇机器学习研究论文最让你感到激动?

没有哪一篇能够完全胜过其他任何论文,而我意识到了跟人们说“不同的研究员会对不同的科学贡献印象深刻”,所以我对于如下进展的选取是非常主观的:

批量正态化的论文很激动人心,因为它已经对于训练无数架构都产生了影响,并且已经被作为标准来采用。

梯型网络的论文很激动人心,因为它让非监督式学习的想法重获新生(文中提到的是特别有趣的堆叠式消噪自动编码器),能够与直白的监督式学习能够共同竞争——特别是在半监督式的情境中。

今年,生成式对抗网络——LAPGAN和DCGAN——的论文,通过让人印象深刻的方式、真正地提高了对于图像的生成式建模的标准,瞬间让这种方法脱颖而出,为非监督式学习在去年的快速进展贡献良多。它们能与另一个基于变分自动编码器的深度生成式建模——包括去年早些时候那篇让人印象深刻的DRAW论文——相媲美。

去年,有不计其数的论文用了基于内容的注意力机制。我看着它从我们的使用注意力机制的神经机器翻译开始,之后是神经图灵机(再之后是端到端记忆网络),还有许多对于这种处理方式激动人心的用法——比如生成对于图片的描述和菜做数据结构(我特别喜欢Pointer网络和其他关于可微数据结构操作的论文,包括堆栈、序列、教机器阅读和理解等等)。所以这种架构的设备已经到来…

还有许多其他的我不能准确地评价的论文…

Q8:一个人怎样才能开始机器学习?/对于一个熟悉机器学习基本概念的人来说,开始接触深度学习时有什么不错的资源?

首先你需要在数学和计算机科学方面有适当的基础。深度学习方面,你可以看看MIT出版社的《深度学习》(现在可以在线阅读,最终MIT出版社会将它印刷成册)第1部分,重温一下数学和计算机科学的知识、或是看一下数学和计算机科学中哪些领域与深度学习最有关系。然后你需要了解一些机器学习方面的知识(有一些不错的书,比如Chris Bishop写的和Kevin Murphy写的,视频的话比如有吴恩达的coursera课程和Hugo Larochelle的神经网络授课视频,你也可以从《深度学习》这本书的第5章中获得许多基本知识的总结)。然后你需要开始练习,也就是说,亲手编写一些学习算法、用数据来训练它们——比如说,尝试参加一些Kaggle竞赛。试着成为优化超参数和选择恰当模型方面的专家吧。同时,继续保持阅读。如果你对于深度学习感兴趣,我的书《深度学习》中第3章将会为你使用大多数常见的算法打下基础。到那时,你应该有了足够的背景知识、能够以稳定的频率来阅读勾起你兴趣的论文了。

自我推销真是非常厚脸皮的一件事,但是我们真的为这本书做了许多努力… Ian Goodfellow、Aaron Courville和我写了一本为你们准备的书)

它叫做《深度学习》,应该很快就会出现在市面上,不过你已经可以在网站上(http://www.deeplearningbook.org/)阅读所有的草稿了。

我觉得在我所在的社区中有另一个玩家加入是一件很棒的事,它在市场和研究人员的文化两方面的影响力进一步推动着业界实验室转向重视长远的目标,让基础研究不只由学界来做。我强烈地相信,如果能以几十年的度量来考虑,如果我们对于短期目标没有那么关注、没有那么贪婪(试图立刻利用起来赚钱),我们本来是可以在探索AI的道路上走到更远的地方的。

Q10:目前对于深度学习的炒作是否言过其实?

如果它是炒作,它就会夸大实际情况。这种夸张是存在,我见到过。当有人认为人工智能的研究比实际情况更加接近人类表现时,这就是炒作,而这种想法通常是依据人们在电影或科幻作品中见到的AI场景而得出的心理印象。

在我的生涯中,我经常会觉得,通常情况下,人类很贪婪。我们在短期目标中会花费很多精力,如果我们在长期目标中持续这种状态的话,我们会收获更多。而这意味着要接受很多事实:在AI领域还有很多根本性挑战;我们不知道还要用多久才能解决这些挑战(我们也有可能永远无法成功解决)。我感觉人类有一种存在于本性中的倾向:更倾向于“利用”知识,而非“探索”收集更多的知识。这种倾向对于我们的祖先来说是很有意义的,因为他们每天都面临危险。于是成功存活下来就变成了一种短期顾虑。公司想要快速赚钱。投资人对它也有需求。政府官员想要在其四年任期结束之前加快经济发展,而且他们也受到公司和非常富有的人的影响而被败坏,进而他们根本不在乎这对于人们的长期回报。学术界应该担负起担忧长远未来的责任,但是他们经常被卷入到政府和公司的短期想法中(他们为研究提供资金),或者陷入——“出版或死亡”和“短期增加研究强度以提高基准测试的表现”——的逻辑中而无法自拔。

这即是说,没有被夸大的是:深度学习已经有很好的表现(经过适当的设计并得到所需的数据后),而且也有可能被转成重大经济影响和增长。我们可能在某些非常有限的领域中找到了接近人类表现的方式,或者说,在之前技术基础上提升很多以至于有非常明显的经济价值。但是这距离人类级别的智能还非常遥远。

Q11:今年(2016)会有深度学习夏令营吗?

在2016年8月应该会有。静待通知。

Q12:在深度学习方面有哪些开放的研究领域?

每个研究人员对此都有看法,这很好。这里是我的想法:

非监督学习真的会发挥巨大作用

生成模型会根据一系列变异度很大的自然图像和声音来生成简洁的图像和声音

半监督学习会发挥作用,即使被标记的数据集不微小;

学习数据到空间的双向转换方式,空间中的变量是相互纠缠的(或者大部分独 立的)

将(迭代式)推理带入到深度学习中来处理隐性变量的非因子后验概率

在我们的模型中引入更多推理能力

大规模自然语言理解和知识表征

序列数据长距离相关性模型并让学习器在多时间尺度上发现框架性的表征方式

更好地理解(并修补)有时会出现的优化问题(例如,在非监督学习或长距离   相关性递归网络中)

训练将计划(能够理解假设分析场景,也许随机地通过一个生成式组件)作   为一部分学习步骤的模型(而且还能做决定)

将强化学习扩展到较大的活动空间中

最大似然定理有一些已知的不足(例如在训练和测试情况下有错配现         象),而且我们需要绕过它们(也许连最大似然定理一起抛弃)

弥合深度学习和生物学之前的空白

加速理论理解深度学习(优化问题是一方面,表征或统计方面也需要更多的理  论)

研究特殊的硬件以支持离线训练模型来开发消费者产品,但这从科学的角度看可能更重要,训练更大的模型来捕捉更多的知识,进而为人类级别的AI研究开辟道路

很多应用还欠开发,我特别想看到在健康方面的研究工作(如缺失值等特定问 题,还有通过迁移学习利用小型研究数据)。

Q13:有了Torch和谷歌发布的TensorFlow对工业的强大支持,你对Theano和其使用寿命的看法是什么?

TensorFlow对Theano有很大的威胁,它们建立在相同的基本想法中,即构建并操作一个计算图,以符号形式来表征数字计算。然而,TensorFlow需要更多的工作,而且谷歌看起来很想提高它,并让它成为更有用的工具。这要看事情以后的发展,学生和研究人员如何选择。我对以下两者感到很自豪:我们Theano的完成情况,和谷歌相似地构建了一些更好的东西,但是Theano对于我来说不是一种信仰。我喜欢对开放而有前瞻性地研究具有高级而灵活的探索能力的工具。

Q14:深度学习能像在视觉和语音领域中那样在自然语言处理领域中取得成功吗?

我当然相信会这样!最近几年的进步暗示了进步幅度会更快。例如在神经机器翻译中的相关工作,这方面我知道的比较清楚。我认为我们在来年会看到更多,而深度学习也在逐步朝着自然语言理解中存在的诸多根本性挑战方向发展。

Q15:深度学习与机器学习有怎样的不同?

深度学习是机器学习的一部分。在机器学习中有很多概念和想法,而深度学习是从这个更大集合中抽离出的一部分。很多大学曾有一段时间不再教学深度学习,但是现在,在某些地方,受到关于深度学习的炒作影响后,这种局势可能会逆转,而这并不好:学生继续学习经过几十年机器学习研究而得出的不同想法和概念是很重要的,这提供了更加广阔的思路,也为新发现打开大门。

Q16:你为什么会在神经网络(而非其他机器学习领域)上花费很多精力?

Q17:一个没有PhD学位(但是从技术上来说)自学过ML的人如何向你这样的人证明他已经足够优秀来为你工作?

见我回答的《对于正在进入机器学习领域的年轻研究人员,你有什么建议?》(Q18)和《对于一个熟悉机器学习基本概念的人来说,那些是开始学习深度学习的好资源?》和《某人应该如何开始学习机器学习?》

Q18:对于正在进入机器学习领域的年轻研究人员,你有什么建议?

确定你在数学和计算机方面经过了很强的训练(包括,实践部分,如编程)。读书,读很多文献,但这还不够:你需要发展你的直观理解,通过以下方式:(1)自己编写很多学习算法,如尝试重现文献中的方法;(2)例如参加比赛或者在重现文献中方法后进一步改善结果,从而学会去调试超参数(hyper-parameters)和探索(框架、目的函数等等)变异性。接着找人一起做头脑风暴,在探索和测试新创意时分享工作负担。和已有的小组一起工作是一种理想方式,或者招募自己的学生与你一起工作,如果你是一个教职人员的话。

Q19:非监督深度学习预训练有用吗?何时有用?

Q20:AI对人类有生存威胁吗?

我们未来某天可能实现的这类能够达到甚至超过人类表现的AI有很多不确定性。即使我站在乐观主义的一方(因为这种不确定性),我们不能否认存在这种可能:我们不想发生的事情发生了。这就是我签下了未来生活公开信以开发一个稳定而有益的AI的原因。

然而,请记住这种潜在威胁现在还离我们很远。媒体总喜欢夸大其词来吸引注意力。这会妨碍AI研究。相反的,我们应该鼓励相应领域的研究来更好的理解这些问题,进而如果某天出现一些事情要具体处理时,我们也能更好的准备并开发对人类来说更安全的AI。

谈到这里,我相信将媒体的注意力从AI带来的长远角度科幻性质的恐惧转移到短期更具体的政治经济问题上是很重要的。但我们应该提前考虑这些问题,而不是等到人类受到伤害(例如,失去工作)虽然会有少数幸运的人会变得超级富有而且有很大的权力。我们整体需要对如何利用AI带来的进步做出英明抉择,为全体利益着想而非少数。为了适应科学技术带给我们愈来愈强大的力量,丛林法则是不适用的:我们需要在个体和整体上都有英明的远见,这不仅是为了我们,也为了我们的后代。

Q21:你的书何时会上市吗?

现在基本要看MIT出版社。内容方面已经完工了(而且网上也有。)我们正在等评论家的反馈(估计一周或一个月吧),接着MIT出版社可能需要一些时间安排出版的事情。可能要几个月,总体来看,一年之内很可能完工,之后会邮寄。如果你找到打印错误、错误或者缺失重要部分,现在是你为这本提出宝贵意见的绝佳机会!

Q22:你对只用一个学习算法解决问题是怎么看的?

这是一个很有意思的想法,而且有点像皮质的功能,因为如果有必要的话,同样的皮质部分可以做其他部分的工作(即使每个区域由于初期的结构部署而被安排好做特定工作)。这很有意思,因为如果存在一个核心学习算法(虽然可能涉及到一些概念)完成多种任务的话,那么这种算法很可能很强大而且很实用,更不用提还能提供有用的科学观点。我认为,它足以有趣以至于不找寻它的人是不正常的,万一它存在呢。然而,大脑除了皮质之外,还存在着其他部分,例如海马区,有可能根据不同的算法学习并与皮质交流,近期记忆网络和神经图灵机的相关工作也暗示我们可以受益于多种不同类型的组件。另外,大脑也很有可能结合了非监督学习和强化学习(后者有研究透彻的生物学证据)。

Q23:在学术界做深度学习研究与在产业界相比有哪些好处和挑战?(为什么你是仍坚守在学术领域的为数不多的深度学习研究人员之一?)

为大众的利益而工作的满足感,为人类,而不是财富占有者或者投资人,在更加开放的环境中工作而没有专利使用限制的困扰

 身边会有很多聪明的研究生和博士后,下一代研究人员而且也会影响他们

 不得不花很多时间写方案来获得资金、在委员会中任职等

 只有访问公开数据集的权利(但我认为这其中有很多有趣的数据集)

 没有大的工程团队来开发大型系统

 没有很多计算资源

然而,我必须承认我在后两件事情上做的很好,这要感谢我当前接收到的(经常从大学那里)慷慨的资金和赞助。我很庆幸我的大学高度珍视我的存在而且只限定我每年一次(除了学术休假)教学研究生课程,在过去的15年中。当然这些只是我幸运地得到了这样的环境。

Q24:你曾说过当前机器学习算法的主要限制是它们学习需要太多的数据。你能详细说明这一点吗?

在孩子的前两年生活中(甚至在学会语言之前),他们本质上是通过看没有被标记的数据学习。孩子们在童年看到的自然语言比现在训练得出的最好的语音识别器和机器翻译系统所需的文本数量要少得多。这种差距是指数级别的。为什么?人们似乎能够更好的利用他们能够得到的较少的数据集,而且我相信这是因为他们自己对周围的世界建立了一个能够捕捉因果关系的模型。这让我们能够预测在某些假定条件下什么会发生,即使这些条件与我们以往经历过的条件有明显的不同。我从来没有真实经历过车祸(例如),但是我的大脑可以充分的模拟它(并预见结果),进而我可以自动的做出计划来规避这样的不幸。所以未来还有很多事情需要我们发掘。

Q25:如何将深度学习应用到时间序列预测上?

Q26:为什么非监督学习很重要?深度学习在其中起什么作用?

深度学习其实是关于学习表征方式,这意味着学习有益于捕捉我们所关注的统计相关性的中间概念,特征或隐性变量。这些相关性来自于从输入变量到输出变量的监督学习过程,或在变量的任何子集之间的非监督学习过程。通常来说,监督学习用于教电脑学会对解决特定任务很重要的中间概念(例如类别)。然而,我们看到监督式深层网络在它们的网络层中可以发掘出有意义的中间概念。非监督学习很相似,不同在于我们让模型捕捉了所有变量之间可能的相关性,不区别输入和输出。用监督学习来完成AI可能需要让电脑从所有与这些概念有关的数据集中学会所有对我们很重要的概念。这不是人类的学习方式:是的,由于语言的存在,我们得到了一些阐明新概念的示例,但是我们观察到的很多东西并没有明确的标记,至少一开始是这样的。孩子们并没有让大人告诉他们每幅图的每个像素是什么,或者每幅图中的物体是什么,什么是语法结果,每句话中的每个单词的确切意思是什么。我们从简单的观察中提取出大部分信息(可能通过“动作—感知”循环),而这就是非监督学习的基本原理。我们希望深度非监督学习将能够发现(可能需要很少的标记数据的帮助)所有的概念和事情发生的起因(一些被直接标记好,一些没有标记),进而解释我们看到的现象。所以我相信这个方向上的进步对实现AI有本质性推动作用。而且我们都是这么想的:)

如果你仔细想想,科学家正在做非监督学习:观察世界,想出解释某种现象的模型,收集更多观察数据(虽然是有目的的)来测试它们,接着不断的改进这种解释世界运行原理的模型。然而我们确实从教育中得到了提升,因此像《curriculum learning》(Q26a)文章中的想法也是必需的(正如我们见到过的一些机器学习任务)。

Q27:你对Max Weling的论文《ML和统计是互补的吗》是如何评价的?ML因为深度学习正在远离统计学吗?

Max确实找到了深度学习成功的3个因素:(1)计算力;(2)大型数据集;(3)大型灵活的模型。我会加上一点:(4)明显的偏向(偏爱函数空间或者贝叶斯方法)。深度网络受益于一些对底层数据的附加假设,我在深度学习书和很多讨论中提到过:多个潜在因子的假设(分布式表征,因果关系),因子组成的假设(深度),(在卷积网络中)等方差和时间一致性的假设,(在递归网络中的)时间恒定性,等等。虽然前三个因素属于计算科学领域,但是最后的因素(也可能是最有趣的因素)明显涉及到统计学的思想。我认同Max的看法:不太可能解释大型深度学习网络中亿万计的参数,但是有可能理解这些网络中直接或间接引入的先验假设。然而,如果统计师可以接受这些问题中的计算科学成分的话,会很好,就像计算科学家已经接受了机器学习中的统计成分一样。最后,关于深度学习还有很多理论需要去发现,统计学家明显可以在其中起到作用。

所以,是的,表面上看深度学习似乎正让机器学习远离统计学,但是正像Max所说,他们在未来发展的多个方面可以起到重要作用。

Q28:你认为,深度学习未被研究透彻的众多部分中,哪个是最令人困惑的?

深度学习到处都是迷!看我之前回答《在深度学习方面有哪些开放研究领域?》(Q12)来找深度学习研究方向。

这里是一个研究得很不充分且真的令我疑惑不解的一个例子:

我们可以用一个高效在线算法(不需要储存我们一生中所有的心理状态然后倒序播放)在时间中(对于训练递归网络)达到像反向传播一样,或者更好的效果吗?大脑显然做到了这一点,但我们没有任何线索。

Q29:神经网络可以有一个关于它们内在原理的纯概率式解释吗?

通常情况下,没有事物真的是简单而纯粹的,但是大部分神经网络都有一个清晰的概率解释(事实上,近年来,我在自动编码器的概率解释中做出过一些贡献,和Guillaume Alain一起)。监督式深度学习只是学习条件概率,然而很多不同类型的非监督学习方法直接或间接地估计了数据生成分布的联合分布。

然而,它们的工作原理不是概率问题。这涉及了统计问题还有优化问题。

Q30:“机器学习领域最新的重要进展大部分是关于工程和计算能力的”,这句话对吗?

我不同意这个观点。我会说,计算能力和数据集的大小是必要的要素。在现代的深度网络中,有几个计算要素(ingredient)实际上带来了不少的不同:修正器(rectifiers,及其变体),丢弃法(dropout),批量正则化,还有某些情况里的半监督式学习和迁移学习。这其中甚至还都没有说到,由于出现了在十几二十年前没有人能想象到的算法,我们在生成式模型方面取得了惊人进展。

Q31:你认为传统的统计学习是否会在不久的将来再次战胜深度学习(或者任何基于神经网络的方法)?

神经网络是统计学习方法。

科学不是战斗,而是协作。我们都是在彼此的思想上建立自己的思想。科学是一种爱的行动,不是战争的行动。一种对于周围的世界的美丽产生的爱,一种愿意分享和合作的爱。从情感上来说,这使科学成为一种让人感到高度满足的活动。

Q32:你对于进入机器学习领域的年轻研究者们有什么建议?

确认你在数学和计算机科学领域(包括实际的部分,也就是编程)有扎实的背景。读书和(大量的)论文,但这还不够:你需要培养出你的直觉,这可以通过(a)亲手编写相当多的学习算法,比如重现论文中的结果,以及(b)学习怎样微调超参数以及怎样探索(架构、对象函数等方面的)变种。然后,找到合作者,你可以与他们一起对想法进行头脑风暴,并与他们一起分担探索和测试新想法的工作量。当然与一个已形成的团队一起工作非常理想,或者如果你是一位大学教师的话,你可以招募你自己的学生,和他们一起进行工作。

Q33:一个人要怎么才能想出新的深度学习架构?只是通过试错吗?

是,也不是。不是,因为对于一个单纯的随机搜索来说,能起作用的算法的空间太大了(均匀随机的话,找到好东西的几率非常小)。是,因为这会是一种高度引导式的随机探索,就像任何其他科学努力一样。但请尽量弄清到底发生了什么,这无疑会给你带来更多的好处。这不仅仅是与在算法的空间中进行搜索有关,它也与在这一旅途上理解更多普适的概念有关。这就是随机探索中“引导”的那一部分。它不同于只是想胜过基准测试,而且从长远来看,它对其他人来说会更有用。提出理论来解释你所看到的现象,然后通过建立一个专门为了打败这个理论而设计的实验来进行测试。不断重复这个过程。这就是科学的历久弥坚的方法。

那是一个好地方!许多我以前的学生都在那里工作。他们的研究成果很惊人。他们显然是全球进行深度学习研究(为数不多的)最好的地方之一。而且我喜欢这个想法:Google之类的公司正在向一个与产品并不紧密相连的团队所作的长远研究投入如此之多的资金。其他公司(如Facebook)已经在朝着这个方向行进,而现在我们也有了(小得多的)OpenAI。所有这些开放和长期研究投资对科学进步都很有帮助。但我相信这无法取代学术界的作用。

Q35:我们什么时候才能看到深度学习的理论背景和数学基础?

理论一直是神经网络研究的一个部分。参见我对于《Q1:在理解深度学习工作原理的道路上,我们已经前进了多远?》的回答。

我觉得我们对于为什么深度学习能发挥作用有了许多根植于理论的洞见,但是我很确定我们还会做到更多!

Q36:在研究预料之外的实验结果时,比如你觉得某个想法应该会有效、结果在实验里却没有效果,你会用到什么技术? 

好吧,通常来说,这要么是一个bug,要么就是更有趣的情况:它证明了你脑海中的模型应该改一改了!你需要变得善于寻找bug(这需要练习),在机器学习中这并不是一件容易的事,因为许多bug仍然会允许及其继续学习,只不过效果不那么好了。但无论如何,当实验结果与你的期望不符时,不要无视它!这是一个你应该为之热切期盼的机会;-)

有时候你脑海中的模型是错误的,但是别人可能不觉得你的结果让他们惊讶,于是你将需要通过交流(可能是写一篇论文,或者是与其他研究人员探讨)来找出错误。

我最好的调试工具是我脑海中的模拟系统。让模型在你的脑海中运转,越详细越好,然后试着想象有什么事可能发生。

Q37:如果“深度学习”这种词语组合不存在的话,你会怎样称呼它?

神经网络也是一个不错的词语组合。

Q38:深度学习之后机器学习中的“下一个”大事会是什么?

第一,我根本没有水晶球。第二,据我所知,当我们实现了人类级别的AI后,深度学习的使命就结束了,而我很难预见这之后会发生什么。深度学习为神经网络带来了一些想法。随着时间推移,其他概念也会加入其中,从而一点点向着实现AI方向努力。我真的认为有些想法会历久弥新。这像是在问“我们研究了过拟合、欠拟合和容量之后,机器学习的下一个大事件是什么?”(过拟合、欠拟合和容量在80年代后期开始盛行。)这些想法永远不会过时,因为它们非常有用。显然这类想法,如学习复合函数(深度)的提出(和重要性),会历久弥新。但单凭其自身无法保证这一点。我们还有很多工作要完成。

Q39:你对概率图模型是怎么看的?

概率图模型的相关研究给我(和很多其他的深度学习研究人员)提供了一些伟大的洞见。它们是很多非监督学习算法的基础,也帮助人们理解了那些看起来不像是概率问题的模型(如自动编码器)。

Q40:在自然语言方面,未来的深度学习会有怎样的发展。

我相信,对于深度学习,自然语言处理是最让人兴奋的研究领域之一。这是一个长期存在的挑战,而深度学习正试图解决它们,而且我相信我们这套正确的工具能够取得巨大进步。

Q41:ILSVRC12 ,14,15 这三个先进的解决方案分别包含5层,23层,152层的卷积神经网络。您认为基于深度学习的视觉识别在朝着什么方向发展?

应该注意这样的数据:如果每一层激活函数更具线性,那么更深的神经网络实质上不会给你带来更多东西。我认为基于深度学习的视觉识别技术将会继续被改善(尽管可能不是在ImageNet这一基准测试上,因为它几乎达到了人类的水平。)在多变场景下的全景理解还没有取得任何进展,更别说“理解一个电影了”。从某些方面来说,更好的视觉理解需要更好的AI技术,也即更好的理解世界运行机制的机器,这包括理解人与人之间的交流。

Q42:你为什么会对机器学习感兴趣?

那是在1986年,我正在为我的计算机理学硕士学位寻找一个研究主题,并且我开始阅读一些基于神经网络学习的早期联结主义论文。我一见钟情。自那以后,我对其一直很有热情并且成为它的忠诚信徒。

Q43:除了重构输入数据(例如像是自编码器这样的深度神经网络,其工作原理即是重构输入数据),还有其它什么任务能够证明对深度网络中的无监督学习有用?

就我们目前知道的就有很多,例如:

在给定其它变量的情况下,预测另一个变量(伪似然函数)

给定其它的情况下,预测多个变量的子集(广义的伪似然函数)

给定了以某种顺序排列的前部分变量,预测下一个变量(完全可视的贝叶斯网络,自回归网络,NADE,生成式循环神经网络)

给定一个有噪声的输入,恢复原始干净的信号点(去噪过程)

预测输入信号是来自于数据生成分布还是其他分布(像是一个概率分类器)(对比噪声估计)

学习一个可逆函数,使其变换分布尽可能是阶乘式的。(NICE,并且考虑到近似一个可逆函数,利用变分的自编码器就有这样的特性)

学习一个随机变换,基于此,如果我们多次运用这个随机变换,我们能够使我们的模型模型收敛到接近于数据生成分布的输出。(生成随机网络、生成去噪自编码器、扩散反演=非平衡态热力学系统)

学习生成分类器不能从训练样本中辨别出的样本(生成对抗网络)

或者最大化某个概率模型中数据的似然概率

并且我确定我忘记了一些,并且会出现越来越多的基于无监督式学习的模型。

Q44:你认为自己将来某一天会在Coursera上开讲深度学习课程吗?

当编写有关深度学习的书时,我感觉我自己用尽了我全部的精力。我需要回复一些元气。或者其他人会来教授关于机器学习的网络公开课,而且他们可能会比我做的更好!最令我感到满意的感受之一就是看到所有这些聪明的研究者沉浸在深度学习研究中。

Q45:你认为NIPS会议取得了多大的成功?

NIPS委员会正在考虑应该怎样来应对参会人员的增长。随着参会人数数量呈指数式地增长,一些像是在每个海报周围预设多少围观人数才合理之类简单的问题都是不容易得到解决的。

你认为我们应该尝试多声道口述?当房间里有数千人时,继续单声道口述有意义吗?为了自己的利益,NIPS是不是太大了呢?同样的问题之后也在ICML上出现了。

Q46:关于统计学习理论,你有什么想法?

统计学习理论是机器学习的部分理论基础(对深度学习同样适用)。我们需要用新的和更多的理论来解释用我们观察到的今天的学习算法所产生的现象。

Q47:你认为利用AI技术能够捕捉到人类失去理性的行为和思考过程吗(例如 信任)?

当然。你所谓的非理性即是指“错的”。可能不能充分适用于这种情况。信任思维是非常理性的。理性于我而言就是:“利用可用的知识,做出正确的决定。”信任,以及其它许多的人类举动都是非常理性的。如果我们不相信任何人,我们哪里也去不了。最重要的是做对的事情。生物、文化的发展以及我们自己的经历已经在我们心中对世界建立了一个模型。但是我们没有意识到它的大部分。理性对于我来说,不是可以用几句话或者几个词就能够解释的。它对于我来说就是意味着最优的决策。

Q48:基于你以前的工作——不同时间段下的分离的循环神经网络(1995年),你认为最近的Clockwork 循环神经网络(Clockwork RNNs)怎么样?

它是一篇非常好的论文,但是我认为我们还没有解决如何学习时间层次的问题。在我1995年NIPS论文上,基于clockwork RNN(钟摆循环神经网络),时间层次结构是固定的。我想看到这样一个结构:可学习的,动态的(例如,在一个被处理的序列中,在不同的时间点是不一样的。)

Q49:你认为我们拥有一个支持或解释深度学习原理的理论框架有多重要?

我认为追求更多的关于深度学习的理论研究是一件非常有价值的事。

几年前,我认为它之所以重要是为了为人们提供便利。现在,实践结果如此强大,以至于当初的动机已经开始转移了。将来更好的理论能够帮助我们建立更好的算法。

Q50:在机器学习中解释一个模型有多重要?

这个问题就像是在问“一个人能够完全解释他的每个想法有多重要?”

那当然很好啦,但是对于我们发现人类(或机器)是否一个好伙伴来说,不一定必要的。可解释性已经被大肆地热议过了。在使用一个模型前我们真正需要的是对一个训练模型泛化能力的可靠保证。(这也正是围绕一个训练模型不断计算其测试的错误率以及不断评估其不确定性要达到的目标)。那即是指:我们应该尽我们所能来理解机器学习模型的内部到底是如何工作的,因为只有这样,才能够帮助我们排除模型中出现的故障,并且了解到模型的局限性,进而建立更好的模型。

Q51:你认为有可能让算法从通常被当做是噪音的数据中提取出有用的信息吗?

只有当其中存在一些潜在统计结构时!(即使我们没有看到它)

我确定,听见我说话的猫只是认为我在发出一些有趣的噪音(例如,对于猫来说,当声音变得响亮或声调高时,这些噪音才包含信息)。当我听到一个完全不同的专业人士用各种专业词汇谈论某个话题时,这也很快也会变成噪音。只有当我们构建了合适的模型时,才能把噪音变得有规律,例如,用与众不同的方式来预测,会承载有用信息。

Q52:我们如何让深度学习在计算能力较低的设备(如手机)上运行?

开发专业硬件,设计相应的学习算法。在我的实验室中,我们研究在很低的分辨率下且不需要使用任何乘法运算的神经网络的实现方法。这在很大程度上会减少计算消耗。

Q53:和你一起工作有哪些非学术的方式?

我经常和不在我实验室的人远程合作(例如在这个星球上的其他本科学生)。

Q54:加拿大蒙特利尔有哪些有趣的初创公司?

Q55:你对哪些有志于PhD项目的学生有哪些意见?

  • 做所要具备的心态书是啥?
  • 我们在小红书卖的是啥?
  • 做这个项目能赚多少钱?成本高吗?
  • 具体课程资料怎么定价?
  • 你的目标客户是一些什么人?
  • 做这个项目有没有淡旺季?
  • 前期一些基础的账号准备工作?
  • 那我要怎么养号?一些注意事项你要牢记在心
  • 我们要发什么内容的笔记才能引流呢?
  • 再具体说说内容怎么找?
  • 如何拿同行图片,去水印?
  • 笔记怎么制作?图片怎么PS?
  • 如何留下钩子,吸引用户找你?
  • 用户引导到微信的成交话术?
  • 这些网课资料如何获取?
  • 如何给同学解答这些专业的问题的?

全文4514个字。预计你可以慢慢看。

可以说呀,我这个是全网最全的关于这个小红书项目的级,很多人在卖几百块,几千块的这个项目课程,就是我以下的这些内容了。

唯一的区别就是:他们包装的比较好而已,我免费公开罢了。

只是很多人会觉得免费的东西就廉价,可能你看完我的项目拆解,会改变这个想法吧。

做这个项目所要具备的心态

在做项目之前听我唠叨一下,除了一些基础的准备之外。还需要你具备超强的执行力+一颗不服输的心+及时纠正自己的态度

做任何事情都是有捷径的,很多时候你没跑通可能是因为就是没用用对方法。任何项目的前期都是具备蛮多的不确定色彩的,所以你不要担心“是不是项目不好”“是不是账号的问题”…..诸如此类问题,容易让自己陷入内耗。

但凡有一个图文成为小爆款,你的咨询都是源源不断的,所以不用担心。你只需要做事情就是,认真研读之后执行即可。

好了废话不多说,进入我们本次的保姆级的项目拆解教程《小红书虚拟资料》

我们在小红书卖的是啥?

①因为小红书是一个图文平台,不需要很臭的这种软文输出,只需要你会写小作文,很简单的这种基础文案+素材+基础图片处理就好了。

②那些考研的、考证的、考四六级、考各种乱七八糟的人(学生、小白领专业工作从业者)你说他们学习会去刷抖音找资料吗?一般都是去小红书看看学习博主的经验分享呀。

知乎的文字太多,很多人静不下来看。但是小红书图文并茂,而且都是一些精华总结,非常适合一些喜欢总结性学习的人。他们就是不喜欢看臃肿的文字资料,就喜欢看小红书这些图文并茂的内容,很容易静下心来去研究。

另外,小红书博主本身具备一个信任感,大家都喜欢找“靠谱的学长学姐”去获取资料。所以这个也是我们选择小红书平台引流的重要原因之一了。

③他们会去看一些相关机构的课程,但是很贵很贵,很多人是负担不起的。所以也是这个需求大的最大原因之一,几十块能够看到几千块的课程内容,所以他们就会选择和你购置。在米先生看来,他们的消费能力有限,也是此类资料需求大的最重要的因素。

做这个项目能赚多少钱?成本高吗?

首先,这个项目是非常适合互联网底子比较薄的人去做的

做微商,已经过时了,买货的人基本都是身边几个朋友。做抖音,你又基本工还不扎实,很多专业技能不具备,还得投入设备、豆荚等等的成本费用。综合之下,这个项目无疑是适合你的。

做其他项目,你还得去学,不如看完教程算了。

类似这样子的课程来源太多了,几十块钱就能搞定全套课程存在百度云。剩下你就做好引流,一套就纯赚几十块,十套就几百块,边际成本极低。也不需要后期的维护。

具体课程资料怎么定价?

可以是,站长会进行审查之后,情况属实的会在三个工作日内为您删除。

您可以在本页面,并在留言结尾打上签名及时间戳(编辑框第一行第三个按钮,或者直接输入“——~~~~”),方便大家分辨留言。

@人的方法:只要在页面上写下需要@的人的个人链接,对方就会收到提示。个人链接样式为为[[User:用户名]]

不可以擅自删除别人的留言哦~

能给我 JS 权限吗? 我想做个制空计算器... --()

@抱歉现在才看到。可以啊,具体需要什么权限呢?还有,您真的没有QQ么……这么交流很不方便啊——() 2016年5月6日 (五) 22:13 (CST)

首页页面活动公告更新和换装台词更新[]

话说过了这么久都没有人更新上次万圣节新增换装的台词,以及最近你萌发了版本更新公告和生煎活动公告都没有更新啊!--() 2017年11月7日 (二) 16:12 (CST)

台词中有一句日语语音不见了[]

的台词没有换装”小时候的衣服“的特殊台词啊[]

关于损坏图片修复计划[]

大部分都处理完了 剩下两个场刊封面我看看去哪能搞到 还有个* 并没有没有页面链接到该文件 是否仍需修复?——() 2017年12月19日 (二) 20:05 (CST)

@,感谢您对百科的支持与帮助,关于* ,既然没有页面需要这张图的话,那就无需修复了。() 2017年12月19日 (二) 20:13 (CST)

历次场刊页面里的场刊萌帝国链接似乎全数阵亡 页面已经没有存在意义 我认为没有修复的必要--() 2017年12月19日 (二) 20:16 (CST)

情人节换装相关内容更新[]

这么久还没有人补充情人节换装的立绘和台词。--() 2018年2月19日 (一) 08:10 (CST)

三周年贺图页面选择[]

具体页面的同人创作那个标题里面只有二周年的贺图链接,要搜三周年的只能点击首页的三周年贺图链接或者用搜索方式找到。希望能够在具体页面的同人创作这个分类栏加上三周年的。--() 2018年2月23日 (五) 15:12 (CST)

首页的更新内容公告有缺失[]

话说首页的更新内容公告缺了誓约后的台词增加舰娘和优化建造和开发池的内容。--() 2018年4月4日 (三) 11:48 (CST)

3.7.0追加的誓约后台词里面祥凤的夜间特殊二台词“祥凤她晚上总是端着个小屏幕在那摇头晃脑,不知道在做些什么。要是被其他人看见,一定会以为她是癫痫发作了吧。”中的“祥凤”参考瑞凤对应的台词应该是“瑞凤”;加拉蒂亚新增的所有台词涉及到佩内洛珀的都打成佩内洛铂。这两个地方是否录入错误还是原本幻萌日常的文案病?兰利新增的台词是否没有涉及到改造后的?这次更新新加的换装台词还没有添加。--()

另外,我上面反馈的两个问题(、)还是没有修复啊--() 2018年4月21日 (六) 20:13 (CST)

@伟大的小逗比 那个修复了啊。我打开台词那里可以看到啊--() 2018年4月21日 (六) 23:05 (CST)

任务项目的奖励有部分不显示[]

在限时任务的词条中编辑劳动节的系列任务中的“劳动节的苏大人”里面的奖励20个战利品和5个珍藏的大胃王出现了显示的BUG,两个奖励只能显示出一个,求修复--() 2018年5月1日 (二) 23:09 (CST)

不一定是网站自身问题的页面转跳问题[]

最近一段时间我打开百科词条之后都无法点击切换正常/大破/改造立绘,使用的浏览器是Chrome,Edge干脆就读不出来,已清过缓存重启过电脑,似乎没有改变状况,是不是我漏掉了什么? ——() 2018年5月13日 (日) 11:51 (CST) 追加更新:已证实是Chrome无法兼容Java所导致,Java更新后微软官方两个浏览器可正常运行。 ——() 2018年11月04日 (日)

部分船只的换装台词文本缺失[]

、、、、和的换装台词和相关的获得换装前后台词都有不同程度的缺失,望修复。--() 2018年5月20日 (日) 23:07 (CST)

已经全部补充完毕,多谢提醒。顺便一提,百科数据库提供了非常多的自动化模板,这些游戏中的内容已经不需要逐字输入了,您可以参考一下解放编辑者的生产力。——() 2018年5月21日 (一) 21:28 (CST)

克拉克斯顿的新增誓约台词缺失[]

公告说了更新誓约后的台词,但是台词的数据库那里没有相应录入。望补充--() 2018年6月1日 (五) 07:52 (CST)

Z21改造技能模板无法显示[]

目前百科里面Z21改造的技能模板显示代码出错,无法显示正确的内容。--() 2018年6月2日 (六) 19:36 (CST)

关于幻萌造船厂这个条目可以在杂学那里添加对应的栏目[]

既然新增了这个杂学条目,那么对应的杂学内容也相应加上这个栏目来方便查找。--() 2018年6月4日 (一) 22:41 (CST)

关于纳尔逊页面貌似遭到恶意编辑[]

纳尔逊的具体页面中的关于原型简介的内容被人删去了,希望管理判断一下是否恶意编辑,顺便恢复

确实有点蹊跷,把一幅2017年初日本女提督画的同人图放进了台词了。然后再一次编辑把原型简介都给删了。 我不是管理,就手动把原型简介复制粘贴回去了。那张同人图已经被别的用户编辑掉了--() 2018年6月14日 (四) 21:25 (CST)

关于解析器函数调用警告[]

编辑纳尔逊页面时的警告 : 这个页面有太多高开销解析器函数调用。它应少于100次调用,而目前有114次调用。

关于早期型MK7在威斯康星页面的描述[]

在中,在介绍舰娘自带装备的时候,第一格自带的装备为早期型MK7,但下面的描述却写着“仅限密苏里装备”。很明显这个描述已经过时且不准确了,希望能更改。--() 2018年6月21日 (四) 05:34 (CST)

数据库的数据没有更新[]

现在还没有把罗马的换装、港区世界杯换的那4个装备和胖次活动新加入的兑换装备加入到数据库里面。另外还有就是装备获取项目里面还缺了一些最近更新的装备,例如圣盾作战的奖励、乔治·埃夫洛夫的主炮、联合力量的主炮等。--() 2018年7月16日 (一) 18:55 (CST)

刚刚已经更新了——() 2018年7月17日 (二)
另外日服联动那两个换装应该也要加上中文的台词和替换掉原有的日文吧--() 2018年7月17日 (二) 09:06 (CST)

帝国改的自带装备有P.1099求补充

新手入门的舰娘界面信息的图过时[]

新手入门的舰娘信息第二幅图,没有战术那个界面,属于过时了。望更新新版的

首页公告出现缺失和舰种错误[]

首页公告里面新增掉落那两个西班牙船的舰种错了。加纳里亚斯是重巡,门德斯·努涅斯是轻巡。新改造那里漏了长门。望修正--() 2018年9月20日 (四) 18:53 (CST)

几个链接连接不到正确的位置[]

有好几个飞机因为中"()"英文"()"括号不同导致无法连接到正确地址(还有Me-155)并且F4F(约翰·萨奇)获得方式介绍不显示

关于新手入门中偷资源的偷弹[]

在尝试偷弹操作的时候,发现使用二技能俾斯麦(四个格子装备上大型装甲)时,由于索敌不够,偷弹最少需要过两个点(消耗52单位的弹药),而资源点的弹药只有45单位。是我操作不当,还是游戏修改了呢?如果是操作不当,希望能有更详细的附注;如果是游戏修改,那么偷弹的方法就不行了。 --() 2019年1月7日 (一) 10:29 (CST)

技能列表里面出现错误[]

法国舰娘埃德加居内没有大破立绘;美国舰娘印第安纳正常立绘和大破立绘都没有----() 2019年2月5日 (二) 17:38 (CST)


坎伯兰 瑞凤 斯普利特 苏联 提尔比茨 絮库夫等没有更新立绘

装备页面的特效说明不明显[]

装备页面的特效说明文本看起来太不明显,建议加上背景/框架。

建议增加深海技能数据[]

建议给深海boss加上技能数据。

沙俄/苏联海军舰只列表模板显示错误[]

在具体模板编辑的时候能够显示库图佐夫的词条已经创建,但是打开该词条里面显示的舰只模板仍然显示成灰色状态。希望检查下究竟怎么回事--() 2019年3月9日 (六) 09:55 (CST)

模板其他索引缺失和添加放映厅[]

原本打算在模板:其他索引添加放映厅的项目,但是打开模板编辑后,发现没有这个编辑条目,求修复。--() 2019年5月28日 (二) 09:30 (CST)

敌舰队里少了401的条目,我觉得她还是很重要的吧,算是深海主角之一了。 而且她对深海很多旗舰有自己的评价,算得上是一设了,可以总结到条目中。 --() 2020年2月19日 (三)

有许多外链图片会出现无法加载的情况,本人有时将外链图片链接重新添加后会暂时得到解决,但问题不久后重新加载条目时会再度出现,希望能看一看是否出现了什么问题。@ @

有时我刷新可以看到,据说微博的外链无法加载是渣浪那边问题。--() 2020年3月8日 (日) 10:56 (CST)

OK,谢谢大佬回复。另外请问我昨天编辑的这个页面,那两项船只数据是有什么问题吗?我是在英文维基上搜索的原资料啊…… @ --() 2020年3月8日 (日) 14:29 (CST)

我没有梯子,所以不清楚具体问题,而且也不是大佬。如果有具体问题可以加编辑群问那里的大佬。--() 2020年3月8日 (日) 17:27 (CST)

我上传了一张吕特晏斯的图片但是它显示为无效,如何解决?,16:09

是这张吗?→,没有问题啊,写进正文里就行了。还有上传图片的时候最好不要取乱码名字,哪怕稍微起个正经名字都行。——() 2020年9月24日 (四) 23:17 (CST)

舰船详细界面应该考虑加上cost属性了[]

这次模拟演习活动新加入的cost属性感觉是活动里蛮重要的参考值,而且这种活动以后是常驻活动,增加这个应该很有必要。 --() 2020年5月19日 (二) 10:43 (CST)

埃塞克斯的标题画面的台词是“战舰少女r”然而现在是空的,能编辑一下么?[]

埃塞克斯的标题画面台词求更新——————

台词模板更新以后,除非有特殊登录语音,就不特意写明了——反正你们都知道是那句——() 2020年9月24日 (四) 23:20 (CST)
@需要ROOT,进入/DATA内寻找。——()

的简介有问题,望修复[]

“游戏数据”段落下的官方简介,把T国显示成了泰国,实际上应该是土耳其,我不会改这里的内容,希望能修正一下--() 2021年3月8日 (一) 20:21 (CST)

部分舰娘获得方式显示不完全[]

马里兰的获得方式为掉落(8-1~8-2,8-4),但是也可以通过建造获得,时间为4:40:00,除了马里兰应该也有很多舰娘的获得方式尚未补全。

部分舰娘获得方式不完全[]

马里兰在百科中的获得方式为掉落(8-1~8-2,8-4),但是也可以通过建造获得,时间为4:40:00,除了马里兰应该也有很多舰娘的获得方式尚未补全。 --() 2021年5月5日 (三) 13:12 (CST)凉汐

由于网络问题导致重复发帖,在此道歉!

关于百科在舰R更换U3D后[]

幻萌在使用U3D后更换了加密方式,未来的一段时间里百科还能及时更新吗?--() 2021年6月26日 (六) 22:40 (CST)

似乎没有解体/解装的页面[]

如题。似乎舰船达到一定等级或好感度达到一定数值,舰船就不能解体/解装了,不过这部分的规则是怎么样的,没有页面介绍。于是想问一下。--() 2021年7月18日 (日)

舰船的解装与否取决于是否在出征或者远征队伍中,与好感和等级无关。--() 2021年7月19日 (一) 15:02 (CST)

关于新版本舰娘的词条[]

NGA上已经有人发布了新版本舰娘的立绘素材,不知百科上何时能更新呢--() 2021年7月27日 (二) 20:54 (CST)

求一个台词文本的解包方法[]

参考百科做视频的时候发现有些舰娘的台词不全,所以我想求大佬教一下游戏内储存文本的文件是什么 ——() 2021年11月2日 (二) 16:44 (CST)

更新了Unity版本(5.00)以后已经没有对应的文件了,现在都是百科手工收集。现在除了几个新换装以外应该都是全的,有些舰娘没有婚后的台词,那就真的没有了。——() 2021年11月2日 (二) 18:49 (CST)

谢谢回复,就我目前来看,秘书舰台词和誓约台词是全的,但是提督室台词和拜访好友台词有些就没有了,比如兰利改前改后都没有收录 ——()

的确是疏漏了,后面慢慢补上缺失的部分。--() 2021年11月7日 (日) 19:46 (CST)。

请问现在的Q版小人是没有办法解包出来么,看起来自从更新引擎后Q版就再也没更新过了。--() 2022年3月25日 (五) 18:56 (CST)

的确如此,这个和深海数据一样暂时没有人能够拆出来。--() 2022年3月31日 (四) 10:03 (CST)

最近有消息指出长春的技能在鞍山和济南实装时分别经历了两次加强,我不知道怎么操作,希望能更新一下 --() 2022年5月28日 (六) 20:19 (CST)

我要回帖

更多关于 女生问你图她什么怎么回答 的文章

 

随机推荐