东方头条自媒体入驻驻以高斯名义有优势吗

只需一步,快速开始
雷得丝俺的杰特闷:好网论坛启用更快更稳定的新网址&&&&旧版
停止注册发帖,可以浏览和登录搜索查询旧帖。
给大家带来的不便深表歉意~(*^__^*)~
查看: 11001|回复: 13
推广度0 金币1 水吧豆0 惊喜券1622 所在高校西安电子科技大学性别男在线时间69 小时最后登录帖子好友精华0积分325注册时间UID384038
八品县丞, 积分 325, 距离下一级还需 15 积分
该用户从未签到性别男惊喜券1622 水吧豆0 金币1 帖子
推广度0 金币79 水吧豆170 惊喜券4883 性别男在线时间643 小时最后登录帖子好友精华3积分11223注册时间UID258837
签到天数: 1 天[LV.1]注册看看性别男惊喜券4883 水吧豆170 金币79 帖子
技术问题 标题加红~~帮顶~~~
推广度0 金币107 水吧豆2 惊喜券11606 性别男在线时间371 小时最后登录帖子好友精华0积分9643注册时间UID147539
一品太师, 积分 9643, 距离下一级还需 877 积分
签到天数: 69 天[LV.6]伴坛终老性别男惊喜券11606 水吧豆2 金币107 帖子
推广度0 金币3 水吧豆0 惊喜券1916 所在高校西安电子科技大学性别男在线时间55 小时最后登录帖子好友精华0积分302注册时间UID384504
八品县丞, 积分 302, 距离下一级还需 38 积分
签到天数: 1 天[LV.1]注册看看性别男惊喜券1916 水吧豆0 金币3 帖子
推广度0 金币156 水吧豆12 惊喜券3587 所在高校西安电子科技大学性别男在线时间419 小时最后登录帖子好友精华0积分2352注册时间UID39406
四品知府, 积分 2352, 距离下一级还需 128 积分
签到天数: 3 天[LV.2]初来乍到性别男惊喜券3587 水吧豆12 金币156 帖子
自相关为冲激函数,在零点取值无穷大。但自相关在零点的取值难道不等于随机变量的方差?噪声幅度服从的高斯分布,方差是无穷大?
推广度0 金币156 水吧豆12 惊喜券3587 所在高校西安电子科技大学性别男在线时间419 小时最后登录帖子好友精华0积分2352注册时间UID39406
四品知府, 积分 2352, 距离下一级还需 128 积分
签到天数: 3 天[LV.2]初来乍到性别男惊喜券3587 水吧豆12 金币156 帖子
遥远的那颗星 于
15:33:07 在大作中提到  自相关在零点的取值为随机变量的均方值,物理意义是平均总功率!方差=均方值—均值的平方,物理意义是  平均交流功率=平均总功率-平均直流功率所以自相关在零点的值不等于随机变量的方差!好吧,零均值,这下等于了吧。问题没变。
推广度0 金币156 水吧豆12 惊喜券3587 所在高校西安电子科技大学性别男在线时间419 小时最后登录帖子好友精华0积分2352注册时间UID39406
四品知府, 积分 2352, 距离下一级还需 128 积分
签到天数: 3 天[LV.2]初来乍到性别男惊喜券3587 水吧豆12 金币156 帖子
遥远的那颗星 于
12:53:52 在大作中提到
darxide 于
4:12:47 在大作中提到好吧,零均值,这下等于了吧。问题没变。
&所有结论的前提条件是:“理想高斯白噪声”,理想高斯白噪声的功率谱密度为一常数,带宽为负无穷到正无穷!由此可推出高斯分布的方差为无穷大,那该高斯分布的概率密度函数的峰值趋于零。
理论上,以上成立!
但实际中不存在理想的高斯白噪声,即带宽为无穷大的白噪声不存在!因此方差为无穷大的高斯分布也是不存在的!
也可以这样理解:取一有限带宽为W的高斯白噪声,即可求出对应的一个高斯分布的方差为有限值!
让白噪声的带宽W趋于无穷大,那么高斯分布的方差也趋于无穷大,概率密度函数的峰值将趋于零!
实际中以上都是不存在的!&&&&&&&&&
问题并不在于这些概念在现实中存在与否。作为相关学科的基本概念,把它们搞清楚而不是带着N多疑点蒙混过关,才是重点。方差趋于正无穷时高斯分布的概率密度函数一阶导趋于0,即概率密度函数蜕化为常数,高斯分布蜕化为无穷区间上的均匀分布。也就是说,理想高斯白噪声的幅度并不服从高斯分布,这与高斯白噪声的定义是否存在矛盾?注意极限意义下分布的性质已经改变了,就像极限意义下的多项式函数可以变成指数函数一样。
[该帖子由作者于日 22:24:25最后编辑]
推广度0 金币0 水吧豆0 惊喜券0 性别男在线时间0 小时最后登录帖子好友精华0积分2注册时间UID400563
婴儿上路, 积分 2, 距离下一级还需 2 积分
该用户从未签到性别男惊喜券0 水吧豆0 金币0 帖子
wangtaolf 于
23:18:00 在大作中提到如果一个高斯白噪声(模拟信号)的均值为0,方差为1,那么均方值就为1了,但是老师说白噪声的功率是无穷大的,也就是说自相关函数在零点取无穷大(实际上自相关函数应该是一个冲击函数),才能保证功率谱密度是常数,这些乱七八糟的东西搞得我好乱啊,救救我吧!个人认为 白噪声的能量无限 但功率是有限的 也就是说 冲击函数在零点的取值并不是无穷大 不知道楼上几位是如何想的 能不能交流一下。。。
论坛帅哥奖
medal15.gif
优秀管理奖
medal20.gif
medal33.gif
金牛座.gif
2B青年.gif
沙发达人.gif
medal23.gif
2010南非世界杯特别勋章
medal37.gif高斯单位制_图文_百度文库
两大类热门资源免费畅读
续费一年阅读会员,立省24元!
高斯单位制
上传于||暂无简介
阅读已结束,如果下载本文需要使用0下载券
想免费下载更多文档?
定制HR最喜欢的简历
下载文档到电脑,查找使用更方便
还剩5页未读,继续阅读
定制HR最喜欢的简历
你可能喜欢高斯君看报 | 纸媒成为广告主二次传播跳板
作者:高斯中国 微信公众号
高斯君注:自媒体在传统媒体上打广告,这难道不是黄鼠狼给鸡拜年吗?这玩的是什么套路?这则广告之刊登后,便顺利地在朋友圈刷屏,同时还攻占了门户网站和论坛,完美的实现了新闻二次传播。广告和文案们当然也不会放过这个借势的机会,立马就有P图开始跟风秀创意了。过去,一些传统媒体人会说新媒体人的内容简单粗糙,没有高度,新媒体人则认为传统媒体在没落,广告价值越来越低。这则广告告诉大家,在合理合法的基础上,纸媒广告创意做到不拘手法、脑洞大开,传统媒体便会成为内容的引爆,新媒体成为创维传播的渠道,因此融合和互补才是最重要的主题。纸媒成为广告主二次传播跳板,该喜还是该悲文 王凤哲来源:蓝鲸财经记者工作平台5月24日晚,媒体人的朋友圈被同一张图片刷屏,从图片上可以看到,地域类大号“南宁圈”和熊猫自媒体联盟联合承包了5月25日《深圳晚报》的头版。广告语也很无厘头。有网友评论,这两句广告一唱一和,耐人寻味,虽然无厘头,但相较于攻占了大街小巷的某资讯类APP的广告文案“不管怎样,反正就是要看XX头条”的那种狂空滥炸,这两句广告还是有些莫名的喜感的。这是继“有车以后”登陆央视做广告后,两家自媒体同时任性地承包报头,新媒体与传统媒体的又一次碰撞,刷新了外界对自媒体的固有认知。依靠诡异莫测的喜感文案、新媒体逆袭的新闻话题以及媒体融合的讨论,这则广告顺利地在刷屏朋友圈的同时也攻占了门户网站和论坛。完美实现了新闻二次传播。广告和文案们当然不会放过这个借势的机会,很快就有P图开始跟风秀创意了。商家和网友根据《深圳晚报》广告制作的宣传页所谓,二次传播是发生在一次传播内容基础上的信息再次传播,这就需要一次传播的内容要是好的内容或是具有冲击力的内容,才能够很好的引起关注和舆论,在此基础上才能衍生出二次传播。尤其是微博微信等社交媒体的高度普及,一条话题可以迅速攻占社交媒体榜并迅速发酵,这几年新媒体广告在这一方面玩儿的风生水起。以神州专车的一个广告案例为例,神州专车曾发布一个名为"BeatU,我怕黑专车"的系列海报广告,这条广告一经发布,就因其不正当竞争、合成的广告画面及错别字等引起舆论的声讨。同时错别字也被搜狗和360手机助手等纷纷借势营销。在这强大的舆论讨伐中,大家口耳相传"我承诺,我不打神州舟车"及"神"文案的"逗比",都引发了更多人来关注神州专车,期待神州的危机公关会走什么套路。神州专车的广告被指抹黑同行,甚至广告文案还有错别字,不知是否有意为之事实上传统媒体在话题广告的制作上才是真正的不断给人意外惊喜,这其中首先就当属人民日报开天窗。15年5月14日,在人民日报的9版、11版、13版以及16版四个整版,均为vivo的广告。众网友纷纷感叹,敢这样打广告,人民日报也是头一遭;敢这样在人民日报打广告,vivo也是真土豪。人民日报作为中国共产党的机关报,向来以严肃示人,虽然人民日报也会刊登广告,而且整版广告也不是什么新鲜事儿,但是像这样的“无字天书”,外加“卖萌”广告文案,着实让人意外。但此举引来的多为赞赏之声。而这次跟vivo的合作,从某种意义上说,也是《人民日报》利用二维码在vivo的平台上为自己做了一个广告。业内人士表示,这也很符合商业规则,各取所需,互惠互利。除了纯白天窗,人民日报也玩儿艾特。无独有偶,人民日报在玩艾特和南方都市报的纯黑广告版巧合一般同时在网上走红。两家报纸联合上演了一出《红与黑》。南都的“揭黑”广告引发了互联网的一篇猜测声,答案揭晓原来是南方黑芝麻糊的广告其实,真正把广告文案玩儿火的是《南方都市报》,南都从14年就开始借鉴《纽约时报》的整版悬念式广告,广告创意脑洞大开,广告文案诡异刺激,广告手法不拘一格,每每夺得微博话题前列,一度引得公众竞相猜测又是谁家的广告。如此“意识流”的演出,加上网络的发酵传播,不得不说好似新型的病毒式营销。其中一次引发大争议的是2013年的“张太”广告。当时,广告文案以“张太”的身份,向“前任张太”公开喊话,一时引发极大的关注和讨论。一时间“张太体”风靡网络。但此事也引起了巨大的争议,当地工商部门认定此广告“违背社会良好风尚”,系商业炒作,并对南都相关人员进行了约谈并叫停广告。有消息称韩后广告被叫停韩后遭受了一定的损失除了上述的经典案例,南都“奇葩”广告还有很多:“牛小慧事件”正室祝福后妈,原来是说雅士利奶粉推广“第二道奶”;看似老中医求职,原来是“林氏木业”为双十一活动暖场;“双11史上最牛不约”直指国内某电商巨头;“范冰冰第二美”竟公然调戏新《广告法》;“冷”了好几天,才发现是广州万达城室内滑雪乐园的预热……这些广告几乎都是刚刚登出就引爆了微博和朋友圈,成为热门话题。但总是给人一种,为了吸引眼球,变着花样炒作之嫌。产品的品牌价值传播似乎被段子和花边新闻淹没了。事实上,纸媒的黄金十年随着房地产红利的衰退与互联网的冲击,已日渐式微。而南都等报纸上演的这场奇葩广告“汇演”,确实让人感觉到一些广告主对纸媒没有“放弃治疗”。但深究其原因,其实也只是广告主把纸媒当作跳板,主要目的还是在网络上的二次传播。同时也由于互联网界限太广,再大的声音也淹没在茫茫资讯当中,反而纸媒这一媒介因为传统观念的认可与品牌优势等特性,在纸媒上上演一场“意识流”的演出,再用网络发酵传播,确实是一种最为便捷、有效的广告形式。但是这样的奇葩广告,纸媒一次次地刊发,真的好么?欢迎关注“高斯中国 goss_china”微信公众平台。欢迎评论和转发(转发时请注明出处)。欢迎投稿和荐稿。联系邮箱:
相关微信文章:
相关推荐:
本网站所有内容均采集自网络,如有侵权麻烦邮箱联系删除。【数据科学】数据科学书上很少提及的三点经验_数据科学自媒体_【传送门】
【数据科学】数据科学书上很少提及的三点经验
数据科学自媒体
【编者按】本文作者指出了关于数据科学书上很少提及的三点经验:模型评价方法是关键,特征提取是根本,模型选择而非数据集规模最费时间。文章指出,处理上万维的特征和几十万的样本的现代算法是愚蠢的,而特征工程理论还不完善,更像是一门艺术。这是数据科学大行其道的时代。各类课程、博客、培训学校如雨后春笋般出现。然而,每次我浏览这些学习资料时,我发现它们过于强调一些具体的算法。理解逻辑回归或者深度学习的原理当然很酷,可是一旦从事数据相关工作,你会发现还有其它一些同样重要的事情,甚至更为重要的。我真不应该去责备这些课程。我在大学任教机器学习课程很多年了,课堂上主要是讲解具体算法。你掌握了支持向量机(SVM)、高斯混合模型(GMM)、k均值(k-Means)聚类等算法的细枝末节,但是直到写硕士论文的时候才学会如何正确地处理数据。那么何谓正确?最终结果难道不能验证处理方法吗?得到出色的预测效果是否意味着一切顺利呢?显然没错,但关键是确保算法在未来数据上仍旧得到出色的效果。我在别处也写过,如果仅凭着训练数据的表现就轻信自己的算法,实在是太自欺欺人了。那么下面是我的三个主要见解,其它书本里很少提及。1、评价方法是关键数据分析/机器学习/数据科学(或者无论你如何称呼它)的主要目标就是搭建一套系统并且将来在测试数据上效果好。监督式学习(例如分类)和非监督式学习(例如聚类)的差异导致很难笼统地解释它,但无非都是你收集一个数据集合,在其之上搭建系统和设计算法。但最终你需要将这种算法应用于未来的数据,同时希望确保在新数据上的表现和在原始数据集上的表现几乎一样好。初学者常犯的错误就是仅仅关注手头数据集上的表现效果,然后认为在未来数据上同样奏效。不幸的是这种情况非常稀罕。我们暂且以监督式学习为例,它的目标是根据你的输入预测输出结果,比如把邮件分为垃圾邮件和正常邮件两类。如果你只考虑训练集数据,那么机器很容易记住整个训练集,然后返回完美的测试结果(除非数据自相矛盾)。事实上,对人来说这种情况也很正常。还记得你在学外语背单词的时候,总是把单词顺序打乱来测试吗?因为否则大脑就会凭着之前单词的顺序来回忆。机器凭借它们存储和读取大量数据的强大能力,轻而易举地完成同类的任务。这就造成过拟合现象,还缺乏泛化能力。因此合适的评价方法是模拟有未来数据的场景,把数据集一分为二,一部分做训练集,然后在另一部分测试集数据上做预测。通常,训练集被分得大一些,这个过程也会重复很多遍以得到一系列测试结果,来观察算法的稳定性。这整个过程就称为交叉验证。为了模拟在未来数据上的性能,,你需要把现有的数据一分为二,一份用来训练模型,另一份仅用于模型评估。然而,差错还是会时常发生,尤其当数据集是非静态的,也就是说,数据的分布随着时间而发生变化。现实世界的数据往往如此。一月份的销售图表和六月份的看上去会迥然不同。或者数据点之间相关性很高,就是说若你知道一个数据点,那另一个样本数据的信息也八九不离十了。打个比方,拿股票价格来说,天与天的波动并不剧烈,那么以天为单位随机切分训练/测试数据集会导致训练集和测试集的数据高度相关。上述情况一旦发生了,你就会得到过度优化的结果,而这个算法在真实测试数据上的表现并不尽如人意。在最坏的情况下,你费尽精力说服别人采用你的算法,而算法却失效了,因此学会正确地评估模型是关键!2、特征提取是根本学习一种新算法令人激动,可事实上大多数复杂算法的效果大同小异,真正造成差异的是原始数据如何转化为用以学习的特征这个步骤。现代学习算法十分强大,处理上万维的特征和几十万的样本都是小菜一碟,然而事实却是这些算法最后来看都是愚蠢的。尤其是那些学习线性模型的算法(如逻辑回归,线性支持向量机)简直和计算器一般简陋。它们从足够的数据样本里鉴别出有效信息的本领很强大,但如果有效信息并不被包含其中,或者不能用输入特征的线性组合所表示,它们就没有了用武之地。它们本身也无法通过“洞察”数据来完成数据精简这一环节。换句话说,如果找到合适的特征,数据量就能被大大缩减。理想情况下,如果把所有特征缩减到只剩下你想预测的方程,那就没什么可学习的了,对吧?这就是特征提取的强大之处!需要提醒两点:首先,你必须确保完全理解这些等价算法中的一种,然后就可以一直用下去了。因此你并不真的需要逻辑回归加上线性SVM,选一种就够了。这还包括明白哪些算法几乎是等价的,使用这些模型的关键点在哪里。深度学习有些区别,但是各种线性模型的表达能力几乎一样。尽管,训练时间、解的稀疏性等会有差别,但大多数情况下它们的预测能力是相近的。其次,你必须完全掌握特征工程。不幸的是,这更像是一门艺术,而且因为理论不完善书本里很少提及。特征值归一化是一条捷径。有时候,特征值需要取对数计算。若是能够降低一部分自由度,也就是说去掉数据中对预测结果没影响的那部分变量,你所需要训练的数据量将会大大降低。有时候这些转换很容易被发现。例如,如果你要做手写字符识别,只要有前景和背景的区分,那么字符的颜色对识别显然是不重要的。我知道课本总是推销一些看起来很强大的算法,似乎只要你把数据扔给它们就万事大吉了。从理论观点和无穷的数据来源角度来说,这也许是正确的。但现实中,数据和我们的时间是有限的,寻找高信息量的特征绝对是至关重要的。3、时间瓶颈是模型选择,而非数据集规模这是个在大数据时代你不愿大肆提及的事物,可是大多数数据集都能被完全加载到主存里。你的算法同样可能也不需要消耗太多时间计算。但你需要花费大量时间从原始数据中提取特征,通过交叉验证来比较不同特征提取方法和不同算法参数的效果差异。在选择模型时,你尝试无数次各种参数的组合,并在相同的数据集上评价效果差异。问题归根结底在于组合项的爆发式增长。假设现在只有两个参数,并且训练模型和在测试集上评价效果(按照上述正确的评价方式)需要大约一分钟时间。如果每个参数有5个候选值,采取5折交叉验证(把数据集分成5份,重复训练测试过程5次,每次用不同的一份数据作为测试集),这意味着你需要125轮计算来确定哪种算法效果最好,你的等待时间也将是大约2小时而不是1分钟。一个好消息是上述过程很容易并行化,因为每轮计算都是相互独立的。特征提取也是如此,通常也是对每个数据集独立地进行相同操作(解析、提取、转换等),导致了所谓的“密集并行”(没错,这是个专业术语)。一个坏消息主要针对大数据而言,因为所有的这些意味着对大规模实现复杂算法的需求很少,然而多数情况下目前用非分布式算法并行计算内存中的数据已经很有帮助了。当然,也存在一些应用,比如针对广告优化的TB级日志的全局模型和百万用户级推荐系统,但常规的使用案例都是这里罗列的那些类型。最后,拥有大量数据也不意味着你真的需要这么多。关键在于学习过程的复杂度。如果问题用简单的模型可以解决,就不要用过多的数据来训练模型参数。那样的话,随机抽样数据集的一部分就足够用了。另外如我在上文中提到的那样,有时候准确的特征表达也能大幅度削减需要的数据量。总结总之,知道如何正确评价结果能降低算法在未来测试数据上失败的风险。特征提取准确也许是提升效果的最佳途径,最后,大数据并不总是需要,尽管分布式计算能帮助减少训练时间。我正着手把类似这样的文章和手边其它一些资料整理成一本电子书帮助大家入门数据科学。如果您想提供支持帮助,请在这里注册,书出版的时候会通知您。原文链接:Three Things About Data Science You Won't Find In the Books(译者/赵屹华 审核/刘帝伟、朱正贵、李子健 责编/周建丁)来源:CSDN
觉得不错,分享给更多人看到
数据科学自媒体 微信二维码
分享这篇文章
12月2日 13:28
数据科学自媒体 最新文章
数据科学自媒体 热门文章

我要回帖

更多关于 媒体入驻 的文章

 

随机推荐