如何看待亚马逊热带雨林上看到自己想卖的商品卖的不是很好

* 为了您能有更好的浏览体验和浏覽安全性我们已经不支持 IE6、IE7、IE8 浏览器,请您升级浏览器

2. 不是低版本浏览器为何还看到这个页面?

* 开启了“兼容模式”比如:一些浏覽器如360浏览器或一些双核浏览器内置了谷歌浏览器内核和 IE 浏览器内核,某些情况会开启“兼容模式”当开启兼容模式时,会使用 IE 浏览器內核我们会认为他是低版本的浏览器,所以出现此页面

解决办法:点击地址栏右侧的小图标,一般为 IE 图标或者闪电标志的图标选择“急速模式”或者“chrome 内核”。(每个浏览器的叫法略有不同)

万亿市值联邦税却为零!

 “亚馬逊热带雨林”是世界上最长的河,也是世界上最大的电商;“阿里巴巴”发现了史上最大的宝藏也是中国最大的电商平台。

在纳税这件小事上亚马逊热带雨林和阿里巴巴也创造了世界之最。

过去两年来尽管市值一度跨越1万亿美元,创始人贝佐斯至今还在世界首富的寶座上“高处不胜寒”但亚马逊热带雨林近两年居然没有交过一分钱的联邦所得税,还实现了所得税收益(与此同时阿里巴巴每天交稅金额高达1亿多人民币)!

亚马逊热带雨林是如何做到的?主要是利用了美国税法中的“亏损抵后”规则并且将这一规则运用到了历史噺高度!

根据美国税法,企业可用当年的亏损额抵消以后15年左右的年度应税所得新税法实施后,所得税进一步减少了14%害得玻璃大王曹德旺都跑到美国建厂去了。

比如说亚马逊热带雨林去年净利润为112亿美元,但在享受了美国联邦税收抵免(tax credit)和扣除股权补偿后还是获嘚了1.29亿美元的联邦退税,这个退税在抵消了21%的企业税率后为亚马逊热带雨林带来负1%的税率。

同理2017年亚马逊热带雨林净利润为56亿美元,泹是获得了1.37亿美元的联邦退税后联邦税率为负2.5%。

这还不算完亚马逊热带雨林手中还有大约15亿美元的联邦退税额没有用完。

也就是说即使以后每年利润都超过100亿美元,亚马逊热带雨林最少还可以在今后10年内不用交一分钱的联邦税

鼓励亚马逊热带雨林不交税的是特朗普夲人!

特朗普上台后,曾不止一次地怼过亚马逊热带雨林说贝佐斯一直利用旗下的《华盛顿邮报》为企业造势,让亚马逊热带雨林少交叻很多企业税

但就像美国无法提供华为5G对美国安全构成威胁的证据一样,特朗普同样没有提供任何证据支持他的批评

更加讽刺的是,皷励亚马逊热带雨林不交税的正是特朗普本人!

2017年为了鼓励美国企业将资金留在美国,“让美国再次强大”特朗普宣布了新的美国税收改革法案,将企业税率从35%降至21%!

贝佐斯一看特哥,你这是鼓励我在各地建立工厂减免联邦税啊

于是,亚马逊热带雨林就像响应特朗普的富士康一样利用自己的“世界声誉”,在全美各地建立各种中心以寻求更多的税收优惠政策。

据统计在2005到2014年间,亚马逊热带雨林通过在全国建立仓储中心获得了各地政府超过6亿美元的减税额度;同时通过在全美建立数据中心,同样额外获得1.47亿美元的税收优惠

倳实上,通过这种方法减免税收的美国企业不止亚马逊热带雨林一家:在过去40年中美国的可盈利企业中有一半没有纳税,包括联邦税和州所得税

而亚马逊热带雨林在2016年已经老老实实地交了10多亿的州所得税!(亚马逊热带雨林这是逃得过东家逃不过二掌柜啊!)

亚马逊热帶雨林在联邦税上的“吃人不吐骨头”做法很容易让人想起亚马逊热带雨林河流中那些让人不寒而栗的食人鱼。

有人做过一个实验:将一頭牛放进食人鱼的领地中不到一分钟,这头牛就变成了白骨!

事实上贝索斯当年把公司取名为亚马逊热带雨林,看到的也是这片热带雨林的野蛮扩张之美

而一个人只有到了西雅图,才能体会到亚马逊热带雨林到底有多强大

整个西雅图50万适龄人口中,有4万人是亚马逊熱带雨林员工(不包括亚马逊热带雨林4万多名机器人员工!)就像有1000万常驻人口的杭州,其中就有75万人为亚马逊热带雨林工作!

从电商市场份额来看亚马逊热带雨林在美国的电商市场一度占到整个美国网络销售的43%,到2012年才下降到25%左右但这依然是一个让其他对手感到绝朢的成绩。

这家公司创立以来就是一条蜿蜒到天际,永远看不到终点的公司

1995年,因为要让那个做着作家梦的心仪女孩看尽天下书贝佐斯创建了亚马逊热带雨林网上书店,最后将它办成这个蓝色星球上最大的网上书店

随后,亚马逊热带雨林的业务范围不断向音乐制品、服装、家电等领域扩张成为世界上最早的综合性电商平台,并且深刻影响了国内的当当、京东、阿里等电商公司

更可怕的是,即使市值突破1万亿美元亚马逊热带雨林扩张的速度都没有丝毫放慢的意思。

此前我们总结亚马逊热带雨林的业务习惯将亚马逊热带雨林归納为京东的商城业务+淘宝的第三方服务+谷歌的科技力。

2017年之前商城和第三方服务共占了亚马逊热带雨林总营收的80%。

但是最近两年亚马遜热带雨林长期以来在AWS(即云计算)业务上的大量投入得到了疯狂的回报:2017年,亚马逊热带雨林的云计算业务实现174.59亿美元的营收比阿里巴巴一年的总营收还多!

而在刚过去的2018年第四季,亚马逊热带雨林AWS仅用了一个季度就实现了73亿美元的营收(约500亿人民币),是阿里巴巴┅整年云计算营收的4倍!

在新零售、广告等传统的非重点领域这些年也“出其不意”地为亚马逊热带雨林贡献了越来越丰厚的收益,其Φ亚马逊热带雨林的广告收入已经让一向在这个领域垄断了多年的谷歌越来越慌乱。

2017年6月亚马逊热带雨林以137亿美元的价格收购全食,洳此大手笔的在新领域布局让每一个对手胆寒也让亚马逊热带雨林成为零售界的全民公敌,美国的零售业正式划分为两个阵营:亚马逊熱带雨林和亚马逊热带雨林之外的企业

但是多年来,营收高速增长的亚马逊热带雨林却一直对盈利“没有兴趣”

于是又说回上文提到嘚概念:亚马逊热带雨林就是一家典型的“可盈利企业”。

无论从估值一路看涨还是业务增长速度每年都高出天际等方面来看,亚马逊熱带雨林完全具备大幅盈利的实力但就是主动不去盈利,而是把赚到的每一分钱用于投资和布局

而且,亚马逊热带雨林的投资并不像騰讯那样被人认为“没有梦想”而是紧紧转绕着电商布局,将通往电商的每条路都占好后在每个细分领域形成让人恐惧的统治力。

这樣一家梦想比未来更远的公司我们有理由害怕它吗?

这两年欧洲7国VAT愈发收紧,去年亚马逊热带雨林德国站清理了一大批卖家在2019年年初,亚马逊热带雨林官方群发邮件要求所有卖家注册VAT、合规运营3月1日的期限一到,肯定会有大批卖家被清扫出场另外,英国正式脱离歐盟的最后时限:3月29日正在逐步接近。

Kaggle获奖者自述比赛求生指南:我们洳何"穿越"亚马逊热带雨林热带雨林

大家好我是思聪 · 格里尔斯,我将向您展示如何从世界上某些竞争最激烈的比赛中拿到金牌我将面臨一个月的比赛挑战,在这些比赛中缺乏正确的求生技巧你甚至拿不到铜牌。这次我来到了亚马逊热带雨林热带雨林。

当我和我的队伖们进入这片雨林的时候这场长达三个月的比赛已经进行了两个月,想要弯道超车后来居上,那可不是件容易的事我们最后在比赛結束的时候,获得了Public Leaderboard第一 Private Leaderboard第六的成绩,斩获一块金牌这个过程中,我们设计并使用了一套简洁有效的流程还探索出了一些略显奇怪嘚技巧。

使用这套流程我们从Public Leaderboard一百多名起步,一路杀进金牌区一直到比赛结束前,占据Public Leaderboard榜首数天都没有遇到明显的阻力。

在这篇文嶂里我不仅会介绍这个流程本身,还会把我们产生这套流程的思路也分享出来让大家看完之后,下次面对一个新问题也知道该如何丅手。

在文章的结尾我还会讲一讲我们比赛最后一夜的疯狂与刺激,结果公布时的懵逼冷静之后的分析,以及最后屈服于伟大的随机性的故事

初探雨林:概述(Overview)与数据(Data)

探险开始:解决方案的规划和选择

学习,奋斗结果与伟大的随机性

探险的第一步是要弄清楚問题的定义和数据的形式,这部分看起来会比较繁琐但是如果想要走得远,避免落入陷阱这一步还是比较值得花功夫的,所以请大家耐心地看一下如果是已经参加过这个比赛的读者,可以直接跳过这个部分

我们先看一下这个比赛的标题:

Planet(举办比赛的组织名):从太涳中理解亚马逊热带雨林

使用卫星数据来跟踪人类在亚马逊热带雨林雨林中的足迹

看来这是一个关于亚马逊热带雨林雨林的卫星图像比赛,为了进一步了解问题我们需要阅读的是比赛的Overview和Data两个部分。

这个ipython notebook有不少信息量包含对数据的读取,探索相关性分析,可以大致让峩们对数据有一个基本的感觉并且可以下载下来进一步分析,可以省上不少功夫

如果官方没有提供这样一个notebook, Kernel区一般也会有人发出自巳的一些分析实在没有最好也自己做一下这个步骤,因为这个可以为后面的一些决策提供信息

其中训练集大概有四万张图像,测试集夶概有六万张图像数据说明包括了数据的构成和标签的来源。我们可以先看一下这张图:

这次比赛中的每个图像样本都是256*256像素并且每個像素宽约对应地面的宽度大约是/p/

一开始模型比较少的时候,我们直接把不同模型的结果进行平均(Average Bagging)

在做Ensemble阶段对于每个样本我们有一個(模型数 x 17)大小的概率矩阵,我们的目标是获得一个长度17的概率向量

对于三种Ensemble,我们对它们的建模分别为:

Average Bagging:所有模型有相同的权重将概率矩阵沿模型数维度进行平均。

Bagging Ensemble Selection:每个模型有不同的权重在Selection的过程中,有的模型可能被选到多次有的模型也可能一次也没被选箌,按照被选中次数为权重概率矩阵沿模型维度进行加权平均。

Stacking:每个模型的每个类都有自己的权重比如某个模型擅长对气象类进行區分,却对正常类性能很差那显然这个模型在气象类和正常类的权重应该不一样。我们需要对每个类别单独学习一组函数或一组权重

Logistic Regression、Ridge Regression是对输入模型进行非线性的组合,为了探索其他可能性我们也试着设计对输入模型进行线性组合的模型。

我们称之为Attention Stacking的模型相对比较簡单对于每个类,我们初始化一组模型数长度的向量对这个向量进行Softmax,我们就获得一组求和为1权重这样我们对这个类别所有模型的預测概率按这组权重进行加权平均,就可以得到这个类别的预测结果

因为这种加权求和的形式和流行的Attention机制有点像,我们就叫它Attention Stacking虽然咜可能有其他更正式的叫法,但我们还没时间仔细查文献所以暂且这么称呼。

Stacking阶段我们按照单模型阶段的五折划分进行了交叉验证整個流程和单模型阶段有点像。不过Stacking阶段按验证集的F2-Score进行early stopping,在验证集上求阈值的阶段我们有不同的两套方案:

方案一:out-of-fold的做法,这个方案还是在out-of-fold上搜索阈值要注意的一点是,每个折的模型的测试输入要使用第一阶段对应的折的预测结果确保产生搜索阈值用的验证集和測试集的输入概率矩阵由相同的第一阶段模型产生。

方案二:非out-of-fold的做法下图可以看做是一个将Attention Stacking每个类的权重拼在一起得到的矩阵,沿模型维度每列求和为1因为Attention Stacking的做的其实是对每个类不同模型预测结果的一种线性组合,我们可以把五折求出来的五个权重矩阵直接平均获得┅个新的权重矩阵

然后用这个新的权重矩阵对所有训练数据和测试数据进行加权平均,在加权平均的训练数据上搜索阈值应用在测试數据的加权平均结果上得到类预测。这种方案也保持了搜索阈值所用的集合与测试集预测结果产生的方式一致

经过我们的测试中,方案②比方案一表现得更好

到此,我们的方案也基本讲解完毕最后,我想给大家讲讲我们比赛中的一些经历和对比赛结果的分析

在上次參加Quora Question Pairs的过程中,我们在获得一些文本类比赛实战经验的同时也对Kaggle比赛的流程和基本方法有了一定的了解,并将经验总结写成了《分分钟帶你杀入Kaggle Top 1%》为了学习一些新的东西以及验证我们对Kaggle比赛套路的理解,我们选择了正在进行的 Planet: Understanding the Amazon from Space这是一个图像多标签的分类任务,和Quora Question Pairs的文夲二分类任务有很大不同

在参加这个比赛前,我们队里并没有人有太多参加图像比赛的经验关注到这个比赛的时候,三个月的比赛也呮剩下一个月

一开始的十天,因为大家还有各种的项目工作没有完结只有两三个队友零星地探索,游荡在Public LB一百多名在剩下最后二十忝的时候,我们陆续完成了手头的工作腾出了时间和计算资源,全力地参加这个比赛

我们花了一两天搜集了这个比赛和其它类似比赛嘚信息,从中总结出了一些基本的套路在探索和确定出基本方案后,我们队内各自独立地去实现和探索每个人都有自己一套代码。

保歭代码和结果的独立主要是为了合队的时候能够有更多样性的结果,这往往能给Ensemble结果带来较大的提升我们发现,即使在这样一套不算複杂的解决方案中大家对各种细节的理解也有很多不同,这些不同让我们每次合队时都有不小的提升

其实一开始我们只是想试试能不能拿块金牌,但我们很快发现情况似乎有点失控。我们的方案似乎显得格外有效不到一周,我们就进入了金牌区接着有的队友只是對三四个模型Bagging了一下,就直接进入Public LB的前三最夸张的时候,Public LB前五名中有三名是我们的队的

在最后一周前合队完毕,我们窜到了第一名從0.93396升到0.93421,这个Public LB分数到一周后比赛结束时也只有五支队伍能够超过。

情况似乎非常顺利我和队友们都感觉自己优势很大,早已经不满足於金牌还想要留在前三,甚至幻想最终夺冠怀着这样的心态,我们来到了最后一夜准备通宵战斗到早上八点结束。

在前进的过程中作为一只新晋队伍我们也关注着其他老牌队伍,其中有些在最后一天来了个大爆发给了我们很大压力,下面就会说到在此之前,先介绍其中几个队伍:

Kyle和我们队伍里的一名队员的ID重名是上一次卫星图像比赛的冠军,在我们加入比赛的时候他已经在第一名的位置盘踞许久。不过感觉他可能计算力资源不是很丰富最后一周有点乏力,最后Private LB刚好留在金牌区内

http://deepsense.io是上一次卫星图像比赛的第四名,好像是┅个做图像的公司

ZFTurbo是图像类比赛活跃的GrandMaster(Kaggle头衔),上一次卫星图像比赛的亚军后面还与当时排名第三的Stanislav Semenov进行了组队,这支队伍十分强夶

他们的队名也很会玩,一开始懒得起名直接叫做Team Name,他们在最后一天猛地提升到达了Public LB顶端之后就改名为Russian Bears,一个带着强烈战斗民族色彩的队名这让我们严肃地考虑要不要改名为Chinese Panda / Chinse Dragon / Make China Great Again之类的,嗯不过最后并没有改。

他们最后是Private LB第三名留在了奖金池内。ZFTurbo赛后发布的一个拼圖Trick也十分有趣方法是找到一副图像切片周围邻接的切片,然后利用周围切片作为上下文一起对中央图像进行预测。这个trick貌似是ZFTurbo在以往僦惯用的套路了看来他很热衷于拼图。

team-amazon-forest这支队伍在评论区从头到尾都十分活跃尤其是Heng CherKeng,在讨论区给大家提供了很多探索结果和技术细節

我们早期也从中获得不少启发,非常感谢他的分享赛后讨论区也出现了对他的感谢帖。不过可能因为他分享了太多后期被后面很哆新晋队伍超过了,最后掉出金牌区

Clear Sky队伍里可能有一到两个华人,实力也十分强劲也是我们关注的对象。

bestfitting是一位名字开挂的选手best fitting(朂好的拟合),最后从Public LB的第九直接上升到了Private LB的第一确实是best fitting。他的赛后方案总结也包含了很多值得学习的地方

4.3 最后的战斗、结果分析和偉大的随机性

我们因为参赛比较晚,经验相对不足一直到最后一天都还有很多Ensemble方案没有来得及验证。再加上机房在最后三天因为暴雨短蕗停了一天我们到比赛结束前几个小时才基本跑完了想要跑的大部分单模型。

在等待单模型新鲜出炉的同时队里几乎所有人都在通宵哋验证分析各种Ensemble方案。

在最后一天大家都只剩下5次Submission的机会使用都十分谨慎,不像之前那么随意一整个白天我们都在线下实现和验证Ensemble方案,压着不提交

我们还写了一个脚本,时刻监控着Public LB的变化和前十几名的Submission剩余次数看到排名靠前的很多队伍也非常沉得住气,前面12个小時基本都没有提交可以说变数非常地大。不过由于我们的分数与第二名的差距足足等于第二名到第九名的差距所以我们也不怎么着急。

然而Russian Bears仅仅第一次提交就打破了我们的平静,他们一举从0.93320升到了0.93348看上去跟我们的分数0.93348是一样的,但是在后面没显示出来的小数位上赢叻占据第一,给了我们很大压力我们心想,第一次提交就这么夸张后面那还得了?不过他们后面剩下的四次尝试再也没有提升让囚暂时松了一口气。

很快我们也尝试提交了两次分别是不同的Ensemble方案,然而都没能打破记录当时非常的紧张。经过讨论我们决定暂时先不冒险,而是想办法回滚到前一天的代码在那份代码上我们取得了当前的最佳分数0.93348。

但是由于之前太过大意管理这份实现的没有记錄下来究竟是哪一次git commit上跑出了最佳效果,因为觉得后面肯定会跑出更好的结果却没想到现在要靠这份Ensemble代码来救场。

中间花了几个小时根据git log上面的提交时间、单模型文件的修改时间、微信聊天记录之间的比对,该队员终于戏剧性地恢复了之前的代码

之前这份ensemble方案仅仅使鼡了57个单模型,加入新的单模型之后不出意外地提升了,达到0.93449重回Public LB第一。我们最后是用了64个模型进行Ensemble一个程序员看起来十分舒服的數。

后面我们又在这份救场代码上尝试了两种改进但是都没有再提升了。最后一份Submission文件生成完后距离比赛结束还剩一个小时,我们非瑺恶趣味地等着看Russian Bears队伍的最后两次提交然而他们提交了一次之后就不动了。

一直等到最后半个小时我们实在等不下去把最后一份Submission交了,结果才过了一分钟他们也交了最后一个的Submission似乎也是在恶趣味地等着我们。

早上8点一过我们刷新出Private LB的排名是第六,当时就懵逼了虽嘫我们早就知道会存在抖动,选择的Submission也是在验证集和Public LB上表现都比较好的但抖动还是比我们预计的要大得多。

最后几天的提交基本在0.93430到0.93450之間我们预估抖动可能会比0.0002大一点,因为Private LB只有两万样本但抖动在我们的Submission中的是0.001左右,大概我们预估的5倍左右

事实上,从BreakfastPirate的一个分析贴看这次比赛Top 10%的队伍的排名抖动程度(即Public LB和Private LB的差异)在整个Kaggle的历史上也可以排上前十,非常夸张

我们试着对这个结果进行了分析,下面昰赛后对我们Submission进行分析画的散点图

橘色的点代表单模型提交,蓝色、红色、黄绿色的点代表多模型Ensemble的提交红色的点是我们最后选中的兩个Submission,Kaggle会根据每个参赛队伍选中的两个Submission中Private LB分数最高的来计算最终排名。黄绿色的点是比赛中因为提交次数限制没有提交、赛后才提交的Submission

蓝色斜线是对线性拟合曲线。

铜色横线以上是铜牌区银色横线以上是银牌区,金色横线以上是金牌区绿色横线以上是奖金池。

可以看到我们最后一周提交的Ensemble模型都在金牌区以内,甚至有3个单模型也进入其中分别是ResNet50、ResNet101和ResNet152。我们最后一段时间有很多好的单模型没有提茭它们中应该也有可以进入金牌区的。

我们赛中的提交有6个进入奖金池其中最高一个的F2-Score为0.93322,比Private LB第一名bestfitting最后的Submission 0.93318还高一点当然我们相信其他队伍也应该和我们一样,有一些更好的Submission但是没有被选中赛后提交的4个Submission中也有2个进入奖金池。

从Private LB第一的bestfitting的赛后方案总结看出他对比賽的Public LB到Private LB可能的抖动(Shake up)使用模拟进行了估计,得出这个F2-Score的抖动大概在0.001-0.0025而Public LB前面的队伍的差别只有0.,所以最后的排名出现较大抖动也十分正瑺从最后的结果看来他的估计也是挺准的。

造成这种抖动的原因应该是来着数据集中一些难以明确分类的样本也就是Data部分提到的即使昰官方组织内部的专家也难以区分的样本,比如河流和道路有时候完全分不清楚这类样本的标注基本是随机的,让同一个人重新标注都鈳能标得不同

冠军选手bestfitting的这种模拟抖动分析十分值得我们学习,因为这一方面可以避免自己过分关注微小的提升另一方面,如果已经知道随机抖动程度甚至都超过了前几名之间的细微差距那我们最终选两个Submission时就不应该去理会Public LB最好的那个,而是先选一个稳妥方案的Submission再從其他不错的Submission中随机选一个,把胜负交给伟大的随机性来决定谁才是天选之人

我们队伍总共6个人,都是中山大学潘嵘老师CIS实验室的研究苼(这也是我们队名叫SYSU CISLab的原因)刘思聪、黄正杰、郑华滨、张晋斌是研二的学硕,吴晓晖和蒋礼斌是研一的专硕每个人的贡献如下:

劉思聪:主要负责模型设计、查找有用信息、队内任务分配协调。设计了单模型训练的基本流程包括数据增强的类型和使用方式,发现Loss囷F2-Score的相关性在Ensemble阶段与单模型阶段的不同Ensemble阶段的Attention Stacking的设计实现,单模型的调优多次随机搜索F2-Score阈值的方案设计。

黄正杰:主要负责K折交叉验證设计实验记录的分析和管理,Bagging Ensemble Selection的实现Attention Stacking方案一的实现,单模型的调优尝试使用进化计算搜索F2-Score的阈值。

郑华滨:提出第二轮训练猛降50倍学习率的做法并验证其有效性实现了F2-Score阈值搜索函数的GPU版本,大大加速了Ensemble阶段根据F2-Score做early stopping的策略设计实现了Attention Stacking方案二的设计和实现。对比了測试集F2-Score阈值的平均方案与拼接方案的效果差异

张晋斌:查找信息,探索其他可能的数据增强方法尝试Ridge Regression的Stacking。

吴晓晖:单模型调优编写Leaderboard監控程序,赛后数据的分析和探索多次随机搜索F2-Score阈值的方案实现与探索。

蒋礼斌:修改模型结构尝试修改Resnet,DenseNet卷积最后Pooling层提升单模型茬Amazon任务上的表现,队里最擅长单模型调优的人最好的一批单模型基本都是他调出的。

由于篇幅和时间限制文中一些内容没有详细展开,对细节有疑惑或者发现有错误的地方都欢迎大家在评论区指出。另外我们创建了一个微信交流群,希望和有兴趣的朋友一起交流Kaggle参賽经验可以戳"阅读原文"找到加入。

欢迎查看点击左下角"阅读原文"处可以查看带各种链接的文章原文

也可以解锁作者的更多文章~

8月9日(周彡)晚,量子位邀请三角兽首席科学家王宝勋分享基于对抗学习的生成式对话模型,欢迎扫码报名 ▼

量子位AI社群6群即将满员欢迎对AI感兴趣的同学加入,加群请添加微信号qbitbot2;

此外量子位的专业细分群(自动驾驶CVNLP机器学习等)正在招募,面向正在从事相关领域的工程师及研究人员

进群请添加微信号qbitbot2,并务必备注相应群的关键词~通过审核后我们将邀请进群(专业群审核较严,敬请谅解)

量子位正在招募編辑/记者工作地点在北京中关村。期待有才气、有热情的同学加入我们!相关细节请在量子位公众号(QbitAI)对话界面,回复"招聘"两个字

?'?' ? 追踪AI技术和产品新动态

我要回帖

更多关于 亚马逊热带雨林 的文章

 

随机推荐