INCREDIBLE CASE注册过商标注册分类吗?还有哪些分类可以注册?

WordPress Plugins | WordPress.org
A new editing experience for WordPress is in the works, with the goal of making&
Gutenberg Team
10,000+ active installations
Tested with 4.9.6
Add Your Plugin
The WordPress Plugin Directory is the largest directory of free and open source WordPress plugins. Find out how to
on WordPress.org.
Create a Plugin
Building a plugin has never been easier. Read through the
to learn all about WordPress plugin development.
Stay Up-to-Date
Plugin development is constantly changing with each new WordPress release. Keep up with the latest changes by following the .
Code is Poetry.您好, 请&&
1咨询热线:400-700-0065
微信扫码关注
了解最新优惠活动
当前位置:&&商标申请人可以注册多个近似商标吗?
商标申请人可以注册多个近似商标吗?
& 人可以注册多个近似商标吗?为了让你更清楚的了解近似商标的内容,下面中细软顾问就来详细的为您介绍一下。& 1、如果在先注册的商标是你自己注册的,那么你就可以注册与这个商标多个近似的商标,这其实就是联合商标,只要你在先注册的那个商标通过了,那么后面的这些近似商标都能注册下来的。联合商标是指某一个商标所有者,在相同的商品上注册几个近似的商标,或在同一类别的不同商品上注册几个相同或近似的商标,这些相互近似的商标称为联合商标。这些商标中首先注册的或者主要使用的为主商标,其余的则为联合商标。 因联合商标作用和功能的特殊性,其中的某个商标闲置不用,不致被国家商标主管机关撤销。由于联合商标相互近似的整体作用,因此,联合商标不得跨类分割使用或转让。& 2、但是如果在先注册的商标不是你自己的,而是别人的,那么你再注册这样近似的就不可以了,这样属于侵犯了他人在先注册的商标,会被商标局驳回的。& 3、如果你还没有,只是想将要注册的商标进行多重角度的变换,然后和要注册的商标一起注册了,那么只要查询一下在先没有人注册过和你的商标近似的就可以了,你完全可以将这些商标一起办理注册。& 了解注册商标方面的更多内容,欢迎到北京中细软网络科技有限公司进行咨询,中细软知识产权代理有限公司始创于2002年,是一家经中华人民共和国国务院主管部门批准的具有国内外专利、商标、版权代理资格的一站式全产业链知识产权服务机构。北京中细软网络科技有限公司官方网站&中细软24小时咨询热线400-700-0065&
声明:凡本网注明"来源:中细软"的作品,均为本站原创,侵权必究!转载请注明“来源:中细软”并标明本网网址r.gbicom.cn!
凡本网注明“来源:XXX”的作品,均转载自其它媒体,转载目的在于传递更多信息,并不代表本网赞同其观点和对其真实性负责。
如因作品内容、版权和其它问题需要同本网联系的,请在相关作品刊发之日起30日内进行。联系方式:400-700-0065
在摘编网上稿件时,由于网络的特殊性无法及时确认稿件作者并与作者取得联系。为了保护著作权人的合法权益,及时准确地向权利人支付作品使用费,请作品著作权人及时与本网站联系,以便支付稿酬。
最新商标文章
您的信息已收到,感谢对中细软的信任,请保持您的手机畅通,30分钟内我们的专业顾问会反馈您查询结果。
专业顾问正在为您评估商标注册通过率
30分钟内查询结果将通过电话或短信反馈给您司法是与什么行政相对应的概念,是国家主权的重要组成部分-土地公问答
司法是与什么行政相对应的概念,是国家主权的重要组成部分
司法是与什么行政相对应的概念,是国家主权的重要组成部分
答:答:一事不再理原则是我们在诉讼中所遵循的一项重要的诉讼原则,其基本内涵就是对于同一个案件,或者说双方当事人之间所讼争的同一个法律关系,当事人不得就此提起两次诉讼,对于法院来说,对于双方当事人所讼争的法律关系已经作出生效判决的,不...
答:事再理原则我诉讼所遵循项重要诉讼原则其基本内涵于同案件或者说双事间所讼争同律关系事提起两诉讼于院说于双事所讼争律关系已经作效判决重复作判决广义事再理原则涉及范围非广泛其涉及仅涉及诉讼事再理 包括行政范畴内事再罚原则 内与际标准划事再理包括内意义事再理际意义事再理于际意义事再理原则由于涉及家司主权及管辖权问题各理论及实践做歧较我作讨论本文论述仅限于内民事诉讼视角事再理原则研究析 事再理原则项重要诉讼制度各诉讼所确立项重要基本原则事再理原则源于古罗马诉权消耗理论该理论认任何诉权经完整论争(包括诉讼仲裁)程行使完毕论结何其所应诉讼系属消耗殆尽所请求权第二诉讼诉讼消耗复存英美系家事再理原则称既判决规定或请求权禁止规则该规则规定作双事某特定诉讼请求所诉讼程序进行完毕权再提起第二诉讼或者要求院同争议事项再审理或者要求仲裁机构作仲裁现问题与我现行立足与理论缺失直接相关既判力原则说于民院已经效判决所确定实体权利义务事能再相同事由再行起诉 所民院受理、审理案件程事再理规则适用要考察两面问题: 该案否其管辖权院立案受理 二该案否已经民院作效判决 其点立要裁定予受理或者驳起诉处理程看起并困难司实践具体适用该原则程却存着困境事理解问题于问题同官通着同理解与解释说众说纷纭莫衷结直接造院受理或审理类案件程存着尺度统甚至相互矛盾状况现所于事再理原则应着眼于其内涵与外延、判断标准、立要素等研究应首先搞清楚两概念首先明事判断事第二理解再理面我围绕涉及原则几主要问题做讨论
其它类似问题
其它人正在问的问题公务员调动该找哪些人-土地公问答
公务员调动该找哪些人
公务员调动该找哪些人
答:必须遵守条件才能得到调动,没有途径可走,排除特殊情况。 具体如下: 调任条件 总 则 第一条 为拓宽选人渠道,优化公务员队伍结构,规范公务员调任工作,根据公务员法和有关法律、法规,制定本规定。 第二条 本规定所称调任,是指国有企业事业...
必须遵守条件才能调没途径走排除特殊情况具体:调任条件总 则第条 拓宽选渠道优化公务员队伍结构规范公务员调任工作根据公务员关律、规制定本规定第二条 本规定所称调任指企业事业单位、民团体群众团体事公务员调入机关担任领导职务或者副调研员及其相职务层非领导职务调任领导员另规定其规定第三条 调任必须坚持德才素质与职位要求相适应原则根据工作需要资格条件坚持组织安排与意愿相结合严掌握择优任用第四条 调任必须规定编制限额职数内进行并相应职位空缺第五条 各级公务员主管部门按照管理权限职责工负责公务员调任工作综合管理监督检查调任资格条件第六条 调任选应具备公务员第十条规定条件应具备列资格条件:()具良政治、业务素质工作能力强、勤奋敬业、实绩突(二)具与拟调任职位要求相工作经历任职资历(三)具备公务员及其配套规规定晋升至拟任职务累计所需低工作限专业技术员调入机关任职应担任副高级专业技术职务2或者已担任高级专业技术职务(四)调入央机关、省级机关任职应具本科文化程度;调入市()级机关任职应具专科文化程度(五)调任厅局级职务原则超55周岁;调任县(市)领导班员职务原则超50周岁调任其处级职务原则超45周岁;调任科级领导职务原则超40周岁(六)符合律、规、章程规定其条件工作特殊需要前款第(三)、(四)、(五)项需适调整市()级机关应按照干部管理权限报级公务员主管部门批准同意省级机关应按照干部管理权限报同级公务员主管部门批准同意第七条 公务员调机关拟再调入机关担任高于调机关所任职务应具备调机关所任职务晋升至拟调任职务所需任职资格限第八条 列情形员调任:()曾犯罪受刑事处罚;(二)曾除公职;(三)涉嫌违纪违接受关专门机关审查尚未作结论;(四)受处期间或者未满影响期限;(五)接受审计机关审计;(六)律、规规定其情形调任程序第九条 调任按照程序进行:()根据工作需要确定调任职位及调任条件;(二)提调任选;(三)征求调单位意见;(四)组织考察;(五)集体讨论决定;(六)调任公示;(七)报批或者备案;(八)办理调、任职公务员登记手续第十条 根据调任职位要求调任选通组织推荐式产必要调任选进行考试第十条 调任选应进行严格考察并形书面考察材料考察内容包括调任选德、能、勤、绩、廉等面表现考察应听取调任选所单位关领导、群众干部事部门、纪检监察机构意见所单位应予积极配合并提供客观、真实反映调任选现实表现廉政情况材料第十二条 根据考察情况集体讨论决定拟调任员并按照任前公示制关规定调、调入单位予公示第十三条 公示期满没反映问题或者反映问题影响调任按规定程序进行审批或备案;反映严重问题未经查实待查实并做结论再决定否调任第十四条 按照干部管理权限确定拟调任员调入机关按照规定权限办理审批或者备案省级机关调任公务员须报市()级公务员主管部门审批呈报审批、备案材料应包括请示、公务员调任审批(备案)表、考察材料、调单位意见纪检监察机构提供廉政情况;按规定需要进行离任审计或者经济责任审计员应其进行审计并提供审计机关审计结论调任员审批、备案办理调手续并按关规定进行公务员登记第十五条 调任员级别关待遇根据其调任职务结合本原任职务、工作经历、文化程度等条件比照调入机关同等条件员确定第十六条 调任员除由家权力机关依任命职务外般实行任职试用期制试用期试用期满考核合格式任职;考核合格另行安排工作纪律与监督第十七条 调任必须遵守列纪律:()调任审批或者备案机关应严格履行职责认真审核关随意降低标准放宽条件;(二)调入机关应严格履行关程序按照干部管理权限集体讨论决定或者少数说算弄虚作假搞风;(三)调单位应严格执行干部事管理工作关规、政策提供真实情况突击提拔;(四)参加考察员应实反映考察情况意见隐瞒、歪曲事实真相;(五)调任员应遵守关规定接调通知规定期限内办理行政、工资关系等关手续第十八条 调任工作存应避情形按照关规定执行第十九条 违反规定调任事项呈报予批准;已经作决定宣布效并按照规定主要责任及直接责任作组织处理或者处构犯罪依追究刑事责任
其它类似问题
其它人正在问的问题文本分类是指将一篇文章归到事先定义好的某一类或者某几类,在数据平台的一个典型的应用场景是,通过爬取用户浏览过的页面内容,识别出用户的浏览偏好,从而丰富该用户的画像。
本文介绍使用Spark MLlib提供的朴素贝叶斯(Native Bayes)算法,完成对中文文本的分类过程。主要包括中文分词、文本表示(TF-IDF)、模型训练、分类预测等。
文本分类是指将一篇文章归到事先定义好的某一类或者某几类,在数据平台的一个典型的应用场景是,通过爬取用户浏览过的页面内容,识别出用户的浏览偏好,从而丰富该用户的画像。
本文介绍使用Spark MLlib提供的朴素贝叶斯(Native Bayes)算法,完成对中文文本的分类过程。主要包括中文分词、文本表示(TF-IDF)、模型训练、分类预测等。
对于中文文本分类而言,需要先对文章进行分词,我使用的是IKAnalyzer中文分析工具,之前有篇文章介绍过《》,其中自己可以配置扩展词库来使分词结果更合理,我从搜狗、百度输入法下载了细胞词库,将其作为扩展词库。这里不再介绍分词。
中文词语特征值转换(TF-IDF)
分好词后,每一个词都作为一个特征,但需要将中文词语转换成Double型来表示,通常使用该词语的TF-IDF值作为特征值,Spark提供了全面的特征抽取及转换的API,非常方便,详见http://spark.apache.org/docs/latest/ml-features.html,这里介绍下TF-IDF的API:
比如,训练语料/tmp/lxw1234/1.txt:
0,苹果 官网 苹果 宣布
1,苹果 梨 香蕉
逗号分隔的第一列为分类编号,0为科技,1为水果。
case class RawDataRecord(category: String, text: String)
val conf = new SparkConf().setMaster(&yarn-client&)
val sc = new SparkContext(conf)
val sqlContext = new org.apache.spark.sql.SQLContext(sc)
import sqlContext.implicits._
//将原始数据映射到DataFrame中,字段category为分类编号,字段text为分好的词,以空格分隔
var srcDF = sc.textFile(&/tmp/lxw1234/1.txt&).map {
var data = x.split(&,&)
RawDataRecord(data(0),data(1))
srcDF.select(&category&, &text&).take(2).foreach(println)
[0,苹果 官网 苹果 宣布]
[1,苹果 梨 香蕉]
//将分好的词转换为数组
var tokenizer = new Tokenizer().setInputCol(&text&).setOutputCol(&words&)
var wordsData = tokenizer.transform(srcDF)
wordsData.select($&category&,$&text&,$&words&).take(2).foreach(println)
[0,苹果 官网 苹果 宣布,WrappedArray(苹果, 官网, 苹果, 宣布)]
[1,苹果 梨 香蕉,WrappedArray(苹果, 梨, 香蕉)]
//将每个词转换成Int型,并计算其在文档中的词频(TF)
var hashingTF =
new HashingTF().setInputCol(&words&).setOutputCol(&rawFeatures&).setNumFeatures(100)
var featurizedData = hashingTF.transform(wordsData)
这里将中文词语转换成INT型的Hashing算法,类似于Bloomfilter,上面的setNumFeatures(100)表示将Hash分桶的数量设置为100个,这个值默认为2的20次方,即1048576,可以根据你的词语数量来调整,一般来说,这个值越大,不同的词被计算为一个Hash值的概率就越小,数据也更准确,但需要消耗更大的内存,和Bloomfilter是一个道理。
featurizedData.select($&category&, $&words&, $&rawFeatures&).take(2).foreach(println)
[0,WrappedArray(苹果, 官网, 苹果, 宣布),(100,[23,81,96],[2.0,1.0,1.0])]
[1,WrappedArray(苹果, 梨, 香蕉),(100,[23,72,92],[1.0,1.0,1.0])]
结果中,&苹果&用23来表示,第一个文档中,词频为2,第二个文档中词频为1.
//计算TF-IDF值
var idf = new IDF().setInputCol(&rawFeatures&).setOutputCol(&features&)
var idfModel = idf.fit(featurizedData)
var rescaledData = idfModel.transform(featurizedData)
rescaledData.select($&category&, $&words&, $&features&).take(2).foreach(println)
[0,WrappedArray(苹果, 官网, 苹果, 宣布),(100,[23,81,96],[0.0,0.4])]
[1,WrappedArray(苹果, 梨, 香蕉),(100,[23,72,92],[0.0,0.4])]
//因为一共只有两个文档,且都出现了&苹果&,因此该词的TF-IDF值为0.
最后一步,将上面的数据转换成Bayes算法需要的格式,如:
https://github.com/apache/spark/blob/branch-1.5/data/mllib/sample_naive_bayes_data.txt
var trainDataRdd = rescaledData.select($&category&,$&features&).map {
case Row(label: String, features: Vector) =&
LabeledPoint(label.toDouble, Vectors.dense(features.toArray))
每一个LabeledPoint中,特征数组的长度为100(setNumFeatures(100)),&官网&和&宣布&对应的特征索引号分别为81和96,因此,在特征数组中,第81位和第96位分别为它们的TF-IDF值。
到此,中文词语特征表示的工作已经完成,trainDataRdd已经可以作为Bayes算法的输入了。
分类模型训练
训练模型,语料非常重要,我这里使用的是搜狗提供的分类语料库,很早之前的了,这里只作为学习测试使用。
下载地址在:http://www.sogou.com/labs/dl/c.html,语料库一共有10个分类:
C000007 汽车
C000008 财经
C000010& IT
C000013 健康
C000014 体育
C000016 旅游
C000020 教育
C000022 招聘
C000023 文化
C000024 军事
每个分类下有几千个文档,这里将这些语料进行分词,然后每一个分类生成一个文件,在该文件中,每一行数据表示一个文档的分词结果,重新用0-9作为这10个分类的编号:
比如,汽车分类下的文件内容为:
数据准备好了,接下来进行模型训练及分类预测,代码:
package com.lxw1234.textclassification
import scala.reflect.runtime.universe
import org.apache.spark.SparkConf
import org.apache.spark.SparkContext
import org.apache.spark.ml.feature.HashingTF
import org.apache.spark.ml.feature.IDF
import org.apache.spark.ml.feature.Tokenizer
import org.apache.spark.mllib.classification.NaiveBayes
import org.apache.spark.mllib.linalg.Vector
import org.apache.spark.mllib.linalg.Vectors
import org.apache.spark.mllib.regression.LabeledPoint
import org.apache.spark.sql.Row
object TestNativeBayes {
case class RawDataRecord(category: String, text: String)
def main(args : Array[String]) {
val conf = new SparkConf().setMaster(&yarn-client&)
val sc = new SparkContext(conf)
val sqlContext = new org.apache.spark.sql.SQLContext(sc)
import sqlContext.implicits._
var srcRDD = sc.textFile(&/tmp/lxw1234/sougou/&).map {
var data = x.split(&,&)
RawDataRecord(data(0),data(1))
//70%作为训练数据,30%作为测试数据
val splits = srcRDD.randomSplit(Array(0.7, 0.3))
var trainingDF = splits(0).toDF()
var testDF = splits(1).toDF()
//将词语转换成数组
var tokenizer = new Tokenizer().setInputCol(&text&).setOutputCol(&words&)
var wordsData = tokenizer.transform(trainingDF)
println(&output1:&)
wordsData.select($&category&,$&text&,$&words&).take(1)
//计算每个词在文档中的词频
var hashingTF = new HashingTF().setNumFeatures(500000).setInputCol(&words&).setOutputCol(&rawFeatures&)
var featurizedData = hashingTF.transform(wordsData)
println(&output2:&)
featurizedData.select($&category&, $&words&, $&rawFeatures&).take(1)
//计算每个词的TF-IDF
var idf = new IDF().setInputCol(&rawFeatures&).setOutputCol(&features&)
var idfModel = idf.fit(featurizedData)
var rescaledData = idfModel.transform(featurizedData)
println(&output3:&)
rescaledData.select($&category&, $&features&).take(1)
//转换成Bayes的输入格式
var trainDataRdd = rescaledData.select($&category&,$&features&).map {
case Row(label: String, features: Vector) =&
LabeledPoint(label.toDouble, Vectors.dense(features.toArray))
println(&output4:&)
trainDataRdd.take(1)
//训练模型
val model = NaiveBayes.train(trainDataRdd, lambda = 1.0, modelType = &multinomial&)
//测试数据集,做同样的特征表示及格式转换
var testwordsData = tokenizer.transform(testDF)
var testfeaturizedData = hashingTF.transform(testwordsData)
var testrescaledData = idfModel.transform(testfeaturizedData)
var testDataRdd = testrescaledData.select($&category&,$&features&).map {
case Row(label: String, features: Vector) =&
LabeledPoint(label.toDouble, Vectors.dense(features.toArray))
//对测试数据集使用训练模型进行分类预测
val testpredictionAndLabel = testDataRdd.map(p =& (model.predict(p.features), p.label))
//统计分类准确率
var testaccuracy = 1.0 * testpredictionAndLabel.filter(x =& x._1 == x._2).count() / testDataRdd.count()
println(&output5:&)
println(testaccuracy)
执行后,主要输出如下:
output1:(将词语转换成数组)
output2:(计算每个词在文档中的词频)
output3:(计算每个词的TF-IDF)
output4:(Bayes算法的输入数据格式)
output5:(测试数据集分类准确率)
准确率90%,还可以。接下来需要收集分类更细,时间更新的数据来训练和测试了。。
后才能评论
您还未登录,请登录后再进行相关操作!

我要回帖

更多关于 商标注册分类45类明细 的文章

 

随机推荐