ZoomEye 的网站指纹解锁手机排行榜是什么概念,如何应用

指纹识别主要概念股一览
苹果(Apple)iPhone5S抢先导入指纹辨识功能,让指纹辨识开始受到市场关注;而苹果新机iPhone6持续采用指纹辨识,无疑给了指纹识别一个高大上的定位。紧随其后苹果又推出Applepay,进军行动支付市场,让市场对指纹辨识的关注进一步升温。不仅仅苹果已经行动,像支付宝也采用指纹辨识行动支付功能,还有三星等手机厂也纷纷跟进导入指纹辨识功能,市场看好,随着指纹辨识应用逐步扩大,2015年将是指纹辨识市场爆发成长的一年。同时人机介面解决方案大厂新思(Synaptics)预期,2015年全球指纹辨感测器可望自去年的3000万颗,扩增至5.3亿颗规模。一年增长几十倍的速度不可谓不快,所以指纹识别概念值得投资者重点关注。
指纹识别主要概念股一览
达实智能(002421)公司C3系统被多家指纹和面部识别设备商采用。
航天信息(600271)公司在大容量、非接触卡方面的研究开发处于国内领先地位,是信息产业部、公安部确认的二代身份证6家生产厂商之一。
北京君正(300223)公司正评估指纹识别芯片进入二代身份证领域的可能性;芯片可应用于指纹识别。
欧菲光(13年11月28日公告公司触摸屏产品产销规模目前已经位居行业前列。
上海贝岭(600171)公司参股公司杭州中正智能科技有限公司入围公安部身份证指纹采集器厂商名单。拥有自主知识产权的指纹识别算法和多项国家专利。
上海普天(600680)公司第二代身份证阅读机具在首批开放人民币业务的外资银行中,已有11家银行采用了公司的产品。
国农科技(000004)国农科技是指纹识别行业的龙头,拥有独特而领先的指纹识别技术,其拥有的以指纹核心算法为基础的生物特征识别技术是国家“863”重点课题,具有自主知识产权,处于世界领先地位。
东信和平(002017)公司的确有指纹识别技术的储备,但是第三代身份证不会这么快出台。
福日电子(600203)公司持有珲春宝力通信公司18.8428%股权。珲春宝力目前主营汽车指纹防盗抢系统和P2T即群通通讯系统等业务。
新开普(300248)公司的生物识别技术主要是以独立指纹验证和“卡+指纹”联合认证为核心的指纹识别技术。
易联众(300096)公司提供社保指纹认证系统,实现互联网、指纹系统和业务系统的良好结合,目前主要应用于人力资源与社会保障自助服务终端,并未涉及二代居民身份证指纹识别相关业务。
东软集团(600718)公司的居民身份证指纹信息采集前端系统V2.0进入公安部指纹信息采集前端系统检验合格名录。
恒生电子(600570)公司持股20%的浙江维尔科技股份有限公司,是国际知名的生物认证产品供应商和生物认证技术解决方案提供商。目前,维尔科技拥有指纹识别技术及产品方面的国家级专利近100余项、国家级重点新产品5项、省(部)级高新技术成果30多项。
已投稿到:Web指纹识别之Discuz识别+粗略版本判断 - 推酷
Web指纹识别之Discuz识别+粗略版本判断
这个识别程序是本学期我的专业实训上的一个项目,就是做一个类似于Zoomeye的东西,然后使用ES进行整合,从而做出搜索引擎的模样。那么首先就要有能力去网上识别出相应的Web组件,如用户输入关键词:Discuz X3.0,我就要显示出相应版本的内容才OK。作为识别子程序,我这里暂且分享一下识别Web组件的思路。
一文中找到的思路。对于Discuz的网站,第一时间想的就是识别footer了,但是问题在于,做的好的一些网站往往会将“Powered By”字样修改,所以为了配合footer字样进行识别,我使用了robots.txt和比较隐蔽的meta标签来进行共同识别。而粗略的版本信息,则是从robots.txt中获取的。
指纹全部放在一起进行管理,方便日后进行指纹的添加:
discuz_feature.py:
这个文件中只有一个字典用来存放相应的指纹信息,我不可能做得很细(时间不允许啊),所以只有footer信息、robots信息、meta信息三个类型的指纹。
在主程序中直接load这个指纹库即可,下面就是识别主程序的代码,程序输入为以回车换行分割的域名列表,输出为结果文件,代码如下:
#coding=utf-8
import requests
from bs4 import BeautifulSoup
from discuz_feature import matches
Discuz 指纹识别
1.meta数据元识别
2.intext识别
3.robots.txt识别
class DiscuzDetector():
'''构造方法'''
def __init__(self,url):
if url.startswith(&http://&):
self.url = url
self.url = &http://%s& % url
self.r = requests.get(self.url,timeout=8)
self.page_content = self.r.content
except Exception, e:
self.r = None
self.page_content = None
'''识别meta标签'''
def meta_detect(self):
if not self.r:
return False
pattern = re.compile(r'&meta name=&.*?& content=&(.+)& /&')
infos = pattern.findall(self.page_content)
conditions = matches['meta'][0] or matches['meta'][1]
for x in infos:
if x.count(conditions) != 0:
return True
return False
'''discuz 版本识别'''
def robots_dz_xx_detect(self):
if not self.r:
return (False,None)
robots_url = &%s%s& % (self.url,&/robots.txt&)
robots_content = requests.get(robots_url).content
if not robots_content:
return (False,None)
robots_feature_xx = matches['robots_for_xx']
robots_feature_Xx = matches['robots_for_Xx']
robots_list = robots_content.split(&\r\n&)
pattern = re.compile(r'# robots\.txt for (.+)')
version_info = []
for x in robots_list:
#如果robots.txt中含有# robots.txt for Discuz! X3 行
则直接判断版本
version_info = pattern.findall(x)
if version_info != [] and robots_content.count(&Version& and &Discuz!&):
if robots_content.count(&Version& and &Discuz!&):
pattern = re.compile(r'# Version (.+)')
version_number = pattern.findall(str(robots_content))
if version_number:
version_info.append(version_number)
return (True,version_info)
#若版本信息被删除则识别出版本
is_xx = (x in robots_feature_xx)
is_Xx = (x in robots_feature_Xx)
if is_Xx or is_xx:
#判断为discuz
if is_Xx == True:
version_info = 'Discuz Xx'
return (True,version_info)
version_info = 'Discuz xx'
return (True,version_info)
#不是discuz
return (False,None)
'''检测网页中的discuz字样'''
def detect_intext(self):
if not self.r:
return False
text_feature = matches['intext'][0] or matches['intext'][1]
if self.page_content.count(text_feature) != 0:
return True
return False
'''判别方法'''
def get_result(self):
if not self.r:
return (False,'Not Discuz!')
is_meta = self.meta_detect()
res = self.robots_dz_xx_detect()
is_dz_robots = res[0]
version_info = res[1]
print version_info
is_intext = self.detect_intext()
if is_meta or is_dz_robots or is_intext:
#print 'Find Discuz!'
if version_info:
# return (True,'Find! Version:%s' % (version_info[0]))
return (True,'%s' % (version_info[0]))
return (True,'Version:Unknown')
return (False,'Not Discuz!')
if __name__ == '__main__':
'''读文件识别'''
f = open('discuz.txt','r')
wf = open('results.txt','a')
file_content = f.read()
dz_url_list = file_content.split('\n')
for url in dz_url_list:
detector = DiscuzDetector(url)
ret = detector.get_result()
if ret[0]:
wf.write(&%s\t%s\n& % (url,ret[1]))
wf.close()
里面的discuz.txt就是需要识别的域名列表文件,输出为results.txt,程序执行如下:
看来X3.x的版本用的挺多。
在某些情况下,需要做批量利用,对这个脚本稍加修改就可以帮助识别出域名数据库中的Discuz的站点。你需要做的只是把漏洞攻击代码作为后续模块进行攻击即可。
当然,关于批量利用,使用web指纹识别这种方法虽然准确性高,但是比较费时间,不适合大规模的扫描,这种情况下,一般都是Fuzzing跑字典去做。
使用Elasticsearch整合的效果如下:
如果希望做的有模有样的话,那么就要添加后面的监控与漏洞攻击模块了,使用RESTful接口做出API是最好的、最灵活的选择,以后会逐渐完善,争取做出zoomeye的雏形:-)
另外,转载请注明出处啊大哥们!!
已发表评论数()
请填写推刊名
描述不能大于100个字符!
权限设置: 公开
仅自己可见
正文不准确
标题不准确
排版有问题
主题不准确
没有分页内容
图片无法显示
视频无法显示
与原文不一致

我要回帖

更多关于 指纹解锁手机排行榜 的文章

 

随机推荐