linux 下数据linux下备份文件夹工具用哪个靠谱

&&原精最代码网站被第三方垃圾广告网站恶意反链处理的经验分享和代码片段分享本以为垃圾反链解决了呢,结果每天发现从百度蜘蛛过来的抓取请求与日俱增,今天突然在后台发现反链飙升到50万的外链,直接吓尿了,有图有真相:发现这种垃圾站的锚文本都是6个字符的随机字符,于是下载到本地处理后得到垃圾网站的列表,结果百度一个月只允许提交1w个外链,和seo专业人士沟通后可以直接主域名站点拒绝,这样会更快些。但是百度没有批量删除已拒绝的网站列表,1w多个连接得一个个点击,直接无语掉了。于是想到以前分享的关于webqq的代码:,可以通过firefox的插件firebug的console功能来实现模拟人工点击,脚本如下:
function ajax_request(url,data) {
var req = new XMLHttpRequest();
req.open('POST', url);
req.setRequestHeader(&Content-type&,&application/x-www-form- charset=UTF-8&);
req.setRequestHeader(&X-Request-By&,&baidu.ajax&);
req.setRequestHeader(&X-Requested-With&,&XMLHttpRequest&);
req.send(data);
function del_id(id) {
var url = '/inbound/removereject?site=http%3A%2F%%2F&d=';
ajax_request(url,&id=&+id);
var rejects=document.getElementsByClassName(&js-undo-reject&);
for(var i=0;i&100;i++){
var id=rejects[i].attributes[0].nodeV
del_id(id);
}注意:必须加http header:& req.setRequestHeader(&X-Request-By&,&baidu.ajax&);& req.setRequestHeader(&X-Requested-With&,&XMLHttpRequest&);否则百度认为是非法请求。我现在是人工点击分页,然后执行该脚本,牛牛们可以改写下ajax请求分页然后在执行删除脚本就更完美了。执行后截图:只是提供一个思路来解决工作学习过程中遇到的问题,让技术成为你的工具这样可以达到事半功倍的效果,当然你不想动脑的话那就动手点1w下鼠标吧,但是如果有10w级别呢?猜你喜欢0个牛币请下载代码后再发表评论精精精精原精精原原原原原相关分享原精原原精最近下载最近浏览暂无贡献等级暂无贡献等级暂无贡献等级暂无贡献等级暂无贡献等级暂无贡献等级暂无贡献等级扫描二维码关注最代码为好友"/>扫描二维码关注最代码为好友网站出现大量垃圾反链的原因以及解决方法 - 网站优化新闻 - 领航网络网站优化
为中小企业站提供网站优化、网站目标关键字选取、关键字布局、网站优化方案策划等业务;专业、认真、负责
电话:1&/&400-
> 网站出现大量垃圾反链的原因以及解决方法
网站出现大量垃圾反链的原因以及解决方法
  最近很多朋友都在群里面说:反链太多了,不正常啊,是不是被挂码了啊?正好昨天自己的群里有个朋友跟我求救说:用百度站长工具查看外链的时候突然发现里面有很多垃圾外链,点开链接一看卧槽全部是**及**等垃圾网站。他说自己建站一年,很少发外链,自己发的不超过200个,怀疑网站被人发大量垃圾外链。然后就用百度站长工具一条一条的检查并拒绝外链,可过一天又冒出来很多,问我该怎么 办。所以现在就给大家说说遇到网站被人发大量垃圾外链的问题该怎么处理。
  一、网站被人发大量垃圾外链的原因
  遇到这样的问题大家第一反应是有人故意发外链影响网站排名,当然首先想到的是自己的竞争对手。武汉网站优化承认,一般法正这样的问题是同行干的概率是85%以上,因为还有另一个原因,就是因为你的站有排名有权重,被一些灰色行业者盯上了,想通过你的站获取流量,所以给你网站挂马,或者dns劫持。
  二、网站被人发大量垃圾外链的解决方法
  首先:检查网站是否被挂马,按照我朋友说的第一天拒绝了,第二天又出来很多,就极有可能是网站被恶意挂马。这个完全就是服务器的安全性和程序安全引起的挂马,产生大量的垃圾链接页面。如果是这样就得先清除挂马,解决空间的安全性问题及程序安全问题,将漏洞修补下。不然拒绝了之后以后还是会被黑客挂马的,治标不治本!
  其次:用robots.txt屏蔽目录。最后就是拒绝外链,拒绝外链可以批量添加外链,不用一条条去拒绝的,如果外链太多的话,点到手酸都点不完!
  再次:继续保持网站内容的有规律更新,不管怎么样你对于网站上面内容发布还是要保持的,在这个期间加大力度保持原创的更新网站权重上来了这些同行恶意做法就是徒劳的了。
  最后:最后一种方法就是你可以在百度站长平台上面去帮你这种情况去反馈,要注意的就是一定要如实的去反馈你网站的问题详细说明会很快就会恢复你的网站的。
  如果各位又遇到这样的情况也不要着急,如果是别人恶意的网站也会很快恢复的。现在互联网时代越来越进步了,这种情况也会越来越少了,当然如果自身权重够高是不会收到这种低劣手法的影响的,所以各位站长还是得快速提高自己的权重。建议站长们有时间多去百度站长平台去看看,那边有最新百度对于站长出台的一些工具对站长是很有帮助的。最后祝大家平安夜快。/
作者:网站优化
本文地址:
版权提示:转载时必须以链接形式注明作者和原始出处!
或许你会感兴趣的文章

我要回帖

更多关于 linux下备份文件夹 的文章

 

随机推荐