当前位置:首页> 科技评论 > 如何通过被黑的页面寻找被黑的文件呢?

如何通过被黑的页面寻找被黑的文件呢?

2021-09-25 22:40:21 来源: 网络   编辑: 佚名   浏览(964)人   
0

    如何通过被黑的页面寻找被黑的文件呢?相信这是所有做网站维护程序员一直最想知道的问题,今天小编就围绕着这个话题来和大家聊一聊关于“如何通过被黑的页面寻找被黑的文件”
    首先!小编为了更好论述这个问题,特别总结了二点关于“如何通过被黑的页面寻找被黑的文件”的解决方法!
    第一点:可以通过网站黑链检测和处理方法
    首先打开你的网站,点击浏览器右键【查看网站源代码】,不懂代码的朋友可能有点晕,略懂代码的朋友均能够清楚的看到自己的网站是否存在黑链接,不懂代码的朋友没关系,仔细看代码,你可以看到代码里面是否存在其他网站的链接(友情链接除外),先用d盾进行网站的扫描,看看有哪些文件有异常,软件可以扫描出来,然后有问题的文件先进行隔离,然后再把之前的网站文件进行备份,以免丢失文件,如果存在其他网站的链接,并且不是自己有意加上的链接,那么说明这些链接是被黑客挂上去的。
    第二点:网站被上传文件检测及处理方法
    因为还有一部分网站,由于上时间未打理,如果你有之前的网站文件有备份的话可以直接把自己被黑的文件进行覆盖,这样就恢复到你备份的网站了,当然如果你的网站被黑客上传关于非法的文件,像博彩行业基本都是通过这一类的方法去做SEO优化的,但是黑客刚刚上传的时候,可能上传的并不是根目录,连我们自己都察觉不出来,所以检测起来就非常苦难,别担心我这里有方法检测。首先!打开你网站的robots文件,查看robots文件中的允许被抓取的文件夹(Allow为允许抓取),可以利用站长工具,百度站长平台的扫描,爱站等工具定时给网站进行扫描,一般网站只要被黑进了不干净的文件都会扫描出来,用site:域名的指令可以查看网站整体的收录和选择时间查看近期的收录,如果有异常的收录尽快解决掉。因为通常情况下,我们的栏目是不需要在robots中允许被抓取,因为我们网站的首页有直接链接到栏目,而黑客不会在你网站首页挂一个这样的链接,那只有写在robots文件中,所以如果你的robots文件中出现了某一个允许被抓取的栏目,你应该试着打开那个栏目内容,是否是你自己制作的内容,或者页面中是否存在非法内容。


【版权与免责声明】如发现内容存在版权问题,烦请提供相关信息发邮件至 1439028666@qq.com ,我们将及时沟通进行删除处理。 本站内容除了 98link( http://www.98link.com/ )特别标记的原创外,其它均为网友转载内容,涉及言论、版权与本站无关。