通过站长工具重新评估恶意软件站

发表者:

原文:Malware reviews via Webmaster Tools
发表于: 2007年8月13日,星期一,12:27PM

在过去的一年里,受流氓/恶意软件感染的网站数目从每周几个增长到每周数千。在我们以前的帖子“关于恶意软件警告”以及“停止恶意软件讨论组”里,我们听到了一些你们的建议,也就是改善我们与被感染网站的站长的交流。现在,我们的站长工具可以重新评估感染恶意软件的网站。

通过我们对搜索结果加上"恶意软件“标记,或是在站长工具里对你网站的一个总的概括,你可能发现你的网站感染了恶意软件。我们现在已经简化了审查程序,使Google在你的网站时去掉”恶意软件"的标签:

  1. 在站长工具里看一看你的感染了恶意软件的URL的样本。
  2. 根据StopBadware.org网站的安全提示对你的网站作出必要的改动。
  3. 新做法:使用站长工具要求Google重新评估你的网站。 我们会检查你的网站还有没有恶意软件。
  4. 新做法: 你可以检查我们重新评估的状态。
    • 如果我们觉得你的网站仍是有害的,我们会提供你的危险URL的最新名单。
    • 如果我们确认你的网站已经是正常了,你可以期待我们很快(通常是24小时以内)清除关于你的网站有恶意软件的信息。

我们鼓励所有站长去熟悉Stopbadware的恶意软件预防小技巧。如果你有其他问题,请阅读我们的相关文献或在讨论组上发帖。我们希望您觉得这个在站长工具中的新功能是有用的,特别是对发现和修正任何和恶意软件相关的问题。我们也对你们为认识和预防恶意软件的努力表示感谢。

Labels: , , ,



8个评论:

声明:以下评论仅代表发表者观点。

我的网站目前没有条件上传rolbots.txt文件。但是我在域名根目录下创建了sitemap文件,并在管理员工具中提交了两次。两次都是提示我如下信息:

网络无法访问: robots.txt 无法访问
我们访问您的 Sitemap 时遇到错误。请确保您的 Sitemap 符合我们的指南要求,并能够通过您所提供的位置访问,然后重新提交。

按照robots相关的帮助里说,robots并不是必须的,我可以不上传这个文件。而且相关的帮助也说明了如果robots不存在的话,将再次访问并抓取,为什么谷歌来了两次还是只找这个robots文件呢?这不符合谷歌的帮助说明嘛。并且也不合理。不能因为网站没有robots文件,谷歌就不给收录。

你的错误一定与有没有robots.txt五关.请检查你的sitemap文件是否有问题.

首佳博客: 谢谢发表评论,但请发评论到相关的帖子.

很喜欢你的博客,希望以后可以看到更多好咚咚,祝开心哦!

我的博客没有含有所谓的“该网站可能含有恶意软件,有可能会危害您的电脑。”
不知道这是贵企业的失误还是另有原因
我博客地址是http://blog.sina.com.cn/furion

我是在搜索我博客一片文章的时候发现这个问题的地址是http://blog.sina.com.cn/s/blog_48f9000501000b0g.html

我看不到我们对你的网站加任何标签,是不是我们已经移去了?

没有明确的标准

一直都在用GG工具,很不错的站长帮手。

发表评论



Copyright © 2007 Google Inc. All rights reserved.
隐私政策 - 服务条款