网站被入侵和被拒登是很头疼的事,肉眼无法判断,网站技术反复检查不出问题,反复申诉无法通过,我们经常无所适从。
我们整理些内容,咱们参考参考找到解决办法:
解决网站跳转问题,不可跳转到其他网站(除非国际官方认同的第三方,例如领英、fb、YouTube等)。访问您的 https://www.xxx.com/robots.txt 文件查看其内容,未能成功获取文件内容,就可能是一个需要立即排查的问题。重点从广告投放和搜索引擎优化的角度,先解决 robots.txt 的问题,再解决核心安全和拒登问题。
(1)、robots.txt 文件的自检与优化(重点),检查您的 robots.txt 文件。对于一个被谷歌广告系统标记“拒绝”的网站,robots.txt 文件中的任何错误都可能阻止谷歌进行必要的审核。a. 确保文件可访问性检查状态码: 在浏览器中输入 https://www.xxx.com/robots.txt。确保服务器返回 200 OK 状态码。如果返回 404 Not Found,请立即创建并上传文件。b、检查核心内容与权限对于 Google Ads 审核和 Google 搜索抓取,以下是绝对不能出现的错误规则:错误规则潜在影响优化师建议Disallow: / (全局禁止)灾难性错误。 完全阻止 Google 爬虫(包括 Google Ads 审核机器人)访问整个网站。必须删除。 确保此规则不出现在 User-agent: * 或 User-agent: Googlebot 下。禁止关键静态资源阻止爬虫加载 CSS、JavaScript 文件,导致 Google 无法正确渲染您的网页,无法确认页面实际内容。必须允许。 c、确保没有禁止以下目录:Disallow: /css/, Disallow: /js/等。禁止落地页如果落地页 URL 被禁止,广告系统无法审核,直接拒登。确认您用于广告的所有落地页的 URL 路径没有被任何 Disallow 规则匹配。站点地图位置Sitemap 指令是否遗漏或 URL 错误。
(2)、应对入侵后的痕迹(黑客行为)被入侵的网站,黑客经常会在 robots.txt 中添加恶意规则,以隐藏他们创建的恶意页面不被搜索引擎发现和清理。请仔细检查文件末尾: 查看是否有您不认识的、针对特定目录或包含大量乱码参数的 Disallow 规则。如果有: 立即删除这些可疑规则。
解决“被入侵”问题(优先级最高)Google Ads 和 Google 搜索系统对网站安全性要求极高。只要网站存在恶意代码、跳转、或黑客留下的后门,您的广告账户和网站都会持续被拒绝。彻底清除恶意代码:使用 Sucuri、Wordfence(如果是 WordPress)或 Google Search Console 提供的安全工具,扫描并彻底清除所有恶意文件和代码。向 Google 提交复审:在 Google Search Console 中查看“安全问题”报告,确认问题是否已解决。在 Google Ads 账户中,确认网站已清理后,向 Google 提交复审请求。
解决“网站被拒登”问题(策略优化)在确定 robots.txt 正常且网站已清除恶意代码后,如果仍被拒登,原因可能在于落地页质量或内容不合规。检查落地页体验:网站速度,确保移动端加载速度快。内容质量: 确保落地页信息完整、真实,不包含误导性内容或粗糙的排版。检查广告政策:对照 Google Ads 不安全的网站 政策和恶意软件 政策,确保您的网站完全符合要求。
总结: 请先手动验证并修正 robots.txt,确保爬虫能够全面、无障碍地抓取您的落地页及其支持文件(CSS/JS)。然后,将全部精力放在彻底清除黑客痕迹上,这是网站通过 Google 审核的前提。
另外望您悉知,谷歌由于审核部门在国外,沟通起来比较困难,重重阻隔,处理时效会有些长。我们需要层层排查可能得问题,如果遇到请您耐心哦,谢谢。
欢迎与我们联系,希望我们能够合作,共赢未来!!!
