1、使用框架:框架内的内容通常不在搜索引擎抓取的范围之内。
2、图片太多,文本太少。
3、提交页面指向另一网站,搜索引擎可能完全跳过这个页面。
4、提交太过频繁。
5、网站关键词密度太大,不幸的是搜索引擎并没解释多高的密度是极限。
6、文本颜色跟背景色彩一样,搜索引擎误以为你在堆砌关键词欺骗它。
7、动态网页,网站的内容管理系统方便了网页更新,却给大部分搜索引擎带来麻烦。
8、网站转移服务器,搜索引擎通常只认IP地址,转换主机或域名时,IP/DNS地址发生改变,意味着你要重新提交网站。
9、网页没有独立IP地址,有的主机商为了省钱,将同一IP分配给多用户使用,只要搜索引擎阻挡了其中一个网站,该IP属下的所有网站都受到牵连。
10、免费的网站空间,有的搜索引擎拒绝索引来自免费空间的网站,抱怨很多垃圾,质量差。
11、搜索引擎抓取时网站不在线,如果主机不稳定,就有可能出现这种情况。更糟糕的是,即使网站已经收录,重新抓取时发现不在线,还会将网站整个删除。
12、错误地阻挡了robots索引网站,有两种方法可能阻挡robots:主机服务器的根目录下有简单文本文件;网页中含某种META标签(详情参阅平文胜robots.txt和RobotsMETA标签)。
13、大量运用Flash,DHTML,cookies,javascript,Java制作或密码进入的网页。
14、搜索引擎不能解析你的DNS,新域名注册后需要2-4天的时间才能生效,因此不要一注册了域名马上提交网站。
15、网站的链接广泛度太低。
16、网站URL包含特殊字符。
如:、$、=、%、?等,在动态网页中通常含有这些字符。HotBot建议在这种URL后面加上一个参数如www.site.com/articles/query.asp?article=83
17、服务器速度太慢,网页下载速度太慢,或者网页太复杂,都可能导致搜索引擎还没搜到文本内容就暂停。
18、关键字问题,如果正文没有出现你的META标签中提到的关键字,搜索引擎可能误以为是垃圾。
(责任编辑:)