您现在的位置是:首页 > 网站优化 > 建站知识 > 建站知识

哪些因素会干涉搜索引擎优化

爱牛网络2019-10-16 23:23【建站知识】人已围观

简介 我们都了解到搜索引擎整个工作原理就是搜索蜘蛛爬行整个网络的过程,在这篇文章爱牛网络为大家分享哪些因素会干扰搜索引擎优化,希望对大家有所帮助: 被动爬取干涉 蜘蛛种类

  我们都了解到搜索引擎整个工作原理就是搜索蜘蛛爬行整个网络的过程,在这篇文章爱牛网络为大家分享哪些因素会干扰搜索引擎优化,希望对大家有所帮助:

  被动爬取干涉

  蜘蛛种类

  搜索引擎蜘蛛可以分为高权重蜘蛛,低权重蜘蛛,降权蜘蛛,内页蜘蛛,网页内容蜘蛛,图片收集蜘蛛,模拟真实浏览器反作弊爬虫(含js)

  索引

  收录率=收录数星/爬取数星

  定期进行web日志检查,计算收录率

  收录率非常低,需要增加内容质量和外链

  技巧

  真假蜘蛛识别技巧

  我找到了一个方法。一起分享一下。运行》cmd》、键入tracert蜘蛛IP地址。如:tracert 123.125.66.123

真假蜘蛛识别技巧

  如图,看到的,如果是红色框框部分,就是百度蜘蛛了,其他的,都是伪装的。

  还有一种方法,通过DNS反查点击“开始”-“运行”-“cmd”-“输入nslookup IP地址”-“回车”如

  nslookup 123.125.66.123回车会出现如下情况

真假蜘蛛识别技巧

  引导爬虫抓取新页面

  制作更新列表网页并在放置所有页面底部,在内容页面放置专门]的列表,跟随爬虫访问放出新链接。

  给爬虫优待

  ●给爬虫特殊稳定优质线路确保稳定可用不给爬虫冗余的HTML屏蔽时占率过少的搜索引擎,留取更多资源给好的引擎;提高服务器性能,保证网正常打开速度;见少网站页面不必要的js特效等。

  主动提交

  1.sitemap txt文本格式(百度)xml格式(谷歌)

  通知方式:可以在robots.txt中,添加代码告知sitemap在网站位置,可以通过百度站长后台来提交sitemap,百度站长可以一次性提交10个sitemap。

  sitemap要求:不等超过5万个,文件大小不的超过10mb。不能有404。

  2.死链提交

  xenu扫描及时删除主动提交到百度站长后台死链提交

  3.网站改版网站链接301跳转(查看日志确保无误)站长后台闭站保护死链多层扫描

  是否允许索引

  1.robots.txt

  User-agent:*

  Disallow:/

  2.meta

  <meta name="robots"content="noindex,nofollow">

  3.http

  header X-Robots-Tag:noindex

  4.html

  <noindexo不要素引込里的内容</noindexprel-"nofollow"

  以上的就是我们北京爱牛科技有限公司为大家分享的哪些因素会干涉搜索引擎优化,希望对大家有所帮助。北京爱牛科技有限公司在IT行业专注企业搜索引擎优化、网站制作和手机app开发服务。我们始终立足于企业营销精准化,为企业建设符合搜索引擎规则、符合用户体验的营销网站,通过正规SEO技术,让网站不再是企业的摆设,而是成为网络营销工具,欢迎新老客户来电咨询。010-63495805


相关文章