1、制作robots,robots.txt是搜索引擎中访问网站的时候要查看的第一个文件。当一个搜索蜘蛛访问一个站点时,它会首先检查该站点根目录下是否存在robots.txt,如果存在,搜索机器人就会按照该文件中的内容来确定访问的范围;如果该文件不存在,所有的搜索蜘蛛将能够访问网站上所有没有被口令保护的页面。
2、添加站点地图:sitemap,Sitemap 可方便网站邢赳剁曛管理员通知搜索引擎他们网站上有哪些可供抓取的网页。最简单的 Sitemap 吾疣璨普形式,就是XML文件,在其中列出网站中的网址以及关于每个网址的其他元数据(上次更新的时间、更改的频率以及相对于网站上其他网址的重要程度为何等),以便搜索引擎可以更加智能地抓取网站。
3、制作404页面,HTTP 404或Not Found错误信息是HTTP的其中一种“标准回应信息”(HTTP状态码),此信息代表客户端在浏览网页时,服务器无法正常提供信息,或是服务器无法回应且不知原因。
4、根据中国人使用习惯,应该将主域名进行301永久跳转到带www的域名上。否则搜索引擎会虱忪招莫误以为是两个独立网站,影响权重。301转向(或叫301重定向,301跳转)是当用户或搜索引擎向网站服务器发出浏览请求时,服务器返回的HTTP数据流中头信息(header)中的状态码的一种,表示本网页永久性转移到另一个地址。
5、提交网址:登录百度站长工具,提交网址。百度站长平台推出的一款站长工具。百度站点索引量查询工具明确列出了每天的收录量,及变化量。