iis网站日志分析怎么看?

别问为什么我怎么没看见蜘蛛过来爬行我的网站,网站日志就是记录网站被访问的全过程,什么时间到什么时间有哪些人过来,什么搜索蜘蛛过来,有没有收录你的网页。
为什么要分析日志?

1、站长的必修课

2、把握自己的网站基本数据情况

3、了解蜘蛛每天的抓取情况

4、为后期的数据深入分析做准备
为什么要学习分析日志:

1、仔细

2、需要长时间不断的分析经验积累
如何分析操作:

一、你网站有没有日志,看支不支持日志功能
二、常识补充

网站日志的名称详细解析
网站日志的名称详细解析

三、怎么看iis网站日志

iis日志

上图是没有处理过的原生态iis日志

网站日志

这份是处理过的网站日志分析筛选后剩下主要针对的数据

怎么把乱七八糟的iis变成整齐的表格?

打开一个新的表格文件→文件打开→选择所有类型文件→你需要的iis文件→选择分隔符号→下一步“打勾选择空格”→完成即可

整理iis日志表格

整理iis日志表格
整理iis日志表格

我已经整理出一份提供给大货下载:iis网站日志参数详细解析文档下载

seo中url路径优化集权控制

一些网站url路径往往就这几种静态路径、动态路径、伪静态路径、还存在相对路径;绝对路径,但是有些网站就整站存在着两三种路径,这样就得不到url权重集中,就被搜索引擎计算路径的权重得分大打折扣了,没有做到集中在一个路径,妄作seo了。

这里有三条路径你们怎么认为:

www.766seo.com;766seo.com;www.766seo.com/index.html

你觉得哪条才是你的真命天子!!!自己想

为何集中在一个路径?
1、让搜索引擎认识我们在优化的路径
2、我们全部精力去优化某一条路径

so要注意哪些内容?无论是推广的,外链还是内部链接,带尾巴的不要去优化 eg: /index.html

如何解决你那个尾巴问题,就去你空间的控制面设置就好,你属于静态的就静态,如此类推。
总结:
1、着重优化一条路径
2、去尾巴
3、301重定向(查看自己网站是否301,若没就去绑定好顶级与二级,再去做跳转)

qq%e6%88%aa%e5%9b%be20161017005206

网站外链怎么做才是最稳定的操作

有很多人打电话过来咨询网站建设的事情,而且还问帮我搞点外链什么的,我就呵呵了。你们还停留在那个时代啊,网站外链已经弱化了,亲。

那么我还是一步步给你们说明下现在网站外链还能怎么做?

网站外链是什么?主要体现在它对网站的权重、关键词的排名、流量、吸引蜘蛛抓取网站、提升网站的品牌、更重要的是前期缩短网站排名。

如何增加网站外链?要怎么控制数量?

发外链去哪里?这个应该简单得多了吧(eg:论坛、博客….)

那么优质的外链又该怎么操作呢?1、建立自己的外链资源连自己;2、友情(一般控制数量为30-40条,你自己来衡量);3、用户推荐‘;

网站外链资源的注意事项:

1、别群发与购买;(谁买谁知道)

2、同样内容不要多地方发布;

3、自己网站的内容不要发布在其他网站上;

4、外链不能单一性;(要多变,别锚文本钟情一个词,一定狗带)

so想追求稳定,不可控链接就别发。(努力建立好自己的资源【玉玺在手,天下我有】真理别说话,用心体会)

网站robots协议怎么写法?通用robots.txt文件限制指令

大伙有没有发现在搜索网站关键词的时候,有些站点的快照会提示出“由于此网站的 robots限制,系统无法提供该页面的具体描述”这是一个很大信息了操作!!!淘宝以前就是活生生的一个例子,但现在已经去掉这个robots.txt文件协议了,为什么?就是百度推广改版呗,一取消限制一大波流量奔向淘宝了,省了多少广告费!!!

简单3点来说明下网站robots协议:

1、网站和搜索引擎之间的协议文件;

2、蜘蛛爬行网站的第一个要访问的文件;(你的站有没有它robots.txt)

3、为什么要写robots协议?屏蔽内容:不想被抓取的隐私内容,后台,某些图片,数据库文件,模板,插件文件,。。。或者做了伪静态就屏蔽动态路径。

通用robots.txt文件限制指令由哪些来构成的?

就这三个字段
User-agent: 用户代理(访问者)
Disallow: 不允许
Allow: 允许

加两个符号
星号:* 代表所有0-9 A-Z #
通配符: $ 以某某个后缀

举个例子:

字段:空格+加你需要处理的内容(记住是英文状态下的符号)

User-agent:  Baiduspider(定义百度蜘蛛)
Allow:  /article(允许抓取article目录下的所有内容
)
Allow:  /oshtml(同上意思)
Allow:  /wenzhang(同上)
Disallow:  /product/(不允许抓取product目录所有内容信息)
Disallow:  /(不允许抓取根目录所有的内容信息)

最简单的方法:就是去别人网站“偷”来修改,参考下淘宝的:https://www.taobao.com/robots.txt

总而言之,在不清楚自己网站那些页面被收录了,可site:自己的网站下,边可查知,再来调整robots.txt文件指令写法。