SEO全攻略第一章 SEO基础知识

  谷歌蜘蛛、搜搜蜘蛛、雅虎蜘蛛。一个网站是否经常被蜘蛛光临直接关系着网站的排名,如果蜘蛛经常光 临的话,证明这个网站非常不错,反之就是不好,那么怎么提高网站蜘蛛的活跃度呢?快速的网站原创内 容更新可以吸引蜘蛛经常访问,外部链接导入也可吸引蜘蛛,同样网站权重也是吸引蜘蛛的一个方式。 1.7、网站排名 同类权重、看推荐——同样权重的网站关键词或网站,则是看搜素引擎推荐,谁是推荐谁排第一位。

  同类产品、看权重——同样产品在搜索时,谁的权重高,谁排第一。 同类关键、看精确——对于同类产品,则是看关键词的描述程度,谁描述的更具体、简洁,谁排第一。 1.8、权重

  类别缩写值备注 百度BDR 10 模仿、带有流氓性质 谷歌GDR 10 PR 算法比较严谨 搜搜SSDR 10 算法有待改进 搜狗SGDR 10 不发表任何意见

  权重搜索引擎给网站(包括网页)赋予的权威值,对网站(含网页)权威的评估评价,一个网站权重越高,在 搜 索引擎所占的份量越大,在搜索引擎排名就越好,提高网站权重,不但利于网站(包括网页)在搜索引擎的 排名更靠前,还能提高整站的流量,提高网站信任度所以提高网站的权重是相当重要。 网站权重的高低,对排名的提升起到一定的推动作用。但是如果想要提升排名,还需要SEO 在这个基础上 进行资源的二次开发利用。因为本身权重高,不等于排名高,提升排名,需要SEO 对网站的内容进行整理、 规划。 权重不等于排名 权重对排名有着非常的大影响 整站权重的提高有利于内页的排名

  怎么能快速的让网站获得权重?做外链、网站更新原创文章、价值高的新闻或文章、好的关键词排名和访 问,对于搜索引擎来说是比较喜欢原创文章的,因而在自己的网站上经常有规律的更新一些原创高质量的 文章,搜索引擎基本上是照单全收的,搜索引擎的收录在一定程度上会相应带来大的流量,而相应的就是 网站权重的提升,同时靠外链传递权重也是一个不错的方法,对于一个没有权重的网站来说,交换或购买 一些有权重的网站来获得权重是一个不错的途径,有些人说如果自身的网站没有权重,就尽量不要交换数 值较高的权重(PR≥5),我认为这种说法是带有一定谬误的,低权重的网站在某种程度上来说是不会传 递权重的,搜索引擎对其的青睐度也是一个观望期,因而和这样的网站做外链基本上是没有什么用途的, 反而会影响自身的美观,或者被搜索引擎戴上养殖场嫌疑的帽子,这里强调一下,以前可能那种SEO 方法 是正确的,但是现在好像不是那么?.,除上面之外我要说的是另外一种方法,这种方法在以前的SEO 方 法中是愚蠢的,但是现在却能带来权重,而且有可能短时间内获得PR≥4 的权重,在自己的网站上挂权重 较高的网站链接(别人的网站上不一定挂自己的链接),搜索引擎在第一次检索你的网站的时候,会自动 记录你网站上的高权重链接,在判断的时候会反向传递权重,这种获得权重的方式我称为”反弹式”权重。 希望SEO 人员在以后的网站优化过程中,能有自己的见解,不要迷恋于前人的理论,毕竟搜索引擎的规则 一直在改变。 站长百科全书 - 10 本书籍为站长参考书籍,非商业用途,部分内容来源于互联网,如有侵权,请及时联系删除?

  域名的后缀,一般来说,gov 和edu 的后缀,权重比较高,因为他们分别代表了政府和教育行业, 不是一般的个人用户所能够注册的,信息的权威性、真实性也比较高,所以受到搜索的重视。域 名后缀依次为:.gov、.edu、 域名注册的时间越早,相对于域名权重就越高。域名的因素比较小,普通的网站几乎不用考虑。 服务器的稳定程度也是影响域名权重的一个重要因素。 网站服务器:网站要采用稳定服务器,确保在搜索引擎蜘蛛抓取时能正常访问。一个经常打不开 的网站,在搜索引擎中的眼中,不会是一个好网站。甚至说网站的打开速度都是一个重要问题。 服务器的安全,服务器不要因为被黑客攻击而感染,而影响网站的正常访问。服务器最好采用独 立的IP,只放置一个网站,可以提高网站权重。而且不会因为服务器放置了搜索引擎不喜欢的站, 而影响网站的权重。 另外,网站存在的时间对网站的权重也有影响,一个新站从开始被索引,到通过搜索引擎最初期 的考核需要一段时间,然后是逐渐的维护积累。网站存在的时间价值都有价值,一个四五年历 史的网站,在搜索引擎中肯定会比一个刚上线的网站更受到重视。所以正确的SEO 方法,不应该 急功近利,优化是一个长期的积累,是一个不断提高网站质量的过程。 网站更新频率,频繁而且有规律的更新会提升搜索引擎的光顾频率,同时提升网站权重。 个人运气,开个玩笑,之所以是这么说那就是搜素引擎的自身稳定程度了,如百度三天两头的服 务器瘫痪,造成排名和收录的上下浮动也不是一两次了,所以各位只能靠运气了(针对小网站而 言)。 1.9、搜素引擎抓取周期 百度更新周期 百度收录的大更新时间是每月11 号和26 号,特别是26 号,更新幅度最大,K 站也是最多的。 小更新时间:每周四,更新时刻都在凌晨4 点。一般凌晨4 点更新,也有在早上九点以后更新的。对 网站流量都没啥影响,只有到中午的时候,百度对网站的关键字搜索进行重新调整之后,才会有流量上的 大的变化。流量有增自然有降。个人站长可以关注一下百度。更新时间!根据最新观察分析百度更新时间 大 致为:一个月2 次!我的外贸网站建设好久没有收录,直到昨天27 号被收录了,说明26 号百度进行了大 更 新。 谷歌更新周期 google 更新时间:预测:收录时间:更新后第1 天;更新时间:每七天更新一次(排名影响小);大更 新时间:每月更新一次(排名影响大),PR 数值更新3 个月更新一次,因为存在不同服务器更新总时间为 一 星期。 站长百科全书 - 11 本书籍为站长参考书籍,非商业用途,部分内容来源于互联网,如有侵权,请及时联系删除?

  GOOGLE 有两种搜索引擎蜘蛛爬虫一种是收录蜘蛛爬虫,此种爬虫是专门收录网站用的,还有一种 是增加排名的蜘蛛爬虫,此种爬虫是综合计算反向链接用的爬虫,并且对排名的稳定和位置很重要。所以

  有的新站,在刚收录的时候排名不是很好就是很差,这是因为第一个爬虫的原因,但是网站掉了不要着急, 真正排站要在三个月后第二个爬虫来的时候来会生效。 还有就是GOOGLE 谷歌研究者们发现了一个很简单的办法,就是查看GOOGLE 的几个镜像站点是 否相同,因为在GOOGLE 更新期间,他总是将或者 作为更新测试 站点,在这期间,后两个站点中索引的页面数量和主站点将会不同。比如当我们还有就是一种情况:三个网站搜索同一个关键词,得到的结果的数 量不相同,这就说明GOOGLE 正在更新。GOOGLE 这种大规模的更新在国外被称为GOOGLE DANCE, 有一个专门协助我们检查他是否正在Dance 的网站这个网站提供一个工具, 通过这个工具,我们只需要输入一个关键词然后点击一个按钮,就可以看到GOOGLE 三个镜像站点的搜 索结果,很方便我们对比。PR 数值更新3 个月更新一次。 1.10、Sitemap 网络抓取工具通常会通过网站内部和其他网站上的链接查找网页。Sitemap 会提供此数据以便允许支持 Sitemap 的抓取工具抓取Sitemap 提供的所有网址,并了解使用相关元数据的网址。使用Sitemap 协议 并不能保证网页会包含在搜索引擎中,但可向网络抓取工具提供一些提示以便它们更有效地抓取网站。 Google SiteMap Protocol 是Google 自己推出的一种站点地图协议,此协议文件基于早期的robots.txt 文 件协议,并有所升级。在Google 官方指南中指出加入了Google SiteMap 文件的网站将更有利于Google 网页爬行机器人的爬行索引,这样将提高索引网站内容的效率和准确度。文件协议应用了简单的XML 格式, 一共用到6 个标签,其中关键标签包括链接地址、更新时间、更新频率和索引优先权。

  站长百科全书 - 12 本书籍为站长参考书籍,非商业用途,部分内容来源于互联网,如有侵权,请及时联系删除?

  我将一句一句分解讲解这个xml 文件的每一个标签: urlset xmlns= 这一行定义了此xml 文件的命名空间,相当于网页文件中的html标签一样的作用。 url 这是具体某一个链接的定义入口,你所希望展示在SiteMap 文件中的每一个链接都要用url和/url 包含在里面,这是必须的。 loc/loc 用loc描述出具体的链接地址,这里需要注意的是链接地址中的一些特殊字符必须转换为 XML(HTML)定义的转义字符,如下表: 字符转义后的字符 HTML 字符字符编码 & 符号& 单引号 双引号 大于 小于 lastmod2005-06-03T04:20:32-08:00/lastmod lastmod是用来指定该链接的最后更新时间,这个很重要。Google 的机器人会在索引此链接前先和 上次索引记录的最后更新时间进行比较,如果时间一样就会跳过不再索引。所以如果你的链接内容基于上 次Google 索引时的内容有所改变,应该更新该时间,让Google 下次索引时会重新对该链接内容进行分析 和提取关键字。这里必须用ISO 8601 中指定的时间格式进行描述,格式化的时间格式如下: 年:YYYY(2005) 年和月:YYYY-MM(2005-06)

  priority是用来指定此链接相对于其他链接的优先权比值,此值定于0.0 - 1.0 之间 还有/url和/urlset,这两个就是来关闭xml 标签的,这和HTML 中的/body和/html是一个道 理 另外需要注意的是,这个xml 文件必须是utf-8 的编码格式,不管你是手动生成还是通过代码生成,建 议最好检查一下xml 文件是否是utf-8 编码,最简单的方法就是用记事本打开xml 然后另存为时选择编码 (或 转换器)为UTF-8。 登陆Google 提交你的SiteMap 文件,链接,如果还没有注册或者登陆Google,就先用自己的帐号 登陆Google,登陆后转到Your Sitemaps 状态页面,可以点击那个Add a Sitemap + 跳转到提交页面进 行Sitemap 文件的提交。建议文件放在你的站点根目录下。给Google 提交你的Sitemap URL 后可以看见 在列表里已存在,不过这时候还没有生效,必须过几个小时后Status 栏变成OK 表示正式生效,如果不是 OK,可以查看Google 给出的状态标示解释看看是什么原因。

  使用Google sitemap 能提高网站/网页在SERP 中的排名(或提高SEO 效果) Sitemaps 只是在一定 程度上提高网站页面被收录、索引的效率,从这个意义上说,对网站的整体SEO 效果当然是有所助益的。 但是,Sitemaps 与网站/网页最终出现在SERP 中的排名则没有任何直接意义上的联系,这是两个虽 有联系但实现过程中交叉部分很少的两个机制。——当然,如果非要强辩说,随着网站内页面收录数量增 加,站内的交叉链接权值会相应提高,而这会对最终的排名产生影响,倒也能在某种程度上说得过去,不 过,影响多大就难说了。

  ·登录后点击“添加网站”。若网站删除或更换域名,则需重新提交。 ·点击“验证此网站”,选择验证方式并获取验证文件,完成验证。 · 验证方式一:文件验证

  · 验证方式二:HTML 标签验证 ·等待管理员审核。主要审核网站属性、网站内容质量等。审核最长可能需要一天时间。

  如何添加新数据 ·选择数据的类型,根据类型对应的xml 格式规范部署您的数据文件。 ·为您的数据指定更新周期。 ·按照xml 格式规范部署好文件后,在地址栏填写文件存放地址,点击提交即可。 我们对文件的处理时间长短将视文件大小而定。

  ·如果您想在指定更新周期以外,手动通知我们数据有更新,可以在“数据管理”页面选中要手动更新的 文件并点击“更新所选”即可。 ·如果数据存在错误或不符合协议格式,则状态栏会显示为错误,请参考平台提示修改并更新。 ·您可通过平台查看数据的统计信息,包括已抓取数量,最新处理时间等。 注:百度对已提交的数据,不保证一定会抓取及索引所有网址,并且不保证其排名。

  ●全部链接真实有效 地图的主要目的是方便搜索引擎蜘蛛抓取的,如果地图存在死链或坏链,会影响网站在搜索引擎中网 站长百科全书 - 14 本书籍为站长参考书籍,非商业用途,部分内容来源于互联网,如有侵权,请及时联系删除?

  站权重的,所以要仔细检查有无错误的链接地址,提交前通过站长工具,检查网站的链接是否有效。 ●简化网站地图 网站地图不要出现重复的链接,要采用标准W3 格式的地图文件,布局要简洁,清晰,如果地图是内 容式地图,每页不要超过100 内容个链接,采用分页的行式,逐一开来,这样方便搜索引擎蜘蛛逐页 爬行。 ●更新网站地图

  建议经常更新网站地图,经常的更新地图,便于培养搜索引擎蜘蛛爬行的粘度。经常有 新的地图内容生成,长期以来,蜘蛛就会更关注,培养蜘蛛的爬行规则,这样网站内容能 更 快的被搜索引擎抓取收录。 1.10.4、sitemap 生成 生成软件:

  SiteMap X 百度sitemap 谷歌sitemap 、关键词 网站关键词就是一个网站给首页设定的以便用户通过搜索引擎能搜到本网站的词汇,网站关键词代表 了网站的市场定位。网站的关键词至关重要,如果选择的关键词不当,对网站来说就是灾难性的后果,所

  ●相关性 网站的关键词,一定要和网站的主页及内容是高度相关的。比如,我是做人才网的,我的关键词要选 择诸如“人才网”,“求职”,“招聘”这一类的关键词。假如我没这么做,而是选了“学习培训”来作 关键词, 那么当搜索“学习培训”时,也许我的排名很靠前,但网站的业务肯定上不去。因为搜索“学习培训”的, 不是来招聘或求职的人员。另外,如果关键词跟网站的内容不相关,也会影响搜索引擎的收录和排名。 所以,相关性是关键词选择的根本因素。 ●考虑竞争对手 选择关键词,要考虑用户的想法,大家都在考虑用户的想法,就会相互之间产生竞争。所以,在选择 关键词时,可以找到你最主要的三五个竞争对手,看对方在用什么关键词。你要想跟他们竞争,甚至 超过他们,一定也要参照他们的关键词的选择。 ●地域性 这个要看网站的定位, 区域性的还是全国性的。比如人才网,要定位全国,可能选择关键词时就选“人 才网”,要是定位河北了,就选“河北人才网”,要是仅仅定位石家庄,那可能就选“石家庄人才网”了。 ●行业特点 在考虑相关性、竞争对手以及地域性的同时, 要充分考虑行业特点的不同。比如:搞培训网站,培 训的内容和范围太广了,即使自己做的培训涉及面很多,最好也不要把“培训”或“河北培训”作为关键 词,最好把自己业务范围内的优势项目拿出来,融入关键词里,比如“河北英语培训”。因为这种行业 能够涉及的范围太大,关键词不具体的话,很难保证好的效果。 ●竞争热度 最为理想的关键词是搜索次数最多,竞争强度最小的那些词,不过大部分搜索次数多的词,也是竞争 最大的词,我们可以通过Google 关键词工具以及百度指数来帮助我们进行关键词的挖掘、扩展。 ●不可太宽泛与特殊 站长百科全书 - 15 本书籍为站长参考书籍,非商业用途,部分内容来源于互联网,如有侵权,请及时联系删除?

  关键词太宽泛,需要花的代价就越高,最终的转化率也不会太理想。比如说你是做美食的站点,那么 “美食”这个词就太宽泛了,我们可以加入区域性跟关键词进行组合。如“北京美食”。 ●商业价值性 不同的关键词都有着不同的商业价值上,就算是长度相同,也会导致不同的转化率。判断出不同词的 购买可能性,购买意图强烈、商业价值较高的关键词应该是优化时最先考虑的本文作者天津网站排名 优化网址转载请保留出处。 ●品牌与产品结合 有些时候,因为公司发展的需要,公司的名称或者是产品的品牌名称就直接是网站的主关键词,就像 我的网站膜法世家一样,还有麦包包等。一般这样的网站都是正规的企业网站或者是由企业运营的 网站居多,对于这些网站而言,搜索引擎来的流量占网站的总流量的比例并不像一些个人网站那样多。

  能核心的体现出网站所要表达的主题的关键词,网站的主要内容围绕这些关键词展开,并且带来主 要流量,一般是2-4 个字构成的一个词或词组,名词居多。用户往往对网站的产品和服务有需求,或者对 网站的内容感兴趣。

  关于网站关键词密度网上有两种说法,一种是2-8%、3-7%、低于10%、5%左右,另一种是2-9%、 3-8%、低于10%、5%左右,不过权威的说法应该是前者。我在这里强调一下网站关键词密度只是一种粗 略的概念,对于初做SEO 的网站来说,大可不必在意这些。 关键词查询工具我拉网关键词查询工具举例:如某个网页共有100 个词,而关键词在其中出现5 次,则可以说关键词密度为5%,这个例子只是一 种理想的简化方式,它没有有效包括HTML 代码里面的诸如meta 标签中的Title、Keywords、Description, 图片Alt 元素、Title 注释文本等,这些在计算关键词密度时也都要考虑在内的。同样地,在计算关键词 密 度时,也不仅仅指网页可见部分中关键词出现的次数,也包括在上文中提到的非可见部分中的出现次数。 同时,也要考虑Stop Words(停用词) ,这些词往往会在很大程度上稀释关键词密度。搜索引擎在算法上 要 比这复杂得多,但基本策略与此近似。

  在小型网站中,目标关键词占了搜索流量的大部份;长尾关键词存在于目录网页中,即内容页中。网 站上非目标关键词但也可以带来搜索流量的关键词,长尾关键词带来的客户,转化为网站产品客户的概率 比目标关键词高很多。存在大量长尾关键词的大中型网站,其带来的总流量非常大。长尾关键词基本属性 是:可延伸性,针对性强,范围广。

  怎样定位自身的关键词,我们可以通过搜索引擎搜索、参考竞争对手的网站关键词书写,而这些竞争 对手我们可以通过搜索引擎进行查找,同时也可以通过客户反馈。 站长百科全书 - 16 本书籍为站长参考书籍,非商业用途,部分内容来源于互联网,如有侵权,请及时联系删除?

  关键词选择首先要考虑用户的搜索次数和频率,如果一个关键词基本上没有搜索或者搜索的次数很 少,那么这样的关键词是没有任何意义的,也不会给自己的网站带来流量,判断一个关键词是不是优质关 键词,我们可以通过搜索引擎提供的工具进行判断,如谷歌关键词分析、百度指数进行分析。

  - 17 本书籍为站长参考书籍,非商业用途,部分内容来源于互联网,如有侵权,请及时联系删除?

  在分析这些数据的时候我们可以参照这些网站上的关键词分布,以便自身网站的关键词书写 谷歌流量估算工具 我们可以通过谷歌流量估算工具进行关键词的流量分析,在这个工具中,我们可以对地理位置、语言进行 条件设置,通过筛选之后我们可以得到这个关键词的相关数据。

  站长百科全书 - 18 本书籍为站长参考书籍,非商业用途,部分内容来源于互联网,如有侵权,请及时联系删除?

  站长百科全书 - 19 本书籍为站长参考书籍,非商业用途,部分内容来源于互联网,如有侵权,请及时联系删除?

  为了更好的去了解用户搜索习惯或者用户兴趣走向我们可以参照百度指数提供数据 借助这个工具我们可以知道哪些关键词是热门的,这样可以知道我们在网站上增加相应的版块,提高网站 的趣味和粘滞。 站长百科全书 - 20 本书籍为站长参考书籍,非商业用途,部分内容来源于互联网,如有侵权,请及时联系删除?

  长尾关键词这个概念现在大家都已经有所了解。在做英文网站优化时,因为受到各种因素的限制(如 资源,时间等),我们不应该去追求那些高搜索但是同样高竞争度的英文关键词(比如make money online), 这种词往往有时是你花了精力和时间也不见得能做上去,即时上去了也不一定能持久。 前面的niche 选择案例篇里介绍了关于niche 选择和关键词分析的一些技巧,这篇文章主要是针对长尾关 键词的选词方面,该策略适用于文章营销和niche 小站,能让你在做英文seo 优化时,用最短的时间内找 到最多的可做的长尾关键词。 大致要点 通过google 关键词工具获取大量该niche 的关键词 通过搜索量等参数进行过滤 对剩余的词,查看首页里有没文章站有排名的 总结整理利用最后剩下的关键词 具体步骤(案例) 我这选取clickbank 上很多人推的一个产品做具体演示:). 通过Google 关键词工具抓取该商家网页的关键词 该产品是介绍ex back 之类的电子书,所以整个通过获取商家页面所得到的关键词也基本都是围绕着ex

  back 的。 另外,semthinking 这次只对一个网站获取了关键词,实际操作过程中你可以选择更多的目标进而获取更 多 的英文长尾关键词。最后将所列出的关键词导出为csv 格式。 2). 对关键词进行过滤 这个步骤我把具体过程说下,就不截图了,这么多词机器跑market samurai 太卡了。 去除重复关键词:把第一步里获得的长尾词中所重复出现的给去掉。 market samurai 分析:将去除重复后的关键词列表导入到market samurai,分析关键词,根据SEOT, Searches 等参数进行过滤(比如SEOT 在10 以上),导出剩余的长尾词。 3). 查看首页里有没文章站有排名的(可以运用到Ezine,hubpages 等文章目录站和web20 站点) 这个步骤我们可以利用到刚刚放出的rank tracker 来完成。 站长百科全书 - 21 本书籍为站长参考书籍,非商业用途,部分内容来源于互联网,如有侵权,请及时联系删除?

  Rank Tracker,输入文章目录站网址,这里我们选择Ezine。 Rank Tracker,输入我们经过第二步后所剩余的关键词。 站长百科全书 - 22 本书籍为站长参考书籍,非商业用途,部分内容来源于互联网,如有侵权,请及时联系删除?

  Rank Tracker,得到关键词和相应排名。 这里有一点需要说明的是,我的这些词没有经过第二步的过滤,所以应该有不少都是没有搜索量的词。大 家在实际运用这个技巧时,可以在第一步的过程中通过各种途径获得大量的相关关键词,然后经过第二步 过滤以及第三步查询后,也应该能留下不少量的英文长尾关键词。 4). 利用所获得的长尾词 在介绍怎样利用这些长尾关键词之前,先需要对有个问题进行说明下。纯属semthinking 的个人观点。 我们通过了前几步后,所获取的,都是有搜索量(这个搜索量需要你自己在第二步时进行过滤,不可设置 的太大也不宜太小),并且首页有文章目录出现的词。那么这些文章站能出现在首页,我们当然也能做上 去。(如果是有些搜索量特别大的词有文章目录排在首页,可以查看下这篇文章的反链,进而估算下竞争 程度) 好了,如果认同这个观点,接下来就介绍两种利用这些长尾词的方法。 第一个其实就是很常见的做niche 小站。 因为我们在最初开始就是针对一个niche 所进行的操作,那么最后所留下的关键词也肯定是都在一个 niche 里的。这么下来,我们很理所当然的可以利用这些长尾词来搭建一个niche 小站。文章方面可以外包,也 可以通过伪原创工具来完成。盈利点根据niche 不同而有差别,CPA,clickbank,AdSense,Amazon 都 可以做。 第二种方法比较适合做sale 或者cpa。 还是前面的观点,既然Ezine 能上,我也应该可以(我的权重也许不如他,不过可以用链接来增加自己的

  优势)。这个方法需要利用到文章站和web2.0 站点,这类站点比如hubpages,squidoo 都具有很高的权 重。一个英文关键词,如果Ezine 的文章能上首页(没有什么反链的情况下),这类站点应该也不需要花 很大的功夫。这里有份详细的英文文章目录站及Web2.0 站点列表,里面不少权重站点都可以拿来利用 (利 用这些站还有一个好处就是可以不用怎么担心受沙盒影响,只要控制下发外链的节奏和掌握一点基本技巧, 这些parasites 同样有很大机会在很长一段时间内给你带来流量。发外链的一些小技巧以后会写下个人的 经 验。)。 这里有一个问题也许会有人问:我能不能也在Ezine 上提交这个关键词的文章? Google 喜欢多样化,如果同一个词,比如get my ex girl back,首页里已经有一个Ezine 了,那么你这 个 时候在给他一个hubpages,在给他一个squidoo,这样不是更好?更合google 的胃口?如果执意要提交 Ezine,也不是不可。如果你愿意给你的文章做反链,也迟早能上首页,挤掉之前排在首页别人的文章, 或 者是double listing 也有可能。 from : 站长百科全书 - 23 本书籍为站长参考书籍,非商业用途,部分内容来源于互联网,如有侵权,请及时联系删除?

  UV(独立访客):即Unique Visitor,访问您网站的一台电脑客户端为一个访客。00:00-24:00 内相同的客 户端 只被计算一次。 PV(访问量):即Page View, 即页面浏览量或点击量,用户每次刷新即被计算一次。 IP(独立IP):指独立IP 数。00:00-24:00 内相同IP 地址只被计算一次。 雅虎统计指数(YSR):通过来源带来的PV、UV、IP,以及用户停留时间、访问情况、用户行为等因素综合 分析按不同权重计算得到的,评判来源质量的指数,指数越高,表明来源质量越高。 现在大多数的统计工具只统计到IP 和PV 的层面上,因为在大多情况下IP 与UV 数相差不大。但由于校园 网络、企业机关等一些部门的特殊性,IP 已经很难真实的反映网站的实际情况,所以引入了更加精确的 UV 这个概念。 所有UV 与IP 对于是使用真实IP 上网的用户,数值是相同的。 但是如果访问你的站点中有通过“网络地址转换”(NAT)上网的用户,那么这两个值就不同的。所有对于 国内 站长来说,这个UV 值还是很有意义的。 那么什么情况下UV 会比IP 少? 一般情况下,统计UV 数应该大于等于IP 数,但有些情况下,有可能UV 数会小于IP 数: 1) IP 地址是绝对的,从TCP 链路上取的,线) UV 设置的cookie,随机设置的,可重复的,只是重复概率足够小;

  3) 移动笔记本不时的更换IP,可以导致这种问题; 4) 客户端禁用cookie 或者客户端安全级别高会导致cookie 设置不上,会出现这种问题; 5) 如果采用的图片统计,由于拿不到cookie 会出现这种问题; 1.13、各大搜索引擎提交入口 国内网站提交 1) 百度提交入口:搜搜提交入口:搜狗提交入口:有道提交入口:谷歌提交入口:中搜提交入口:必应提交入口:雅虎提交入口:提交入口:天网提交入口:国外网站批量提交 11) SubmissionURL 批量提交批量提交批量提交批量提交网站提交站长百科全书 - 24 本书籍为站长参考书籍,非商业用途,部分内容来源于互联网,如有侵权,请及时联系删除?

  国外站提交 Accoona 提交登录口提交登录口分类目录登录口登录口登录口登录口登录口登录口登录口、网站优化及网络推广工程工作流程图

  图片来源:点石互动站长百科全书 - 25 本书籍为站长参考书籍,非商业用途,部分内容来源于互联网,如有侵权,请及时联系删除?

  1.2、谷歌搜索指令 以下是目前所有的Google 搜索命令语法,它不同于Google 的帮助文档,因为这里介绍了几个Google 不推荐使用的命令语法。大多数的Google 搜索命令语法有它特有的使用格式,希望大家能正确使用。我 用不同颜色标注了不同的语法命令,绿色的较为常用的命令,黄色的是不常用但却非常有用的命令,蓝色 是Google 不推荐使用的命令。 allinanchor: anchor 是一处说明性的文字,它标注说明了这个链接可能跳转到其它的网页或跳转到当前 网 页的不同地方。当我们用allinanchor 提交查询的时候,Google 会限制搜索结果必须是那些在anchor 文 字里包含了我们所有查询关键词的网页。例[ allinanchor: best museums Sydney ] , 提交这个查询, Google 仅仅会返回在网页anchor 说明文字里边包含了关键词”best” “museums” 和”Sydney”的网面。 allintext: 当我们用allintext 提交查询的时候,Google 会限制搜索结果仅仅是在网页正文里边包含了 我们所 有查询关键词的网页。例[allintext: travel packing list],提交这个查询,Google 仅仅会返回在一 个网页包 含了三个关键词”travel” “packing”和”list”的网页。 allintitle: 当我们用allintitle 提交查询的时候,Google 会限制搜索结果仅是那些在网页标题里边包 含了我们 所有查询关键词的网页。例[allintitle: detect plagiarism],提交这个查询,Google 仅会返回在网 页标题 里边包含了”detect”和”plagiarism”这两个关键词的网页。 allinurl: 当我们用allinurl 提交查询的时候,Google 会限制搜索结果仅是那些在URL(网址)里边包 含了 我们所有查询关键词的网页。例[allinurl: google faq],提交这个查询,Google 仅会返回在URL 里 边包 含了关键词”google”和”faq”的网页,象等的网页。 author: 当我们用author 进行查询的时候,Google 会限制返回结果仅仅是那些在Google 论坛里边,包 含 了特定作者的新闻文章。在这里,作者名可以是全名,也可以是一部分或邮件地址。例[children author:john author:doe ] 或[ children author: ] 返回结果将是作者John Doe 或是 写的,关于包含关键词children 的文章。 bphonebook: 用bphonebook 进行查询的时候,返回结果将是那些商务电话资料。 cache: 提交cache:url , Google 会显示当前网页的快照信息, 从而替换网页的当前信息。例

  [cache:],提交这个查询,Google 会返回所有抓取的关于的网页快照信息。 在显示的网页快照信息里边,Google 会高亮显示查询关键词。(在cache:和URL 之间不能有空格) datarange: 当我们使用datarange 进行查询的时候,Google 会将查询结果限制在一个特定的时间段内, 这个时间相对于网站来说,是按网站被google 收录的时间算的。例Geri Halliwell Spice Girls daterange:245 。这里的时间日期格式是按天文学的儒略日。(这个搜索语法Google 并不 推荐使用,因为它会返回一些莫名其妙的东西) define: 当我们用define 进行查询的时候,Google 会返回包含查询关键词定义的网面。例[define: blog], 这个查询将会返回Blog 的定义。 ext: 这是一个没有证实的语法,可以用于filetype:查找扩散名为ext 的文件。 filetype: 当我们在查询里边包含filetype:扩展名的时候,Google 会限制查询结果仅返回特定文件类型 的网 页。例[资产评估filetype:pdf],这个查询将会返回所有文件类型为pdf 的资产评估信息。其它可用的 特定文件类型格式查询还有doc ,txt,ppt,xls.rtf,swf,ps 等。 group: 当我们用group 查询的时候,Google 会限制我们的论坛查询结果仅是某几个固定的论坛组或是某 些特定主题组的新闻文章。例[sleep group:misc.kids.moderated],提交这个查询,Google 仅会返回 在 用户组misc.kids.moderated 里边包含了查询关键字”sleep”的文章。 id: 又是一个没有证实的语法,效果很一般。 inanchor: 当我们用inanchor 提交查询的时候,Google 会限制结果是那些在网页anchor 链接里边包含 了 查询关键词的网页。例[restaurants inanchor:gourmet],提交这个查询,Google 会查询那些在 anchor 信息里包含了关键词”restaurants”和关键词”gourmet”的网页。 info: 提交info:url,将会显示需要查询网站的一些信息。例[info:gothotel.com],提交这个查询, 将会返 站长百科全书 - 26 本书籍为站长参考书籍,非商业用途,部分内容来源于互联网,如有侵权,请及时联系删除?

  键字pandemonia,在其它任何地方包含关键词”Hamish”和”Reid”的网页。(intext:后面直接跟查询 关键字,不能有空格) intitle: 当我们用intitle 进行查询的时候,Google 会返回那些在网页标题里边包含了我们查询关键词 的网页。 例[flu shot intitle:help],提交这个查询,Google 会返回在网页标题包含了查询关键字”help”, 而在其 它任何地文包含了查询关键字”flu” 和”shot”的网页。(intitle:后面也不能有空格) inurl: 当我们用inurl 进行查询的时候,Google 会返回那些在URL(网址)里边包含了我们查询关键词 的 网页。例[inurl:print site:],提交这个查询,Google 会查找这个 网 站下面网址里边包含了查询关键词”print”的网页。 link: 当我们使用link:URL 提交查询的时候, Google 会返回跟此URL 做了链接的网站。例 [link:],提交这个查询,我们将得到所有跟这个网站做了链接的网 站。(link 是个单独的语法,只能单独使用,且后面不能跟查询关键词,跟能跟URL) location: 当我们提交location 进行Google 新闻查询的时候,Google 仅会返回你当前指定区的跟查询 关键 词相关的网页。例[ queen location:canada ],提交这个查询,Google 会返回加拿大的跟查询关键词” queen” 相匹配的网站。 movie: 当我们用movie 提交查询的时候,Google 会返回跟查询关键词相关的电影信息。(当前只支持英 文 Google) phonebook: 当我们用phonebook 进行查询的时候,Google 会返回美国当地跟查询关键词相关的电话信 息。(使用phonebook 的时候需要指定详细的州名和地点名)例,[phonebook:smith ca] related: 用related 提交查询,Google 会返回跟我们要查询的网站结构内容相似的一些其它网站。例 [ related:, 提交这个查询, Google 会返回所有跟网站 结构内容相似的网站。我们也可以通过点击搜索结果后面的相似网页,来查询 跟当前网页类似的网页。(related:后面不能跟空格) rphonebook: 这个查询用来搜索美国当地跟查询关键词相关的住宅电话信息。 safesearch: 用safesearch 提交查询的时候,Google 会过滤你搜索的结果,其中过滤的内容可能包括一 些 色情的, 暴力, 赌博性质的, 还有传染病毒的网页。但是它不是百分之百确保安全的。例, [safesearch:breasts]。 site: 当我们用site 提交查询的时候,Google 会限制查询仅在某个网站,或是某个域下面进行。例 [admissions site:],提交这个查询仅仅会搜索网站下面关于 admissions 的信息。我们还可以限制搜索仅在域下面进行,例[javascript site:edu.cn],提交这个查询,仅仅在

  教 育网查询关于javascript 的信息。(site:后面不能跟空格,且site 命令可以配合其它命令进行) source: 当用source 提交查询的时候,Google 新闻会限制我们的查询仅是那些我们指定了特定ID 或新 闻 源的网址。例[election source:new_york_times],提交这个查询,Google 将会显示纽约时报包含了 查 询关键词”election”的相关文章。(我们也可以通过Google news 高级搜索完成查询) stocks: 当我们用stocks 提交查询的时候,Google 会返回跟查询关键词相关的股票信息,这些信息一般 来 自于其它一些专业的财经网站。 store: 当我们用store 提交查询的时候,Google Froogle 仅会显示我们指定了store ID 的结果。例 [polo shirt store:llbean],提交这个查询,仅会搜索商店L. L. Bean.跟关键词”polo” “shirt”相关的结果。 (只支 持英文Google) 站长百科全书 - 27 本书籍为站长参考书籍,非商业用途,部分内容来源于互联网,如有侵权,请及时联系删除?

  tq: 如果想查某个地方的天气如何,我___________们只要在Google 搜索框中输入城市名称Tq就可以查 询到这个城市 的天状况.例北京tq,当然tq 也可以用汉字的天气代替。 weather: 当我们用weather 提交查询的时候,如果我们指出一个Google 可以识别的地区或城市,Google 会返回该地区或城市当前的天气状况。 google 搜索指令 1)逻辑与/或:AND、OR 注意AND、OR 必须大写,否则会被认为是普通的单词,而不是搜索指令。 与普通编程语言不一样的是,OR 指令优先于AND 指令。 简写:AND 指令一般以空格代替,不明确写出。另外AND 指令还可以用+代替。OR 指令可用代替。 样例:Inverted OR Signature files OR file OR index ,它等同于(Inverted OR Signature) (files OR file OR index) 2)逻辑非:样例:搜索引擎历史-文化-中国历史-世界历史 3)完整匹配:? 样例:world war I 表示搜索一次世界大战。 4)通配符:*? 与我们通常的习惯一致,“*”代表一连串字符,“?”代表单个字符。 样例:progr?m

  最重要的用途:迅速判断一个网页的“热度”。 例如:link:表示所有指向“华军软件园”外部链接。 注意:和其他指令类似,link:和url 之间不能有空格。之所以特别指出这一点,是因为网上有教程说 link 和 allinurl 等一样,是排他指令,中间可以有空格。我不太了解Google 搜索指令的发展历史,只能猜测曾

  经 如此。 9)related: 寻找某网页的“类似网页”。 例如:related:表示找和“华军软件园”类似的网页。 这条指令其实Google 自己用得很广泛,只是可能没有引起你的注意罢了。在Google 的每条搜索结果中, 均有一个“类似网页”的链接。就是它了。 10)cache: 网页快照(略)。 11)daterange: 据说可以限定网页的更新时间。但是我没有试出来。 12)数值范围:.. 例如:数码相机600..900 万像素3000..4000 元 注意:“900”与“万”之间必须有空格。 Google 指令使用实例 intitle:搜索网页标题中包含有特定字符的网页。例如输入“intitle: cbi”,这样网页标题中带有cbi 的网页 都会被搜索出来。 inurl:搜索包含有特定字符的URL。例如输入“inurl:cbi”,则可以找到带有cbi 字符的URL。 intext:搜索网页正文内容中的指定字符,例如输入“intext:cbi”。这个语法类似我们平时在某些网站 中 使用的“文章内容搜索”功能。 Filetype:搜索指定类型的文件。例如输入“filetype:cbi”,将返回所有以cbi 结尾的文件URL。 Site:找到与指定网站有联系的URL。例如输入“Site:family.chinaok.com”。所有和这个网站有联 系的URL 都会被显示。 这些就是Google 的常用语法,也是Google Hack 的必用语法。虽然这只是Google 语法中很小的部 分,但是合理使用这些语法将产生意想不到的效果。 语法在Google Hack 中的作用 了解了Google 的基本语法后,我们来看一下黑客是如何使用这些语法进行Google Hack 的,这些语 法在入侵的过程中又会起到怎样的作用呢? intitle intitle 语法通常被用来搜索网站的后台、特殊页面和文件,通过在Google 中搜索“intitle:登录”、 “intitle: 管理”就可以找到很多网站的后台登录页面。此外,intitle 语法还可以被用在搜索文件上,例如搜索 “intitle:indexofetc/shadow”就可以找到Linux 中因为配置不合理而泄露出来的用户密码文件。 inurl Google Hack 中,inurl 发挥的作用的最大,主要可以分为以下两个方面:寻找网站后台登录地址,搜 索特殊URL。 寻找网站后台登录地址:和intitle 不同的是,inurl 可以指定URL 中的关键字,我们都知道网站的后 台URL 都是类似login.asp、admin.asp 为结尾的,那么我们只要以“inurl:login.asp”、 “inurl:admin.asp”

  为关键字进行搜索,同样可以找到很多网站的后台。此外,我们还可以搜索一下网站的数据库地址,以 “inurl:data”、“inurl:db”为关键字进行搜索即可。 1).寻找网站的后台登录页面 搜索特殊URL:通过inurl 语法搜索特殊URL,我们可以找到很多网站程序的漏洞,例如最早IIS 中的 Uncode 目录遍历漏洞,我们可以构造“inurl:/winnt/system32/cmd exe?/c+dir”这样的关键字进 行 搜索,不过目前要搜索到存在这种古董漏洞的网站是比较困难的。再比如前段日子很火的上传漏洞,我们 使用““inurl:upload.asp”或“inurl:upload_soft.asp”即可找到很多上传页面,此时再用工具进行 木马 站长百科全书 - 29 本书籍为站长参考书籍,非商业用途,部分内容来源于互联网,如有侵权,请及时联系删除?

  上传就可以完成入侵。 intext intext 的作用是搜索网页中的指定字符,这貌似在Google Hack 中没有什么作用,不过在以“intext:to parent directory”为关键字进行搜索后,我们会很惊奇的发现,无数网站的目录暴露在我们眼前。我们 可 以在其中随意切换目录,浏览文件,就像拥有了一个简单的Webshell。形成这种现象的原因是由于IIS 的 配置疏忽。同样,中文IIS 配置疏忽也可能出现类似的漏洞,我们用“intext:转到父目录” 就可以找到 很 多有漏洞的中文网站。 2).随意浏览网站中的文件 Filetype Filetype 的作用是搜索指定文件。假如我们要搜索网站的数据库文件,那么可以以“filetype:mdb”为 关键字进行搜索,很快就可以下载到不少网站的数据库文件。当然,Filetype 语法的作用不仅于此,在 和 其他语法配合使用的时候更能显示出其强大作用。 Site 黑客使用Site,通常都是做入侵前的信息刺探。Site 语法可以显示所有和目标网站有联系的页面,从 中或多或少存在一些关于目标网站的资料,这对于黑客而言就是入侵的突破口,是关于目标网站的一份详 尽的报告。 语法组合,威力加倍 虽然上文中介绍的这几个语法能各自完成入侵中的一些步骤,但是只使用一个语法进行入侵,其效率 是很低下的。Google Hack 的威力在于能将多个语法组合起来,这样就可以快速地找到我们需要的东西。 下面我们来模拟黑客是如何使用Google 语法组合来入侵一个网站的。 信息刺探 黑客想入侵一个网站,通常第一步都是对目标网站进行信息刺探。这时可以使用“Site:目标网站”来 获取相关网页,从中提取有用的资料。

  3).搜索相关页面 下载网站的数据库 搜索“Site:目标网站Filetype:mdb”就可以寻找目标网站的数据库,其中的Site 语法限定搜索范围, Filetype 决定搜索目标。用这种方法有一个缺点,就是下载到数据库的成功率较低。在这里我们还可以 采 用另一种语法组合,前提是目标网站存在IIS 配置缺陷,即可以随意浏览站点文件夹,我们搜索“Site: 目 标网站intext:to parent directory”来确定其是否存在此漏洞。在确定漏洞存在后,可以使用“Site: 目标 网站intext:to parent directory+intext.mdb ”进行数据库的搜索。 4).找到网站数据库 登录后台管理 下载到数据库后,我们就可以从中找到网站的管理员帐户和密码,并登录网站的后台。对于网站后台 的查找,可以使用语法组合“Site:目标网站intitle:管理”或者“Site:目标网站inurl:login.asp”进 行搜索, 当然我们可以在这里进行联想,以不同的字符进行搜索,这样就有很大的概率可以找到网站的后台管理地 址。接下去黑客就可以在后台上传Webshll,进一步提升权限,在此不再阐述。 利用其他漏洞 如果下载数据库不成功,我们还可以尝试其他的入侵方法。例如寻找上传漏洞,搜索“Site:目标网站 inurl:upload.asp”。此外,我们还可以根据一些程序漏洞的特征,定制出Google Hack 的语句。 Google Hack 可以灵活地组合法语,合理的语法组合将使入侵显得易如反掌,再加入自己的搜索字符, Google 完全可以成为你独一无二的黑客工具。 合理设置,防范Google Hack 5). 合理设置网站 Google Hack 貌似无孔不入,实则无非是利用了我们配置网站时的疏忽。例如上文中搜索“intext:to 站长百科全书 - 30 本书籍为站长参考书籍,非商业用途,部分内容来源于互联网,如有侵权,请及时联系删除?

  parent directory”即可找到很多可以浏览目录文件的网站,这都是由于没有设置好网站权限所造成的。 在 IIS 中,设置用户访问网站权限时有一个选项,叫做“目录浏览”,如果你不小心选中了该项,那么其结 果就如上文所述,可以让黑客肆意浏览你网站中的文件。 这种漏洞的防范方法十分简单,在设置用户权限时不要选中“目录浏览”选项即可。 6).不要选中该项 编写robots.txt 文件 robot.txt 是专门针对搜索引擎机器人robot 编写的一个纯文本文件。我们可以在这个文件中说明网站 中不想被robot 访问的部分,这样,我们网站的部分或全部内容就可以不被搜索引擎收录了,或者让搜索 引擎只收录指定的内容。因此我们可以利用robots.txt 让Google 的机器人访问不了我们网站上的重要文

  件,Google Hack 的威胁也就不存在了。 编写的robots.txt 文件内容如下: User-agent: * Disallow: /data/ Disallow: /db/ 其中“Disallow”参数后面的是禁止robot 收录部分的路径,例如我们要让robot 禁止收录网站目录下 的“data”文件夹,只需要在Disallow 参数后面加上“/data/”即可。如果想增加其他目录,只需按此 格 式继续添加。文件编写完成后将其上传到网站的根目录,就可以让网站远离 Google Hack 了。__