ASP.NET的网站优化:利用.ashx文件——解除反复内容
差别的链接指背的页里假如具有年夜量不异的内容,那种征象便会被称为“反复内容”,假如一个网站的反复内容许多,搜索系统便会以为那个网站的代价没有下。以是我们应只管制止各类反复内容。
静态网站的反复内容经常是由URL参数惹起的,而URL重写会恶化那一征象(比力耐人觅味哟,呵呵)。果为假如利用的是本初的URL参数的话,搜索系统能够会停止恰当的判定,而得知反复内容是由URL参数惹起的,主动的停止响应的处置;而URL重写会袒护URL参数,反而使得搜索系统没法辨认URL参数。好比:
本初的URL: freeflying/articles.aspx?id=231&catelog=blog freeflying/articles.aspx?id=231&catelog=news 颠末URL重写事后的URL: freeflying/blog/231.html freeflying/news/231.html |
那些URL所指背的页里内容实在是一样的,皆是id=231的那篇文章,但那篇文章被blog战news两个栏目所援用,出于各类本果的思索,我们终极的URL借是如上所示。
处置的法子有两种,一种是操纵机械人(robot)和谈“解除”此中一个,另外一种是经由过程301将此中一个URL永世重定背另外一个URL。
明天我们先讲robot和谈。简朴的讲,robot指的便是搜索系统,针对Google,我们又将其称之为“蜘蛛(spider)”。蜘蛛是很有规矩的,正在抓与您的网页内容的之前,会尾先收罗您的定见。而您战robot之前便基于robot和谈停止相同。详细到真现,有两种方法:
1. 将一个的robots.txt文本增加到网站根目次下,如:
#static content, forbid all the pages under the "Admin" folder User-agent: * Disallow: /Admin |
#止暗示正文;
User-agent指搜索系统,*暗示针对一切搜索系统,也能够指定详细的搜索系统,如User-agent: 谷歌bot;
Disallow指定没有许可会见的目次或页里,留意:1. 此文本是巨细写敏感的;2.必需以“\”开首,暗示网站根目次;
战本系列的目标一样,我们偏重道ASP.NET手艺。以是更多的robots.txt文本的留意事项,请检察谷歌chinawebmaster/2008/03/robotstxt.html
但我们怎样静态的死成那个文件呢(那种需供实在蛮多的)?能够我们即刻念到的便是I/O操纵,正在根目次下写一个txt文件……,但实在借能够有一种办法:利用普通处置法式(.ashx文件),代码以下:
<%@ WebHandler Language="C#" Class="Handler" %> |
普通处置法式真现了IHttpHandler,正在前里UrlRewrite部门中,我们讲到了HttpModule,实在正在ASP.NET的使用法式死命周期中,有一个称之为“管讲(pipeline)”的观点:一个HTTP恳求,颠末一个有一个的HttpModule的“过滤/处置”,终极抵达一个HttpHandle的“处置器”部门,HttpModule战HttpHandle便构成了一个“管讲”,十分形象哟,呵呵。揭张图吧:
注:相干网站建立本领浏览请移步到建站教程频讲。
相关信息
|
|
||||||
|
|
||||||
|
|
||||||
|
|
||||||
|
|