robots.txt是搜索引擎中访问网站的时候要查看的第一个文件。robots.txt文件告诉蜘蛛程序在服务器上什么文件是可以被查看的。 可以说robots.txt文件在搜索引擎中有着重要作用,正确建立robots.txt 文件的内容,可有效的优化magento系统,防止大量垃圾链接网址被搜索引擎纳入索引,降低了网站的权重,提高搜索引擎蜘蛛的抓取效率。那么如何建立robots.txt 文件呢?

下面是针对Magento系统,写的标准的规范性robots.txt 文件,只需改sitemap的路径为你网站地图路径,然后保存为robots.txt上传到Magento根目录即可, 具体写法如下:

阿里云-推广AD

# Website Sitemap
Sitemap: http://www.yourdomain.com/sitemap.xml
 
# Crawlers Setup
User-agent: *
Crawl-delay: 10
 
# Allowable Index
Allow: /*?p=
Allow: /catalog/seo_sitemap/category/
Allow:/catalogsearch/result/
 
# Directories
Disallow: /404/
Disallow: /app/
Disallow: /admin/
Disallow: /cgi-bin/
Disallow: /downloader/
Disallow: /includes/
Disallow: /js/
Disallow: /lib/
Disallow: /magento/
Disallow: /media/
Disallow: /pkginfo/
Disallow: /report/
Disallow: /skin/
Disallow: /stats/
Disallow: /var/
 
# Paths (clean URLs)
Disallow: /catalog/product_compare/
Disallow: /catalog/category/view/
Disallow: /catalog/product/view/
Disallow: /catalogsearch/
Disallow: /checkout/
Disallow: /control/
Disallow: /contacts/
Disallow: /customer/
Disallow: /customize/
Disallow: /newsletter/
Disallow: /poll/
Disallow: /review/
Disallow: /sendfriend/
Disallow: /tag/
Disallow: /wishlist/
 
# Files
Disallow: /cron.php
Disallow: /cron.sh
Disallow: /error_log
Disallow: /install.php
Disallow: /LICENSE.html
Disallow: /LICENSE.txt
Disallow: /LICENSE_AFL.txt
Disallow: /STATUS.txt
 
# Paths (no clean URLs)
Disallow: /*.js$
Disallow: /*.css$
Disallow: /*.php$
Disallow: /*?p=*&
Disallow: /*?SID=