Возраст домена | 16 лет |
Дата окончания | Истек срок регистрации |
ИКС | |
Страниц в Google | 1 |
Страниц в Яндексе | 1 |
Dmoz | Нет |
Яндекс Каталог | Нет |
Alexa Traffic Rank | Нет данных |
Alexa Country | Нет данных |
История изменения показателей | Авторизация |
Идет сбор информации... Обновить
n/a
n/a
n/a
UTF-8
1.03 КБ
66
538 симв.
459 симв.
Данные linkpad ( 20 Ноября 2016 ) | |
Количество ссылок на сайт | 3 |
Количество доменов, которые ссылаются на сайт | 3 |
Количество найденных анкоров | 3 |
Исходящие (внешние) ссылки домена | 192 |
Количество доменов, на которые ссылается сайт | 54 |
Количество исходящих анкоров | 55 |
Внешние ссылки главной страницы ( 2 ) | |
chrislands.com | ChrisLands.com |
clas.chrislands.com/search.php | Search Independent Stores at ChrisLands.com |
Domain name: shelflives.ca
Domain status: registered
Creation date: 2008/08/11
Expiry date: 2018/08/11
Updated date: 2015/01/12
Registrar:
Name: Go Daddy Domains Canada, Inc
Number: 2316042
Name servers:
ns1.clnameserver.com
ns1.linkopoly.com
User-agent: BLEXBot*
Disallow: /
User-agent: blexbot*
Disallow: /
User-agent: blex*
Disallow: /
# Yandex
User-agent: yandex*
Disallow: /
# Yandex
User-agent: Yandex*
Disallow: /
# Baidu
User-agent: baidu*
Disallow: /
User-agent: Scooter
Disallow: /
User-agent: TurnitinBot
Disallow: /
User-agent: CRAWLER
Disallow: /
User-Agent: OmniExplorer_Bot
Disallow: /
User-Agent: dumbot
Disallow: /
User-Agent: MJ12bot
Disallow: /
User-agent: LocalcomBot
Disallow: /
User-agent: seekbot
Disallow: /
User-agent: psbot
Disallow: /
User-agent: e-SocietyRobot
Disallow: /
User-agent: boitho.com-dc
Disallow: /
User-agent: ConveraCrawler
Disallow: /
User-agent: FindLinks
Disallow: /
User-agent: http://www.almaden.ibm.com/cs/crawler
Disallow: /
User-agent: dotbot
Disallow: /
Allhref
user-agent: AhrefsBot
disallow: /
User-agent: XoviBot
Disallow: /
User-agent: dotbot
Disallow: /
User-agent: spbot
Disallow: /
# Sorry, wget in its recursive mode is a frequent problem.
# Please read the man page and use it properly; there is a
# --wait option you can use to set the delay between hits,
# for instance.
#
User-agent: wget
Disallow: /
#
# The 'grub' distributed client has been *very* poorly behaved.
#
User-agent: grub-client
Disallow: /
#
# Doesn't follow robots.txt anyway, but...
#
User-agent: k2spider
Disallow: /
#
# Hits many times per second, not acceptable
# http://www.nameprotect.com/botinfo.html
User-agent: NPBot
Disallow: /
# A capture bot, downloads gazillions of pages with no public benefit
# http://www.webreaper.net/
User-agent: WebReaper
Disallow: /
User-agent: LocalcomBot
Disallow: *
User-agent: BecomeBot
Crawl-Delay: 45
User-agent: googlebot
Disallow:
Crawl-Delay: 45
User-agent: msnbot
Crawl-Delay: 45
User-agent: bingbot
Crawl-Delay: 45
User-agent: Slurp
Crawl-Delay: 60
User-agent: YahooSeeker
Crawl-delay: 60
User-agent: googlebot-image
Crawl-delay: 60
User-agent: Teoma
Crawl-delay: 60
User-agent: ia_archiver
Crawl-delay: 60
User-agent: Fbot
Crawl-delay: 60
User-agent: *
Disallow: /shop_image/product/
Disallow: /orphaned_images/
Request-rate: 1/60
Crawl-delay: 50
США - 66.201.105.140
Cybercon
Cybercon
HTTP/1.1 200 OK
Date: Sat, 14 Apr 2018 23:27:27 GMT
Server: Apache
X-Frame-Options: SAMEORIGIN
Last-Modified: Wed, 12 Oct 2016 21:16:08 GMT
ETag: "41a-53eb1806a9e0c"
Accept-Ranges: bytes
Content-Length: 1050
Content-Type: text/html
Кнопка для анализа сайта в один клик, для установки перетащите ссылку на "Панель закладок"