Возраст домена | n/a |
Дата окончания | n/a |
PR | 3 |
ИКС | 10 |
Страниц в Google | 11200 |
Страниц в Яндексе | 19 |
Dmoz | Да |
Яндекс Каталог | Нет |
Alexa Traffic Rank | 2772574 |
Alexa Country | Нет данных |
История изменения показателей | Авторизация |
Идет сбор информации... Обновить
Cluster-Kopfschmerz
Cluster-Kopfschmerz, Clusterkopfschmerz, Clusterkopfschmerzen, Klusterkopfschmerz, Klusterkopfschmerzen, Klasterkopfschmerz, Bing Horton Syndrom
Cluster-Kopfschmerz
ISO-8859-15
6.42 КБ
157
1 306 симв.
1 138 симв.
Данные предоставлены сервисом semrush
Сайт | Общие фразы | PR | тИЦ | Alexa Rank | Alexa Country | |
---|---|---|---|---|---|---|
ck12.org | 2 | 6 |
0 | 4547 | 1417 | |
ogo.in.ua | 1 | 3 |
60 | 1751444 | 30279 | |
man.ck.ua | 1 | 2 |
0 | Нет данных | Нет данных | |
mam.ck.ua | 1 | 3 |
10 | 12721530 | Нет данных | |
kvraudio.com | 1 | 5 |
70 | 12316 | 7779 | |
investforum.ck.ua | 1 | 1 |
10 | Нет данных | Нет данных | |
forum.ck.ua | 1 | 2 |
170 | 13901948 | Нет данных | |
corporateecoforum.com | 1 | 4 |
0 | 6531042 | Нет данных | |
clubcreatingkeepsakes.com | 1 | n/a | 0 | 1401401 | 887608 | |
Еще 10 сайтов после авторизации |
Данные предоставлены сервисом semrush
Данные linkpad ( 23 Августа 2013 ) | |
Количество ссылок на сайт | 149 |
Количество доменов, которые ссылаются на сайт | 25 |
Количество найденных анкоров | 26 |
Исходящие (внешние) ссылки домена | 7 |
Количество доменов, на которые ссылается сайт | 5 |
Количество исходящих анкоров | 2 |
Внешние ссылки главной страницы ( 2 ) | |
hon.ch/HONcode/German/?HONConduct819219 | Hier prüfen |
medisuch.de/zertifikat.asp?refiD=T4LDFUZXJ | <img> |
Внутренние ссылки главной страницы ( 3 ) | |
ck-wissen.de/ckwiki/index.php | - |
ck-wissen.de/forum2/index.php | Forum |
ck-wissen.de/forum2/impressum.php | Impressum |
Domain: ck-wissen.de
Nserver: ns1.hans.hosteurope.de
Nserver: ns2.hans.hosteurope.de
Status: connect
Changed: 2018-07-06T12:22:06+02:00
#
# robots.txt for http://www.ck-wissen.de/ and friends
#
# Please note: There are a lot of pages on this site, and there are
# some misbehaved spiders out there that go _way_ too fast. If you're
# irresponsible, your access to the site may be blocked.
#
# advertising-related bots:
User-agent: Mediapartners-Google*
Disallow: /
# Crawlers that are kind enough to obey, but which we'd rather not have
# unless they're feeding search engines.
User-agent: UbiCrawler
Disallow: /
User-agent: DOC
Disallow: /
User-agent: Zao
Disallow: /
# Some bots are known to be trouble, particularly those designed to copy
# entire sites. Please obey robots.txt.
User-agent: sitecheck.internetseer.com
Disallow: /
User-agent: Zealbot
Disallow: /
User-agent: MSIECrawler
Disallow: /
User-agent: SiteSnagger
Disallow: /
User-agent: WebStripper
Disallow: /
User-agent: WebCopier
Disallow: /
User-agent: Fetch
Disallow: /
User-agent: Offline Explorer
Disallow: /
User-agent: Teleport
Disallow: /
User-agent: TeleportPro
Disallow: /
User-agent: WebZIP
Disallow: /
User-agent: linko
Disallow: /
User-agent: HTTrack
Disallow: /
User-agent: Microsoft.URL.Control
Disallow: /
User-agent: Xenu
Disallow: /
User-agent: larbin
Disallow: /
User-agent: libwww
Disallow: /
User-agent: ZyBORG
Disallow: /
User-agent: Download Ninja
Disallow: /
#
# Sorry, wget in its recursive mode is a frequent problem.
# Please read the man page and use it properly; there is a
# --wait option you can use to set the delay between hits,
# for instance.
#
User-agent: wget
Disallow: /
#
# The 'grub' distributed client has been *very* poorly behaved.
#
User-agent: grub-client
Disallow: /
#
# Doesn't follow robots.txt anyway, but...
#
User-agent: k2spider
Disallow: /
#
# Hits many times per second, not acceptable
# http://www.nameprotect.com/botinfo.html
User-agent: NPBot
Disallow: /
# A capture bot, downloads gazillions of pages with no public benefit
# http://www.webreaper.net/
User-agent: WebReaper
Disallow: /
#
# Friendly, low-speed bots are welcome viewing article pages, but not
# dynamically-generated pages please.
#
# Inktomi's "Slurp" can read a minimum delay between hits; if your
# bot supports such a thing using the 'Crawl-delay' or another
# instruction, please let us know.
#
User-agent: *
Disallow: /*?
Disallow: ckwiki/index.php/Spezial:Suche
Disallow: ckwiki/index.php/Spezial:Buch
Disallow: ckwiki/index.php/Spezial:Zuf%C3%A4llige_Seite
Disallow: ckwiki/index.php/Spezial:Zufällige_Seite
Disallow: ckwiki/images/
#
## *at least* 10 seconds please. preferably more :D
Crawl-delay: 200
США - 74.200.230.52
DataPipe
DataPipe
HTTP/1.1 200 OK
Date: Sun, 02 Feb 2020 00:29:18 GMT
Server: Apache
Last-Modified: Mon, 15 Apr 2019 16:01:53 GMT
ETag: "19a1-58693c5624109"
Accept-Ranges: bytes
Content-Length: 6561
Vary: Accept-Encoding
X-Powered-By: PleskLin
Content-Type: text/html
Кнопка для анализа сайта в один клик, для установки перетащите ссылку на "Панель закладок"