
Viele eingehende Backlinks machen eine Webseite wichtig und je wichtiger eine Webseite ist, um so besser wird sie auch in den
Suchmaschinen gelistet, denn die großen Suchmaschinen bewerten inzwischen die Wichtigkeit einer Webseite anhand ihrer eingehenden
Links. Aus diesem Grund nimmt heutzutage auch der Professionelle Linkaufbau einen hohen Stellenwert bei der Webseitenoptimierung ein und
erfolgreiche Webseitenbetreiber kommt nicht drumherum, ihre Seiten mit Links zu versorgen.
Online Backlink Verwaltung & Link Analyse Tool
Mit unserem Backlink Analyse Tool können erfolgreiche Webseitenbetreiber vollkommen kostenlos ihre Linkpartnerschaften verwalten.
Die Online Backlink Verwaltung verschafft Webseitenbetreibern einen guten Überblick auch über große Backlinkbestände und bietet viele
komfortable Verwaltungs- sowie Suchfunktionen. Unser Service liest mittels des Robots "Backlink-Check.de", täglich automatisch
die Verweisseiten der angegebenen Linkpartner ein, wertet diese aus und erstellt einen genauen Status Report über die kontrollierten Verweise ->
Mehr Informationen zum Webmaster Service
Robot und Spider Informationen...
Unser Robot durchsucht Webseiten nur auf die Existenz ausgehender Links und die gemeldete User Agent-Bezeichnung lautet ->
Backlink-Check.de (+http://www.backlink-check.de/bot.html)...
Unser Robot speichert keine Texte, Bilder und auch sonst keine relevanten Inhalte von den besuchten Webseiten. Wenn Sie sich denoch
durch unseren Spider oder Bot belästigt fühlen, können Sie unseren Robot durch einen Eintrag in Ihrer Robots.txt von Ihren Webseiten
fern halten.
Nach Übereinkunft mit dem Robots Exclusion Standard (RES) von 1994 liest auch unser Robot beim Besuchen einer
Webseite zuerst die Datei Robots.txt, welche in der Regel im Root-Directory abgelegt ist. Diese so genannte Textdatei ist ein fester
Bestandteil der HTML-Programmierung und dient der Festlegung welcher Teil einer Webseite von einem Robot besucht werden darf.
Wenn Sie bestimmte Teile Ihrer Website von unseren Robot nicht durchsuchen lassen möchten, dann legen Sie diese Datei an und
fügen Sie folgenden Abschnitt der Robots.txt hinzu:
# sperrt alle Dateien und Verzeichnisse
User-agent: backlink-check.de
Disallow: /
# sperrt das cgi-bin Verzeichnis
User-agent: backlink-check.de
Disallow: /cgi-bin/
# sperrt im Verzeichnis folder alle .php Dateien
User-agent: backlink-check.de
Disallow: /folder/*.php$
# sperrt alles was mit geheim anfängt
User-agent: backlink-check.de
Disallow: /geheim
Robots Exclusion Standard Protokoll Informationen...
Das Robots Exclusion Standard Protokoll hat seit seiner Einführung im Jahr 1994 breite Anerkennung gefunden und ist inzwischen allgemein
anerkannt. Die Konvention wird weltweit als Quasi-Standard betrachtet und daher - auch von unseren Crawler eingehalten. Weitere Informationen
über den Umgang mit der robots.txt finden Sie in den Weiten des Internets oder hier ->
www.robotstxt.org
|


Redaktionelle Sachtexte
Webseiten Optimierung
Webseiten Marketing

|