Web-Hosting in Fulda
Entscheiden Sie sich für ein Webhosting-Paket bei birdmedia oder eigener Server? Der Unterschied zwischen einem eigenen Server und einem Webhosting-Paket ist für den Laien nicht sofort offensichtlich, denn schließlich verfügen die wenigsten User über ein eigenes Rechenzentrum, in dem ein eigener Server mit dem Internet verbunden ist. So wird landläufig oft auch von einem eigenen Server gesprochen, wenn man tatsächlich ein Root-Paket bei einem Web Hoster gebucht hat. Ein Root-Paket ist dabei eine Option, bei der man einen Server für sich allein zugewiesen bekommt und mit diesem quasi tun und lassen kann, was man möchte.
Als echter "eigener Server" wird jedoch im eigentliche Sinne nur die Variante bezeichnet, bei der eine eigene IP-Adresse zur Verfügung gestellt wird. Der Webspace muss sich also nicht mit anderen Kunden eine IP-Adresse teilen, die selbst einen SSH-Zugang besitzen und selbst Software kompilieren dürfen. Warum ist das von Bedeutung? Dazu muss genauer betrachtet werden, wie Suchmaschinen heutzutage arbeiten. Suchmaschinen beschaffen sich Ihre Inhalte über sogenannte "Crawler", die interne Links auf Websites sowie externe Links von anderen Websites verfolgen. Dabei müssen Crawler sehr dezent arbeiten, womit gemeint ist, dass diese auf keinen Fall zu technischen Überlastungen eines Servers führen dürfen, denn die Web-Inhalte werden vor allem für menschliche Benutzer erstellt und nicht für Suchmaschinen bzw. deren Crawler. Werden zu viele Webseiten auf einmal abgefragt, kann der Server dabei Probleme bekommen, diese Anfragen alle zeitnah zu beantworten. Dabei müssen nicht die Suchmaschinen allein für auftretende Probleme verantwortlich sein, es kann auch eine hohe Anzahl menschlicher Besucher zusammen mit einem oder sogar mehreren Crawlern sein, die zu einer Überlastung des Servers führen. Woher weiß eine Suchmaschine, dass es sich um den gleichenServer handelt? Da mehrere Domainnamen auf einem Server gehostet sein können, sind Domains kein gutes Mittel, um die Überlastung eines Servers zu verhindern, es wird daher meist die lP-Adresse des Servers zur eindeutigen Identifizierung genutzt.
Gibt es auf einem Server mit einer bestimmte IP-Adresse mehrere Domains (oder auch Hosts, blog.birdmedia.de und www.birdmedia.de könnten auf unterschiedlichen Rechnern installiert sein), so kann eine Suchmaschine nicht jedem Host so viel "Aufmerksamkeit schenken", wie er es bei einem einzigen Host auf einer IP-Adresse der Fall wäre. Sollten beispielsweise auf einem Server mit einer IP-Adresse 1.000 Domains existieren (was für große Webhoster nicht sehr viel wäre) und ein Crawler wartet eine Sekunde zwischen den Abrufen der Inhalte, dann müssten sich die 1.000 Domains die täglichen 86.400 Abrufe (60 Sekunden x 60 Minuten x 24 Stunden) mit den anderen Domains teilen, wodurch jede Domain nur 86,4 Crawl-Vorgänge pro Tag erreichen würde. Tatsächlich ist die Arbeit der Crawler und der dahinter stehende Algorithmus aber noch wesentlich komplexer. Suchmaschinen crawlen nämlich nicht jede Website gleich häufig. Populäre Websites werden häufiger von den Suchmaschinen durchsucht, und sie crawlen die Struktur dieser Websites auch wesentlich tiefer.