≡Menü

Sitemap. xml und ihre Bedeutung für Suchmaschinen!


Wer eine eigene Homepage betreibt, sollte sich auch eine sogenannte Sitemap.xml erstellen, damit Google und auch andere Suchmaschinen die eigenen Seiten besser findet, die durch welche Gründe auch immer nicht gefunden werden.
Ein sehr gutes Programm für diesen Zweck ist GSiteCrawler oder A1 Sitemap Generator mit dem man vollautomatisch eine Sitemap erstellen kann.
Möchte man nicht extra lokal für diesen Zweck ein Programm auf dem Rechner installieren, das diese sogenannte Sitemap erstellen kann, hat man noch die Möglichkeit im Internet sich diese Datei online zu erstellen.

Was beherbergt diese Datei eigentlich?
In dieser Datei befindet sich eine komplette Verzeichnisstruktur der ganzen eigenen Homepage.
Ist die Sitemap.xml erstellt legt man sie einfach in das Hauptverzeichnis auf den Server wo die eigentliche Homepage sich befindet.
Damit die Sitemap. xml von Google auch auf dem Server gefunden wird, bekommt die Datei robots.txt die sich ebenfalls im Hauptverzeichnis befindet einen kleinen Eintrag dazu, der zum Beispiel so aussehen kann.

Beispiel: robots.txt

User-agent: *
sitemap: http://www.deineURL/sitemap.xml

Wer bei den Google Webmaster Tools angemeldet ist, hat auch die Möglichkeit seiner Sitemap. xml selber einzureichen oder besser gesagt hoch zu laden, dieses kann bei kurzfristigen Änderungen seiner HP ganz nützlich sein.

Was sagt Google selbst dazu:
Google kann keine Garantie übernehmen, dass sämtliche URLs gecrawlt und indexiert werden.
Anhand der Daten in Ihrer XML-Sitemap lernen wir jedoch die Struktur Ihrer Website kennen und können auf dieser Basis die Ausführung des Crawlers besser planen und Ihre Website in Zukunft genauer erfassen.
In den meisten Fällen ist das Einreichen der XML-Sitemap für den Webmaster von Vorteil, und negative Auswirkungen sind nicht zu befürchten.
(Quelle: http://www.google.com/support/webmasters/bin/answer.py?answer=156184&hl=de)

Wie findet man Fehler im Code einer Seite?
Nachdem wir unsere selbst erstellte Homepage auf den Server geladen und der Öffentlichkeit präsentiert haben stellt sich nun die Frage, habe wir alles richtig gemacht.
Warum ist es eigentlich wichtig dass der Code weitestgehend sauber ist?
Für viele Suchmaschinen wie zum Beispiel Google ist eine Seite mit sehr vielen Fehlern nicht gerade sehr ansprechend und wird vielleicht dadurch nicht in den Index aufgenommen.
Deshalb muss man sich bemühen seine Seite weitestgehend von Fehlern frei zuhalten.
Es gibt ein Programm namens CSE HTML Validator mit dem man seine Seiten im Offlinemodus überprüfen lassen kann.
Wer sich nicht extra dieses Programm zulegen möchte, für den gibt es auch eine so genannte online Überprüfung, die man unter dieser Adresse finden kann, einfach seine Homepage hier eintragen:
http://validator.w3.org/
Wer als Internetbrowser den Mozilla Firefox verwendet kann sich ein Plugin (Add-on) für diesen herunterladen:
https://addons.mozilla.org/de/firefox/addon/249/
Dieses Add-on ist in der Lage bei Aufrufen der Quellcodeansicht im Firefox für eine Seite sämtliche Fehler anzuzeigen, wir benutzen auch dieses Add-on und staunen nicht schlecht was alles gefunden wird.
Die richtige Testumgebung für unsere Homepage!
Wer dynamische Webseiten erstellt und sie auf dem heimischen PC testen möchte kommt um einen lokalen Server wie zum Beispiel XAMPP nicht herum.
XAMPP ist kostenlos im Internet erhältlich.
Einen Webserver auf dem lokalen Computer zu installieren ist sehr hilfreich um die selbst erstellten Seiten seiner Homepage offline ausgiebig zu testen und Änderungen daran vorzunehmen.
Bekannteste Kombination aus einem Webserver dürfte Apache + MySQL + PHP sein.
Das Installieren der Software XAMPP ist selbsterklärend.
Um zum Beispiel mit Dreamweaver ordentlich arbeiten zu können, ist ein solcher virtueller Server Voraussetzung.
Ist XAMPP richtig installiert, können wir unter dem Verzeichnis htdocs unsere Projekte ablegen.
Mit dem Aufruf in unserem Browser http://localhost/können wir unsere Homepage so betrachten als läge sie auf den Webserver unseres Providers.

Lokal, Testserver, Remoteserver

Lokal - ist auf dem heimischen Rechner(das Stammverzeichnis in dem wir arbeiten)

Testserver - wenn wir lokal Seiten erstellen die mit PHP und MySQL arbeiten, brauchen wir einen Webserver der auf Lokal (heimischer PC) laufen muss. Das ist dann unsere Testumgebung.
Damit können wir die LiveData Ansicht von ZB. Dreamweaver nutzen.
Remote - ist normalerweise das Webverzeichnis im Netz, wo unsere Homepage gehostet (abgelegt) wird.
Um lokale Seiten dorthin zu übertragen braucht ZB. Dreamweaver eine FTP Verbindung zum Remote Webverzeichnis.

Bild "Computer:xampp.jpg"
http://www.apachefriends.org/de/xampp-windows.html





| Copyright © 2010-2021 uwprivate.de | Sitemap | Letzte Änderung: Startseite (19.09.2021, 15:51:04) | Impressum | Komtakt |
| Seite otimiert für IE9 | Opera11-26 | Firefox34 | Dolphin11.3 | Google Chrome 39 |
Ja, auch diese Webseite verwendet Cookies. Hier erfahrt ihr alles zum Datenschutz