Operation Manual
Entwerfen von Websites und Seiten 51
• Titeltexte für Hyperlinks: Unterstützende
Textbeschreibungen (z. B. „Neue Produkte in diesem
Monat“), die bei der Mausberührung eines Hyperlinks
angezeigt werden lassen sich ebenfalls von den
Suchmaschinen erfassen. Nähere Informationen hierzu
finden Sie unter dem Thema „Einfügen von Hyperlinks
und Ankern“ auf Seite 110.
• Roboter-Datei: Mit einer Roboter-Datei lassen sich
Seiten (oder Ordner) gezielt von der Indexerstellung
durch Suchmaschinen ausschließen. Diese Datei
„robots.txt“ funktioniert ähnlich wie ein Meta-Tag für
Roboter, weist jedoch die Roboter oder Spider-
Programme an, was sie nicht per Index erfassen sollen.
Die Datei enthält eine einfache Liste mit Verweisen auf
Seiten und Ordner, die von der Indexerstellung
ausgeschlossen sind.
• Sitemaps: Sitemaps sind das Gegenteil zu den
Robotervorschriften. Hiermit legen Sie fest, welche
Seiten von den Suchmaschinen einbezogen werden, um
somit eine intelligente und effektive Indexerstellung zu
ermöglichen. Die Verweise auf die Webseiten werden in
einer speziellen Sitemap-Datei (sitemap.xml)
gespeichert.
Ob Sie nun mit Meta-Tags, Robotervorschriften und/oder Sitemaps
arbeiten möchten, mit WebPlus lassen sich die einzelnen Optionen
schnell und einfach konfigurieren. Sie können alle Einstellungen
für die gesamte Website festlegen und jederzeit ändern (über die
Kategorie „Suchmaschinen“ der Website-Eigenschaften), sodass
alle neu angelegten Webseiten automatisch die
Suchmaschinenvorgaben der Website übernehmen. Wenn Sie die
Website-Einstellungen anpassen, werden alle Webseiten
automatisch mit den neuen Optionen aktualisiert. Für die einzelnen
Webseiten können Sie jederzeit die Vorgaben der Website außer
Kraft setzen, indem Sie über die Kategorie „Suchmaschinen“ der
Seiteneigenschaften andere Optionen einstellen. Wenn Sie für eine
Seite die Website-Vorgaben ignorieren, werden auch alle
nachfolgend festgelegten Änderungen der Webseite-Eigenschaften
nicht auf diese Webseite übertragen.