Das Aussehen der Suchergebnisse in den Suchmaschinen ist größtenteils dafür verantwortlich, ob Nutzer:innen auf den Link klicken oder einen Link der Konkurrenz wählen. Daher sollten die Ergebnisse in den sogenannten SERPs (Search Engine Result Pages) ansprechend gestaltet werden, um interessierte Nutzer:innen auf die Website zu lenken und die Klickrate (Click-Through-Rate (CTR)) zu erhöhen.
Von großer Bedeutung für das Aussehen der Suchergebnisse sind die Meta-Informationen Seitentitel und Meta-Beschreibung. Sie entsprechen i. d. R. der Überschrift und der Beschreibung der Suchergebnisse.
Der Titel für Suchmaschinen (MetaTitle) kann im Backend individuell pro Seite gepflegt werden. Dieser entspricht i. d. R. der Überschrift des Suchergebnisses in der Suchergebnis-Liste der jeweiligen Suchmaschine.
Pflege in der Website
Die Meta Informationen werden über die Seiteneigenschaften im Reiter "SEO" gepflegt. Der Reiter "Metadaten" meint die interne Suche und hat nichts mit SEO zu tun.
Der Seitentitel sollte zwischen 50 und 70 Zeichen lang sein, um den verfügbaren Platz in den Suchergebnissen bestmöglich auszunutzen. Ist er zu lang, wird er in den Suchergebnissen abgeschnitten und durch „...“ begrenzt. Ist er zu kurz, steigt die Wahrscheinlichkeit, dass Google ihn verändert, indem z. B. andere Inhalte aus dem Content – z. B. die Überschrift – angezeigt werden.
Ist der Titel für Suchmaschinen nicht gepflegt, wird stattdessen der Seitentitel verwendet. Der Titel für Suchmaschinen wird ebenfalls zum Titel im Browser Tab.
Ein guter Seitentitel hat folgende Merkmale:
Das Hauptkeyword steht möglichst ganz vorne.
Er regt zum Klicken an und hebt sich von der Konkurrenz ab.
Er enthält, was die User suchen und was sie wirklich wollen – das ist nicht immer das Gleiche.
Er enthält die eigene Marke nur, wenn diese auch bekannt ist und somit zum Klicken animiert.
Er ist individuell bzw. einzigartig.
Es können max. 70 Zeichen verwendet werden.
Individuell pflegbare Meta-Beschreibung
Die Meta-Beschreibung (Meta Description) kann im Backend individuell pro Seite gepflegt werden. Diese entspricht i. d. R. dem Beschreibungstext des Suchergebnisses in der Suchergebnis-Liste der jeweiligen Suchmaschine.
Pflege in der Website
Die Meta Informationen in der Seiteneigenschaften im Reiter "SEO". Der Reiter "Metadaten" meint die interne Suche und hat nichts mit SEO zu tun. Die Meta-Beschreibung sollte zwischen 150 und 160 Zeichen lang sein, um den verfügbaren Platz in den Suchergebnissen bestmöglich auszunutzen. Ist sie zu lang, wird sie in den Suchergebnissen abgeschnitten und mit „…“ versehen. Ist sie zu kurz, steigt die Wahrscheinlichkeit, dass Google sie verändert, indem z. B. andere Inhalte aus dem Content – z. B. der Einleitungssatz – angezeigt werden.
Wenn keine Meta-Beschreibung gepflegt ist, zieht Google selbst einen Textabschnitt aus der Seite für die Suchergebnisse. Es wird keine aus dem System heraus generiert.
Über die Robot-Anweisungen (Robots-Meta-Tag) können Informationen zur Seitenindexierung über die jeweilige Seite an die Suchmaschine gegeben werden. Es kann pro Seite bestimmt werden, ob Suchmaschinen sie indexieren dürfen oder nicht. Zudem kann festlegegt werden, ob Suchmaschinen den Links auf der jeweiligen Seite folgen darf oder nicht. Die Nutzung der Robot-Anweisungen sind u. a. für folgende Anwendungsfälle relevant:
Vermeidung von Duplicate Content: Durch das Setzen von noindex auf Seiten mit dupliziertem Inhalt kann verhindert werden, dass diese Seiten in den Suchergebnissen erscheinen und die SEO-Performance beeinträchtigen.
Steuerung der Linkautorität: Mit nofollow kann verhindert werden, dass Links auf bestimmten Seiten die Linkautorität weitergeben, was nützlich sein kann, um unerwünschte Linkpraktiken zu vermeiden.
Schutz sensibler Inhalte: Inhalte, die nicht für die breite Öffentlichkeit gedacht sind, können mit noindex und/oder nofollow geschützt werden.
Pflege in der Website
Sollen die Suchmaschinen eine Seite indexieren, muss in den Seiteneigenschaften die Einstellung „Index dieser Seite“ (= index) aktiviert sein. Soll eine Seite nicht in den Suchmaschinen-Index aufgenommen werden, muss die Funktion deaktiviert werden (= noindex).
Sollen Suchmaschinen den Links auf einer Seite folgen, muss die Einstellung „Dieser Seite folgen“ (= follow) aktiviert werden. Soll dies nicht geschehen, deaktivieren muss diese Option (= nofollow) deaktiviert werden.
Als Standard ist „Index dieser Seite“ und „Dieser Seite folgen“ hinterlegt.
Suchergebnisseiten
Filterergebnisseiten
User-Seiten wie Login, Warenkorb etc.
Benutzerprofile
Seiten mit sensiblen Informationen
Seiten mit wenig oder dupliziertem Inhalt
Verwaltungsseiten, wie Dashboards
Entwicklungsbereiche bzw. Seiten im Aufbau
Aktionsseiten und temporäre Promotions
Danke-Seiten (z. B. nach Kaufabschluss)
Archivierte Inhalte
Download-Seiten
Fehlerseiten (404 usw.)
Seiten mit rechtlichen Texten
Seiten mit rechtlichen Texten könnten auf noindex gestellt werden, damit sie nicht über die Google-Suche von „Abmahn-Anwälten“ auf der Suche nach veralteten Rechtstexten gefunden werden. Es gibt allerdings auch schon Tools, die noindex ignorieren.
Werden URLs in den sozialen Medien wie Facebook geteilt, wird i. d. R. eine Vorschau erzeugt. Damit diese – ähnlich wie die SERPs bei Google – ansprechend gestaltet ist und zum Klicken animiert, sollten hierfür optimale Meta-Informationen bereitgestellt werden.
Individuell pflegbare OpenGraph-Informationen
OpenGraph-Informationen für das Teilen von Links bspw. über Facebook können über das System individuell gepflegt werden.
Folgende OpenGraph-Informationen sind individuell pflegbar:
Titel
Beschreibung
Bild
Der Titel und die Beschreibung können von Facebook & Co. aus den Meta-Informationen (Seitentitel und Meta-Beschreibung) übernommen werden, wenn sie nicht redaktionell gepflegt sind.
Weitere OpenGraph-Informationen werden automatisiert vom System gesetzt.
Empfehlungen:
Für Facebook sollte der OpenGraph-Titel (og:title) 55 – 60 Zeichen lang sein. Ist er zu lang, wird er abgeschnitten und mit „…“ versehen. Die OpenGraph-Beschreibung (og:description) sollte zwischen 60 – 65 Zeichen liegen. Ist sie zu lang, wird sie abgeschnitten und mit „…“ versehen. Für Bilder (og:image) sollte die Auflösung bei mindestens 1.200 x 630 Pixeln liegen, während die Dateigröße nicht mehr als 8 Megabyte groß sein sollte. Nutzen Sie den Sharing Debugger von Facebook (https://developers.facebook.com/tools/debug/), um eine Vorschau für Facebook anzeigen zu lassen und sie ggf. zu optimieren.
Individuell pflegbare TwitterCards-Informationen
TwitterCards-Informationen für das Teilen von Links bspw. über X (ehemals Twitter) können über das System individuell gepflegt werden.
Pflege
Folgende TwitterCards-Informationen sind individuell pflegbar:
Titel
Beschreibung
Bild
Der Titel und die Beschreibung können von X (ehemals Twitter) aus den Meta-Informationen (Seitentitel und Meta-Beschreibung) übernommen werden, wenn sie nicht redaktionell gepflegt sind.
Empfehlungen:
Der Twitter-Titel sollte unter 55 Zeichen lang sein, um den verfügbaren beim Teilen in den sozialen Netzwerken bestmöglich auszunutzen. Ist er zu lang, wird er abgeschnitten und mit „…“ versehen. Die Twitter-Beschreibung sollte unter 200 Zeichen lang sein, um den verfügbaren beim Teilen in den sozialen Netzwerken bestmöglich auszunutzen. Ist sie zu lang, wird sie abgeschnitten und mit „…“ versehen. Das optimale Twitter-Bild sollte im Format 800 x 418 Pixel hochgeladen werden. Hat es die falschen Maße, kann es abgeschnitten werden. Ist es nicht vorhanden, wird in der Regel ein anderes Bild auf der Seite verwendet. Nutzen Sie den Tweet Composer von X, um eine Vorschau anzeigen zu lassen und sie ggf. zu optimieren.
Gibt es Seiten bzw. Inhalte, die über verschiedenen URLs erreichbar sind – dazu zählen neben unterschiedlichen Sprachversionen auch http und https sowie URLs mit und ohne www – so sollten Canonical-Tags verwendet werden. Google wird so die kanonische URL einer Seite mitgeteilt und „Duplicate Content“ wird verhindert.
Als kanonische URL wird die Originalseite bezeichnet, also die Seite, die als Ursprung für den jeweiligen Inhalt dient. Selbst wenn es keine zweite Version einer Seite gibt, sollte ein Canonical-Tag hinterlegt werden. Allerdings sollte es in diesem Fall auf sich selbst zeigen (ohne zusätzliche Parameter zur Filterung, zum Kampagnen-Tracking o. ä.).
Nur die kanonische URL wird i. d. R. von Google indexiert.
Pflege in der Website
Es kann pro Seite ein kanonischer Link auf eine Seite gesetzt werden. Ist dieser nicht gesetzt, referenziert sich die Seite selbst.
Bei Weiterleitungen wird zwischen permanenten und temporären Weiterleitungen unterschieden.
Pflege
Weiterleitungen können im Backend unter dem Menüpunkt „Weiterleitungen“ redaktionell gepflegt werden. Es können folgende HTTP-Statuscodes gewählt werden:
301 (Moved Permanently)
302 (Found)
303 (See Other)
307 (Temporäre Weiterleitung)
308 (Permanente Weiterleitung)
Pflege
Für Inhaltselemente des Typs Überschrift können neben dem Überschriftentext die H-Auszeichnung (H1-H5; alternativ: verborgen oder „normaler“ Text), den Stil der Überschrift (M, L, XL, XXL), die Ausrichtung und den Link individuell gepflegt werden.
Überschriften sollten ein Keyword enthalten, welches für die jeweilige Seite relevant ist (Keywordrecherche vorab notwendig).
Auf Überschriften sollte möglichst immer ein Text folgen, der sich auf sie bezieht bzw. sollten Überschriften immer den nachfolgenden Text ankündigen. Es ist daher wichtig, dass man sich pro Seite auf ein bestimmtes Thema fokussiert und dieses in verschiedene (sinnvolle) Abschnitte inkl. Überschriften unterteilt.
Beispiel für eine Überschriftenstruktur:
Titel der Seite/Unterseite: h1 à nur 1x pro Seite
---- Abschnitt 1: h2
-------- Abschnitt 1.1: h3
-------- Abschnitt 1.2: h3
---- Abschnitt 2: h2
---- Abschnitt 3: h2
-------- Abschnitt 3.1: h3
------------ Abschnitt 3.1.1: h4
---- Abschnitt 4: h2
Pflege
Pro Bild kann ein Alternativtext individuell gepflegt werden. Der Alternativtext kann in der Dateiliste vergeben bzw. editiert werden. Er bildet dann den Standardwert für dieses Bild.
Bei der konkreten Einbindung eines Bildes aus der Dateiliste über ein Content-Element kann dieser Standardwert individuell überschrieben werden.
3.) Technik
Verwendung von sprechenden URLs
Unser Typo-3 System verwendet automatisch sprechende URLs. Diese ermöglichen es sowohl Nutzer:innen als auch Suchmaschinen, anhand der URL zu erkennen, welche Inhalte sich hinter einer URL (vermutlich) verbergen. Dies kann dazu führen, dass Nutzer:innen eher auf einen „sprechenden“ Link in den Suchergebnissen klicken als auf „kryptische“ URLs.
Pflege
Die URLs ergeben sich aus den Seitentiteln bzw. Datensätzen, die redaktionell gepflegt werden können. Umlaute und Sonderzeichen werden den Anforderungen der Suchmaschinen entsprechend umgewandelt.
Zusätzlich lassen sich die Seitenpfade bzw. URLs manuell überschreiben.
Folgende Vorgaben sollten bei der Erstellung von URLs beachtet werden:
Die URLs sollten möglichst immer „sprechend“ sein.
Die URLs sollten nur Kleinschreibung beinhalten.
Umlaute und bestimmte Sonderzeichen sollten korrekt umgewandelt werden:
ß zu ss
ü zu ue
ö zu oe
ä zu ae
/ zu -
+ zu -
Bestimmte Sonderzeichen sollten vermieden werden:
! ? ( ) $ @ { } [ ] § etc.
Leerzeichen sollten durch Bindestriche ersetzt werden.
Ausnahmen
Werden die Seitenpfade bzw. -URLs manuell in nicht sprechender Form überschrieben, so werden sie nicht automatisch umgewandelt. Ebenso verhält es sich mit nicht sprechenden Ordner und Dateien, die von Redakteur:innen erstellt bzw. hochgeladen werden.
Nutzung einer individuellen robots.txt
Das System liefert eine robots.txt-Datei mit Standardeinträgen mit.
In der sogenannten robots.txt, einer Textdatei auf dem Server, werden Hinweise für Crawler wie z. B. die von Suchmaschinen hinterlegt. Diese beinhalten u. a. Verzeichnisse, die nicht oder explizit doch durchsucht werden sollen. Für die verschiedenen Crawler können unterschiedliche Anweisungen hinterlegt werden. Zudem wird die XML-Sitemap dort verlinkt, um Suchmaschinen zu zeigen, welche Seiten indexiert werden sollen.
Insbesondere vor dem Go-Live einer Seite ist es wichtig, dass das Durchsuchen durch Suchmaschinen untersagt ist, damit die Seite nicht in der Umsetzungsphase über Suchmaschinen auffindbar ist.
Nach dem Go-Live sollten jedoch alle wichtigen Verzeichnisse und Dateien (u. a. CSS, JavaScript und Bilder) von Suchmaschinen crawlbar sein. Um das verfügbare Crawl-Budget bestmöglich zu nutzen, sollten jedoch ggf. Verzeichnisse wie z. B. Admin-Bereiche ausgeschlossen werden.
Es kann nicht ausgeschlossen werden, dass alle Crawler bzw. Bots sich an die Anweisungen aus der robots.txt halten. Deshalb bauen wir z. B. vor dem Go-Live zusätzlich einen Passwortschutz ein.
Pflege
Das System liefert eine robots.txt-Datei mit Standardeinträgen mit.
Verlinkung der XML-Sitemap
Ausschluss vom Ordner fileadmin (Ausnahmen: /Mediendatenbank und /_processed_)
Ausschluss vom Ordner uploads (Ausnahmen: /images)
Die robots.txt kann individuell nach Kundenvorgaben gestaltet werden.
Unser System generiert automatisch XML-Sitemaps für Seiten.
Eine XML-Sitemap stellt ein Verzeichnis aller Seiten oder auch Dateien dar, die von den Suchmaschinen in den Index aufgenommen werden sollen. Das Vorhandensein erleichtert also Suchmaschinen die Suche nach Inhalten sowie Zusatzinformationen zu den aufgelisteten Seiten und kann für eine schnellere Indexierung sorgen.
Pflege
Unser System stellt automatisch eine Index-Sitemap im Format XML bereit. Diese wird in der robots.txt-Datei verlinkt, sodass Suchmaschinen diese leicht finden können. Die Sitemap enthält wiederum Unter-Sitemaps für verschiedene Seitentypen („normale“ Seiten sowie destination.data-Seiten). Zusätzlich zu den URLs wird das letzte Änderungsdatum sowie die Priorität mitgeliefert. Für Sprachverzeichnisse wird eine separate Sitemap ergänzt.
Die XML-Sitemaps liefern nur kanonische URLs und Seiten aus, die nicht auf „noindex“ gestellt wurden und den HTTP-Status 200 (OK) ausliefern. Weitergeleitete Seiten sind nicht enthalten.
Die 404-Seite wird von uns standardmäßig auf “noindex” gesetzt und ist in diesem Fall nicht in der XML-Sitemap enthalten. Wird diese Einstellung redaktionell geändert, kann sie jedoch wieder in der XML-Sitemap auftauchen.
Die XML wird bei jedem Aufruf neu generiert und ist somit stets aktuell.
Eine XML-Sitemap für Bilder stellt ein Verzeichnis aller Bilder dar, die von den Suchmaschinen in den Suchindex aufgenommen werden sollen, damit sie in der Bildersuche auffindbar sind. Mit Hilfe dieser Datei können Suchmaschinen Bilder samt Zusatzinformationen besser finden und ggf. schneller indexieren. Eine Bildersitemap kann zusätzlich beauftragt werden
XML-Sitemaps für News
Seiten, für die z. B. Google News relevant sind, können für Google & Co. eine extra XML-Sitemap für News bereitstellen, die alle neuen Artikel (inkl. Metadaten) der vorherigen beiden Tagen beinhaltet. Durch diese Datei können Artikel schneller und besser von Google & Co. gefunden und indexiert werden. Eine Sitemap für Newsbeiträge kann separat beauftragt werden.
Durch die gleichzeitige Auffindbarkeit einer Website über verschiedene URLs, z. B. über die HTTP-Version sowie der HTTPS-Variante sowie mit führendem www und ohne führendem www (Beispiel: http://www.domain.de, https://www.domain.de. http://domain.de, https://domain.de), kann Duplicate Content entstehen. Auch durch die Varianten mit und ohne „Trailing Slash“ (Beispiel: https://www.domain.de/unterseite, https://www.domain.de/unterseite/) kann dies passieren.
Durch ein korrektes, serverseitiges Umleiten kann diese Form des „Duplicate Content“ verhindert werden.
Unser System sorgt automatisch für diese Umleitungen. Wir nutzen standardmäßig die Variante ohne „Trailing Slash“. Bei Wunsch, dann das angepasst werden. Das muss dann vor Programmierstart definiert sein.
Rufe die Website https://search.google.com/search-console auf und melde dich mit deinem Google-Konto an.
Klicke auf "Property hinzufügen" (oben links).
Google schlägt verschiedene Methoden vor – die empfohlene Methode ist DNS-Eintrag. Du kannst alternativ auch per HTML-Datei, HTML-Tag oder Google Analytics verifizieren.
Füge den angezeigten TXT-Eintrag in die DNS-Einstellungen deiner Domain ein. Das erfolgt bei deinem Domain-Provider (z. B. IONOS, Strato, GoDaddy) oder bei uns, wenn deine Seite bei uns gehostet ist.
Kehre zur Search Console zurück und klicke auf "Verifizieren". Die Verifizierung kann einige Minuten bis Stunden dauern.
Gehe zu https://www.bing.com/webmasters/ und melde dich mit deinem Microsoft-, Google- oder Facebook-Konto an.
Füge deine Domain manuell hinzu oder importiere die Infos aus der bereits angebundenen Google Search Console
Wähle zwischen:
HTML-Datei hochladen
Meta-Tag in den <head>
-Bereich deiner Startseite einfügen
DNS-Eintrag (empfohlen)
Kopiere den vorgeschlagenen TXT-DNS-Eintrag und füge ihn in die DNS-Konfiguration deiner Domain ein. Das erfolgt bei deinem Domain-Provider (z. B. IONOS, Strato, GoDaddy) oder bei uns, wenn deine Seite bei uns gehostet ist.
Nach dem Speichern der DNS-Änderung kehre zu Bing zurück und klicke auf "Verify". Nach erfolgreicher Überprüfung ist deine Website verifiziert.