von Niko Kaindl
Dieser Beitrag ist der zweite zum Thema Nutzerdatenoptimierung bezüglich Bounce Rate und der Verweildauer. Während wir uns im ersten Teil um die CTR-Optimierung der Snippets innerhalb der SERPs gekümmert haben, soll es in diesem Artikel darum gehen, den Nutzer möglichst lange auf der Site zu halten bzw. ihm möglichst das zu liefern, was er sucht.
Die Methoden und Kanäle im Datadriven Marketing entickeln sich rasant. Wir bleiben stets up to date und teilen unsere Erkenntnisse und Empfehlungen in Form von Blogartikeln, e-Books, Whitepapers oder Webinaren. Praktische Tipps & Tricks, die Ihnen helfen, Ihre Marketingaktivitäten zu optimieren.
Wie genau diese Daten von Google gewertet werden, ist natürlich Betriebsgeheimnis. Allerdings gibt es einige Hinweise, dass Google die Bounce Rate und die Verweildauer durchaus als Rankingfaktor wertet.
Der stärkste Hinweis darauf war ein kurzes Feature innerhalb der englischen Google Ergebnissen, mit dem man kurz besuchte Webseiten komplett aus den eigenen Suchergebnissen ausschließen konnte.
Ein Bounce ist also ein eindeutiger “Negativ-Indikator” für Google.
Quelle: https://moz.com/blog/the-2-user-metrics-that-matter-for-seo
Ein weiterer Hinweis ist ein aktuelles Patent von Google, indem die “Selfie-Kamera” von Android-Geräten verwendet werden soll, um anhand biometrischer Signale, zum Beispiel des Gesichtsausdrucks, die Suchergebnisse zu optimieren.
Quelle: http://www.mercurynews.com/bay-area-news/ci_29792344/google-wants-take-your-temperature-and-count-your
Duane Forrester von Bing kommunizierte sogar ganz öffentlich, dass die “dwell-time” ein Qualitätsfaktor für die Suchmaschine ist.
Wenn ein Besucher auf Ihre Site kommt, sollten alle seine Bedürfnisse erfüllt werden, damit er möglichst lange auf Ihrer Seite verweilt. Wenn Ihre Inhalte den Besucher nicht überzeugen, wird dieser Ihre Seite wieder verlassen. Suchmaschinen können dieses Verhalten erkennen, indem die Verweildauer gemessen wird. Die Zeit zwischen dem Klick auf das Suchergebnis und dem Zurückkehren zur Suchmaschine kann einiges aussagen. Ein bis zwei Minuten sind gut und implizieren deutlich, dass die Nutzer die Inhalte tatsächlich konsumieren. Weniger als ein paar Sekunden sind wiederum ein eindeutiges Negativ-Signal. Auch wenn die Verweildauer nicht der einzige Faktor bei der Bewertung von Content-Qualität ist, haben wir dieses Signal im Blick.
Quelle: https://blogs.bing.com/webmaster/2011/08/02/how-to-build-quality-content/
Wenn Bing sich diese Daten schon genau ansieht, kann man davon ausgehen, dass Google das auch nicht erst seit gestern macht. Natürlich kann das Nutzerverhalten innerhalb der Suchergebnisse noch viel tiefer analysiert werden.
In anderen Worten: Google kann unsere Customer Search-Journey analysieren. Dies ist ein genialer Schachzug, denn das Nutzerverhalten ist nicht wie Backlinks oder Keyword-Density manipulierbar, dafür aber optimierbar!
Bevor man beginnt, eine Landingpage oder Website mit Inhalten zu füllen, sollte man als erstes herausfinden, was die Zielgruppe überhaupt will bzw. wonach sie sucht. Die einfachste Variante ist die klassische Keywordrecherche mit besonderem Augenmerk auf Longtail-Suchbegriffe. Inzwischen haben wir einen soliden Workflow entwickelt, der Titel, Gliederung und Inhalte direkt an der Nutzerintention ausrichtet, was uns durchschnittlich 4 Minuten (!) längere Besuchszeit bringt. Den Workflow zeigen wir in unserem Workshop für Content-Optimierung.
Wobei Text nicht das Allheilmittel ist. Matt Cutt’s Aufruf, gute Inhalte zu produzieren (“make great content”), wurde und wird immer noch von vielen fälschlicherweise auf Text reduziert. Dabei ist Content der Überbegriff für Text, Bild, Video, Audio, Tabellen, Animationen, Tools usw.
Wer nach “Währungsrechner” sucht, möchte sicherlich nicht in 3000 Wörtern erklärt bekommen, was ein Währungsrechner ist und wie man ihn theoretisch verwenden könnte. Wer nach “schöne Landschaft” sucht will Bilder sehen, möglichst hochauflösend und bunt usw.
Die zuvor definierten Inhalte müssen nun in eine sinnvolle Struktur gebracht werden, um dem Nutzer die gewünschte Information möglichst schnell zugänglich zu machen. Wikipedia macht das ganz gut. Eindeutige Textabschnitte, Tabellen, Bilder und Sprungmarkenmenü.
Wir haben schon genug Beiträge geschrieben, warum Ladezeiten wichtig sind. Nur ganz kurz: Lange Ladezeiten = Höhere Bounce Rate. Deswegen ist eine langsame Site schlecht für das Nutzerverhalten.
Dieser Abschnitt hätte ein eigener Beitrag werden können. Schuld daran sind die vielen Möglichkeiten, das Nutzerverhalten zu analysieren.
In Analytics bekommen wir die Absprungrate (engl. Bounce Rate) bereits in % angezeigt. Allerdings zählen alle Besucher als Bounce, die keine weitere Seite anklicken. Das heißt: Ein Besucher, der für 25 Minuten einen Artikel mit großem Interesse gelesen hat und dann aber keine zweite Site anklickt, zählt trotzdem als Bounce.
Das oben erwähnte Beispiel eines Währungsrechner hätte nach diesen Parametern eine fürchterliche Bounce Rate. Die meisten Nutzer werden nach der erfolgreichen Anwendung des Rechners keine weitere Site ansehen.
Sinnvoller wäre also, den Zeitraum in der ein Bounce gezählt wird, auf 10 – 30 Sekunden zu setzen. Aber Vorsicht! Hier gibt es keine allgemeingültige Formel. Letztendlich muss man die Zeit abschätzen, nach der die meisten Nutzer kein anderes Ergebnis mehr benötigen. 30 Sekunden sind allerdings ein guter Richtwert für die meisten Seiten.
Für alle die keine Tag-Manager und Analytics Nerds sind, habe ich folgenden Code zum Abschreiben:
Mit diesem Code wird nach 30000 ms ein Event geschickt, dass es sich um keinen Bounce mehr handelt.
Da wir die Bounce Rate nun auf Besucher beschränkt haben, die schon nach wenigen Sekunden die Lust verlieren, wird die durchschnittliche Besuchszeit je Site umso interessanter. Nur leider haben wir hier ein ähnliches Problem wie bei der Bounce Rate: Die durchschnittliche Besuchszeit wird nur gezählt, wenn der Nutzer auch eine weitere Unterseite anklickt.
Das heißt auch hier, wenn ein Besucher einen Artikel für 25 Minuten mit großem Interesse gelesen hat und danach abspringt, wird dies in der durchschnittlichen Besuchszeit nicht berücksichtigt. Die beste Variante, um die tatsächliche Besuchzeit zu messen, ist meines Wissens folgende:
Hierbei generieren wir z. B. alle 10 Sekunden ein Event, das 10 Sekunden zur durchschnittlichen Besuchzeit addiert und zwar nur, wenn das Browser-Tab aktiv angewählt ist. Dafür haben wir ein Tag für den Google Tag Manager programmiert, dass ich hier nicht veröffentlichen darf. Tipp: Wenn Du es wirklich haben möchtest, frag mich einfach 😉.
Die Analyticsdaten zeigen zumindest einmal, ob die Nutzerdaten gut oder schlecht sind. Aus welchen Gründen das so ist, lässt sich allerdings nur erahnen. Doch es gibt einige Tools, die tiefere Einblicke in das Nutzerverhalten auf der eigenen Seite geben. Dazu gehören Scroll-Tracking, Klicktracking, Mousetracking, Visitor recordings, Attention Tracking (Active Window part) usw. Toolanbieter wie ptengine.com, crazyegg.com, optimizely.com oder vwo.com bieten diese und weitere Funktionen an.
Über VWO hat mein Kollege Christof bereits einen sehr guten und ausführlichen Bericht geschrieben.
Eine einfache aber effektive Möglichkeit den Inhalt einer Site zu optimieren, ist die Informationen von oben nach unten zu priorisieren. Dies ist mit einer einfachen Klick-Map möglich, in Kombination mit einem Sprungmarkenmenü. Alternativ gibt es bei den meisten Anbietern eine Heat-Map für die Aufmerksamkeit. Diese ist allerdings nicht so akkurat, wie die Sprungmarken.
In folgendem Beispiel kann man klar sehen, dass die Mehrheit der Nutzer sich für den dritten Punkt, inkl. Unterpunkte interessiert. Nun kann ich meinen Text anders gliedern und den dritten Abschnitt an den Anfang des Artikels verschieben oder ich gebe bereits in der Einleitung einen Hinweis / Link: “Hier geht’s zu Abschnitt 3”.
Wie man die gewonnenen Daten der verschiedenen Tools verwendet und analysiert, ist extrem von jeder individuellen Seite abhängig. Nicht immer sind diese aussagekräftig oder richtungweisend und manchmal zieht man die falschen Schlüsse. Deswegen schämt euch nicht, genau bei diesem Thema mit erfahrenen SEOs zusammenzuarbeiten.
Die eigene Seite zu bewerten ist oft nur teilweise sinnvoll. Ein neuer User sieht den Aufbau und die Navigation eines Inhalts gänzlich anders. Deswegen ist bei komplexeren Webseiten, die zum Beispiel einen längeren Check-out-Prozess erfordern, ein Remote Usability Test eine der besten Möglichkeiten, Verbesserungsvorschläge und Insights über das Nutzerverhalten zu erlangen, die man mit keinem Tool messen kann. Mehr Infos zum Usability Test.
Ich freue mich über die neue Entwicklung! Das eher trockene und technische Thema SEO bekommt nun einen menschlichen Charakter und zwingt jeden SEO, sich mit Themen wie Conversion-Optimierung, Copy-Writing, Psychologie und Nutzerintention auseinanderzusetzen.
Hier geht’s zum ersten Artikel der Reihe Nutzerverhalten: https://e-dialog.group/blog/seo/bessere-rankings-durch-google-ctr-optimierung/
Wir freuen uns auf Ihre Anfrage und beraten Sie gerne unverbindlich! Füllen Sie dazu einfach das Kontaktformular aus oder rufen uns direkt an.
Jetzt kontaktierenNewsletter
Holen Sie sich unsere Online Marketing-Insights und Trends direkt in Ihr Postfach!