top of page

Wie Suchmaschinen funktionieren: Crawling, Indizierung und Ranking


Frau sitzt mit Laptop am Boden, Suchfeld
Wie Suchmaschinen funktionieren: Crawling, Indizierung und Ranking

Das wissen wir: Suchmaschinen sind Antwortmaschinen. Sie sind dazu da, die Inhalte des Internets zu entdecken, zu verstehen und zu organisieren, um die relevantesten Ergebnisse zu den von den Suchenden gestellten Fragen zu liefern.


Um in den Suchergebnissen aufzutauchen, müssen Ihre Inhalte zunächst für die Suchmaschinen sichtbar sein. Dies ist wohl das wichtigste Teil des SEO-Puzzles: Wenn Ihre Website nicht gefunden werden kann, werden Sie niemals in den SERPs (Search Engine Results Page) auftauchen.


 

Wie funktioniert eine Suchmaschine?


Mann in Anzug im Hintergrund, Suchfeld
Wie Suchmaschinen funktionieren: Crawling, Indizierung und Ranking

Suchmaschinen arbeiten mit drei Hauptfunktionen:


  • Crawling: Sie durchsuchen das Internet nach Inhalten, indem sie den Code/Inhalt für jede gefundene URL überprüfen.

  • Indizierung: Speichern und Organisieren der Inhalte, die beim Crawling-Prozess gefunden werden. Sobald sich eine Seite im Index befindet, wird sie bei relevanten Suchanfragen als Ergebnis angezeigt.

  • Ranking: Bereitstellung der Inhalte, die die Suchanfrage eines Nutzers am besten beantworten, d. h. die Ergebnisse werden nach der höchsten bis zur geringsten Relevanz geordnet.


 

Was ist das Crawlen einer Suchmaschine?


Person sitzt vor dem Laptop, Suchfeld
Wie Suchmaschinen funktionieren: Crawling, Indizierung und Ranking

Crawling ist der Entdeckungsprozess, bei dem Suchmaschinen ein Team von Robotern (so genannte Crawler oder Spider) aussenden, um neue und aktualisierte Inhalte zu finden. Der Inhalt kann unterschiedlich sein - es kann sich um eine Webseite, ein Bild, ein Video, eine PDF-Datei usw. handeln - aber unabhängig vom Format wird der Inhalt durch Links entdeckt.


Der Googlebot ruft zunächst einige Webseiten ab und folgt dann den Links auf diesen Webseiten, um neue URLs zu finden. Auf diese Weise findet der Crawler neue Inhalte und fügt sie seinem Index namens Caffeine hinzu - einer umfangreichen Datenbank mit entdeckten URLs -, die später abgerufen werden können, wenn ein Sucher nach Informationen sucht, zu denen die Inhalte auf dieser URL passen.


 

Was ist ein Suchmaschinenindex?


Schreibtisch, Laptop, Tablet, Raster mit Zahlen
Wie Suchmaschinen funktionieren: Crawling, Indizierung und Ranking

Suchmaschinen verarbeiten und speichern Informationen, die sie finden, in einem Index, einer riesigen Datenbank mit allen Inhalten, die sie entdeckt und für gut genug befunden haben, um sie den Suchenden anzubieten.


 

Suchmaschinen-Ranking


Laptop mit geöffneter Statistik
Wie Suchmaschinen funktionieren: Crawling, Indizierung und Ranking

Wenn jemand eine Suche durchführt, durchsuchen Suchmaschinen ihren Index nach hochrelevanten Inhalten und ordnen diese Inhalte dann in der Hoffnung, die Suchanfrage des Suchenden zu lösen.


Diese Anordnung der Suchergebnisse nach Relevanz wird als Ranking bezeichnet. Im Allgemeinen kann man davon ausgehen, dass eine Website umso relevanter für die Suchanfrage ist, je höher sie eingestuft wird.


Es ist möglich, die Crawler der Suchmaschinen für einen Teil oder die gesamte Website zu sperren oder die Suchmaschinen anzuweisen, bestimmte Seiten nicht in ihrem Index zu speichern.


Sie müssen zu Beginn sicherstellen, dass sie für Crawler zugänglich und indizierbar sind. Andernfalls sind Sie so gut wie unsichtbar.


 

Bei SEO sind nicht alle Suchmaschinen gleich wichtig


Frau mit Laptop, Notizbuch und Kaffeetasse, SEO, Icons
Wie Suchmaschinen funktionieren: Crawling, Indizierung und Ranking

Viele Anfänger fragen sich nach der relativen Bedeutung bestimmter Suchmaschinen. Die meisten Leute wissen, dass Google den größten Marktanteil hat, aber wie wichtig ist es, für Bing, Yahoo und andere zu optimieren?


Die Wahrheit ist, dass die SEO-Gemeinschaft trotz der Existenz von mehr als 30 großen Suchmaschinen im Internet eigentlich nur Google Aufmerksamkeit schenkt. Warum eigentlich?


Die kurze Antwort ist, dass die überwiegende Mehrheit der Menschen bei Google im Internet sucht. Wenn wir Google Images, Google Maps und YouTube (ein Google-Eigentum) mit einbeziehen, finden mehr als 90 % der Websuchen bei Google statt - das ist fast 20 Mal so viel wie bei Bing und Yahoo zusammen.


 

Crawling: Können Suchmaschinen Ihre Seiten finden?


PC-Maus, Lupe
Wie Suchmaschinen funktionieren: Crawling, Indizierung und Ranking

Wie Sie soeben erfahren haben, ist die Sicherstellung, dass Ihre Website gecrawlt und indiziert wird, eine Voraussetzung dafür, dass sie in den SERPs erscheint.


Wenn Sie bereits eine Website haben, sollten Sie zunächst prüfen, wie viele Ihrer Seiten sich im Index befinden. Dies gibt Aufschluss darüber, ob Google alle gewünschten Seiten crawlt und findet und keine Seiten, die Sie nicht benötigen.


Eine Möglichkeit, Ihre indexierten Seiten zu überprüfen, ist "site:yourdomain.com", ein erweiterter Suchoperator. Gehen Sie zu Google und geben Sie "site:yourdomain.com" in die Suchleiste ein. Daraufhin werden die Ergebnisse angezeigt, die Google für die angegebene Website in seinem Index hat:


Die Anzahl der von Google angezeigten Ergebnisse (siehe "Über XX Ergebnisse" oben) ist nicht exakt, aber sie gibt Ihnen eine solide Vorstellung davon, welche Seiten auf Ihrer Website indiziert sind und wie sie derzeit in den Suchergebnissen angezeigt werden.


Genauere Ergebnisse erhalten Sie, wenn Sie den Bericht zur Indexabdeckung in der Google Search Console überwachen und verwenden. Sie können sich für ein kostenloses Google Search Console-Konto anmelden, falls Sie noch keins haben.


Mit diesem Tool können Sie u. a. Sitemaps für Ihre Website einreichen und überwachen, wie viele der eingereichten Seiten tatsächlich in den Google-Index aufgenommen wurden.


Wenn Sie nirgendwo in den Suchergebnissen auftauchen, gibt es einige mögliche Gründe dafür:

  • Ihre Website ist brandneu und wurde noch nicht gecrawlt.

  • Ihre Website wird nicht von externen Websites verlinkt.

  • Die Navigation Ihrer Website macht es einem Roboter schwer, sie effektiv zu crawlen.

  • Ihre Website enthält einen grundlegenden Code, der Crawler-Direktiven genannt wird und Suchmaschinen blockiert.

  • Ihre Website wurde von Google wegen Spam-Taktiken abgestraft.


 

Sagen Sie den Suchmaschinen, wie sie Ihre Website crawlen sollen


Mann spricht in Handy, Mikrofon
Wie Suchmaschinen funktionieren: Crawling, Indizierung und Ranking

Haben Sie nun die Google Search Console oder den erweiterten Suchoperator

"site:domain.com" verwendet und festgestellt , dass einige Ihrer wichtigen Seiten im Index fehlen und/oder einige Ihrer unwichtigen Seiten fälschlicherweise indexiert wurden?


Dann können Sie einige Optimierungen vornehmen, um dem Googlebot besser mitzuteilen, wie Ihr Webinhalt gecrawlt werden soll. Wenn Sie den Suchmaschinen mitteilen, wie sie Ihre Website crawlen sollen, können Sie besser kontrollieren, was in den Index aufgenommen wird.


Die meisten Leute denken daran, dafür zu sorgen, dass Google ihre wichtigen Seiten finden kann, aber man vergisst leicht, dass es wahrscheinlich Seiten gibt, von denen Sie nicht wollen, dass Googlebot sie findet.


Dazu gehören z. B. alte URLs mit dünnem Inhalt, doppelte URLs (z. B. Sortier- und Filterparameter für den elektronischen Handel), spezielle Seiten mit Promo-Codes, Staging- oder Testseiten und so weiter.


Um Googlebot von bestimmten Seiten und Abschnitten Ihrer Website fernzuhalten, verwenden Sie robots.txt.


 

Robots.txt


Frau hat Handy in der Hand, Roboter, Sprechblase
Wie Suchmaschinen funktionieren: Crawling, Indizierung und Ranking

Robots.txt-Dateien befinden sich im Stammverzeichnis von Websites (z. B. yourdomain.com/robots.txt). Sie geben über spezifische robots.txt-Direktiven vor, welche Teile Ihrer Website von Suchmaschinen gecrawlt werden sollen und welche nicht, sowie die Geschwindigkeit, mit der sie Ihre Website crawlen.


 

Wie Googlebot mit robots.txt-Dateien umgeht


Handy in der Hand, Roboterkopf, Sprechblase
Wie Suchmaschinen funktionieren: Crawling, Indizierung und Ranking

  • Wenn Googlebot keine robots.txt-Datei für eine Website finden kann, fährt er mit dem Crawlen der Website fort.

  • Wenn Googlebot eine robots.txt-Datei für eine Website findet, hält er sich in der Regel an die Vorschläge und fährt mit dem Crawlen der Website fort.

  • Wenn Googlebot beim Versuch, auf die robots.txt-Datei einer Website zuzugreifen, auf einen Fehler stößt und nicht feststellen kann, ob eine solche Datei existiert oder nicht, wird die Website nicht gecrawlt.


 

Optimieren Sie für das Crawl-Budget!


Handy, Hand aus Handy mit Lupe
Wie Suchmaschinen funktionieren: Crawling, Indizierung und Ranking

Das Crawl-Budget ist die durchschnittliche Anzahl der URLs, die der Googlebot auf Ihrer Website durchsucht, bevor er sie verlässt.


Die Optimierung des Crawl-Budgets stellt also sicher, dass der Googlebot keine Zeit damit verschwendet, Ihre unwichtigen Seiten zu durchsuchen, und dabei Gefahr läuft, Ihre wichtigen Seiten zu ignorieren.


Das Crawl-Budget ist vor allem bei sehr großen Websites mit Zehntausenden von URLs wichtig, aber es ist nie eine schlechte Idee, den Crawlern den Zugriff auf Inhalte zu verwehren, die Sie definitiv nicht interessieren.


Achten Sie nur darauf, dass Sie den Crawlern nicht den Zugriff auf Seiten verwehren, die Sie mit anderen Direktiven versehen haben, z. B. mit Canonical- oder Noindex-Tags. Wenn dem Googlebot der Zugang zu einer Seite verwehrt wird, kann er die Anweisungen auf dieser Seite nicht sehen.


Nicht alle Web-Roboter befolgen robots.txt. Menschen mit bösen Absichten (z. B. Scraper von E-Mail-Adressen) erstellen Bots, die sich nicht an dieses Protokoll halten. Einige böswillige Akteure verwenden robots.txt-Dateien, um herauszufinden, wo Sie Ihre privaten Inhalte gespeichert haben.


Auch wenn es logisch erscheint, Crawler von privaten Seiten wie Anmelde- und Verwaltungsseiten fernzuhalten, damit sie nicht im Index erscheinen, bedeutet die Aufnahme dieser URLs in eine öffentlich zugängliche robots.txt-Datei auch, dass Personen mit böswilligen Absichten sie leichter finden können.


Es ist besser, diese Seiten nicht in den Index aufzunehmen und sie hinter einem Anmeldeformular zu verstecken, als sie in die robots.txt-Datei aufzunehmen.


 

Definieren von URL-Parametern in GSC


Hand, Suchfeld
Wie Suchmaschinen funktionieren: Crawling, Indizierung und Ranking

Einige Websites (vor allem im E-Commerce) machen denselben Inhalt unter mehreren verschiedenen URLs verfügbar, indem sie bestimmte Parameter an die URLs anhängen.


Wenn Sie schon einmal online eingekauft haben, haben Sie wahrscheinlich Ihre Suche über Filter eingegrenzt. Sie können zum Beispiel auf Amazon nach "Schuhen" suchen und dann Ihre Suche nach Größe, Farbe und Stil verfeinern. Jedes Mal, wenn Sie die Suche verfeinern, ändert sich die URL leicht:


Woher weiß Google, welche Version der URL den Suchenden angezeigt werden soll? Google ist ziemlich gut darin, die repräsentative URL selbst herauszufinden. Sie können jedoch die Funktion URL-Parameter in der Google Search Console verwenden, um Google genau mitzuteilen, wie Ihre Seiten behandelt werden sollen.


Wenn Sie diese Funktion verwenden, um Googlebot mitzuteilen, dass keine URLs mit dem Parameter ____ gecrawlt werden sollen, dann bitten Sie im Wesentlichen darum, diesen Inhalt vor Googlebot zu verbergen. Dies kann dazu führen, dass diese Seiten aus den Suchergebnissen entfernt werden.


Das ist genau das, was Sie wollen, wenn diese Parameter doppelte Seiten erzeugen, aber nicht ideal, wenn Sie wollen, dass diese Seiten indiziert werden.


 

Können Crawler alle Ihre wichtigen Inhalte finden?


Lupe, Glühbirne
Wie Suchmaschinen funktionieren: Crawling, Indizierung und Ranking

Jetzt, da Sie einige Taktiken kennen, die sicherstellen, dass Suchmaschinen-Crawler sich von Ihren unwichtigen Inhalten fernhalten, lassen Sie uns etwas über die Optimierungen erfahren, die dem Googlebot helfen können, Ihre wichtigen Seiten zu finden.


Manchmal ist eine Suchmaschine in der Lage, Teile Ihrer Website durch Crawling zu finden, aber andere Seiten oder Abschnitte können aus dem einen oder anderen Grund verdeckt sein.


Es ist wichtig, dafür zu sorgen, dass Suchmaschinen in der Lage sind, alle Inhalte zu finden, die Sie indiziert haben möchten, und nicht nur Ihre Homepage.


Fragen Sie sich Folgendes: Kann der Bot durch Ihre Website kriechen und nicht nur zu ihr?


Ist Ihr Inhalt hinter Anmeldeformularen versteckt?

Wenn Sie von den Nutzern verlangen, sich anzumelden, Formulare auszufüllen oder Umfragen zu beantworten, bevor sie auf bestimmte Inhalte zugreifen können, werden die Suchmaschinen diese geschützten Seiten nicht sehen. Ein Crawler wird sich definitiv nicht anmelden.


Verlassen Sie sich auf Suchformulare?

Robots können keine Suchformulare verwenden. Manche Menschen glauben, dass Suchmaschinen alles finden können, wonach ihre Besucher suchen, wenn sie ein Suchfeld auf ihrer Website platzieren.


Ist Text in Nicht-Text-Inhalten versteckt?

Medienformen ohne Text (Bilder, Videos, GIFs usw.) sollten nicht zur Anzeige von Text verwendet werden, der indiziert werden soll. Zwar werden Suchmaschinen immer besser darin, Bilder zu erkennen, aber es gibt keine Garantie dafür, dass sie diese auch lesen und verstehen können. Am besten fügen Sie den Text immer in die <HTML>-Auszeichnung Ihrer Webseite ein.

Können Suchmaschinen die Navigation Ihrer Website verfolgen?

Genauso wie ein Crawler Ihre Website über Links von anderen Websites entdecken muss, braucht er einen Pfad von Links auf Ihrer eigenen Website, um von Seite zu Seite zu gelangen.


Wenn Sie eine Seite haben, die von den Suchmaschinen gefunden werden soll, aber von keiner anderen Seite aus verlinkt ist, ist sie so gut wie unsichtbar.


Viele Websites machen den entscheidenden Fehler, ihre Navigation so zu strukturieren, dass sie für Suchmaschinen unzugänglich ist. Sie behindern damit ihre Fähigkeit, in den Suchergebnissen gelistet zu werden.



Mann mit Anzug, Tablet, PAGE NOT FOUND ERROR, Icons
Wie Suchmaschinen funktionieren: Crawling, Indizierung und Ranking


Häufige Navigationsfehler, die verhindern können, dass Crawler Ihre gesamte Website sehen:


  • Eine mobile Navigation, die andere Ergebnisse anzeigt als Ihre Desktop-Navigation

  • Jede Art von Navigation, bei der die Menüpunkte nicht im HTML-Code enthalten sind, wie z. B. JavaScript-aktivierte Navigationen. Google ist beim Crawlen und Verstehen von Javascript viel besser geworden, aber es ist immer noch kein perfekter Prozess. Der sicherste Weg, um sicherzustellen, dass etwas von Google gefunden, verstanden und indiziert wird, ist, es in den HTML-Code aufzunehmen.

  • Personalisierung oder die Anzeige einer einzigartigen Navigation für einen bestimmten Besuchertyp im Gegensatz zu anderen, könnte für einen Suchmaschinen-Crawler als Cloaking erscheinen

  • Vergessen, in der Navigation auf eine Hauptseite Ihrer Website zu verlinken - denken Sie daran, dass Links die Pfade sind, denen Crawler zu neuen Seiten folgen!


Deshalb ist es wichtig, dass Ihre Website über eine klare Navigation und hilfreiche URL-Ordnerstrukturen verfügt.


Haben Sie eine saubere Informationsarchitektur?

Informationsarchitektur ist die Praxis der Organisation und Kennzeichnung von Inhalten auf einer Website, um die Effizienz und Auffindbarkeit für die Nutzer zu verbessern. Die beste Informationsarchitektur ist intuitiv, d. h., die Benutzer sollten nicht viel nachdenken müssen, um sich auf Ihrer Website zurechtzufinden oder um etwas zu finden.

Verwenden Sie Sitemaps?

Eine Sitemap ist genau das, wonach es klingt: eine Liste von URLs auf Ihrer Website, die Crawler verwenden können, um Ihre Inhalte zu finden und zu indizieren.


Eine der einfachsten Möglichkeiten, um sicherzustellen, dass Google Ihre wichtigsten Seiten findet, besteht darin, eine Datei zu erstellen, die den Google-Standards entspricht, und sie über die Google Search Console einzureichen.



Raster, Sitemap
Wie Suchmaschinen funktionieren: Crawling, Indizierung und Ranking


Die Übermittlung einer Sitemap ersetzt zwar nicht die Notwendigkeit einer guten Website-Navigation, aber sie kann den Crawlern helfen, einen Pfad zu all Ihren wichtigen Seiten zu finden.


Vergewissern Sie sich, dass Sie nur URLs aufgenommen haben, die von Suchmaschinen indiziert werden sollen, und stellen Sie sicher, dass die Crawler eine konsistente Wegbeschreibung erhalten.


Nehmen Sie beispielsweise keine URL in Ihre Sitemap auf, wenn Sie diese URL über robots.txt blockiert haben, oder nehmen Sie URLs in Ihre Sitemap auf, bei denen es sich um Duplikate und nicht um die bevorzugte, kanonische Version handelt.


Wenn Ihre Website nicht von anderen Websites verlinkt wird, können Sie sie vielleicht trotzdem indexieren lassen, indem Sie Ihre XML-Sitemap in der Google Search Console einreichen. Es gibt keine Garantie dafür, dass eine eingereichte URL in den Index aufgenommen wird, aber einen Versuch ist es wert!


Erhalten Crawler Fehler, wenn sie versuchen, auf Ihre URLs zuzugreifen?

Beim Crawlen der URLs auf Ihrer Website kann ein Crawler auf Fehler stoßen. Sie können den Bericht "Crawl-Fehler" in der Google Search Console aufrufen, um URLs zu ermitteln, bei denen dies der Fall sein könnte - dieser Bericht zeigt Ihnen Serverfehler und nicht gefundene Fehler an.


Server-Protokolldateien können Ihnen dies ebenso zeigen wie eine Fundgrube anderer Informationen, wie z. B. die Crawl-Häufigkeit. Da der Zugriff auf und die Analyse von Server-Protokolldateien jedoch eine fortgeschrittenere Taktik ist, werden wir sie in diesem Anfängerhandbuch nicht ausführlich behandeln, obwohl Sie hier mehr darüber erfahren können.



Bevor Sie etwas Sinnvolles mit dem Crawl-Fehlerbericht anfangen können, ist es wichtig, Serverfehler und "Nicht gefunden"-Fehler zu verstehen.



Roboter, Zahnräder
Wie Suchmaschinen funktionieren: Crawling, Indizierung und Ranking

4xx-Codes: Wenn Suchmaschinen-Crawler aufgrund eines Client-Fehlers nicht auf Ihre Inhalte zugreifen können

4xx-Fehler sind Client-Fehler, d. h. die angeforderte URL enthält eine fehlerhafte Syntax oder kann nicht erfüllt werden. Einer der häufigsten 4xx-Fehler ist der "404 - not found"-Fehler.


Diese können aufgrund eines URL-Tippfehlers, einer gelöschten Seite oder einer fehlerhaften Umleitung auftreten, um nur einige Beispiele zu nennen. Wenn Suchmaschinen auf einen 404-Fehler stoßen, können sie nicht auf die URL zugreifen.


Wenn Benutzer auf einen 404-Fehler stoßen, können sie frustriert sein und die Seite verlassen.


5xx-Codes: Wenn Suchmaschinen-Crawler aufgrund eines Serverfehlers nicht auf Ihre Inhalte zugreifen können

5xx-Fehler sind Serverfehler, d. h. der Server, auf dem sich die Webseite befindet, konnte die Anfrage des Suchenden oder der Suchmaschine zum Zugriff auf die Seite nicht erfüllen.


In dem Bericht "Crawl-Fehler" der Google Search Console gibt es eine Registerkarte, die diesen Fehlern gewidmet ist. Diese Fehler treten in der Regel auf, weil die Anfrage für die URL eine Zeitüberschreitung hatte, so dass Googlebot die Anfrage abgebrochen hat.


In der Dokumentation von Google erfahren Sie mehr über die Behebung von Problemen mit der Serverkonnektivität.


Zum Glück gibt es eine Möglichkeit, sowohl Suchenden als auch Suchmaschinen mitzuteilen, dass Ihre Seite umgezogen ist - die 301 (permanente) Weiterleitung.



Wenn Sie eine 301 Weiterleitung einrichten:

Wenn Sie keine 301 Weiterleitung einrichten:

Link-Equity

Übertragung von Link-Equity vom alten Standort der Seite auf die neue URL

Ohne 301 wird die Autorität der vorherigen URL nicht auf die neue Version der URL übertragen.

Indizierung

​Hilft Google, die neue Version der Seite zu finden und zu indizieren.

Das Vorhandensein von 404-Fehlern auf Ihrer Website allein schadet der Suchleistung nicht, aber wenn Sie ranghohen/besuchten Seiten 404-Fehler zugestehen, kann dies dazu führen, dass sie aus dem Index herausfallen, wobei Ranglisten und Besucherzahlen mit ihnen verschwinden.

User Experience

Stellt sicher, dass die Nutzer die Seite finden, die sie suchen.

Wenn Sie Ihren Besuchern erlauben, auf tote Links zu klicken, werden sie auf Fehlerseiten statt auf die gewünschte Seite geleitet, was frustrierend sein kann.


Der 301-Statuscode selbst bedeutet, dass die Seite dauerhaft an einen neuen Ort umgezogen ist. Vermeiden Sie es daher, URLs auf irrelevante Seiten umzuleiten - URLs, auf denen der Inhalt der alten URL nicht mehr vorhanden ist.


Wenn eine Seite für eine Suchanfrage gut platziert ist und Sie sie per 301 auf eine URL mit anderem Inhalt umleiten, kann sie im Ranking zurückfallen. Das liegt daran, dass der Inhalt, der sie für diese spezielle Suchanfrage relevant machte, nicht mehr vorhanden ist.


301s sind mächtig - verschieben Sie URLs verantwortungsvoll!


Sie haben auch die Möglichkeit, eine Seite per 302 umzuleiten, aber dies sollte für vorübergehende Umzüge und in Fällen reserviert werden, in denen die Weitergabe von Link-Equity kein so großes Problem darstellt. 302s sind wie eine Umleitung. Sie leiten den Verkehr vorübergehend über eine bestimmte Route um, aber das wird nicht ewig so bleiben.



Landschaft mit Straßenschild, 302
Wie Suchmaschinen funktionieren: Crawling, Indizierung und Ranking


Achten Sie auf Weiterleitungsketten!

Es kann für den Googlebot schwierig sein, Ihre Seite zu erreichen, wenn er mehrere Weiterleitungen durchlaufen muss. Google nennt diese "Weiterleitungsketten" und empfiehlt, sie so weit wie möglich zu begrenzen.


Wenn Sie Beispiel.com/1 auf Beispiel.com/2 umleiten und später beschließen, es auf Beispiel.com/3 umzuleiten, ist es am besten, den Mittelsmann auszuschalten und einfach Beispiel.com/1 auf Beispiel.com/3 umzuleiten.


Wenn Sie sichergestellt haben, dass Ihre Website für die Crawlability optimiert ist, müssen Sie als Nächstes dafür sorgen, dass sie indexiert werden kann.


 

Indizierung: Wie interpretieren und speichern die Suchmaschinen Ihre Seiten?


Frau mit Handy in der Hand, Laptop, Kaffeetasse, Icons
Wie Suchmaschinen funktionieren: Crawling, Indizierung und Ranking

Wenn Sie sichergestellt haben, dass Ihre Website gecrawlt wurde, müssen Sie als Nächstes dafür sorgen, dass sie indiziert werden kann. Das ist richtig - nur weil Ihre Website von einer Suchmaschine entdeckt und gecrawlt werden kann, bedeutet das nicht unbedingt, dass sie auch in deren Index gespeichert wird.


Im vorigen Abschnitt über Crawling haben wir besprochen, wie Suchmaschinen Ihre Webseiten entdecken. Der Index ist der Ort, an dem Ihre gefundenen Seiten gespeichert werden. Nachdem ein Crawler eine Seite gefunden hat, wird sie von der Suchmaschine genau so dargestellt wie in einem Browser. Dabei analysiert die Suchmaschine den Inhalt der Seite. Alle diese Informationen werden in ihrem Index gespeichert.


 

Kann ich sehen, wie ein Googlebot Crawler meine Seiten sieht?


Laptop, Roboter
Wie Suchmaschinen funktionieren: Crawling, Indizierung und Ranking

Ja, die im Cache gespeicherte Version Ihrer Seite zeigt eine Momentaufnahme des letzten Crawlings durch Googlebot.


Google crawlt und zwischenspeichert Webseiten mit unterschiedlicher Häufigkeit. Etablierte, bekannte Websites, die häufig Beiträge veröffentlichen, wie https://www.nytimes.com, werden häufiger gecrawlt als die viel weniger bekannte Website von Roger the Mozbot, http://www.rogerlovescupcakes.... (wenn sie nur echt wäre...)


Sie können sehen, wie Ihre zwischengespeicherte Version einer Seite aussieht, indem Sie auf den Dropdown-Pfeil neben der URL in der SERP klicken und "Cached" wählen:


Sie können auch die Nur-Text-Version Ihrer Website anzeigen, um festzustellen, ob Ihre wichtigen Inhalte effektiv gecrawlt und zwischengespeichert werden.


 

Werden Seiten jemals aus dem Index entfernt?


Große Tafel, Index (Closed)
Wie Suchmaschinen funktionieren: Crawling, Indizierung und Ranking

Ja, Seiten können aus dem Index entfernt werden! Einige der Hauptgründe, warum eine URL entfernt werden kann, sind:

  • Die URL gibt einen "nicht gefundenen" Fehler (4XX) oder einen Serverfehler (5XX) zurück - Dies kann versehentlich (die Seite wurde verschoben und eine 301-Weiterleitung wurde nicht eingerichtet) oder absichtlich (die Seite wurde gelöscht und auf 404 gesetzt, um sie aus dem Index zu entfernen) sein

  • Der URL wurde ein noindex-Meta-Tag hinzugefügt - Dieses Tag kann von Website-Besitzern hinzugefügt werden, um die Suchmaschine anzuweisen, die Seite aus ihrem Index zu entfernen.

  • Die URL wurde manuell für einen Verstoß gegen die Webmaster-Richtlinien der Suchmaschine bestraft und daraufhin aus dem Index entfernt.

  • Die URL wurde für das Crawling gesperrt, und es wurde ein Kennwort hinzugefügt, das erforderlich ist, bevor Besucher auf die Seite zugreifen können.

Wenn Sie der Meinung sind, dass eine Seite auf Ihrer Website, die zuvor im Google-Index war, nicht mehr angezeigt wird, können Sie das Tool "URL-Inspektion" verwenden.


Hier können Sie den Status der Seite erfahren, oder Sie können "Fetch as Google" verwenden, das über eine Funktion "Indexierung anfordern" verfügt, um einzelne URLs an den Index zu übermitteln.


(Bonus: Das "Fetch"-Tool von GSC hat auch eine "Render"-Option, mit der Sie sehen können, ob es Probleme damit gibt, wie Google Ihre Seite interpretiert).


Teilen Sie den Suchmaschinen mit, wie sie Ihre Website indizieren sollen


 

Robots-Meta-Richtlinien


Mann in Anzug, Richtlinie, Icons
Wie Suchmaschinen funktionieren: Crawling, Indizierung und Ranking

Meta-Richtlinien (oder "Meta-Tags") sind Anweisungen, die Sie den Suchmaschinen geben können, wie Ihre Webseite behandelt werden soll.


Sie können den Suchmaschinen-Crawlern z. B. mitteilen, dass diese Seite in den Suchergebnissen nicht indiziert werden soll oder dass kein Link-Equity an die Links auf der Seite weitergegeben werden soll.


Diese Anweisungen werden über Robots-Meta-Tags im <head> Ihrer HTML-Seiten (am häufigsten verwendet) oder über den X-Robots-Tag im HTTP-Header ausgeführt.


 

Robots-Meta-Tag


Bildschirm, Meta-Description
Wie Suchmaschinen funktionieren: Crawling, Indizierung und Ranking

Der Robots-Meta-Tag kann im <head> des HTML-Satzes Ihrer Webseite verwendet werden. Er kann alle oder bestimmte Suchmaschinen ausschließen.


Nachfolgend finden Sie die gebräuchlichsten Meta-Direktiven und die Situationen, in denen Sie sie anwenden können.


index/noindex teilt den Suchmaschinen mit, ob die Seite gecrawlt und im Index einer Suchmaschine zum Abruf bereitgehalten werden soll.


Wenn Sie sich für "noindex" entscheiden, teilen Sie den Crawlern mit, dass Sie die Seite aus den Suchergebnissen ausschließen möchten. Standardmäßig gehen Suchmaschinen davon aus, dass sie alle Seiten indizieren können, so dass die Verwendung des Werts "index" unnötig ist.

  • Wann Sie es verwenden können: Sie können eine Seite als "noindex" markieren, wenn Sie versuchen, dünne Seiten aus dem Google-Index Ihrer Website zu entfernen (z. B. nutzergenerierte Profilseiten), diese aber weiterhin für Besucher zugänglich sein sollen.


follow/nofollow teilt den Suchmaschinen mit, ob die Links auf der Seite verfolgt oder nicht verfolgt werden sollen. "Follow" führt dazu, dass Bots den Links auf Ihrer Seite folgen und Link-Equity an diese URLs weitergeben.


Wenn Sie sich für "nofollow" entscheiden, folgen die Suchmaschinen den Links auf der Seite nicht und geben auch keine Link-Equity an sie weiter. Standardmäßig wird davon ausgegangen, dass alle Seiten das Attribut "follow" haben.

  • Wann Sie es verwenden können: nofollow wird oft zusammen mit noindex verwendet, wenn Sie verhindern wollen, dass eine Seite indiziert wird und der Crawler den Links auf der Seite folgt.


noarchive wird verwendet, um Suchmaschinen daran zu hindern, eine Kopie der Seite im Cache zu speichern. Standardmäßig behalten die Suchmaschinen sichtbare Kopien aller von ihnen indizierten Seiten bei, die für Suchende über den Cache-Link in den Suchergebnissen zugänglich sind.

  • Wann Sie es verwenden sollten: Wenn Sie eine E-Commerce-Website betreiben und Ihre Preise regelmäßig ändern, sollten Sie das noarchive-Tag verwenden, um zu verhindern, dass Suchende veraltete Preise sehen.


In diesem Beispiel werden alle Suchmaschinen von der Indizierung der Seite und vom Verfolgen von Links auf der Seite ausgeschlossen. Wenn Sie mehrere Crawler ausschließen möchten, wie z. B. googlebot und bing, können Sie mehrere Robot-Ausschluss-Tags verwenden.


 

Meta-Direktiven beeinflussen die Indizierung, nicht das Crawling


Person vor Laptop, Icons
Wie Suchmaschinen funktionieren: Crawling, Indizierung und Ranking

Der Googlebot muss Ihre Seite crawlen, um die Meta-Direktiven zu sehen. Wenn Sie also versuchen, Crawler am Zugriff auf bestimmte Seiten zu hindern, sind Meta-Direktiven nicht der richtige Weg. Robots-Tags müssen gecrawlt werden, um beachtet zu werden.


X-Robots-Tag


Zwei Roboter
Wie Suchmaschinen funktionieren: Crawling, Indizierung und Ranking

Das x-robots-Tag wird im HTTP-Header Ihrer URL verwendet und bietet mehr Flexibilität und Funktionalität als Meta-Tags, wenn Sie Suchmaschinen in großem Umfang blockieren möchten. Das liegt daran, da Sie reguläre Ausdrücke verwenden, Nicht-HTML-Dateien blockieren und siteweite noindex-Tags anwenden können.


Wenn Sie die verschiedenen Möglichkeiten zur Beeinflussung von Crawling und Indizierung kennen, können Sie die häufigsten Fallstricke vermeiden, die verhindern, dass Ihre wichtigen Seiten gefunden werden.


 

Sie wünschen sich professionelle Unterstützung?

Schauen Sie gerne auf unserer Webseite vorbei oder holen Sie sich direkt ein unverbindliches Angebot mit kostenloser SEO-Beratung ein!




 

Ranking: Wie bewerten Suchmaschinen URLs?


Holzwürfel mit Aufschrift RANKING
Wie Suchmaschinen funktionieren: Crawling, Indizierung und Ranking

Wie stellen Suchmaschinen sicher, dass jemand, der eine Suchanfrage in die Suchleiste eingibt, relevante Ergebnisse zurückerhält?


Dieser Vorgang wird als Ranking bezeichnet, d. h. die Reihenfolge der Suchergebnisse nach Relevanz bis zur geringsten Relevanz für eine bestimmte Suchanfrage.


Um die Relevanz zu bestimmen, verwenden Suchmaschinen Algorithmen, d. h. ein Verfahren oder eine Formel, mit der gespeicherte Informationen abgerufen und sinnvoll geordnet werden.


Diese Algorithmen haben im Laufe der Jahre viele Änderungen erfahren, um die Qualität der Suchergebnisse zu verbessern. Google zum Beispiel nimmt täglich Algorithmus-Anpassungen vor - einige dieser Aktualisierungen sind kleinere Qualitätsverbesserungen, während andere grundlegende/umfassende Algorithmus-Aktualisierungen sind, die ein bestimmtes Problem angehen, wie Penguin, um Link-Spam zu bekämpfen.


Warum ändert sich der Algorithmus so oft? Versucht Google nur, uns auf Trab zu halten?


Formeln, Algorithmus
Wie Suchmaschinen funktionieren: Crawling, Indizierung und Ranking

Google verrät zwar nicht immer genau, warum es das tut, was es tut, aber wir wissen, dass Google mit den Algorithmusanpassungen die allgemeine Suchqualität verbessern will.


Aus diesem Grund antwortet Google auf Fragen zu Algorithmus-Updates in der Regel mit den Worten: "Wir nehmen ständig Qualitätsaktualisierungen vor."


Das bedeutet, dass Sie, wenn Ihre Website nach einer Algorithmus-Anpassung gelitten hat, sie mit den Qualitätsrichtlinien von Google oder den Search Quality Rater Guidelines vergleichen sollten; beide sind sehr aufschlussreich in Bezug auf die Wünsche der Suchmaschinen.


 

Was wollen Suchmaschinen?


Person mit Handy in der Hand, SEARCH, Notizbuch, Tasse
Wie Suchmaschinen funktionieren: Crawling, Indizierung und Ranking

Suchmaschinen haben schon immer dasselbe gewollt: nützliche Antworten auf die Fragen der Suchenden in möglichst hilfreicher Form zu liefern. Wenn das stimmt, warum sieht es dann so aus, als sei SEO heute anders als in den vergangenen Jahren?


Stellen Sie sich vor, dass jemand eine neue Sprache lernt.

Am Anfang ist das Verständnis der Sprache sehr rudimentär - "See Spot Run". Mit der Zeit vertieft sich das Verständnis, und man lernt die Semantik - die Bedeutung hinter der Sprache und die Beziehung zwischen Wörtern und Sätzen.


Mit genügend Übung beherrschen sie die Sprache schließlich so gut, dass sie sogar Nuancen verstehen und in der Lage sind, selbst auf vage oder unvollständige Fragen Antworten zu geben.


Als die Suchmaschinen gerade anfingen, unsere Sprache zu lernen, war es viel einfacher, das System mit Tricks und Taktiken zu umgehen, die eigentlich gegen die Qualitätsrichtlinien verstoßen. Nehmen Sie zum Beispiel das Keyword-Stuffing.


Wenn Sie für ein bestimmtes Keyword wie "lustige Witze" ranken wollen, könnten Sie die Worte "lustige Witze" mehrmals auf Ihrer Seite einfügen und fett drucken, in der Hoffnung, dass Sie für diesen Begriff besser ranken:

Willkommen bei funny jokes! Wir erzählen die lustigsten Witze der Welt. Lustige Witze sind lustig und verrückt. Dein lustiger Witz wartet auf dich. Lehnen Sie sich zurück und lesen Sie lustige Witze, denn lustige Witze können Sie glücklich und lustiger machen. Einige lustige Lieblingswitze.

Statt über lustige Witze zu lachen, wurden die Nutzer mit lästigem, schwer zu lesendem Text bombardiert. Das mag in der Vergangenheit funktioniert haben, aber das ist nie das, was Suchmaschinen wollen.


 

Die Rolle von Links bei SEO


Viele Icons, Links
Wie Suchmaschinen funktionieren: Crawling, Indizierung und Ranking

Wenn wir von Links sprechen, können wir zwei Dinge meinen. Backlinks oder "eingehende Links" sind Links von anderen Websites, die auf Ihre Website verweisen, während interne Links Links auf Ihrer eigenen Website sind, die auf Ihre anderen Seiten (auf derselben Website) verweisen.


Links haben in der Vergangenheit eine große Rolle bei der Suchmaschinenoptimierung gespielt. Schon sehr früh brauchten Suchmaschinen Hilfe, um herauszufinden, welche URLs vertrauenswürdiger waren als andere, damit sie bestimmen konnten, wie sie die Suchergebnisse einstufen sollten.


Die Berechnung der Anzahl der Links, die auf eine bestimmte Website verweisen, half ihnen dabei.


Backlinks funktionieren ganz ähnlich wie Mundpropaganda im wirklichen Leben. Nehmen wir ein hypothetisches Kaffeegeschäft, Jenny's Coffee, als Beispiel:

  • Empfehlungen von anderen = gutes Zeichen von Autorität

  • Beispiel: Viele verschiedene Leute haben Ihnen gesagt, dass Jenny's Coffee der beste Kaffee in der Stadt ist.


  • Empfehlungen von Ihnen selbst = voreingenommen, also kein gutes Zeichen für Autorität

  • Beispiel: Jenny behauptet, dass Jenny's Coffee der beste Kaffee in der Stadt ist.


  • Verweise von irrelevanten oder minderwertigen Quellen = kein gutes Zeichen für Autorität und könnte sogar als Spam eingestuft werden

  • Beispiel: Jenny hat dafür bezahlt, dass Leute, die ihr Café noch nie besucht haben, anderen erzählen, wie gut es ist.


  • Keine Verweise = unklare Autorität

  • Beispiel: Jennys Kaffee könnte gut sein, aber Sie haben niemanden gefunden, der eine Meinung dazu hat, also können Sie nicht sicher sein.


Aus diesem Grund wurde PageRank entwickelt. PageRank (Teil des Google-Kernalgorithmus) ist ein Algorithmus zur Linkanalyse, der nach einem der Google-Gründer, Larry Page, benannt wurde.



Zwei Personen, Laptops, Tablet, Kaffeebecher, Icons
Wie Suchmaschinen funktionieren: Crawling, Indizierung und Ranking


PageRank schätzt die Bedeutung einer Webseite ein, indem er die Qualität und Quantität der Links misst, die auf sie verweisen. Die Annahme ist, dass eine Webseite umso mehr Links erhält, je relevanter, wichtiger und vertrauenswürdiger sie ist.


Je mehr natürliche Backlinks Sie von hochrangigen (vertrauenswürdigen) Websites haben, desto größer sind Ihre Chancen, in den Suchergebnissen weiter oben zu ranken.


 

Die Rolle des Inhalts bei SEO


Hände, Content, Icons
Wie Suchmaschinen funktionieren: Crawling, Indizierung und Ranking

Links wären sinnlos, wenn sie die Suchenden nicht zu etwas führen würden. Dieses Etwas ist der Inhalt! Inhalt ist mehr als nur Worte; es ist alles, was von den Suchenden konsumiert werden soll - es gibt Videoinhalte, Bildinhalte und natürlich Text. Wenn Suchmaschinen Antwortmaschinen sind, dann sind Inhalte das Mittel, mit dem die Maschinen diese Antworten liefern.

Jedes Mal, wenn jemand eine Suche durchführt, gibt es Tausende von möglichen Ergebnissen. Wie entscheiden Suchmaschinen also, welche Seiten der Suchende wertvoll finden wird?


Ein großer Teil der Entscheidung, wo Ihre Seite für eine bestimmte Suchanfrage rangiert, hängt davon ab, wie gut der Inhalt Ihrer Seite mit der Absicht der Suchanfrage übereinstimmt. Mit anderen Worten: Passt die Seite zu den gesuchten Wörtern und hilft sie, die Aufgabe zu erfüllen, die der Suchende zu erfüllen versuchte?


Da der Schwerpunkt auf der Zufriedenheit der Nutzer und der Erfüllung der Aufgabe liegt, gibt es keine strengen Maßstäbe dafür, wie lang Ihr Inhalt sein sollte, wie oft er ein Keywort enthalten sollte oder was Sie in Ihre Header-Tags schreiben sollten.


All diese Faktoren können eine Rolle dabei spielen, wie gut eine Seite bei der Suche abschneidet, aber der Schwerpunkt sollte auf den Nutzern liegen, die den Inhalt lesen werden.


Heutzutage gibt es Hunderte oder sogar Tausende von Ranking-Signalen, aber die drei wichtigsten sind ziemlich konstant geblieben:


  • Links zu Ihrer Website (die als Glaubwürdigkeitssignale von Dritten dienen)

  • On-Page-Inhalte (qualitativ hochwertige Inhalte, die die Suchintentionen der Nutzer erfüllen)

  • RankBrain


 

Was ist RankBrain?


Hand, Machine Learning, Gehirn, Icons
Wie Suchmaschinen funktionieren: Crawling, Indizierung und Ranking

RankBrain ist die Komponente des maschinellen Lernens im Kernalgorithmus von Google. Google’s core algorithm ist ein Computerprogramm, das seine Vorhersagen im Laufe der Zeit durch neue Beobachtungen und Trainingsdaten verbessert.


Mit anderen Worten: Es lernt ständig, und da es ständig lernt, sollten die Suchergebnisse ständig verbessert werden.


Wenn RankBrain zum Beispiel feststellt, dass eine URL mit niedrigerem Ranking den Nutzern ein besseres Ergebnis liefert als die URLs mit höherem Ranking, können Sie darauf wetten, dass RankBrain diese Ergebnisse anpassen wird. Dies erfolgt, , indem es das relevantere Ergebnis nach oben verschiebt und die weniger relevanten Seiten als Nebenprodukt zurückstuft.


Wie bei den meisten Dingen, die mit der Suchmaschine zu tun haben, wissen wir nicht genau, was RankBrain ausmacht, aber anscheinend wissen das die Leute bei Google auch nicht.

Was bedeutet das für SEOs?


Mann schreibt in Notizbuch, SEO
Wie Suchmaschinen funktionieren: Crawling, Indizierung und Ranking

Da Google RankBrain weiterhin nutzen wird, um die relevantesten und hilfreichsten Inhalte zu fördern, müssen wir uns mehr denn je darauf konzentrieren, die Suchintentionen der Suchenden zu erfüllen.


Bieten Sie die bestmöglichen Informationen und Erfahrungen für Suchende, die auf Ihrer Seite landen, und Sie haben einen ersten großen Schritt getan, um in einer RankBrain-Welt gut abzuschneiden.


 

Engagement-Metriken: Korrelation, Kausalität oder beides?


Tablet, Tastatur, geöffnete Statistik
Wie Suchmaschinen funktionieren: Crawling, Indizierung und Ranking

Bei Google-Rankings sind Engagement-Metriken höchstwahrscheinlich zum Teil korreliert und zum Teil kausal.


Wenn wir von Engagement-Metriken sprechen, meinen wir Daten, die darstellen, wie Suchende über Suchergebnisse mit Ihrer Website interagieren. Dazu gehören Dinge wie:

  • Klicks (Besuche aus der Suche)

  • Verweildauer (die Zeit, die der Besucher auf einer Seite verbringt, bevor er sie verlässt)

  • Absprungrate (der Prozentsatz aller Website-Sitzungen, bei denen die Nutzer nur eine Seite angesehen haben)

  • Pogo-sticking (Klicken auf ein organisches Ergebnis und dann schnelle Rückkehr zur SERP, um ein anderes Ergebnis auszuwählen)

Viele Tests, darunter auch die Moz-eigene Studie zu den Ranking-Faktoren, haben ergeben, dass Engagement-Metriken mit einem höheren Ranking korrelieren, aber die Kausalität wird heftig diskutiert.


Sind gute Engagement-Metriken nur ein Indikator für hoch gerankte Websites? Oder werden Websites nur deshalb hoch gerankt, weil sie über gute Engagement-Metriken verfügen?


Was Google gesagt hat


Junger Mann hält Hand zum Ohr, hört zu
Wie Suchmaschinen funktionieren: Crawling, Indizierung und Ranking

Google hat zwar nie den Begriff "direktes Ranking-Signal" verwendet, aber es ist klar, dass das Unternehmen durchaus Klickdaten verwendet, um die SERP für bestimmte Suchanfragen zu verändern.


Laut Googles ehemaligem Chef für Suchqualität, Udi Manber:

"Das Ranking selbst wird durch die Klickdaten beeinflusst. Wenn wir feststellen, dass bei einer bestimmten Suchanfrage 80 % der Leute auf die Nummer 2 und nur 10 % auf die Nummer 1 klicken, finden wir nach einer Weile heraus, dass wahrscheinlich die Nummer 2 diejenige ist, die die Leute wollen, also ändern wir sie."


Ein weiterer Kommentar des ehemaligen Google-Ingenieurs Edmond Lau bestätigt dies:

"Es ist ziemlich klar, dass jede vernünftige Suchmaschine die Klickdaten ihrer eigenen Ergebnisse nutzen würde, um sie in das Ranking einfließen zu lassen und so die Qualität der Suchergebnisse zu verbessern. Die tatsächlichen Mechanismen, wie Klickdaten verwendet werden, sind oft geschützt, aber Google macht mit seinen Patenten auf Systeme wie rangangepasste Inhaltselemente deutlich, dass es Klickdaten verwendet."


Da Google die Suchqualität aufrechterhalten und verbessern muss, scheint es unvermeidlich, dass die Engagement-Metriken mehr als nur eine Korrelation sind. Es scheint aber, dass Google die Engagement-Metriken nicht als "Ranking-Signal" bezeichnen kann, weil diese Metriken zur Verbesserung der Suchqualität verwendet werden und der Rang einzelner URLs nur ein Nebenprodukt davon ist.


Was Tests bestätigt haben


Mann im Hintergrund, Kreis mit Hacken
Wie Suchmaschinen funktionieren: Crawling, Indizierung und Ranking

Verschiedene Tests haben bestätigt, dass Google die SERP-Reihenfolge als Reaktion auf das Engagement der Suchenden anpasst:

  • Der Test von Rand Fishkin aus dem Jahr 2014 ergab, dass ein Ergebnis auf Platz 7 auf Platz 1 aufstieg, nachdem etwa 200 Personen auf die URL in der SERP geklickt hatten. Interessanterweise schien die Verbesserung des Rankings vom Standort der Personen abhängig zu sein, die den Link besuchten. In den USA, wo sich viele Teilnehmer aufhielten, stieg die Rangposition sprunghaft an, während sie bei Google Kanada, Google Australien usw. weiter unten auf der Seite blieb.

  • Larry Kims Vergleich der Top-Seiten und ihrer durchschnittlichen Verweildauer vor und nach der Einführung von RankBrain schien darauf hinzudeuten, dass die maschinelle Lernkomponente des Google-Algorithmus die Rangposition von Seiten herabsetzt, auf denen die Nutzer nicht so viel Zeit verbringen.

  • Die Tests von Darren Shaw haben auch die Auswirkungen des Nutzerverhaltens auf die Ergebnisse der lokalen Suche und des Kartenpakets gezeigt.


Da die Metriken zum Nutzerengagement eindeutig verwendet werden, um die Qualität der SERPs anzupassen, und sich die Rangposition als Nebenprodukt ändert, kann man mit Sicherheit sagen, dass SEOs für das Engagement optimieren sollten.


Das Engagement ändert nicht die objektive Qualität Ihrer Webseite, sondern vielmehr Ihren Wert für Suchende im Vergleich zu anderen Ergebnissen für diese Suchanfrage.


Aus diesem Grund kann Ihre Seite, ohne dass Änderungen an ihr oder ihren Backlinks vorgenommen werden, im Ranking zurückfallen, wenn das Verhalten der Suchenden zeigt, dass ihnen andere Seiten besser gefallen.


In Bezug auf das Ranking von Webseiten wirken Engagement-Metriken wie ein Fakten-Checker. Objektive Faktoren wie Links und Inhalte führen zunächst zu einer Einstufung der Seite, und die Engagement-Metriken helfen Google dann bei der Anpassung, wenn die Seite nicht richtig platziert wurde.


 

Die Entwicklung der Suchergebnisse


Zwei Mappen mit Aufschrift Suchergebnisse
Wie Suchmaschinen funktionieren: Crawling, Indizierung und Ranking

Als die Suchmaschinen noch nicht so ausgereift waren wie heute, wurde der Begriff "10 blue links" geprägt, um die flache Struktur der SERP zu beschreiben.


Jedes Mal, wenn eine Suche durchgeführt wurde, zeigte Google eine Seite mit 10 organischen Ergebnissen an, die alle dasselbe Format hatten.


In dieser Suchlandschaft war es der heilige Gral der Suchmaschinenoptimierung, auf Platz 1 zu stehen. Doch dann geschah etwas. Google begann, die Ergebnisse in neuen Formaten auf den Suchergebnisseiten anzuzeigen, den so genannten SERP-Funktionen. Einige dieser SERP-Funktionen sind:

  • Bezahlte Anzeigen

  • Ausgewählte Snippets

  • Leute fragen auch Boxen

  • Lokales (Karten-)Paket

  • Wissens-Panel

  • Sitelinks


Und Google fügt laufend neue hinzu. Es wurde sogar mit "Null-Ergebnis-SERPs" experimentiert, einem Phänomen, bei dem nur ein Ergebnis aus dem Knowledge Graph auf der SERP angezeigt wurde, ohne dass darunter weitere Ergebnisse angezeigt wurden, außer der Option "Weitere Ergebnisse anzeigen".


Die Hinzufügung dieser Funktionen löste vor allem aus zwei Gründen eine gewisse Panik aus. Zum einen führten viele dieser Funktionen dazu, dass die organischen Ergebnisse auf der SERP weiter nach unten verschoben wurden.



Tastatur, Taste mit Lupe und Search
Wie Suchmaschinen funktionieren: Crawling, Indizierung und Ranking


Ein weiterer Nebeneffekt ist, dass weniger Suchende auf die organischen Ergebnisse klicken, da mehr Suchanfragen auf der SERP selbst beantwortet werden.


Warum sollte Google dies tun? Das hat mit dem Sucherlebnis zu tun. Das Nutzerverhalten deutet darauf hin, dass einige Suchanfragen durch unterschiedliche Inhaltsformate besser beantwortet werden.


Beachten Sie, wie die verschiedenen Arten von SERP-Funktionen mit den verschiedenen Arten von Suchanfragen übereinstimmen.



Absicht der Anfrage

Mögliche SERP-Funktion ausgelöst

Information

Info mit einer Antwort

Wissensgrafik/ Sofortantwort

Wissensgrafik/ Sofortantwort

Lokal

Kartenpaket

Transaktionsgeschäft

Shopping


Jetzt ist es wichtig zu wissen, welche Antworten für Suchende in einer Vielzahl von Formaten geliefert werden können, und wie Sie Ihre Inhalte strukturieren, kann sich auf das Format auswirken, in dem sie in der Suche erscheinen.


 

Lokalisierte Suche


Straßenkarte, Zielpunkte, Handy mit selber Straßenkarte, Hand
Wie Suchmaschinen funktionieren: Crawling, Indizierung und Ranking

Eine Suchmaschine wie Google verfügt über einen eigenen Index lokaler Unternehmenseinträge, aus dem sie lokale Suchergebnisse erstellt.


Wenn Sie lokale SEO-Arbeiten für ein Unternehmen durchführen, das einen physischen Standort hat, den Kunden besuchen können (z. B. Zahnarzt), oder für ein Unternehmen, das unterwegs ist, um seine Kunden zu besuchen (z. B. Klempner), stellen Sie sicher, dass Sie einen kostenlosen Google My Business-Eintrag beantragen, überprüfen und optimieren.


Bei den lokalisierten Suchergebnissen verwendet Google drei Hauptfaktoren, um das Ranking zu bestimmen:

  1. Relevanz

  2. Entfernung

  3. Bekanntheitsgrad


Wäscheklammer, Sprechblase mit Rufzeichen
Wie Suchmaschinen funktionieren: Crawling, Indizierung und Ranking


Relevanz

Die Relevanz gibt an, wie gut ein lokales Unternehmen dem entspricht, wonach der Suchende sucht. Um sicherzustellen, dass das Unternehmen alles in seiner Macht Stehende tut, um für die Suchenden relevant zu sein, sollten Sie sicherstellen, dass die Unternehmensinformationen gründlich und genau ausgefüllt sind.


Entfernung

Google verwendet Ihren geografischen Standort, um Ihnen bessere lokale Ergebnisse zu liefern. Lokale Suchergebnisse reagieren sehr empfindlich auf die Nähe, d. h. auf den Standort des Suchenden und/oder den in der Suchanfrage angegebenen Ort (falls der Suchende einen solchen angegeben hat).


Organische Suchergebnisse reagieren ebenfalls auf den Standort des Suchenden, wenn auch selten so ausgeprägt wie bei den Ergebnissen des lokalen Pakets.

Bekanntheit

Mit dem Faktor "Bekanntheit" möchte Google Unternehmen belohnen, die in der realen Welt bekannt sind. Neben der Offline-Prominenz eines Unternehmens berücksichtigt Google auch einige Online-Faktoren, um das lokale Ranking zu bestimmen, wie z. B.:


Bewertungen

Die Anzahl der Google-Bewertungen, die ein lokales Unternehmen erhält, und die Stimmung in diesen Bewertungen haben einen erheblichen Einfluss auf die Platzierung in den lokalen Ergebnissen.


Erwähnungen

Eine "Unternehmensnennung" oder ein "Unternehmenseintrag" ist ein webbasierter Verweis auf den "NAP" (Name, Adresse, Telefonnummer) eines lokalen Unternehmens auf einer lokalisierten Plattform (Yelp, Acxiom, YP, Infogroup, Localeze usw.).


Lokale Rankings werden durch die Anzahl und Konsistenz der lokalen Unternehmensnennungen beeinflusst. Google zieht Daten aus einer Vielzahl von Quellen heran, um seinen Index für lokale Unternehmen kontinuierlich zu erstellen.


Wenn Google mehrere konsistente Verweise auf den Namen, den Standort und die Telefonnummer eines Unternehmens findet, stärkt dies das "Vertrauen" von Google in die Gültigkeit dieser Daten.

Dies führt dann dazu, dass Google das Unternehmen mit einem höheren Maß an Vertrauen anzeigen kann. Google verwendet auch Informationen aus anderen Quellen im Internet, wie z. B. Links und Artikel.


 

Organisches Ranking


Holzwürfel mit Sterne, Organisches Ranking
Wie Suchmaschinen funktionieren: Crawling, Indizierung und Ranking

Bewährte SEO-Praktiken gelten auch für lokale SEO, da Google bei der Bestimmung des lokalen Rankings auch die Position einer Website in den organischen Suchergebnissen berücksichtigt.


 

Lokales Engagement


Straßenkarte mit Markierungen
Wie Suchmaschinen funktionieren: Crawling, Indizierung und Ranking

Obwohl von Google nicht als lokaler Ranking-Faktor aufgeführt, wird die Rolle des Engagements mit der Zeit immer wichtiger werden. Google bereichert die lokalen Ergebnisse weiterhin, indem es reale Daten wie beliebte Besuchszeiten und die durchschnittliche Dauer der Besuche einbezieht...


...und bietet den Suchenden sogar die Möglichkeit, dem Unternehmen Fragen zu stellen!


Zweifellos werden die lokalen Ergebnisse heute mehr denn je von realen Daten beeinflusst. Diese Interaktivität ist die Art und Weise, wie Suchende mit lokalen Unternehmen interagieren und auf sie reagieren, und nicht die rein statischen (und spielbaren) Informationen wie Links und Zitate.


Da Google den Suchenden die besten und relevantesten lokalen Unternehmen liefern möchte, ist es absolut sinnvoll, dass es zur Bestimmung von Qualität und Relevanz auf Echtzeit-Interaktionsmetriken zurückgreift.


 

Haben wir Ihr Interesse geweckt?

Schauen Sie gerne auf unserer Webseite vorbei und holen Sie sich ein unverbindliches Angebot mit kostenloser SEO-Beratung!













64 Ansichten0 Kommentare

Aktuelle Beiträge

Alle ansehen
bottom of page