Google-SEO-Sprechstunde im November 2022

Dies ist das Transkript der Ausgabe der Google-SEO-Sprechstunde vom November 2022. Wenn du websitespezifische Hilfe suchst, empfehlen wir dir, deine Frage im Google Search Central-Hilfeforum zu posten.

Kann man in einem Schema-Markup-Feld mehrere Werte angeben, indem man sie durch Kommas trennt?

Lizzi: Abhishek fragt: „Kann man in einem Schema-Markup-Feld mehrere Werte angeben, indem man sie durch Kommas trennt? Zum Beispiel: GTIN ist gleich Wert eins, Wert zwei.“

Wie immer solltet ihr euch die Dokumentation für die jeweilige Funktion ansehen, da die Anleitung von Funktion zu Funktion variieren kann. Im Allgemeinen empfiehlt es sich jedoch, einen Wert pro Feld festzulegen. Bei der GTIN sollte es nur einen Wert geben, da es sich hierbei um eine eindeutige Produktkennzeichnung handelt. Wenn ihr eine GTIN und eine ISBN angebt, verwendet die GTIN und dann die ISBN-Property, damit wir wissen, welcher Wert für welche Property gilt.

Welche Möglichkeiten gibt es, die Funktion zum Ungültigerklären in der Search Console für Domain-Properties zu verwenden?

John: Pierre fragt: „Die Funktion zum Ungültigerklären in der Search Console ist derzeit nicht für Domain-Properties verfügbar. Welche Optionen gibt es dann?“

Wenn ihr eine Überprüfung auf Domainebene eingerichtet habt, könnt ihr die Präfixebene auch ohne zusätzliche Tokens überprüfen. Überprüft den Host und führt die erforderlichen Schritte aus. Beachtet außerdem, dass es sich nicht lohnt, irgendwelche Links für ungültig zu erklären, die seltsam erscheinen oder die von einem Tool gemeldet wurden. Dadurch ändert sich nichts. Verwendet das Tool zum Ungültigerklären von Links, wenn ihr für Links bezahlt habt und sie später nicht mehr entfernen könnt.

Wie schlecht ist das Update zu hilfreichen Inhalten für Websites, die Gastbeiträge gegen Bezahlung akzeptieren?

Duy: Hallo, hier ist Duy im Namen der SEO-Sprechstunde. Latha hat gefragt: „Wie schlecht ist das Update zu hilfreichen Inhalten für Websites, die Gastbeiträge gegen Bezahlung akzeptieren?“

Unsere Systeme können Websites mit minderwertigem Inhalt sowie Inhalte identifizieren, die speziell für Suchmaschinen erstellt wurden. Websites, die Gastbeiträge gegen Bezahlung akzeptieren, ohne Inhalte und Links sorgfältig zu prüfen, riskieren nicht nur aufgrund des Updates zu hilfreichen Inhalten, sondern auch aufgrund der anderen Systeme, die wir bereits eingerichtet haben, eine Verringerung ihres Rankings in den Suchergebnissen.

Was kann ich tun, wenn Google das kanonische Tag nicht richtig erkennt?

John: „Was kann ich tun, wenn Google das kanonische Tag nicht richtig erkennt?“

Die Kanonisierung basiert nicht nur auf dem link-rel="canonical"-Element. Wenn Google URLs findet, die sich sehr ähnlich sind, versuchen unsere Systeme, die URL auszuwählen, die den Inhalt am besten repräsentiert. Dafür berücksichtigen wir nicht nur link rel="canonical", sondern auch Weiterleitungen, Sitemaps, interne Links, externe Links und mehr. Wenn ihr euch sicher seid, welche URL verwendet werden sollte, achtet darauf, dass alle Signale übereinstimmen. Bei der Kanonisierung geht es hauptsächlich darum, welche URL angezeigt wird. Dies hat keinen Einfluss auf das Ranking der Inhalte.

Ist es wahrscheinlicher, dass Google die Seiten crawlt und indexiert, wenn der Inhalt kurz ist?

Gary: „Wenn eine Website ein Verzeichnis zu jedem Thema hat, nach dem nicht oft gesucht wird, ist es dann wahrscheinlicher, dass Google die Seiten crawlt und indexiert, wenn der Inhalt kurz ist, sodass es weniger kostet, ihn im Index zu speichern.“

Das ist eine interessante Frage. Die Länge des Inhalts hat keinen Einfluss darauf, wie oft wir ihn crawlen und ob wir ihn indexieren. Außerdem spielt es keine Rolle für die Crawling-Frequenz eines URL-Musters. Nischeninhalte können ebenfalls indexiert werden. Sie werden keinesfalls benachteiligt, aber im Allgemeinen werden Inhalte, die im Internet beliebt sind, z. B. weil es viele Links zu ihnen gibt, eher gecrawlt und indexiert.

Könnte die dynamische Sortierung von Einträgen ein Grund dafür sein, dass Produktbilder nicht indexiert werden?

Alan: Paul hat gefragt: „Könnte das dynamische Sortieren von Einträgen der Grund dafür sein, dass Produktbilder nicht indexiert werden?“

Es ist unwahrscheinlich, dass die dynamische Sortierung von Einträgen dazu führt, dass Produktbilder nicht indexiert werden. Eure Produktbilder sollten von euren Produktbeschreibungsseiten referenziert werden, damit wir wissen, für welches Produkt das Bild gedacht ist. Bei Bedarf könnt ihr eine Sitemap-Datei erstellen oder einen Google Merchant Center-Feed bereitstellen, damit Google alle eure Produktseiten finden kann, ohne von eurer Eintragsseite abhängig zu sein.

Gibt es einen Zeitraum für die Website-Migration?

Lizzi: Sergey möchte wissen: „Gibt es einen Zeitraum für die Website-Migration? Wir migrieren derzeit eine große Website zu einer neuen Domain. Nach vier Monaten gibt es immer noch keine Anzeichen dafür, dass die neue Domain die SERP-Positionen der alten Domain erreicht. Was können wir tun?“

Bei einer so großen Veränderung ist es völlig normal, dass es Schwankungen im Ranking gibt, insbesondere während der Migration. Es gibt keinen festen Zeitraum, nach dem sich die Dinge wieder eingepegelt haben. Beachtet außerdem, dass die Migration eines Teils eurer Website in Bezug auf die Google Suche etwas anderes als die Migration einer ganzen Website ist. Wenn ihr weiter Dinge migriert, werdet ihr auch weiterhin Schwankungen feststellen. Es ist schwer zu sagen, was ihr als Nächstes tun solltet, ohne die Website selbst gesehen zu haben. Für websitespezifische Hilfe empfehlen wir auf jeden Fall, in den Foren zu posten. So können andere Nutzer eure spezifische Situation sehen und konkretere Tipps dazu geben.

Könnte die Verwendung von HTTP/3 die SEO verbessern, weil dadurch die Leistung verbessert wird?

John: Flavio fragt: „Könnte die Nutzung von HTTP/3 die SEO verbessern, selbst wenn nur indirekt, vielleicht weil dadurch die Leistung verbessert wird?“

Google nutzt HTTP/3 im Moment nicht als Rankingfaktor. Soweit ich weiß, verwenden wir es auch nicht beim Crawling. Was die Leistung angeht, denke ich, dass die Vorteile, die Nutzer durch die Verwendung von HTTP/3 erzielen, nicht ausreichen würden, um die Core Web Vitals wesentlich zu beeinflussen, also die Messwerte, die wir beim Rankingfaktor für die Nutzerfreundlichkeit von Seiten verwenden. Es ist zwar immer eine gute Idee, einen schnelleren Server zu haben, aber ich bezweifle, dass sich HTTP/3 allein direkt auf die SEO auswirken würde. Das ist ähnlich wie mit einem schnelleren RAM in euren Servern. Auch da gäbe es wohl kaum direkte Auswirkungen.

Duy: Andrea fragt: „Warum verwendet Google weiterhin Backlinks als Rankingfaktor, wenn Kampagnen zum Erstellen von Links nicht zulässig sind? Warum findet Google keine anderen Rankingfaktoren, die sich nicht so leicht manipulieren lassen wie Backlinks?“

Hier gibt es einige Dinge zu beachten. Erstens haben Backlinks als Signal deutlich weniger Einfluss als bei der Einführung der Google Suche vor vielen Jahren. Wir haben Hunderte aussagekräftige Signale für das Ranking, mit denen wir bei allen Suchanfragen die relevantesten und nützlichsten Ergebnisse einstufen können. Zweitens gelten umfassende Kampagnen zur Linkerstellung gemäß unseren Richtlinien im Wesentlichen als Link-Spam. Wir haben viele Algorithmen, die unnatürliche Links in großem Umfang erkennen und aussortieren können. Spammer und SEOs, die Geld für Links ausgeben, können also nicht wissen, ob es sich wirklich lohnt, Geld für die Linkerstellung auszugeben. Wahrscheinlich vergeuden sie einfach nur ihr Geld, wenn sie diese Spam-Links erstellen, die von unseren Systemen aussortiert werden, sobald wir auf sie stoßen.

John: Sam fragt: „Spielt es eine Rolle, ob die große Mehrheit der Anker für interne Inhalts-Links identisch ist?“

Das macht nichts. Das ist sogar normal. Wenn es um Menüs geht, sind sie in der Regel überall zu finden. Auch Produkte, die auf einer E-Commerce-Website verlinkt sind, sind meist über denselben Link verknüpft. Das ist gar kein Problem. Es gibt es wirklich keinen Handlungsbedarf hinsichtlich der SEO.

Wenn man das Websiteschema hinzufügt, muss man dann auch das Schema der Softwareanwendung hinzufügen?

Lizzi: Ein anonymer Nutzer fragt: „Wenn man seiner Startseite das neueste Websiteschema hinzufügt, muss man dann auch das Schema der Softwareanwendung oder der Organisation hinzufügen? Google hat seine Schema-Markup-Dokumentation aktualisiert, indem das Websiteschema für die Marke hinzugefügt wurde. Es wird jedoch nicht erwähnt, was mit dem Schema der Organisation oder Softwareanwendung geschieht.“

Das kommt ganz darauf an. Tut mir leid, dass ich diese Antwort geben muss. Dabei handelt es sich um verschiedene Funktionen. Wenn sich eure Website auf eine Softwareanwendung bezieht, könnt ihr natürlich auch strukturierte Daten für die Softwareanwendung hinzufügen. Achtet aber darauf, alles so zu verschachteln, dass auf der Startseite nur ein Websiteknoten vorhanden ist und nicht mehrere. Das ist der Schlüssel zu dieser Frage.

Ist eine übermäßig große Anzahl von noindex-Seiten ein Problem für die Auffindbarkeit oder die Indexierung?

Gary: Chris fragt: „Inwiefern ist eine übermäßig große Anzahl von noindex-Seiten für Google ein Problem? Beeinträchtigt es die Auffindbarkeit und Indexierung von Inhalten, wenn es zu viele gibt?“

Gute Frage. noindex ist eine sehr leistungsstarke Möglichkeit, mit der ihr als Websiteinhaber Inhalte aus den Indexen heraushalten könnt. Deshalb hat es keine unerwünschten Auswirkungen auf das Crawling und die Indexierung. Wenn ihr beispielsweise viele Seiten mit noindex habt, hat dies keinen Einfluss darauf, wie Google eure Website crawlt und indexiert.

Ist es ein Problem, wenn die URL und die Seite nicht dieselbe Sprache verwenden?

Alan: Yasser hat gefragt: „Wenn die URL keine Zeichen der Sprache enthält, die auf den Seiten verwendet werden, würde sich das auf das Ranking der Website auswirken?“

Hinsichtlich der SEO hat es keine negativen Auswirkungen, wenn die URL in einer anderen Sprache als der Seiteninhalt angegeben ist. Die Nutzer könnt es hingegen stören, v. a. wenn sie die URL mit anderen teilen.

Wie sollten Creator auf Websites reagieren, die Scraping durchführen und Spam verbreiten?

Duy: Kristen hat gefragt: „Wie sollten Creator auf Websites reagieren, die mithilfe von KI Inhalte plagiieren, sie modifizieren und sie dann im Such-Ranking übertreffen?“

Das Scraping von Inhalten verstößt gegen unsere Spam-Richtlinie, selbst wenn gewisse Änderungen vorgenommen werden. Wir haben viele Algorithmen zum Erkennen von solchem Verhalten und werten von anderen Websites kopierte Inhalte ab. Wenn ihr auf Websites stößt, die wiederholt Inhalte kopieren, und dann in der Google Suche gute Ergebnisse erzielen, könnt ihr sie uns gern über das Formular für Spam-Berichte melden. Damit helft ihr uns, unsere Systeme weiter zu verbessern, sowohl hinsichtlich der Spam-Erkennung und auch in Bezug auf das Ranking insgesamt.

Stimmt es, dass Google indexierte Seiten rotiert?

Lizzi: Ridwan fragt: „Stimmt es, dass Google indexierte Seiten rotiert?“ Die Website, an der ich arbeite, wird nämlich auf indexierten Seiten rotiert. Seite A ist beispielsweise von Montag bis Donnerstag indexiert, aber nicht von Freitag bis Sonntag.

Okay. Das lässt sich schnell beantworten: Nein, das stimmt nicht. Wir rotieren den Index nicht basierend auf Wochentagen.

Sollten wir das Verhältnis zwischen indexierten und nicht indexierten Seiten im Auge behalten?

John: Anton fragt: „Sollten wir das Verhältnis zwischen indexierten und nicht indexierten Seiten in der Search Console im Auge behalten, um möglicherweise vergeudetes Crawling-Budget bei nicht indexierten Seiten besser zu erkennen?“

Nein, es gibt kein magisches Verhältnis, auf das ihr achten solltet. Bei einer nicht extrem großen Website mit vielleicht weniger als einer Million Seiten braucht ihr euch nicht wirklich Gedanken über das Crawling-Budget der Website zu machen. Es ist in Ordnung, unnötige interne Links zu entfernen. Bei kleinen und mittelgroßen Websites ist das eher eine Frage der Website-Hygiene als der SEO.

Wie aktivieren wir die Discover-Funktion?

Alan: Joydev hat gefragt: „Wie aktivieren wir die Discover-Funktion?“

Ihr müsst nichts weiter unternehmen, um eure Inhalte für Discover zu aktivieren. Das erfolgt automatisch. Google nutzt jedoch verschiedene Kriterien, um zu entscheiden, ob eure Inhalte in Discover oder in den Suchergebnissen angezeigt werden sollen. Daher ist das Erzielen von Zugriffen über die Suche keine Garantie dafür, dass auch Zugriffe über Discover erfolgen.

Wirkt es sich auf das Crawling-Budget aus, wenn man viele noindex-Seiten hat, die von Spamwebsites verlinkt sind?

Gary: Sam hat eine weitere noindex-bezogene Frage: „Viele SEOs beschweren sich darüber, dass Millionen von URLs in der Google Search Console als durch ,noindex‘ ausgeschlossen gekennzeichnet sind. Alle verweisen auf unsinnige interne Suchseiten, die von Spamwebsites verlinkt sind. Ist das ein Problem für das Crawling-Budget?“

noindex soll euch dabei helfen, bestimmte Dinge aus dem Index herauszuhalten. Es hat keine negativen Auswirkungen, wie wir bereits mitgeteilt haben. Wenn ihr sichergehen möchtet, dass diese Seiten oder ihre URLs nicht in den Google-Index gelangen, solltet ihr noindex weiterhin verwenden und euch keine Gedanken um das Crawling-Budget machen.

Handelt es sich um Inhalt ohne Mehrwert, wenn ich einen langen Artikel in einzelne Teile zerlege?

Lizzi: Lalindra fragt: „Würde es als Inhalt ohne Mehrwert gelten, wenn ein Artikel, der ein umfangreiches Thema beschreibt, in kleinere Artikel unterteilt wird, die miteinander verlinkt sind?“

Das ist schwer zu sagen, wenn man die Inhalte nicht sieht. Die Wortzahl allein ist jedoch kein Zeichen für Inhalte ohne Mehrwert. Die folgenden Ansätze sind beide völlig legitim: Es kann gut sein, einen ausführlichen Artikel zu haben, in dem ein Thema gründlich behandelt wird, und es kann genauso gut sein, ihn in Themen aufzuteilen, die verständlicher sind. Das kommt ganz auf das Thema und den Inhalt auf der Seite an. Ihr kennt eure Zuschauer am besten. Deshalb denke ich, ihr solltet euch darauf konzentrieren, was für eure Nutzer am hilfreichsten ist, und auf jeder Seite einen ausreichenden Mehrwert für das jeweilige Thema bieten.

Stimmt es, dass das Crawling und die Verarbeitung beendet werden können, wenn man viele 404-Seiten hat?

Gary: Michelle möchte wissen: „In der Hilfedokumentation zu HTTPS-Berichten steht, dass eine große Anzahl von 404-Seiten dazu führen kann, dass Google das Crawling und die Verarbeitung von URLs beendet. Wie viele 404-Seiten gelten als viel? Und kann dies dadurch beeinflusst werden, dass man viele verlinkte 404-Seiten auf einer Website hat?“

Das ist jetzt etwas unangenehm. Danke für die Frage. Wir haben einen Tippfehler in unserer Dokumentation korrigiert, der besagte, dass 404-HTTP-Statuscodes dazu führen, dass das Crawling auf Website-Ebene beendet wird. Es hätte aber „HTTPS-Zertifikatfehler“ statt „404-Fehler“ heißen sollen. Ihr könnt so viele 404-Fehler wie nötig auf eurer Website haben. Sie wirken sich nicht auf das Crawling eurer Website insgesamt aus. 404-Seiten sind ein sehr gesunder Bestandteil des Internets.

Was ist der aktuelle Stand beim Video-Markup für wichtige Momente?

Alan: Iman hat gefragt: „Was ist der aktuelle Stand beim Video-Markup für wichtige Momente? Dieses Snippet ist anscheinend nur für YouTube-Videos verfügbar. Ist das so?“

Das Video-Markup für wichtige Momente ist allgemein verfügbar und wird von verschiedenen Videoanbietern verwendet. Es ist nicht auf YouTube beschränkt. Wenn unsere Online-Dokumentation nicht ausreicht, könnt ihr euch an die öffentlichen Foren wenden.

Meine neue Website wird mit einer ähnlichen, älteren Website verwechselt. Was kann ich tun?

John: Ein Nutzer namens "Weird All website" fragt: „Meine neue Website "Weird All", wird nicht in den Suchergebnissen angezeigt, wenn ich den vollständigen Namen der Website eingebe. Der Begriff wird mit dem Namen des Sängers "Weird Al" verwechselt.“

Als jemand, der viel Musik von Weird Al gehört hat, habe ich volles Verständnis für Google und andere Suchmaschinen. Wenn Nutzer "weird all" mit zwei „L“ eintippen, möchten sie in der Regel wahrscheinlich nach Weird Al suchen. Wenn es um SEO geht, ist es wichtig, sich für einen Websitenamen zu entscheiden, der nicht nur eine falsche Schreibung von etwas sehr Bekanntem ist, weil es sonst sehr schwer ist, sich davon abzuheben. Wenn unsere Systeme etwas für einen Tippfehler enthalten, versuchen wir, dies auch so zu behandeln und Nutzern das zu liefern, wonach sie wahrscheinlich suchen. Unsere Systeme können sich aber mit der Zeit anpassen, wenn wir sehen, dass Nutzer wirklich nach "weird all" suchen und nicht etwas von "Weird Al" hören wollen. Das dauert aber sehr lange, besonders dann, wenn es um jemanden geht, der so bekannt wie Weird Al ist. Dann wird es euch wirklich schwer fallen, euch in dieser Hinsicht abzuheben.

Lizzi: Ein anonymer Nutzer fragt: „Ist es möglich, hervorgehobene FAQ-Snippets allein mit reinem HTML-Code zu erhalten? Es soll möglichst einfacher HTML-Code ohne Schema-Markup sein.“

Okay. Wenn ihr über das FAQ-Rich-Suchergebnis sprecht, benötigt ihr aktuell FAQ-Schema-Markup, um für diese Erweiterung in den Suchergebnissen infrage zu kommen. Einige Funktionen können die Inhalte der Webseite unter Umständen automatisch erfassen. Wir empfehlen euch aber, die Dokumentation zu lesen, um herauszufinden, ob das überhaupt möglich ist. Für FAQ-Rich-Suchergebnisse benötigt ihr aber auf jeden Fall das Markup.

Helfen auf sich selbst verweisende kanonische Seiten bei der Deduplizierung?

John: Esben fragt: „Es geht um auf sich selbst verweisende kanonische Seiten: Meine Idee ist, dass sie ein Einzigartigkeitssignal für die Deduplizierung bieten, aber ich sehe andere Ansichten. Was denkst du, John?“

Aus meiner Sicht haben sie keine Wirkung. Manchmal werden Seiten jedoch unter anderen URLs gesehen und dann verweist die kanonische Seite plötzlich nicht mehr auf sich selbst und ist tatsächlich nützlich. Zum Beispiel wird manchmal mit UTM-Tracking-Parametern auf eine Seite verwiesen.

Sollte es in den Suchergebnissen einen gewissen Anteil an Zufälligkeit geben?

Alan: Eine Frage lautet: „Es scheint mir, dass die Suchmaschinen stärkere Websites immer mehr fördern und schwache Ressourcen immer weiter herabstufen. Denkt ihr, dass es einen gewissen Anteil an Zufälligkeit geben sollte?“

Unser Hauptziel ist es, Nutzern, die Suchanfragen stellen, möglichst nützliche Ergebnisse zu liefern.

Warum ergreift Google keine Maßnahmen gegen erfundene Web Stories?

Duy: Kunal fragt: „Warum ergreift Google keine Maßnahmen gegen kopierte oder erfundene Web Stories. Könnt ihr in Discover nachsehen?“

Vielen Dank für die Meldung. Wir sind uns dieser Versuche bewusst und untersuchen sie. Im Allgemeinen verstoßen Websites mit kopierten Spaminhalten gegen unsere Spamrichtlinien und unsere Algorithmen sind ziemlich gut darin, sie in den Suchergebnissen herabzustufen.

John: Tom fragt: „Werden moderierte Blog-Kommentarseiten, die intern als link rel="ugc" verlinkt sind, aus dem Index entfernt?“

Nein. Seiten können aus verschiedenen Gründen indexiert werden. Ein Link mit rel="ugc" wird anders behandelt als beispielsweise ein Link mit rel nofollow. Dies wirkt sich aber nicht negativ auf die Landingpage aus. Wenn ihr verhindern möchtet, dass eine Seite indexiert wird, verwendet stattdessen das noindex robots meta-Tag.

Alan: Abdul Rahim hat gefragt: „Wie bewertet Google die Aktualisierung von Rezensionen für nicht physische Produkte, die keine Affiliate-Links haben?“

Unser Schwerpunkt liegt auf physischen Produkten, die gekauft werden können. Unser System bewertet gelegentlich aber auch Inhalte für digitale Produkte. Wenn ihr ein Produkt bewertet, müsst ihr keinen Affiliate-Link angeben. Es empfiehlt sich, nützliche Links zu anderen Ressourcen anzugeben, die für den Leser hilfreich sein können.

Ich habe 10.000 Seiten auf meiner Website: Gibt es Möglichkeiten, Beschreibungen schneller zu verfassen?

Lizzi: Siddiq möchte wissen: „Ich habe mehr als 10.000 Seiten auf meiner Website. Das Schreiben von meta-Tags für alle davon dauert sehr lange. Gibt es schnellere Möglichkeiten?“

Unsere Dokumentation zu Meta-Beschreibungen enthält hilfreiche Informationen dazu. Bei einigen Websites kann es sinnvoll sein, die Meta-Beschreibung programmatisch zu erstellen, insbesondere bei größeren datenbankbasierten Websites wie Produktaggregatoren. Achtet aber darauf, dass die generierten Inhalte trotzdem eine hohe Qualität haben. Die Beschreibungen müssen für jede Seite einzigartig, spezifisch und relevant sein. Verwendet nicht immer wieder dieselben Meta-Beschreibungen.

Wie kann ich am besten 10.000 Seiten an Bloginhalten ohne Mehrwert löschen?

John: „Ich möchte 10.000 Seiten an Blog-Inhalten ohne Mehrwert löschen. Gibt es dafür eine Best Practice?“

Löscht einfach die Seiten. Ihr müsst nichts Besonderes tun. Wenn ihr Seiten ohne Mehrwert löscht, wird eure Website dadurch aber nicht automatisch wertvoller. Achtet darauf, dass der Wert unabhängig von den Seiten ohne Mehrwert oder den entfernten Seiten besteht.

Duy: „Ich habe nur wenig Erfahrung mit SEO und sehe, dass mir viele Websites oder Videos empfehlen, Backlinks zu kaufen. Sind Backlinks so nützlich oder sollte ich mich darauf konzentrieren, die Qualität meiner Website zu maximieren?“

Es gibt immer Leute, die auf der Suche nach Abkürzungen oder Tricks für die Manipulation des Such-Rankings sind oder die Geld dafür ausgeben, dass ihre Websites für Suchmaschinen zuverlässiger erscheinen. Link-Spam ist ein Beispiel für diese Tricks. Wir verwenden beispielsweise Links nicht mehr primär wie noch vor 20 Jahren. Außerdem wurden viele Algorithmen eingeführt, um Links-Spam zu neutralisieren, und ihr solltet euer Geld wahrscheinlich nicht für Spam-Links verschwenden. Dieses Geld ist sehr wichtig für die Erstellung einer großartigen Website mit einer hervorragenden Nutzererfahrung und nützlichen Inhalten.

Muss eine Seite eine im Cache gespeicherte Kopie haben, damit sie in den Suchergebnissen erscheint?

John: „Muss eine Seite eine im Cache gespeicherte Kopie haben, um in den Suchergebnissen zu erscheinen?“

Nein. Sie muss keine im Cache gespeicherte Seite haben. Das Caching-System ist zum Teil unabhängig von der Indexierung und dem Ranking der Suche. Das ist kein Hinweis auf die Qualität einer Seite, wenn sie keine im Cache gespeicherte Seite hat.

Warum meldet die Search Console eine unbekannte Referrer-URL für 4xx-Fehler?

Alan: Esben Rasmussen fragt: „Wie kann die Google Search Console eine unbekannte interne URL als Referrer-URL für Fehler-URLs der 400er-Serie melden?“

Die URL ist möglicherweise unbekannt, da Google nicht jede Seite indexiert. Möglicherweise ist der Crawler auf eine Seite gestoßen, aber wenn wir sie nicht indexiert haben, melden wir sie als unbekannt.

Sollten wir automatisch erstellte Seiten als nofollow markieren?

Gary: Yusuf fragt: „Sollen wir auf einer WordPress-Website oder in einem WordPress-Blog automatisch erstellte Seiten wie abc.com/page/one oder page/two als nofollow markieren?“

Wenn ihr das Crawling oder die Indexierung bestimmter Arten von Seiten eurer Website einschränken möchtet, empfiehlt es sich wahrscheinlich, robots.txt-Disallow-Regeln anstelle von nofollow-URLs zu verwenden, die auf diese Seiten verweisen. Zumindest macht das wahrscheinlich viel weniger Arbeit. Es ist aber auch zuverlässiger. Ihr könnt schließlich nicht beeinflussen, wie Nutzer eure Seiten verlinken. Einige Links können also gewissermaßen „follow“-Links sein.

Wie kann ich den Leistungsbericht in der Search Console am besten verstehen?

John: Bobby fragt: „Wird etwas dafür getan, den Messwert in der Search Console zu verbessern? Insbesondere sieht der Leistungsbericht manchmal etwas verwirrend aus.“

Das ist normal. Vor Kurzem haben wir im Search Central-Blog einen Blogpost zu diesem Thema veröffentlicht, der Details zu Leistungsdaten oder so ähnlich heißt. Es macht einen Unterschied, ob ihr per Suchanfrage oder anhand der Seite sucht. Außerdem gibt es eine gewisse Datenschutzfilterung bei den Daten für Suchanfragen. Oft sind die Details weniger kritisch, da die Trends weitgehend gleich sind. Wir haben jedoch eine Menge an Dokumentation dazu, wenn ihr es genauer wissen möchtet.

Wie verhindere ich, dass Paywall-Inhalte in den Suchergebnissen angezeigt werden?

Lizzi: Michal fragt: „Wie verhindere ich, dass Paywall-Inhalte für nicht zahlende Nutzer in den Suchergebnissen und in Discover angezeigt werden? Ich habe das Markup für Paywall-Inhalte korrekt implementiert und mache mir Sorgen wegen unzufriedener Nutzer.“

Das ist das, was wir empfehlen. Teilt uns mit strukturierten Paywall-Daten mit, was für Inhalte sich hinter der Paywall befinden. Ihr seid also auf dem richtigen Weg. Wenn ihr wirklich vollständig verhindern möchtet, dass die Paywall-Inhalte in der Google Suche erscheinen, könnt ihr diese Seiten mit noindex kennzeichnen. Aber das liegt ganz bei euch.

Hat die Spambewertung einen Einfluss auf das Ranking meiner Website?

John: Usama fragt: „Hat die Spambewertung einen Einfluss auf das Ranking meiner Website? Gibt es eine Möglichkeit, die Spambewertung für eine Website zu verbessern, vielleicht ohne Links für ungültig zu erklären?“

Hier ein geheimer oder vielleicht doch nicht so geheimer Hinweis: Google verwendet keine SEO-Tools von Drittanbietern, um einzelne Seiten zu bewerten. Wenn ihr also ein Tool habt, das eine Spambewertung für eure Website angibt, denkt daran, dass Google es nicht verwendet. Das bedeutet aber nicht, dass dieses Tool nicht nützlich ist. Es bedeutet nur, dass Google diese Bewertung nicht verwendet. Versucht also zu verstehen, was dieses Tool euch sagen will, und wenn das praktische Konsequenzen hat, handelt entsprechend.

Was sollten wir bei Seiten für Produkte tun, die nicht auf Lager sind?

Alan: Vara Praad hat gefragt: „Sobald ein Produkt ausverkauft ist und es nie wieder verfügbar sein wird, was sollten wir dann mit der zugehörigen Produktseite tun? Sollten wir die Produktseite löschen oder zu einer bestimmten Seite weiterleiten?“

Aus Sicht der Google Suche ist es in Ordnung, die Seite zu löschen. Was die Nutzerfreundlichkeit der Website angeht, solltet ihr die Seite vielleicht eine Weile beibehalten oder eine Weiterleitung erstellen für den Fall, dass ein Drittanbieter-Blog auf sie verweist oder sie von einem Kunden als Lesezeichen gespeichert wurde.

Wird „hreflang“ auch berücksichtigt, wenn zurückverweisende Tags fehlen?

John: Tomas fragt: „Wenn ,hreflang‘ verwendet wird, aber keine zurückverweisenden Tags vorhanden sind, wird ,hreflang‘ trotzdem für diese Tags berücksichtigt oder wirken sich diese Fehler auf die gesamte Website aus?“

Bei der Betrachtung von „hreflang“ werden alle gültigen hreflang-Anmerkungen berücksichtigt. Und wenn es z. B. um fehlerhafte Seiten geht, die keinen Link zurück zu den einzelnen Seiten haben, ignorieren wir einfach diese Verbindung. Angenommen, ihr habt eine Seite mit drei funktionierenden hreflang-Anmerkungen und einer fehlerhaften. Wir ignorieren die fehlerhafte dann einfach, da wir nicht feststellen können, wie sie funktioniert, aber wir verwenden die anderen, die ihr auf dieser Seite angegeben habt, weiterhin. „hreflang“ ist eine Anmerkung auf Seitenebene. Wenn wir das also auf eurer gesamten Website machen und einige funktionieren und andere wiederum nicht, berücksichtigen wir jene, die funktionieren, und ignorieren einfach diejenigen, die nicht funktionieren. Diejenigen, die nicht funktionieren, haben also keine negativen Auswirkungen, außer dass „hreflang“ nicht funktioniert. Wenn ihr allerdings eure Website testet und diese Art von fehlerhaften Anmerkungen findest, empfehle ich euch trotzdem, sie zu korrigieren, einfach damit ihr euch keine Sorgen machen müsst. Wenn ihr Probleme wie diese feststellt, gibt es oft einfache Möglichkeiten, das Problem zu beheben. Ich würde das korrigieren, aber es hat keine negativen Auswirkungen auf die anderen Anmerkungen auf eurer Website.

Wie können wir „hreflang“ einsetzen, wenn wir in vielen Ländern keine Kontrolle über Webseiten haben?

Gary: Damian fragt: „Wie kann auf einer Website ,hreflang‘ eingesetzt werden, wenn man in vielen Ländern keine Kontrolle über Markenwebsites hat?“

Großartige Frage! „hreflang“ ist ein wichtiges und kompliziertes Thema. Die Implementierung von „hreflang“ bei vielen Varianten einer Website kann eine ziemliche Herausforderung sein. Es gibt jedoch eine einfache Möglichkeit, jede Verwendung von „hreflang“ an einem einzigen Ort zu verwalten: Sitemaps. Wenn ihr auf „sitemaps.org“ nach "sitemap cross submits" sucht, erfahrt ihr, wie es eingerichtet wird. Fügt „hreflang“ dann euren Sitemaps statt euren HTML-Seiten hinzu. Dies kann den Vorgang erheblich vereinfachen.

Können hreflang-Sitemaps in einem beliebigen Ordner gespeichert werden?

John: Andrew fragt: „Können hreflang-Sitemaps in einem beliebigen Ordner gespeichert werden?“

Ja. Bei hreflang-Sitemaps gibt es nichts Besonderes. Es sind herkömmliche Sitemap-Dateien mit zusätzlichen hreflang-Anmerkungen. Ihr könnt sie wie jede andere Sitemap-Datei auf eurer Website platzieren. Ihr könnt die robots.txt-Datei verwenden, um sie einzureichen, und könnt sie an einem beliebigen Ort speichern. Wenn ihr sie über die Search Console einreicht, könnt ihr sie überall auf euren bestätigten Websites platzieren. Dasselbe gilt für Sitemaps mit Bild- oder Videoanmerkungen.

Woran liegt es, dass eine Website nicht indexiert wird?

Alan: Eze Kennedy fragt: „Woran liegt es, dass eine Website nicht noch einmal indexiert wird?“

Ich würde zuerst in der Google Search Console prüfen, ob Fehler vorliegen, die das Crawling eurer Website verhindern. Google indexiert aber auch nicht alles im Web. Daher müsst ihr darauf achten, dass sich eure Inhalte in Bezug auf die Qualität abheben.

Wie kann ich x-default hreflang für neue Sprachaktualisierungen verwenden?

John: Amy fragt: „Ich habe eine Website in 13 Sprachen. Wenn Autoren die Website verlassen, werden die Artikel bei neuen Sprachaktualisierungen entfernt. Der Client bietet zwei Möglichkeiten: entweder x-default weglassen oder die zuletzt übersetzte Sprache als x-default verwenden. Was ist besser?“

Das liegt ganz bei euch. Ihr könnt Sprachen auf Seitenebene festlegen. Die Sprache muss nicht auf der gesamten Website identisch sein. Es ist kein Problem, mal Englisch und mal Japanisch als Standardsprache zu verwenden, wenn ihr glaubt, dass das für Nutzer hilfreich ist. x-default bedeutet, dass Nutzer, die nicht in einer dieser angegebenen Sprachen suchen, diese Seite sehen. Ich würde mich also stärker auf die Dinge konzentrieren, die für Nutzer hilfreich sind, und weniger auf eure internen Prozesse.

Warum wirken sich die Aktualisierungen von Rezensionen auf nicht rezensierte Inhalte aus?

Alan: Lucy fragt: „Warum wirken sich die Aktualisierungen von Rezensionen auf nicht rezensierte Inhalte aus?“

Wenn ihr auf eurer Website weitreichende Auswirkungen feststellt, liegt dies wahrscheinlich nicht an euren Rezensionen. Die Ursache kann ein anderes Update sein.

Wie kann man alte Inhalte am besten entfernen?

Gary: Ein anonymer Nutzer fragt: „Wie kann man alte Inhalte am besten entfernen und verhindern, dass sie indexiert werden? Per Weiterleitung? Wenn ja, zu welcher Seite sollte am besten weitergeleitet werden?“

Interessante Frage. Wenn ihr eine Seite aussortieren möchtet, könnt ihr sie z. B. ganz löschen und den Statuscode 404 oder 410 für ihren Ort angeben. Oder ihr leitet zu einer anderen Seite weiter, die dem Nutzer irgendwie hilft, sein Ziel zu erreichen. Es ist eure Entscheidung, was ihr tut und wie ihr vorgeht. Letztendlich muss es für euch sinnvoll sein, nicht für Suchmaschinen.

Lizzi: Sean B fragt: „Wirkt sich Text in Bildern auf das Ranking in der Bildersuche aus, beispielsweise in der Bildersuche für den T-Shirt-Druck? Mir geht es nicht um den Text auf dem T-Shirt auf dem Bild, sondern um den Text um das Bild herum, z. B. den Preis, den Produktnamen oder die Marken-URL.“

Nun, Sean, der Text um das Bild ist definitiv hilfreich, wenn es um das Verstehen des Bildes geht. Google kann Informationen um das Bild herum extrahieren, z. B. aus den Bildunterschriften und den Bildtiteln. Achtet also darauf, dass sich das Bild in der Nähe von relevantem Text befindet und dass der Text aussagekräftig ist.

Ist es für lokale Unternehmen von Vorteil, viele Websites für lokale Einträge zu verwenden?

Alan: Akshay Kumar Sharma hat gefragt: „Ist es für lokale Unternehmen von Vorteil, die Informationen zu ihrem Unternehmen auf vielen kostenlosen oder kostenpflichtigen Websites für lokale Einträge anzugeben. Berücksichtigt Google diese bei lokalen Abfrageergebnissen?“

Betrachtet das Hinzufügen eurer Website zu seriösen Websites für lokale Einträge nicht als Mittel, um die SEO zu verbessern. Verwendet sie, um unabhängig von der Google Suche mehr Zugriffe zu erhalten. Die lokale Suche ist anders.

Ist es schädlich für die SEO, URLs einen Suchparameter hinzuzufügen?

John: Alfonso fragt: „Ist es schädlich für die SEO, URLs wie ,In den Einkaufswagen‘ einen Suchparameter hinzuzufügen?“

Nein, für sich allein ist das nicht unbedingt schlecht für die SEO. Bei sehr großen Websites kann es jedoch eine Rolle in Bezug auf das Crawling-Budget spielen, wenn ihr euren URLs unnötig Suchparameter hinzufügt. Ihr müsst selbst entscheiden, ob es sich wirklich um eine große Website handelt. Überlegt, ob diese zusätzlichen Parameter, die ihr in die internen Links eurer Website einfügt, dazu führen, dass die Anzahl der URLs, die gefunden werden könnten, exponentiell zunimmt. Wenn das der Fall ist, würde ich versuchen, die Anzahl der Parameter zu reduzieren, die ihr URLs hinzufügt. Wenn es aber um eine kleinere bis mittelgroße Website geht, reicht es wahrscheinlich, wenn ihr über diese Parameter später nachdenkt, wenn die Website wirklich riesig geworden ist.