Donnerstag, 3. Februar 2011
Im Januar machten einige Storys über die Suchqualität bei Google die Runde. Solltet ihr in letzter Zeit
einige
dieser
Artikel
gelesen haben, fragt ihr euch vielleicht, ob die Suchqualität wirklich schlechter geworden ist. Kurz gesagt: Gemäß den Beurteilungsmetriken, die wir seit über zehn Jahren stetig verfeinert haben, ist die Suchqualität bei Google hinsichtlich der Relevanz, Aktualität und des Umfangs derzeit besser denn je. Der Spam in englischer Sprache in den Google-Suchergebnissen hat sich in den letzten fünf Jahren mehr als halbiert und in den meisten anderen Sprachen liegt der Spam-Anteil noch unter dem englischen. In den letzten Monaten verzeichneten wir leider einen leichten Anstieg des Spams. Als Reaktion darauf haben wir neue Maßnahmen eingeleitet, um unsere Suchqualität weiter zu verbessern.
Zur Erläuterung: Unter Web-Spam versteht man Junk-Einträge in den Suchergebnissen , mit denen Websites versuchen, sich höhere Positionierungen in Suchergebnissen zu erschleichen, oder auf sonstige Weise gegen die Qualitätsrichtlinien von Suchmaschinen verstoßen. Vor zehn Jahren war die Spam-Situation so schlecht, dass Suchmaschinen regelmäßig irrelevanten Web-Spam für zahlreiche verschiedene Suchanfragen wiedergaben. Google hat diese Art von "reinem Web-Spam" größtenteils erfolgreich bekämpft, obwohl einige Spammer mittlerweile auf noch raffiniertere und sogar illegale Taktiken wie das Hacken von Websites umgestiegen sind.
In den letzten Monaten haben wir sowohl den Umfang als auch die Aktualität unserer Ergebnisse erweitert und dabei sowohl sehr viel nützliche Inhalte als auch einen gewissen Spam-Anteil indexiert. Um dem Spam entgegenzutreten, haben wir vor Kurzem eine umgestaltete Klassifizierung auf Dokumentebene eingeführt, die es Spam-Inhalten auf einzelnen Webseiten erschwert, hohe Rankings zu erzielen. Die neue Klassifizierung kann Spam auf einzelnen Webseiten besser erkennen, z. B. Spam aus sich wiederholenden Wörtern oder Wortgruppen, die man häufig in automatisch erstellten Junk-Blog-Kommentaren findet. Darüber hinaus haben wir unsere Möglichkeiten zur Erkennung gehackter Websites entscheidend verbessert. Gehackte Websites waren im Jahr 2010 eine der größten Spam-Quellen. Außerdem evaluieren wir derzeit mehrere Veränderungen, mit denen der Spam-Anteil noch weiter reduziert werden kann. Eine der Maßnahmen zielt in erster Linie auf Websites ab, die die Inhalte von anderen kopieren und wenig Original-Inhalte enthalten. Wir entwickeln derzeit auch neue Möglichkeiten für Nutzer, um genaueres Feedback zu Spam-Websites oder qualitativ minderwertigen Websites zu geben.
Da der "reine Web-Spam" insgesamt eher zurückgegangen ist, hat sich die Aufmerksamkeit auf "Content-Farmen" verlagert. Hierbei handelt es sich um Websites, mit fragwürdigen oder qualitativ minderwertigen Inhalten. 2010 haben wir zwei größere Algorithmusänderungen eingeführt, die hauptsächlich Websites von geringer Qualität betrafen. Dennoch erhalten wir eindeutiges Feedback aus dem Web: Die Nutzer wünschen sich noch drastischere Maßnahmen gegen Content-Farmen und Websites, die in erster Linie aus Spam-Inhalten und Inhalten von geringer Qualität bestehen. Wir sind stolz auf die Google-Suche und unser Ziel ist es, dass jede Suchanfrage perfekte Ergebnisse liefert. Leider sind wir nicht ganz perfekt und in Kombination mit den haushohen Erwartungen, die an Google gestellt werden, erscheinen diese Unzulänglichkeiten größer, als sie in Wirklichkeit sind. Dennoch: Wir können es besser und müssen auch besser werden.
In den letzten Wochen kam auch das Gerücht auf, dass Google nicht gegen Spam-Inhalte in unserem Index vorgehen würde, wenn auf diesen Websites Google-Anzeigen geschaltet sind. Wir möchten Folgendes klarstellen:
Die Nutzer sind aber sehr an Google interessiert und teilen uns - zum Teil sehr leidenschaftlich - mit, was wir verbessern sollten. Dieses Feedback ist uns sehr wichtig. In Kombination mit unseren eigenen wissenschaftlichen Auswertungen können wir anhand des Nutzer-Feedbacks alle Möglichkeiten für mögliche Verbesserungen ausloten. Bitte teilt uns im Websuche-Forum mit , was wir besser machen können. Wir werden auch in Zukunft für hohe Qualität bei Google sorgen.
Google search and search engine spam (English version)
Post von Matt Cutts, Principal Engineer (Veröffentlichung von Jörg Pacher, Search Quality Strategist)
Zur Erläuterung: Unter Web-Spam versteht man Junk-Einträge in den Suchergebnissen , mit denen Websites versuchen, sich höhere Positionierungen in Suchergebnissen zu erschleichen, oder auf sonstige Weise gegen die Qualitätsrichtlinien von Suchmaschinen verstoßen. Vor zehn Jahren war die Spam-Situation so schlecht, dass Suchmaschinen regelmäßig irrelevanten Web-Spam für zahlreiche verschiedene Suchanfragen wiedergaben. Google hat diese Art von "reinem Web-Spam" größtenteils erfolgreich bekämpft, obwohl einige Spammer mittlerweile auf noch raffiniertere und sogar illegale Taktiken wie das Hacken von Websites umgestiegen sind.
In den letzten Monaten haben wir sowohl den Umfang als auch die Aktualität unserer Ergebnisse erweitert und dabei sowohl sehr viel nützliche Inhalte als auch einen gewissen Spam-Anteil indexiert. Um dem Spam entgegenzutreten, haben wir vor Kurzem eine umgestaltete Klassifizierung auf Dokumentebene eingeführt, die es Spam-Inhalten auf einzelnen Webseiten erschwert, hohe Rankings zu erzielen. Die neue Klassifizierung kann Spam auf einzelnen Webseiten besser erkennen, z. B. Spam aus sich wiederholenden Wörtern oder Wortgruppen, die man häufig in automatisch erstellten Junk-Blog-Kommentaren findet. Darüber hinaus haben wir unsere Möglichkeiten zur Erkennung gehackter Websites entscheidend verbessert. Gehackte Websites waren im Jahr 2010 eine der größten Spam-Quellen. Außerdem evaluieren wir derzeit mehrere Veränderungen, mit denen der Spam-Anteil noch weiter reduziert werden kann. Eine der Maßnahmen zielt in erster Linie auf Websites ab, die die Inhalte von anderen kopieren und wenig Original-Inhalte enthalten. Wir entwickeln derzeit auch neue Möglichkeiten für Nutzer, um genaueres Feedback zu Spam-Websites oder qualitativ minderwertigen Websites zu geben.
Da der "reine Web-Spam" insgesamt eher zurückgegangen ist, hat sich die Aufmerksamkeit auf "Content-Farmen" verlagert. Hierbei handelt es sich um Websites, mit fragwürdigen oder qualitativ minderwertigen Inhalten. 2010 haben wir zwei größere Algorithmusänderungen eingeführt, die hauptsächlich Websites von geringer Qualität betrafen. Dennoch erhalten wir eindeutiges Feedback aus dem Web: Die Nutzer wünschen sich noch drastischere Maßnahmen gegen Content-Farmen und Websites, die in erster Linie aus Spam-Inhalten und Inhalten von geringer Qualität bestehen. Wir sind stolz auf die Google-Suche und unser Ziel ist es, dass jede Suchanfrage perfekte Ergebnisse liefert. Leider sind wir nicht ganz perfekt und in Kombination mit den haushohen Erwartungen, die an Google gestellt werden, erscheinen diese Unzulänglichkeiten größer, als sie in Wirklichkeit sind. Dennoch: Wir können es besser und müssen auch besser werden.
In den letzten Wochen kam auch das Gerücht auf, dass Google nicht gegen Spam-Inhalte in unserem Index vorgehen würde, wenn auf diesen Websites Google-Anzeigen geschaltet sind. Wir möchten Folgendes klarstellen:
- Google geht mit aller Entschiedenheit gegen Websites vor, die gegen unsere Qualitätsrichtlinien verstoßen, egal, ob dort Google-Anzeigen zu sehen sind oder nicht.
- Durch das Einblenden von Google-Anzeigen erhält eine Website kein höheres Ranking bei Google.
- Der Kauf von Google-Anzeigen führt nicht zu einem höheren Ranking der Website in den Google-Suchergebnissen.
Die Nutzer sind aber sehr an Google interessiert und teilen uns - zum Teil sehr leidenschaftlich - mit, was wir verbessern sollten. Dieses Feedback ist uns sehr wichtig. In Kombination mit unseren eigenen wissenschaftlichen Auswertungen können wir anhand des Nutzer-Feedbacks alle Möglichkeiten für mögliche Verbesserungen ausloten. Bitte teilt uns im Websuche-Forum mit , was wir besser machen können. Wir werden auch in Zukunft für hohe Qualität bei Google sorgen.
Google search and search engine spam (English version)
Post von Matt Cutts, Principal Engineer (Veröffentlichung von Jörg Pacher, Search Quality Strategist)