Google räumt mit SEO Mythen auf (Matt Cutts Teil II)

Erst letzten Freitag habe ich ein paar wissenswerte Punkte aus einem Matt Cutts Interview zum Thema: “SEO im Jahre 2009” aufglistet , da fliegen mir schon die nächsten Aussagen von Ihm über den Bildschirm. Kürzlich fand ein offizieller Google Question & Answer Chat mit Matt Cutts und Maile Ohye statt, bei dem Webmaster den Suchmaschinenriesen mit SEO Fragen löchern durften. Es wurden viele interessante Fragen gestellt und teilweise klare, aber auch weniger klare Antworten gegeben. Für alle englisch Laien und diejenigen, die keine Lust haben sich die ganze Plauderrunde durchzulesen, habe ich nicht den kompletten Chat übersetzt, sondern nur die, meiner Meinung nach, wirklich wichtigen Punkte aufgelistet.

Die folgenden Aussagen basieren nicht auf Hörensagen, sondern sind Google Aussagen! Falls ich etwas missinterpretiert habe, würde ich mich über einen Hinweis freuen. Viel Spass beim durchackern!

  1. Das alter einer Domain spielt im Prinzip keine Rolle beim Ranking, Reputation dagegen schon.
  2. Ob Unterverzeichnisse oder Subdomains einer Seite beim Ranking helfen, wollte Matt noch nicht beantworten, hat sich aber im aktuelleren PubCon Interview dazu geäußert, das Subdomains keine SEO Rolle mehr spielen.
  3. Das Benutzen von Ranking Software verstößt gegen Googles Terms of Use und wird mit einer IP Sperrung bestraft. Es wird in nächster Zeit aber auch kein hauseigener Ranking-Checker angeboten werden (z.B. in den Webmastertools)
  4. Eine Option, sich von “bösen” Seiten zu distanzieren, welche die eigene Webseite verlinken, wird es, wie bei Yahoo, nicht geben. Google arbeitet lieber selbst daran, das einem andere Seiten (z.B. Adult-Seiten) durch verlinken, nicht schaden können.
  5. Artikelverzeichnisse sollte man meiden, da Google davon ausgeht, das diese Verzeichnisse keinen Nutzen für Besucher darstellen, sondern nur zum vermeidlich besseren Ranking einer Webseite vorgesehen sind. Um seine Seite bekannt zu machen Sollte man also nicht mit Artikelverzeichnissen dealen, sondern besser mit viel Content!
  6. Links von .edu und .gov Seiten boosten nicht automatisch das Ranking einer verlinkten Webseite. Wenn Niemand auf diese Seiten einen Link setzt, wird auch kein Linkjuice weitergegeben. (Eher für den englischsprachigen Raum interessant)
  7. Eine .html Sitemap (zusätzlich zur xml Sitemap) auf der eigenen Webseite eingebaut, könnte helfen, das die eigenen Seiten besser indexiert werden. (Besonderns in Suchmaschinen, die xml Sitemaps nicht unterstützen).
  8. Die beste Archtiktur für eine Mehrsprachige Webseite sieht so aus (z.B. deutsch und englisch): domain.de und domain.com. Wenn das nicht geht, dann: en.domain.de und de.domain.de. Wenn das auch nicht geht, dann: domain.de/en und domain.de/de.
  9. Links von Social News Portalen und Blogs werden wie Links von jeder anderen Webseite behandelt.
  10. Man soll sich nicht zuviel Sorgen um die Überoptimierung (z.B. zuviel nofollow Links) und dadurch entstehende Penalties (Strafen) machen. Trotzdem rät Google eine Seite so natürlich wie möglich zu halten. (Leider keine klare Aussage)
  11. Wie schon weiter oben angedeutet, spielt es keine Rolle ob eine Domain so: abc.com/def oder eher so: def.abc.com aufgebaut ist. Beides ist fein.
  12. Keine klare Aussage, aber man kann zwischen den Zeilen lesen, das die Ladezeiten einer Webseite eine Rolle beim berechnen das Pageranks spielen.
  13. Bilder, Photos und eine hohes Ranking in der Google Bildersuche haben keinen Einfluss auf den Pagerank.
  14. Wenn eine Webseite auf eine andere Domain umzieht wird die Pagerank-Information mit übertragen. Dies dauert aber in der Regel einige Zeit. Solange sollte man den 301 Redirect aufrecht erhalten.  (Der Hinweis beruhigt mich, da ich mich bisher nicht getraut habe, komplett auf Bloggonaut.net umzuziehen)
  15. Aha: Die kleinen Video Thumbnails, die teilweise im Google Index auftauchen, bezieht Google durch Video Sitemaps von Webseiten, welche diese Filmchen eingebaut haben (War mir noch nicht bekannt).
  16. Was tun wenn meine Webseite im Ranking nach unten rutscht? I. Crawling Fehler in den Webmaster Tools checken II. Sicher gehen das die Webmaster Guidlines eingehalten wurden III. Andere Webmaster in der Google Webmaster Help Group fragen, ob Sie sich die Seite einmal genauer anschauen könnten.
  17. Googles Suchalgorithmus ändert sich ständig. Letztes Jahr ganze 450 mal!
  18. Google nimmt es sehr ernst, wenn eine Seite mit Paid-Links gemeldet wird und geht jedem Fall nach (Wird zumindest behauptet…)
  19. Webstandards einhalten (z.B. striktes XHTML) beinflusst in keinster Weise das Ranking einer Webseite.
  20. Und zu guter Letzt: Viele Kommentare zu einem Blogartikel können das Ranking dieses Artikels zwar nicht offiziell beeinflussen, erzeugen aber für Goolge brauchbaren Content und beeinflussen es so eher inoffiziel!

Ich hoffe ich habe nichts wichtiges vergessen (oder zuviel unwichtiges aufgezählt) ;-)

61 Kommentare

  1. Tekka November 26, 2008 10:59 am 

    Vielen Dank für deine Mühe! Ist eine interessante Zusammenfassung, kurz, knapp und gut.

    Zu Punkt 18: Das glaube ich auch nicht so ganz, du hast ja auch schon deinen Kommentar in Klammern hinzugefügt…

    Zu Punkt 15: Diese Thumbnails in den SERPs haben doch aber bisher nur die 2 oder 3 Videoplattformen à la MyVideo oder Youtube, oder gibt es auch schon andere Seiten mit Thumbnails?

  2. Jonas November 26, 2008 12:40 pm 

    Hi Markus, stimmt, mir sind Videos bis jetzt auch nur von diesen Portalen untergekommen, hab mich da aber mal umgeschaut. Eine Video Sitemap kann jede Webseite anlegen und einreichen, ob die Videos dann aber auch in den Suchergebnissen erscheinen ist eine andere Frage, werde ich die Tage mal anstesten ;-) Mehr Infos: http://www.google.de/support/webmasters/bin/topic.py?topic=10079

  3. Marcel November 26, 2008 5:13 pm 

    Schöne Zusammenfassung, nur schade dass es keine Vorteile gibt, wenn man Webstandards einhält, so würden viel mehr Webmaster ihre mies zusammen gecodeten Seiten mal überarbeiten..

  4. Internetente November 26, 2008 9:04 pm 

    Marcel… findest du nicht, das der Inhalt einer Seite massgeblicher für das Ranking sein sollte als der Code? Was bringt mir sauberer Code auf einer Webseite mit unbrauchbaren Informationen. Auch bei inhaltlich vergleichbaren Projekten sollte der Code kein Rankingfaktor sein, da es nur um Inhalte gehen sollte.

    Ansonsten besten Dank an den Blogbetreiber. Mein Englisch ist nicht so gut. Da freut man sich immer, wenn sich einer mal die Arbeit macht solche Informationen in Deutsch zur Verfügung zu stellen. Also… Danke!

  5. Marcus Köhler November 26, 2008 10:04 pm 

    Hey, vielen Dank für diesen (und den vorherigen) Artikel zum Matt Cutts Interview! Interessant die Aussage bei Punkt 19 mit der Einhaltung von Webstandards. Ich persönlich achte da eigentlich immer sehr darauf, daß der generierte Code valide ist. Bin auch ehrlich gesagt eine Zeit lang davon ausgegangen, daß es auch SEO-technisch Vorteile bringt. Aber das wurde wohl ja jetzt definitiv ausgeschlossen. Ich werd’ mir bei Gelegenheit mal den entsprechenden Original-Artikel in den Google Groups durchlesen.

  6. Jonas November 26, 2008 11:54 pm 

    Danke für euer nettes Feedback und die vielen Yigg Votes :) Einen Blog XHTML Konform zu halten ist ja garnicht mal so einfach, ständig meckert mir der Validator rum. Wenn dann aber wieder alles passt, ist man um so glücklicher ;-)

  7. Jonas7 November 27, 2008 12:03 am 

    @Internetente Ich kann da Google schon verstehen. Wir reden hier vom Hobby Webmaster, der wahrscheinlich noch seine Webseite mit FrontPage zusammen klickt, da kann Google nicht erwarten das solche Leute das Know-How haben, um nach W3 Standards ihre Webseite aufzubauen.

  8. Wulffy November 27, 2008 11:34 am 

    Eigentlich nicht eine einzige neue Information dabei. Hat man die letzten Monate/Jahre überall quergelesen, wird, wie immer, alles nur wiederholt und wiederholt. Und ob Google 450 mal den Algorithmus anpasst oder auch nicht: es gelten immer noch die altbekannten Prinzipien. Eigentlich hat sich nichts geändert. Schon lange nicht mehr.

  9. Pingback: Linktipp: Google und die SEO-Mythen | ITealistic

  10. Klaus-Peter November 27, 2008 10:58 pm 

    Zu 5.) Was ist mit den Seiten, die den Rss-feed einbinden – das ist ja auch eine Art Verzeichnis, nur machen kann man wenig dagegen – obs einen Vor- oder Nachteil darstellt, weiß ich nicht…

  11. Jonas November 28, 2008 1:01 am 

    Ich hoffe und meine zu glauben, das Google so etwas ignoriert.

  12. Leo November 28, 2008 7:53 am 

    Punkt 12 zweifle ich mal stark an:

    “Keine klare Aussage, aber man kann zwischen den Zeilen lesen, das die Ladezeiten einer Webseite eine Rolle beim berechnen das Pageranks spielen.”

    Wenn überhaupt spielt es eher beim Ranking der Seite eine Rolle.

    Was meint ihr?

  13. Pingback: CashBlog-News vom 28.11.2008 « Erfolg, Geld, Hartz IV, Marketing, SEO « CashBlog

  14. Gordon Dezember 3, 2008 4:12 pm 

    Ein interessanter Artikel. Ich bin um solche Zusammenfassungen immer ganz froh da ich selber nur wenig Zeit finde alle (Original-)Quellen ständig zu beobachten. Danke :)

    Der Punkt Webstandarts ist so eine Sache. Vielleicht mag er keine Rolle beim Ranking spielen, jedoch ist man als Webmaster mit validem Code auf der sicheren Seite das selbige auch in den Browsern korrekt angezeigt wird. Auch Screenreader (Sehbehinderte Webuser) kommen damit viel besser zurecht. Übrigens: Ich habe eigentlich keine Probleme damit mein Blog valide zu halten – es rutscht mir vielleicht mal ein kleiner Tippfehler durch, aber “stressig” finde ichs nicht…

    Was mich etwas irritiert ist Punkt 3, das Verbot von Ranking-Tools. Was genau ist damit gemeint? Programme, die versuchen das Ranking bsp. durch Landingpages zu beeinflussen? Oder eher Programme / Webdienste, die die Postion einer Webseite zu bestimmten Keywords ermitteln? Finde diesen Punkt leider zu allgemein gehalten und weiß jetzt nicht so recht was genau damit gemeint ist…

    Gruß, Gordon

  15. Pingback: Google erzählt was zu SEO | SeoDeo | Suma-Optimierung

  16. Website Boosting Dezember 12, 2008 9:30 am 

    Zum Thema valides html: Im Gegenteil. Es wurde immer wieder nachgewiesen, dass Seiten mit validem html sogar etwas schlechter ranken! Das mag mit dem etwas längerem Code zusammenhängen. Es dürfen nur keine Fehler vorhanden sein, die dem Bot das Parsen erschweren/unmöglich machen. Ansonsten ist richtig valides html also sogar leicht schädlich für das Ranking.

  17. Gordon Dezember 12, 2008 12:21 pm 

    @Website Boosting: Sorry, aber das ist völliger Blödsinn. Valider Quellcode ist in der Regel nicht um einen Faktor länger, als das es den Suchmaschinen etwas ausmachen würde. Im Gegenteil, arbeitet man sauber und mit korrektem Syntax (und damit meine ich nicht, dass man WYSIWYG von Frontpage, Visual Studio, Dreamweaver, GoLive oder sonstiges verwendet sondern den Quellcode zumindest per Hand überarbeitet und kontrolliert) dann ist der Quellcode in der Regel sogar kürzer. Das mag daran liegen, dass immernoch viele grafischen Web-Editoren oder auch CMS- und Blogengines Attribute verwenden die zumindest als deprecated markiert sind. Oder schlimmstenfalls Tabellenkonstrukte oder haufenweise Inline-CSS um ein Layout zu bestimmen.

    Eine sauber erstellte Seite hat im reinen Quellcode nur ein Minimum an Tags, die man in einer separaten CSS Datei dann anspricht, und ansonsten nur den reinen Text. Nicht nur, dass das der SEO zugute kommt, es minimiert auch die Fehler die man machen kann und eine Validierung fehlschlagen lassen. Ich habe schon mit den merkwürdigsten Contentmanagement Systemen gearbeitet und einige dutzend Websites per Hand erstellt – und in keinem der Fälle war der Quellcode “aufgebläht” mit Infos die für eine Validierung notwendig waren.

    Das valides HTML oder auch XHTML zu einem schlechterem Ranking durch längeren Quellcode führen ist eindeutig ein urbaner Mythos – vermutlich von einem “Super-SEO-Kalle” erstmalig in die Welt gesetzt. Der Realität jedoch entspringt das nicht.

    Gruß, Gordon

  18. Wulffy Dezember 12, 2008 9:58 pm 

    Sorry, dass ich mich einmische, aber weder sauberer noch unsauberer Code, weder separate CSS-Datei noch z. B. externes JavaScript haben überhaupt etwas mit dem Ranking zu tun. Diese gesamte Kiste ist ein Mythos und Hype, der viele Agenturen hat reich werden lassen. Für Platz 1 benötigt man absolut nichts davon. In keinem Bereich, in keiner Nische und bei keiner Suchmaschine. Selbst wenn der Code holprig ohne Ende ist und sowas von nicht valide, kommt man auf Platz 1, auch wenn 9 andere valide Seiten in der Top 10 stehen.

  19. Pingback: media-scientific - IT Blog » Blog Archive » Google wiederlegt einige SEO Mythen

  20. Webdesign Berlin April 23, 2009 12:28 am 

    Ich kann das nur bestätigen, dass sich valides html negativ auf das Google Ranking auswirken kann. Hab leider in der Vergangenheit diese Erfahrung sammeln müssen. Aber wie sagt man so schön, aus Fehlern lernt man. Sollte man zumindestens.

  21. Gordon April 23, 2009 10:35 am 

    Wie Wulffy schon sagte, valides HTML und Ranking haben normalerweise nicht groß miteinander zu tun. Das heißt aber im Umkehrschluss, dass eine valide Seite auch keinen Nachteil dadurch erhält. Eine blödere und dumm-dreistere Ausrede für die Unfähigkeit eines Webmasters validen Code zu erzeugen habe ich in meinem ganzen Leben noch nicht gehört, sorry…

    Just my two cents.

  22. Jonas April 23, 2009 11:05 am 

    Ich möchte es mal etwas sanfter ausdrücken. Wenn eine Seite schlecht rankt bzw. abrutscht wird es sicher nicht am unvaliden / validen Code liegen.

  23. Christian April 24, 2009 8:00 pm 

    was mein Verzeichnis mit dem absolut schrecklichen Quelltext beweist. Oder sollte ich aufräumen und erhalte dann als Dank einen PR6?

    Muss ich mir mal überlegen ;)

  24. Website Boosting April 25, 2009 11:25 am 

    Traurig. Warum dauert es im Web nur immer einige wenige Beiträge lang, bis jemand andere, die er noch nicht mal kennt, als Blödmann bezeichnet? Hat das mit Pubertät zu tun? Die Argumente sind ebenso scharf formuliert wie vorgebracht: “DU bist blöd, daher muss ich selber super sein”. Respekt.

    Ich kann es hier auch nur wiederholen. Valide rankt schlechter. Ich halte es auch gleichzeitig für vermessen, die Validität direkt mit dem Ranking in Verbindung zu bringen. Das macht keinen Sinn. Warum soll Google validen Code bevozugen. Der Besucher sieht den Inhalt, nicht den Code. Die Programmierer sehen aber nur den ganzen Tag Code und ich versehe, wenn sie sauer sind, dass G. die Arbeit nicht anerkennt. Es macht aber genauso wenig Sinn, nicht sauberen Code zu bevorzugen! Eine solche Belohnung für Schlamperei erscheint mir unsinnig.

    Da einige Experten dieses Phänomen (valide rankt etwas schlechter) beobachet haben und es auch in einer Studie nachgewiesen wurde, muss es einen anderen, indirekten Zusammenhang geben. Einfach mal nachdenken, dann kommt man schon schnell selber drauf ;-)

    So – jetzt schnell noch eine Antwort von einem Schlaumeier, dass das alles furchtbarer Blödsinn ist. Nur zu, das beruhigt das Ego – ich klink mich jetzt aus dem Thread aus.

  25. Wulffy April 25, 2009 10:46 pm 

    Genau diese Art von sinnlosen Diskussionen hat dazu geführt, dass ich eigentlich keine Kommentare mehr abgebe. Für den ein oder anderen Thread erhalte ich aber noch Mails. Wie diesem.

    Es ist doch einfach so: jeder hat Recht und die, die mit dem Kopf durch die Wand wollen, werden vor ihr stehen bleiben, aber von denen auf Platz 1 nicht gesehen können werden, weil dort ja eine Wand ist… ;-)

    Wenn man Rankingfaktoren haargenau bewerten könnte, dann erst könnte man “messen”, wie viel Prozent valider Code ausmachen würde, WENN er etwas ausmachen würde. Wenn jemand feststellt, dass valider Code angeblich besser ranken würde, liegt es an anderen Faktoren, aber auch nicht daran, dass ein Link oder ein Tag höher im Quelltext steht. Das ist auch Humbuk. Wenn ich tausend Zeilen CSS und JavaScript in die Seite hineinsetze und danach erst den Text, kann die Seite genauso auf Platz 1 stehen wie eine, die direkt nach body mit h1 anfängt. etc.

    Es gibt so viel Humbuk und so dermaßen viele, die darauf reingefallen sind und reinfallen, dass es gut ist, dass Google die Suche nicht auf 100 Positionen in den SERPs beschränkt, denn irgendjemand muss ja auch auf 150 stehen. Oder auf 429.

  26. Gordon April 26, 2009 1:17 am 

    Ich möchte mich zunächst für meine etwas harrsche Wortwahl im letzten Kommentar entschuldigen. Das war unverhältnismäßig und kam wohl missverständlicherweise in den falschen Hals – das tut mir leid!

    Aber gerne möchte ich meinen Standpunkt etwas sachlicher begründen, vielleicht kann man die Meinungen so annähern. Wollen mir mal für den Anfang annehmen, dass die Validität bzw. Nicht-Validität einer Webseite unerheblich für die Positionierung innerhalb der Suchmaschinen ist.

    Wenn jetzt jemand eine “Studie” (oder auch einfach “Stichproben-Untersuchung”) macht könnte nimmt man dafür beispielsweise die ersten 100 Ergebnisseiten bei unterschiedlichen Keywörtern. Vermutlich wird man hier einen deutlichen Trend erkennen können: Die Seiten auf den oberen Plätzen haben meistens eine eher bescheidene Validität. Aber auch andere Sachen haben sie gemeinsam. So werden sie in der Regel zum gesuchten Keywort entsprechend relevante und gut aufbereitete Informationen bieten. Je nach Themengebiet gibt es hier auch einige Ballungszentren in Form großer Portale oder auch Communities. Diese Seiten sind also vermutlich aufgrund zweier Gründe in den Suchergebnissen weit oben: Guter, relevanter Inhalt – der auf der anderen Seite auch viele Besucher und ggf. Backlinks generiert.

    Diese Seiten haben oft diverse CM-Systeme im Einsatz. Auch haben die meisten Redakteure in vielen Firmen zwar Ahnung von der Materie die sie in Texten & co. vermitteln, dafür aber umso weniger von der Technik die dafür verantwortlich ist das diese Infos auch weltweit auf einer Webseite gelesen werden können. Das und die Tatsache, dass alle gängigen Webbrowser eine Seite trotzt technisch-falscher Syntax dennoch korrekt anzeigen, veranlassen viele Unternehmen oder auch Einzelpersonen keine zusätzliche und in ihren Augen nicht unbedingt notwendige Arbeit in eine Optimierung der Technik zu stecken. Es funktioniert ja immerhin auch so.

    Weiterhin lässt sich oft feststellen, dass kleinere Seiten oder auch technik-afine Privatpersonen mit dem Inhalt nicht ganz so sorgsam umgehen. Hier wird dann mit technischen Mitteln versucht am Ranking zu arbeiten ohne das Kernproblem – den Inhalt – in den Mittelpunkt zu stellen. Doch den Suchmaschinen ist wertvoller Content, verpackt in unsauberen Quellcode, bei weitem lieber als mittelmäßiger oder auch mieser Content, der lediglich mit elegantem und validen Quellcode vergoldet und poliert wurde.

    Eine Suchmaschine hat das primäre Ziel, für den Besucher zu einem Suchbegriff relevante Seiten zu finden. Ob dieser Inhalt jetzt eine vollkommen unspektakuläre Textdatei auf einem kleinen Nischenserver ist oder multimedial aufbereiteter Content auf einer Serverfarm im Rechenzentrum eines Großunternehmens spielt dabei keine Rolle, da es wie gesagt um die Inhalte geht. Wichtig für eine gute SEO ist es, das die automatischen Dienste der Suchmaschinen alle Infos der Webseiten einfach und eindeutig identifizieren können. Von einigen Sonderfällen (weiß formatierter Text auf weißem Grund bsp.) abgesehen werden CSS, Javascript, eingebettete Videos & Grafiken, Kommentare und alles andere was nicht zwingend zur Informationserfassung notwendig ist schlichtweg ignoriert.

    Es wäre Selbstmord für die Suchmaschinenbetreiber validen Content zu bevorzugen, da das nur sehr wenige Webmaster betreffen würde und dadurch wesentlich qualifiziertere Inhalte weitaus schlechter gefunden werden würden. Eine technisch einwandfreie Umsetzung ist zwar löblich, sagt aber nichts über die Inhalte aus. Im Umkehrschluss ist es aber ebenso unlogisch, invaliden Content besser zu platzieren und validen zu “bestrafen”. Denn auch wenn die Regel ist, dass informative Webseiten nur leider allzuoft von technischen Syntaxfehlern nur so strotzen, so sagt alleine das nichts über den eigentlichen Inhalt aus. Fehlerhaft präsentierter Content ist dadurch nicht von alleine besser.

    Ob es jetzt einfacher ist oder nicht eine valide und technisch sauber strukurierte Seite zu indexieren oder nicht ist eigentlich zweitrangig. Es gibt soviele miese (=invalide) Seiten, dass Suchmaschinen es sich einfach nicht leisten können darauf Rücksicht zu nehmen. Alleine durch fähige Techniker kann man keine gute Redaktion ausgleichen – und ein informativer und sauber recherchierter Text ist für 95% der Webuser nun einmal wichtiger. Der Rest sind entweder Technikfreaks die sich in der Tat nur ärgern, dass sie mit ihrer Super-Validen Seite kaum gefunden werden und andere trotz 500 Fehlern auf Platz 1 stehen. Oder es sind die Mitmenschen, die aufgrund einer körperlichen Behinderung auf technische Hilfsmittel zum Erfassen der Inhalte angewiesen sind (wie bsp. Screenreader). Hier kann eine valide und saubere Auszeichnung des (dennoch guten!) Contents eine deutliche Erleichterung bieten.

    Ich hoffe meine Aussage – auch wenn falsch formuliert – nun besser begründet zu haben und die Diskussion wieder auf ein friedliches Niveau bringen zu können. Niemand ist ein “Blödmann” weil er invaliden Code schreibt. Es ist meine Meinung, dass Validität für eine SEO völlig unerheblich ist; sowohl für eine positive wie auch eine schlechte Positionierung. Und ich halte es auch weiterhin für eine Ausrede, wenn man “absichtlich” invaliden Code ausgiebt, weil das eine bessere Positionierung bringen würde. Natürlich kann man Studien darüber machen, dass 75% der männlichen Spitzenschüler an unseren Schulen dunkelhaarig sind. Aber das bedeutet nicht, dass ein dunkelhaariger Junge automatisch gut in der Schule ist und ein blonder eher nur Durchschnitt. Hier versucht man Gründe für ein Ergebnis zu liefern, die damit überhaupt nicht korrelieren. Sie können Zufall sein oder eine eigene statistische Grundlage haben (bsp. das die meisten Männer dunkelhaarig sind). Dieser Fehlschluss, umgangssprachlich auch “Milchmädchenrechnung” genannt, ist natürlich offensichtlich und leicht zu erkennen. Aber nichts anderes ist es doch auch hier: Wenn man sich Webseiten unabhängig vom Thema, Inhalt oder Ranking anschaut wird man sehen können das die meisten einfach invalide sind. Das dennoch viele in den Top-Suchergebnissen sind ist für den Suchenden sehr erfreulich da er ja keinen Nachteil davon hat. Aber man darf daraus nicht den Umkehrschluss ziehen, dass sie gut sind wegen ihrer Invalidität. Was zählt ist der Inhalt. Nicht wie er (technisch) präsentiert wird.

    Ich habe fertig :)

    Schönen Gruß aus Mainz,
    Gordon

  27. Yves Oktober 2, 2009 12:29 am 

    Wer alles glaubt was Cutts den lieben langen Tag erzählt is selber Schuld. ;)

  28. Matthias Januar 8, 2010 12:17 am 

    Wo viele Seitenbewertungsseiten gerade sehr viel Wert auf einen guten Quelltext legen, verwundert mich die Aussage von Google etwas. Guter Quelltext wird als Qualitätsmerkmal angesehen und Google schert es angeblich einen Dreck …. hmmm … das glaub ich nicht ganz.

  29. Jonas Januar 8, 2010 10:13 am 

    Hallo Matthias,

    mich würde wundern, wenn Google eine, vom Inhalt her, Top Seite abstraft, weil der Quellcode nicht valide ist. Solange der Bot der Quellcode lesen kann und man nicht mit frames arbeitet, ist dieser Punkt sicherlich zu vernachlässigen.

  30. haber März 16, 2010 7:18 pm 

    Die Ladezeiten sollen den Pagerank beeinflussen? Das finde ich irgendwie unlogisch.

  31. Jonas März 16, 2010 11:37 pm 

    Schon möglich. Da Google die Ladezeiten einer Seite bewertet und deswegen eine Webseite gegenüber einer gleichwertigen Konkurrenzseite, die aber schneller lädt, schlechter ranken kann, wird auch das in den PR-Algo mit einfliessen.

  32. haber März 17, 2010 6:26 pm 

    Dass Google eine Seite wegen langsamen Ladezeiten schlechter rankt, ergibt einen Sinn, keine Frage.
    Aber deswegen PR-Abwertung? Das ist so als wenn man jemandem den Autoführerschein entzieht, weil er nicht schwimmen kann

  33. Jonas März 17, 2010 9:08 pm 

    Naja, ich glaube nicht alleine deswegen, aber es wird sicher einer von vielen Faktoren sein, die in die PR Berechnung mit einfliessen…

  34. carmen März 24, 2010 11:51 am 

    wirklich sehr interessant – werd ich mir gleich mal bookmarken.
    das mit den pressemitteilungen war mir neu. versteh nicht ganz, warum google denkt, dass für besucher unbrauchbar ist. durch pressemitteilunge bekomme – zumindest ich – einen sehr hohen traffik.

  35. Daniel September 17, 2010 6:41 am 

    Meiner Meinung nach ist Google schon zu mächtig. Ein ebenbürtige Konkurrent muss her. Google kann grosse Firmen durch nicht listen in Suchergebnissen grossen finanziellen schaden zufügen. Das heisst nicht das ich Google schlecht finde. Aber zu viel macht in den Händen einer Firma kann nicht gut sein. Sie kann auch missbraucht werden.

  36. Gurbet Sohbet September 22, 2010 11:10 pm 

    Die Ladezeiten sollen den Pagerank beeinflussen? Das finde ich irgendwie unlogisch.
    —————————-
    Das Liegt vielleicht daran das googlebot nur eine bestimmte zeit dein homepage besucht. ist aber nur ein verdacht :)

  37. Webstandard-Blog Oktober 14, 2010 1:32 pm 

    Das erschreckende ist ja, dass selbst heutzutage von diesen Mythen nicht gerade wenige immer noch für bare Münze genommen werden. Vor allem das Argument der fehlenden Validität des Quellcodes ist mir in letzter Zeit immer häufiger über den Weg gelaufen…

  38. Stefan aus München Oktober 19, 2010 5:40 pm 

    Die Aussage “Das alter einer Domain spielt im Prinzip keine Rolle beim Ranking” wundert mich ein wenig. Nach meinem Eindruck werden flammneue Domains erstmal eine Weile ignoriert. Aber wenn Matt das sagt, wird’s wohl stimmen.

  39. Stefan aus München Oktober 19, 2010 5:46 pm 

    Zu 12. “…das die Ladezeiten einer Webseite eine Rolle beim berechnen das Pageranks spielen”: in den Google Webmaster-Tools gibt es eine Funktion, die die Performance der jeweiligen Website misst. Oben rot (schlecht), unten grün (gut). Dazwischen sieht man im Kurvenverlauf die gemessene Performance der eigenen Site. Man kann also davon ausgehen, dass es hierfür einen Grund gibt.

  40. Jonas Oktober 25, 2010 12:05 am 

    @Stefan
    Zum Alter: Gemeint waren alte Domains, die angeblich mehr Trust haben und besser Ranken. Wichtig ist alleine die Reputation einer Domain.

    Die Info in den Webmastertools gab es vor 2 Jahren leider noch nicht ;-) Die Aussage hat sich also auch durch andere, aktuellere Statements von Matt bestätigt.

  41. Sascha April 30, 2011 1:24 pm 

    Bzgl valider Websites muss ich widersprechen. Ein vailder Quellcode ist in jedem Fall kompirmierter als einer der es nicht ist. Auch sollte man das mal aus sicht einer Maschine sehen, die mit Fehlern gefüttert wird – ähnlich wie bei einer zerkratzten CD ist auch die Fehlertoleranz bei einer Website irgendwann überschritten, was zum Abbruch der vollständigen Indizierung führen kann.

    Das ganze kann man auch mal mit einem Text Browser testen, Fehler in der Anzeige etc. sind ein Indikator z.b. das eine div nicht richtig geschlossen wurde oder das attribute falsch gesetzt wurden.

  42. Geschenkideen Mann Mai 9, 2011 12:25 pm 

    Ich finde das Google manchmal zu unrecht die Webseiten beurteilt… Einer macht richtig viel um nach oben zu kommen und der Andere hat nur ein altes Domain und steht an der ersten Stellen… Irgendwie ungerecht

  43. Web Mai 17, 2011 1:30 pm 

    @Geschenk Idee Mann hm technisch gesehen kann das eigentlich nicht sein, was viele auf jeden fall verwirrt ist die zeitliche verzögerung wann z.b. backlinks “wirken”

  44. Austin Real Estate Mai 28, 2011 12:39 pm 

    das der Inhalt einer Seite massgeblicher für das Ranking sein sollte als der Code? Was bringt mir sauberer Code auf einer Webseite mit unbrauchbaren Informationen. Auch bei inhaltlich vergleichbaren Projekten sollte der Code kein Rankingfaktor sein

  45. währungsrechner Juni 4, 2011 1:36 pm 

    Es wäre Selbstmord für die Suchmaschinenbetreiber validen Content zu bevorzugen, da das nur sehr wenige Webmaster betreffen würde und dadurch wesentlich qualifiziertere Inhalte weitaus schlechter gefunden werden würden. Eine technisch einwandfreie Umsetzung ist zwar löblich, sagt aber nichts über die Inhalte aus. Im Umkehrschluss ist es aber ebenso unlogisch, invaliden Content besser zu platzieren und validen zu “bestrafen”. Denn auch wenn die Regel ist, dass informative Webseiten nur leider allzuoft von technischen Syntaxfehlern nur so strotzen, so sagt alleine das nichts über den eigentlichen Inhalt aus. Fehlerhaft präsentierter Content ist dadurch nicht von alleine besser.

  46. Interdoc August 12, 2011 1:07 am 

    Was soll es eigentlich bedeuten, dass es Google sehr ernst nimmt, wenn eine Seite mit Paid-Links gemeldet wird und geht jedem Fall nach? Muss man einfach eine Seite denunzieren und schon wird sie abgestraft?

  47. Jonas August 14, 2011 8:44 am 

    natürlich nicht automatisch, Google schaut sich das ganze an und wenn der Fall Eindeutig ist, gibts den PR abgezogen und ggf. Rankingverlust. Legitim oder etwa nicht?

  48. Franco September 26, 2011 11:23 pm 

    Ich habe schon häufiger den Einsatz von paid Links im großen Stile über das Tool Google Webmaster-Zentrale gemeldet. Ich konnte aber keine Auswirkungen aufgrund meiner Meldung sowohl beim Linkempfänger als auch bei der linkgebende Seite feststellen. Eine dirkete Info bekommt man ja sowieso nie von Google und wenn man etwas bekommt allgemeines Gerede wir nehmen Ihren Hinweis ernst und arbeiten an einer automatischen Lösung zur Behebung des Problems. Hier ist wohl die Verbesserung der Suchalgorithmen gemeint. In meinen Augen hat auch das Panda Update in Deutschland viele Probleme nicht gelöst. Besonders merkt man das mit dem Suchbegriff “Webkatalog”. Hier befinden sich in den Top 100 SERPS zahlreiche tote Webseiten bzw. Webseiten von minderwertiger Qualität. Nach den Aussagen von Google zum Panda Update sollten ja gerade diese qualitativ schlechten Webseiten herausgefiltert werden. Wen meine Analyse zum Panda Update interessiert kann ja mal meinen Blogeintrag in der SEO-Rubrik nachlesen.

  49. hilal cebeci Januar 31, 2012 10:18 pm 

    Hallo, toller Artikel. Ich baue derzeit eine türkisch sprachige Webseite über SEO und SEA und bin immer auf der Suche nach guten Artiken! Viele Grüße aus der Türkei! Liebe Grüße Hilal

  50. StB Februar 6, 2012 2:19 am 

    Die Aussage zu den Paid-Links halte ich für unzutreffend. Natürlich sagt Google nicht, wir finden Linkverkauf toll, aber es tut auch aktiv kaum etwas dagegen, da es ja schließlich auch vom Linkverkauf lebt.

  51. Curtis Februar 21, 2012 9:20 pm 

    Ich denke man sollte sich sowieso nicht zu sehr auf Richtlinien konzentrieren. So lange man ganz natürlich den Menschen guten Content bietet, ergibt sich alles automatisch.

    Denn wie dort auch steht wurde der Algorithmus in einem Jahr ganze 450 mal verändert. Also wer weiss ob das was wir heute, morgen schon wieder anders sein könnte

  52. Norbert Juni 30, 2012 12:34 pm 

    Pinguin und Panda… und alle geraten in kollektive Panik. Warum glaubt Ihr eigenetlich werden von Google solche Updates überhaupt bekannt gemacht? Damit genau das passiert: Links werden gelöscht, Seos bekommen keine Aufräge mehr, weil Optimierung ja so schlecht ist für das Webseiten-Ranking, Linkkauf wird regelrecht verteufelt. Wir verkaufen seit Jahren Links von unserer Startseite und nach den letzten Updates steht unsere Seite mit über 50 Suchbegriffen auf der ersten Seite der Suchergebnisse. Hier mal einige Beispiele: “PR5 Webkatalog”, “Crazy List”, “Webkatalog Liste”, “PR Webdirectory” und so weiter.

    Mein Farzit: Verstand einschalten und Google nicht alles glauben.

  53. Benjamin Bode Januar 22, 2013 2:22 am 

    was noch interessant wäre, eine stellungnahme von google zu “mod rewrite” per htaccess …

    viele seos und nicht-seos glauben nach wie vor durch mod rewrite etwas zu erreichen …

    ich als programmierer gehe aber stark davon aus dass es keinerlei einfluss auf google hat – zumindest keinen positiven / so positiven wie erwartet …

    … und allgemein – einige seos scheinen sich ja zu tode zu spielen wo man schon vermuten kann dass es eher ums geld geht was man den kunden aus der “tasche abzocken” will … kennt man ja aus der geschäftswelt wo dinge immer schön geredet werden damit sie sich einfacher zum “wucherpreis” verkaufen lassen … oder wo viele verkäufer aus schrott gold machen um es dann nach dem maximalprinzip zu verticken ^^

    schon traurig einerseits was manche leute sich für betrügereien einfallen lassen um geld zu verdienen – fast so schlimm wie anwälte und co. ^^ … andersrum aber auch die naivität der leute (ok die denken meist seos / firmen haben ahnung; ohne zu bedenken dass die firmen ja GELD VERDIENEN wollen) welche sich für verdammt viel geld ihre seiten seo optimieren lassen anstatt selbst mal “ein paar minuten” bei google zu investieren und “nachzulesen” was sie tun müssen “laut google” “für google” :D

    ps: sorry wegen klein- und teilweise GROßSCHRIFT; viele seos glauben ja auch das wäre negativ für google mit GROßSCHRIFT aber ich nutze es einfach für betonungen und es kommt meiner meinung nach im INFORMATIKbereich weniger auf die form und verpackung als mehr auf den inhalt / content / die INFORMATION / den INFORMATIONSgehalt drauf an ;)

  54. Benjamin Bode Januar 22, 2013 2:33 am 

    … ach fast vergessen, passt nicht ganz zum thema seo … aber noch so ein interessanter mythos ist die sache mit LINUX wäre angeblich VIRENSICHER o.O

    … nachdem ich nun bei mindestens 20 websites “php trojaner” entfernt habe muss ich sagen “NEIN, linux ist KEINESWEGS virensicher; im gegenteil” … dank der gläubiger welche es evtl an der uni oder sonnstwo gelernt haben dass linux virensicher wäre haben wir ja nun das ständige spam und virenproblem im www …

    man bedenke die meisten webserver sind linuxserver – und woher kommen die meisten viren ? von cds, dvds, usb sticks, von draußen vor der tür ? NEIN ! die viren kommen alle aus dem www und zwar von den besagten linuxservern welche meist so schön ohne jegliches antivirenprogramm vor sich hin rosten … würden die meisten linux admins ENDLICH mal vernünftige virenscanner nutzen, gäbe es nicht diese überkrasse virenproblematik …

    und da der zusammenhang in sachen “offizielles SEO” wo so viel mist erzählt wird … und dem linux-problem wo “offizielle admins (teilweis studierte leute; die eigentlich intelligent im sinne von selbständig denken sein sollten) nach wie vor behaupten “ich nutze linux, ich brauche kein antivirenprogramm” … was ich mal dumm und grob fahrlässig bezeichne …

    ! an der stelle noch der warnhinweis wegen FILEZILLA; es speichert die ftp daten unverschlüsselt und erwähnte php trojaner infizieren pc’s auf denen filezilla läuft [windows pcs und vermutlich genauso linux pcs] – die trojaner lesen dann alle ftp daten aus, infizieren die websites, lesen teilweise komplette datenbanken der websites aus, senden teilweise spam von den webservern aus, infizieren dann weitere pcs um weitere ftp daten auszulesen …

    solche php trojaner werden nur selten erkannt – von 43 der bekanntesten antivirenprogramme erkennen oftmals NUR ZWEI (von 43 antivirus programmen) die besagten trojaner … und noch erwähnt sei, dass das ach so tolle FIREFOX die meisten trojaner regelrecht “einläd” … also tools wie firefox und filezilla sollten inzwischen vollständig gemieden werden … alternativen siehe “filezilla alternative ruff ftp” oder statt firefox am besten “comodo dragon” nutzen (basiert auf chromium / google chrome; ist aber noch um einiges besser abgesichert) …

    in diesem sinne hoffe ich einige weitere it’ler aufgeklärt zu haben …

  55. Benjamin Bode Januar 22, 2013 2:07 pm 

    Zitat von Norbert sagt am 30.06.2012 um 12:34
    “Mein Farzit: Verstand einschalten und Google nicht alles glauben.”

    > genauso denke ich auch … die infos selbst wenn sie von google sind, sind ggf. strategie … ob nun eine firma oder eine regierung, desinfos werden sehr gerne gestreut … und das macht google auch nicht anders … wenn z.b. google etwas nicht prüfen kann ist die einfachste methode durch propaganda oder auch einen bluff den leuten etwas zu suggerieren …

    und google selbst hat eingeräumt dass z.b. der linkverkauf etc. ein fester bestandteil des internetmarketing ist, solange man nicht übertreibt wird es seitens google keinerlei probleme geben …

    auch wegen der meta tags für keywords die ja “angeblich” nicht berücksichtigt werden VON GOOGLE, so werden diese doch von anderen “diensten” genutzt … und andere dienste gibt es viele … und selbst google nutzt evtl noch die keywords aber hält es ggf. geheim diese weiterhin zu nutzen …

    jedenfalls ich für meinen teil nutze bei mir als auch bei kunden die grundlegenden möglichkeiten da ich denke dass es komplett falsch wäre KEINE keywords etc. zu nutzen …

    und – wer sagt denn dass wenn google “derzeit” die keywords nicht nutzt, das es in zukunft auch weiter so bleiben wird ???

    viele seos machen keine keywords mehr rein und stehen dann evtl ganz blöd da wenn sich auf einmal rausstellt das google doch oder wieder die keywords nutzt … etc.

Hinterlasse eine Antwort