Semantische Suchmaschinenoptimierung: LSO

Suchmaschinen - Bild bei dANCE-pHOTOS.deExterne Rankingfaktoren, welche ich innerhalb des Blogs das ein oder andere Mal für Google oder Yahoo angesprochen habe, sind relativ leicht zu manipulieren und werden zukünftig immer mehr an Bedeutung verlieren. Der eigentliche Inhalt einer Seite (engl. Content) wird dagegen bei der Webseitenbeurteilung in Form von Suchmaschinenplatzierungen (SERPS) an Bedeutung gewinnen und ein entscheidender Faktor für den Erfolg einer Suchmaschinenoptimierung werden.

Bereits heute sind die meisten Suchmaschinenbetreiber, allen voran Google, dazu übergegangen, den Inhalt einer Seite und insbesondere den enthaltenen Text genauestens auf dessen Relevanz zu analysieren. Wo hingegen es früher noch gereicht hatte, das jeweilige Keyword einige Male zu erwähnen, spielen mittlerweile auch andere Faktoren eine große Rolle bezüglich der Indexierung und Bewertung einer Webseite.
Das Stichwort hierzu lautet, einige werden es bereits in der Überschrift erkannt haben, Latent Semantische Optimierung bzw. LSO. Diese Art der Suchmaschinenoptimierung beruht auf der von Google verwendeten Indexierungsmethode LSI (Latent Semantische Indexierung), welche einen Text in Bezug auf das Vorkommen von mit dem Suchwort in Beziehung stehenden Begriffen analysiert und bewertet.

Durch eine semantische Optimierung wird versucht diese Begriffe zu ermitteln und in dem Seiteninhalt zu platzieren, so dass man den Content noch themenrelevanter und suchmaschinenfreundlicher gestalten kann.
Inwieweit die Latent Semantische Indexierung bereits in Google implementiert ist, lässt sich nur schwer beurteilen. Zahlreiche von Google angebotene Dienste lassen jedoch den Schluss zu, dass der Algorithmus bereits jetzt die Beziehung zwischen Begriffen relativ gut erkennen kann.

Wichtigstes Kriterium bei einer solchen „Beziehungs-Indizierungsmethode“ dürften sog. Synonymkomplexe sein, welche im Allgemeinen bedeutungsgleiche Wörter beinhalten. Ein prägnantes Beispiel für ein Synonym ist zum Beispiel „Hopfenkaltschale“ für das gebräuchliche Wort „Bier“. Das Gegenteil von Synonymen sind Antonyme, also Bedeutungsgegensätze. (Beispiel: „heiß“ und „kalt“) Bezüglich der LSO, also der semantischen Suchmaschinenoptimierung dürfte es durchaus von Interesse sein, dass sowohl Antonyme als auch Synonyme aus der gleichen Wortklasse stammen.

Obwohl gerade die Verwendung von Antonymen die thematische und vor allem stililstische Bandbreite eines Textes besonders gut erweitern, dürfte der Algorithmus der Suchmaschine Google zumindest zur Zeit noch Schwierigkeiten besitzen, gegensätzliche „Wortpaare“ zu erkennen. Für die Optimierung eines Textes bedeutet dies wiederum, dass man unter heutigen Gesichtspunkten zumindest noch eher ähnliche als gegensätzliche Begriffe verwenden sollte.

Neben den synonym bzw. antonym verwendeten Wortbeziehungen, ist das Vorhandensein von so genannter Hyponyme bzw. Hyperonyme von kontextualer Bedeutung. Hyperonyme sind, zumindest laut meinem Germanistikprof, Oberbegriffe für einzelne Wörter, Hyponyme hingegen die Unterbegriffe. (Ich dachte nicht, dass ich einmal die germanistische Metasprache für mein Hobby „SEO“ gebrauchen könnte). Gerade Google erkennt diese Beziehung besonders gut. Dies lässt sich z.B. an den alternativen Suchvorschlägen erkennen. Ein Teil dieser alternativen Suchvorschläge sind Hyponymien, d.h. dem eigentlich Suchwort untergeordnete Begriffe. Beispiel hierfür ist das Suchwort „party“ , druch welches man alternative Suchvorschläge wie „Partyideen“ „Partyrezepte“ usw. erhält.
Ob der Google Algorithmus aber tatsächlich das Phänomen der Wortbeziehungen beherrscht ist jedoch bis dato immer noch fraglich. Natürlich könnten die verwandten Suchvorschläge auch rein auf der statistischen Auswertung von Suchanfragen beruhen, die Google per Datenbanksynchronisation bei Suchanfragen auswertet. Im Klartext hieße dies, dass Google die Topsuchworte bzw Phrasen bezüglich des Suchbegriffes als Alternativen ausgibt.

Für die LSO bedeutet dies, dass man bei der Findung dieser `intuitiv´ in Beziehung stehenden Begriffe kaum ein Tool zur Rate ziehen kann. Vielmehr muss man die Gewohnheiten der Suchenden nachvollziehen können.

Zusammenfassend ist LSO also (leider) doch nicht das Erkennen möglicher Algorithmen und Sprachanalysen, welche Begriffe syntaktisch oder semantisch miteinander in Beziehung setzen, sondern die Adaption und frühzeitige Erkennung der Suchgewohnheiten.

Bildmaterial: ©dance-photos.de / pixelio.de

6 Kommentare

  1. UsualRedAnt Mai 29, 2008 4:45 pm 

    Ola!

    Sehr interessantes Thema, danke für den Beitrag.

    Zumindest für mich liest sich diese „Weiterentwicklung der Suchmaschinen“, wie ein Schritt in die richtige Richtung.
    Nebenbei könnte sich so auch die sprachliche Kluft zwischen klassischem Printjournalismus und Netz-Schreibern verringern. Immerhin muss man beim Texte schreiben demnächst hoffentlich nicht mehr krampfhaft Wortkombinationen wiederholen, sondern kann sich leserfreundlicher Synonyme bedienen.

    Teilst Du diese Hoffnung? Finden am Ende gar mehr Netztexte eine Zweitverwendung in der Tagespresse?

    Mit hanfigen Grüßen
    Steffen

  2. Bloggonaut Mai 29, 2008 4:59 pm 

    Hi Steffen,

    wie angesprochen werden zunehmend die Suchmaschinen „sematisiert“. In welchem Umfang und vor allem wann dies geschieht ist aber bis dato noch fraglich. Wünschenswert wäre es auch, wie du es in deinem Kommentar sehr schön schildertst, allemal, da man wirklich die einzelnen Artikel stilistisch besser aufbereiten könnte.

    Nichts desto trotz muss eine Suchmaschine rechnen um Indexierungen durchzuführen. Das heißt irgendwelche statistischen Werte müssen immer als Fundament einer „Sprachanalyse“ herangezogen werden. Ob man dann wirklich von Semantik oder nicht besser „stochastisch-semantischer Keywordanalyse“ sprechen bleibt jedem selbst überlassen.

    Wenn nicht einmal Germanistikprofessoren die „wahre“ Worbedeutung einzelner Wörter, Lexeme etc. „erforschen“ können, sondern diese nur näherungsweise eroieren, wie soll dies dann eine Suchmaschine?

    Um aber zu deiner Frage zurückzukommen. ich denke schon, dass in absehbarer Zeit ein neuer „semantischer“ Algorithmus in Google zum Vorschein kommt mit welchem man noch als schon jetzt ein Augenmerk auf die stilistische und textulae Gestaltung von Webseiten lenken muss. Onlinjournalisten udn SEOS mit Spracherfahrung werden hier einen kleinen Vorteil haben. Aber natürlich darf man nie die technischen Aspekte außen vor lassen.

    SEO ist NIE statisch 🙂

  3. UsualRedAnt Mai 29, 2008 5:22 pm 

    Wenn man mal vom Problemkreis – Metapher, Analogie, Synonym – absieht. Was denkst du, inwieweit sich Suchmaschinen schon heute bzw. in naher Zukunft darauf verstehen, ähnliche Worte zu erkennen.

    Einzahl-Mehrzahl-Erkennung schafft Google ja schon. Aber was ist mit Deklinationen und Konjugationen? Wenn dann noch die Teile zusammengesetzter Wörter halbwegs sauber erkannt werden, macht das ja schon einen Großteil der Keyword-Fetischisten arbeitslos…

  4. Bloggonaut Mai 29, 2008 5:29 pm 

    Ja mit Keyworspam kommt man bei Google sowieso nicht mehr sehr weit. Das erkennt der Algorithmus ziehmlich flott und starft die betreffende Webseite evtl. sogar ab.

    Die Keywords müssen bis dato schon mehr oder minder gekonnt in einen Kontext eingebettet werden, welcher einen gewissen Themenschwerpunkt erahnen lässt. Das heißt, wenn ich eine Seite auf EM 2008 otimieren möchte sollten kontextuale Wörter wie „Fußball“ „Mannschaft“ „Deutschland“ Europameisterschaft“ „Ball“ „Tor“ auch im Inhalt zu finden sein. Diese Themenrelevanz wird von Google momentan bewertet und erkannt.

    Aber eine Deklination ist so weit ich es erkennen konnte noch nicht implenentiert. Ist ja auch für einen suchenden egal ob er eingibt „ich spiele“ oder „du spielst“. Hauptaugenmerk liegt noch immer auf dem Wort und dessen Wortart.

    Spannend würde es bei den Zeiten.

    Beipspeil WM. „Wir fahren zur em08“ versus wir „fuhren zur em06“ Google erkennt vermutlich bis dato nur die Zeiten aufgrund der em06 em08 Suchanfrage. genial wäre es doch wenn man die Tempusformen auch berücksichtigen könnte. Aber da schweife ich als Germanoist mal wieder ab 🙂

    Grüße

    Andreas

  5. Robert Juni 24, 2009 11:34 am 

    Meiner Meinung nach wird LSO derzeit noch überbewertet. Dass es ein Trend ist, steht außer Frage, allerdings bringt es nichts, jetzt gleich in Panik zu verfallen, da auch Google offensichtlich mehr auf die Keyworddichte achtet, als auf LSO. Einen kleinen Test, der mich zu dieser Überzeugung bringt, findet man hier: Test Latent Semantische Optimierung.

  6. Rene Januar 18, 2010 10:49 am 

    Prinzipiell ein guter Artikel… es ist jedoch nicht richtig, dass die LSI (oder LSA) keine gegensätzliche Begriffe „erkennt“ (richtig ist vielmehr, dass sie diese bspw. nicht von Synonymen unterscheiden kann). Gegensätze können also auch „ähnlich“ sein. Was kein Wunder ist, wenn man bedenkt, dass die LSA ein kontextfreies, rein statistisches (besser: mathematisches) Verfahren ist.

    Die LSA (das Verfahren für die LSO) ist selbt ein Algorithmus… jedoch keine semantische Methode. Was nicht heißt, das im Ergebnis keine semantischen Beziehungen resultieren.

Schreibe einen Kommentar