Posts gespeichert unter 'Algorithmus'

Neues vom Google-Algorithmus

Ein Interview mit dem Forschungsleiter von Google (Peter Novrig) gibt neue Einblicke in die Funktionsweise des Google-Algorithmus. So besteht das Ranking bei einer Suche mit Google aus zwei Phasen.Die erste Phase bezeichnet Novrig als die „Offline-Phase”. Hier werden vom Googlebot indizierte Seiten analysiert und anschließend – auf der Analyse basierend – 200 Signale herausgerechnet. Als solche Signale bezeichnet er beispielsweise den allseits bekannten Google PageRank, oder die Linkstruktur einer Seite. Diese Berechnungen und Analysen sind sehr zeit- und rechenaufwändig betont er.

Die zweite Phase des sogenannten Ranking-Algorithmus ist die „Online-Phase”. Diese Phase kommt erst zu Einsatz, wenn ein Google-Suchender einen Suchbegriff bei der Suchmaschine eingibt. Für das Keyword erstellt Google zunächst eine Liste mit allen Dokumenten, die das gesuchte Wort beinhalten. Die gesamten Dokumente werden dann anhand eines eigens konzipierten, schnellen Algorithmus mittels der extrahierten Signale aus der Offline-Phase geranked.

Spannend ist, dass die nötigen Optimierungen der Online-Phase nach wie vor von menschlicher Hand durchgeführt werden. Spannend deswegen, weil sich eigentlich gerade hier ein technischer, lernender Algorithmus anbieten würde. Novrig betonte, dass Google sehr wohl über solche maschinellen Algorithmen verfüge, die teilweise sogar bessere Ergebnisse bringen, als der Mensch. Das große Manko des Algorithmus sei allerdings, dass er nur mit im Training vorgekommen Situationen fertig wäre. Eine unerwartete Suchanfrage, die er im Training nicht durchgemacht hat, hätte demzufolge fatale Auswirkungen.

Interessant ist auch, dass Google eine riesige Anzahl an Daten vom User speichert. Vor allem, wie der User mit den Suchmaschinenergebnissen umgeht, ob er sie beispielsweise klickt, oder nicht. Darüber wurde schon lange spekuliert und ist somit auch nichts Neues. Neu dürfte den meisten allerdings die Tatsache sein, dass diese gespeicherten Daten (noch?) keinen Einfluss auf die Positionierung einer Seite haben. Für solche Bewertungen hat Google immer noch ein eigenes Team von Ratern engagiert, die sich mit diesen Dingen befassen.

Der Grund liegt darin, dass bei einem Versuch, das Userverhalten mit in das Ranking einfließen zu lassen, keine großen Veränderungen mit sich brachte. Das liegt wahrscheinlich darin, dass User von Vorn herein eher auf die ersten Ergebnisse klicken, unabhängig davon, ob deren Qualität nun gut ist, oder nicht. So haben Seiten, die weiter hinten in den Suchmaschinenergebnissen gelistet sind, weniger Chancen ein positives Ranking zu bekommen, auch wenn deren Inhalt vielleicht sogar besser ist, als der Inhalt der Webseite auf Platz Eins.

Da liegt dann auch der Vorteil der Google-Ranker. Sie bewerten die einzelnen Seiten unabhängig von deren Platzierung, was somit eine objektivere Bewertung mit sich bring. Die daraus gewonnen Daten fließen dann wieder in den neuen Algorithmus mit ein.

jetzt kommentieren? 22. Juni 2008

Doppelte Inhalte: Kontraproduktiv für eine erfolgreiche Suchmaschinenoptimierung

Doppelte Inhalte, im Fachjargon „Content” genannt, sind ein lästiges Übel und können ein Rückschritt für den Erfolg einer Suchmaschinenoptimierung (SEO) sein.Seit knapp 5 Jahren werten Suchmaschinen wie zum Beispiel Google Homepages ab, die einen doppelten Content auf ihren Seiten platzierten, um bessere Ergebnisse in den Trefferlisten der Suchmaschinen zu erreichen. In diesem Fall liegt eine unrechtmäßige SEO vor. Zu doppeltem Content kann es aber auch durch die bloße Kopiererei von Inhalten anderer Webseiten kommen, und das ist beleibe kein Kavaliersdelikt: Der „Kopierer” betätigt sich ohne selbst großen Aufwand zu treiben als „Nesträuber” und schädigt damit den zeit- und auch kostenintensiven Einsatz derer,  bei denen er den Diebstahl an Text betreibt. Dabei wird die Technik immer raffinierter: Nicht nur menschliche „Räuber” durchforsten das Netz nach geeigneten Texten – auch Suchprogramme wie Spider oder Webcrawler werden durch das Internet geschickt, um Texte von anderen Webseiten zu kopieren und sich „korrekte” SEO zu ersparen. Doch nicht nur Vorsatz kann zu doppeltem Content führen. Manchmal wird eine Datei unter verschiedenen Namen mehrfach abgespeichert und ins Netz gestellt und so ein doppelter oder sogar mehrfacher Content erzeugt. Noch ein Beispiel, wie durch Unachtsamkeit ein doppelter Content entstehen kann: Wenn man den Inhalt einer Homepage zum einen mit der Eingabe www” vor dem Domainnamen, aber auch ohne den Zusatz ansteuern kann, entsteht ein doppelter Content. Wenn in den Suchergebnissen von Google und Co auf einmal eine Webseite mit den eigenen Inhalten besser platziert auftauchen, kann der Grund sein, dass die betreffende Seite über eine höhere Anzahl von so genannten Backlinks verfügt als die eigene Homepage, so dass die Suchmaschinen diese Seite dann als „Besitzer” des vakanten Inhalts ansieht. Wenn man eigene Inhalte auf fremden Seiten entdeckt, sollte man zuerst einmal versuchen, so etwas in Zukunft zu verhindern, indem man Suchprogramme daran hindert, die Seite zu durchsuchen. Auch diese Vorsichtsmaßnahmen gehören zu einer guten SEO. Dann sollte man sich an den Betreiber der Homepage wenden, bei der man die eigenen Inhalte gefunden hat, und diesen auffordern, nicht gegen die Rechte an den Texten, die man inne hat, zu verstoßen. Man sieht: Nicht nur die Maßnahmen zu einer oberen Platzierung in den Trefferlisten der Suchmaschinen sind von Relevanz und gehören zu einer professionellen Suchmaschinenoptimierung – auch präventive Maßnahmen, die den Ideenklau verhindern sollen, gehören zu einer ausgewogenen und erfolgreichen SEO.

jetzt kommentieren? 06. Juni 2008

Changing Content

Klassische Zeitungen und Printmedien haben vor einigen Jahren geklagt, sie wären die Verlierer der Multimedia Welt.  Mittlerweile sind Zeitungen die Könige des Internets. Die großen  News haben mehr Zugriffszahlen und bessere kommerzielle Ergebnisse als Fernsehsender. Sie haben gelernt. Oder sind vom Markt verschwunden. Zeitungen im Internet haben zwei Strategien, akutelle Inhalte und Doorpages. Es ist die alte Boulevardmasche, die Unterhaltungskünstler wie die Bildzeitung bis zur Extasse beherrschen. Reize die User mit 3 Wörtern, lasse dich kaufen und werde reich. Durch ihre sowieso bestehenden Redaktionen bekommen die Papers eigenen Content, der zum Teil sogar lokalisiert ist. Write once use many – das ist die Devise der Verlage. Many to many bedeutet hier, der Content wird sowohl im Internet, als auch im Print also auch auf dem Handy präsentiert. Besonders gut macht dass die Bildzeitung, diese bezahlt sogar für den Online Auftritt. Der User bekommt die Bildzeitung gratis auf seinem Handy. Na ja, für Span zahlt man sogessehen auch nichts. Zeitungen sind aber auch ein Beispiel dafür, dass man seine Site ohne Google Manipulation hochbekommen kann. Eigentlich müssten diese Seiten ja wegen ihrem dauern wechselnden Angebot von Google abgestraft werden. Aber die Benutzer wissen eben, dass sie hier immer neue und gute Information bekommen. Alleine der kostenlose Fußballticker dürfte das Hammerargument für die Bildhandyzeitung sein. Ein paar Zeilen Werbung mit drauf und das Angebot von Bild hat sich gelohnt – schenke dich reich.

jetzt kommentieren? 04. April 2008