Posts gespeichert unter 'Wissenswertes'

Wer wirbt im Internet am meisten? – die Online Dienstleister

Im vergangen Jahr konnte die Internet Werbung ein sattes Plus von 26,9 Prozent verbuchen. Zu diesem Ergebnis kam eine Analyse von Nielsen Research. Die Branche, die am meisten Werbung im Internet betreibt, ist nach wie vor die der Online Dienstleister.

In Zahlen ausgedrückt haben sich die Ausgaben für Online Marketing im vergangen Jahr insgesamt um 312 Mio. Euro erhöht. So wurden im ganzen Jahr rund 1,5 Mrd. Euro ausgegeben. Trotzdem kann man sagen, dass die Wirtschaftskrise auch hier zu spüren ist, denn im letzten Quartal des Jahres 2008 waren die Zuwächse nur noch sehr gering.

Die Branche der Online Dienstleister ließ sich die Werbung im Internet im vergangenen Jahr knapp 272 Mio. Euro kosten. Das entspricht einem Zuwachs von 44 Mio. Euro bzw. 19,3 Prozent.

Das stärkste Wachstum absolut beanspruchen aber andere für sich und zwar die Unternehmenswerber. Hier wurden 63,4 Mio. Euro mehr ausgegeben, als 2007.

Beträchtliche Zuwächse konnten auch andere Sparten erreichen. So gaben Mobilfunk Anbieter rund 16,6 Mio. Euro mehr aus, als im vergangen Jahr. 15,1 Mio. Euro sind es im E-Commerce und ebensoviel – also 15,1 Mio. Euro – bei den Finanzdienstleistern.

Doch es gab auch Branchen, die ihre Werbetätigkeiten im Internet drosselten. Die größten Einsparungen trafen hierbei die Handelsorganisationen, welche 33,4 Mio. Euro weniger ausgaben, was bedeutet, dass sie 2008 25,8 Mio. Euro für die Werbung im Internet ausgaben. Diese hohe Zahl geht vor allem auf den Discounter Plus zurück, welcher das Budget für die Online Werbung um 36,2 Mio. Euro auf 4,6 Mio. Euro zurückschraubte.

Das werbestärkste Unternehmen 2008 war T-Home Deutschland. Das Unternehmen gab im vergangenen Jahr rund 26,4 Mio. Euro mehr für Werbung aus, als im Vorjahr. Das entspricht einer absoluten Zahl von 49,5 Mio. Euro für das Jahr 2008. Gleich dahinter finden sich das Modelabel Esprit mit 36 Mio. Euro und Friendscout24 mit 35 Mio. Euro wieder.

jetzt kommentieren? 15. Februar 2009

Was ist eigentlich Reputation Management

Befasst man sich mit „Business Lektüre” so stolpert man über eine Vielzahl an Fachbegriffen und liest über diese oft einfach drüber, ohne sich wirklich Gedanken darüber zu machen, oder zu wissen, worum es sich bei diesem Begriff überhaupt handelt. Ein solcher Begriff, der dem einen oder andern sicherlich schon über den Weg gelaufen ist, ist das Reputation Management.

Ganz allgemein erklärt, handelt es sich hierbei darum, dass verschiedene Techniken zum Einsatz gebracht werden, die die Reputation – also den Ruf – eines Unternehmens verbessern und zwar auch im Internet. Ein wichtiger Begriff in diesem Zusammenhang ist auch das Online Reputation Management mit dessen Hilfe beispielsweise der aktuelle Ruf eines Unternehmens im Internet eruiert wird. Damit man den Ruf feststellen kann, werden zum Beispiel Einträge in Foren und Blogs herangezogen, die in der Regel die Meinung der Leute am naturgetreusten widerspiegeln.

Eine wichtige Methode, die Online Reputation zu verbessern ist die Suchmaschinenoptimierung. Hierbei wird nämlich versucht, die Homepage eines Unternehmens für relevante Keywords bei den Suchmaschinen so weit vorne, wie möglich zu platzieren. Eine derartige Vorgehensweise wirkt sich dann nicht nur positiv auf die Besucher- und Absatzzahlen des Unternehmens aus, sondern beeinflusst auch den Ruf in einer positiven Weise. User assoziieren nämlich mit einem guten Ranking in den Suchergebnissen gute Qualität und eine hohe Seriosität des entsprechenden Unternehmens. Dieser gute Ruf wirkt sich wiederum positiv auf den Erfolg – also den Umsatz – eines Unternehmens aus, da potentielle Kunden logischerweise eher bei seriösen Unternehmen mit guter Qualität einkaufen.

Eine professionelle Suchmaschinenoptimierung wirkt sich also direkt und indirekt positiv auf den Umsatz einer Firma aus.

Nicht zu letzt aus diesem Grund ist die Suchmaschinenoptimierung mittlerweile eine der beliebtesten und erfolgreichsten Online Marketing Strategien geworden.

jetzt kommentieren? 25. Januar 2009

Welche Bedeutung haben die Meta Tags bei einer Suchmaschinenoptimierung noch?

Einst galten die Meta Tags als die Geheimwaffe im Kampf um die Platzierungen. Früher war es so, dass  man schon auf Platz 1 bei den SERPs landen konnten, nur weil man die Keywords richtig eingestellt hatte. Durch das ständige Wachsen des Internets und der Geburtsstunde der Suchmaschinenoptimierung im großen Stile, waren allerdings die Meta Tags immer weniger dazu geeignet, relevante Suchergebnisse zu liefern. So kamen im Laufe der Zeit immer mehr Rankingfaktoren hinzu, um die Qualität der SERPs weiterhin garantieren zu können. Gleichzeitig verloren die Meta Tags immer mehr an Bedeutung und heute ist man sich darüber uneins, wie viel Wert diese im Zusammenhang mit dem Ranking überhaupt noch haben, bzw. ob sie überhaupt noch einen Einfluss haben. Wie bei so vielen anderen Themen auch, gehen auch hier die Meinungen der SEOs weit auseinander. Mit Sicherheit sagen kann man nur, dass für Google die meisten Meta Tags keine große Rolle mehr spielen.Die „description” und die „keywords”, welche einst das A und O einer Seite waren, spielen heute nur noch eine Nebenrolle. Dennoch kann man sagen, dass sie sicherlich noch nicht ihre Existenzberechtigung verloren haben. Denn nachdem der Kampf um die Top Platzierungen meist ein heißer ist, können auch kleine Rankingfaktoren – wie eben die Meta Tags – das Zünglein an der Waage sein, welches dann den Kampf schlussendlich für die eigene Seite entscheidet. Aus diesem Grund ist es sicherlich nicht falsch, wenn man den Meta Tags nach wie vor Beachtung schenkt.

Aus der Rolle fällt in diesem Zusammenhang der „robots” Tag. Dieser ist noch relativ jung und wird deshalb auch noch stark berücksichtigt. Beispielsweise mit der Formulierung „noindex” kann man der Suchmaschine sagen, dass diese Seite nicht gecrawlt werden soll und in weiterer Folge auch nicht in den SERPs erscheinen soll. So kann man auf der einen Seite Duplicate Content verhindern, was oft ein Problem darstellt, da ein Content nur einmal in den SERPs auftauchen kann, auf der anderen Seite kann man damit Linksculpting betreiben, das heißt, dass man den Linkjuice richtig auf der Seite verteilt.

jetzt kommentieren? 06. November 2008

Käuflich erwerbbare Keyword Listen

In der SEO Welt gibt es seit einiger Zeit ein neues Phänomen, welches mit der Genierung von Keywords zusammenhängt. So haben es sich einige Agenturen zur Aufgabe gemacht SEOs bei der Findung von Keywords behilflich zu sein.

In diesem Zusammenhang werden dann gegen ein gewisses Entgelt Keyword Listen erstellt, die einem genau die Keywords liefern, die man braucht.

Vor Allem unerfahrene Webmaster oder SEOs fallen auf diesen Trick herein. Warum Trick? Weil man sich diese Keyword Listen sehr leicht selbst machen kann und diese selbst erstellten Keyword Listen sind dann meist auch noch von einer besseren Qualität, als die gekauften, die manchmal auch ganz schön teuer sein können.

Macht man sich selbst die Mühe kommt man meist darum zu besseren Ergebnissen, weil man sich mit der Materie, über die eine Seite handelt, intensiver auseinander gesetzt hat, als dies in der Regel von diesen Agenturen gemacht wird.

Will man selbst zu guten Keywordlisten kommen, dann gibt es eine recht einfache Vorgehensweise, die nicht viel Zeit benötigt und trotzdem zu sehr guten Resultaten führt.

Zunächst einmal macht man eine Art Brainstorming bei dem man sich selbst überlegt, welche Suchbegriffe für die betreffende Seite denn von Relevanz sein könnten. Die gefundenen Suchbegriffe notiert man sich dann auf einem Blatt oder in einer Excel Tabelle. Als nächstes nimmt man sich die Konkurrenz vor und schaut, für welche Wörter diese denn gut rankt und auf welche Suchbegriffe diese optimiert und nimmt auch diese Keywords auf die Liste mit auf.

Anschließend nimmt man ein Keyword Tool zur Hand – zum Beispiel dem von Google AdWords, welches gratis ist – und überprüft das Suchvolumen.

Auf dieser Grundlage kann man dann eher die Keywords nehmen, die am meisten gesucht werden, aber auch am meisten Arbeit machen, weil hier die Konkurrenz bereits hoch ist. Oder man nimmt Keywords, die nicht das größte Suchvolumen haben, aber dennoch ausreichend für die eigenen Zwecke. Das entspricht also dem Long Tail der Hauptkeywords. Spezialisiert man sich auf diese, dann hat man den Vorteil, dass man weniger Arbeit und weniger Konkurrenz hat. Gleichzeitig ist die Wahrscheinlichkeit, dass man ein sehr gutes Ranking bekommen wird, größer, als wenn man sich die schwersten und größten Keywords vornimmt.

Man sieht also, dass man sich das Kaufen von teuren Keyword Listen im Prinzip sparen kann. Zum Einen, um wirklich zu sparen und zum Anderen, um zu besseren Ergebnissen zu kommen.

jetzt kommentieren? 31. Oktober 2008

Die Wahrnehmung der Suchergebnisse bei Google

Im Rahmen einer Suchmaschinenoptimierung sollte man auch Kenntnisse davon haben, wie die Suchergebnisse bei den Suchmaschinen von den Usern wahrgenommen werden, damit Maßnahmen gezielter zum Einsatz gebracht werden können. Eine aktuelle Studie hat sich mit diesem Thema auseinander gesetzt und die Ergebnisse der Studie sollen hier kurz zusammengefasst werden.Ein interessantes Ergebnis der Studie ist, dass User, die eine Kaufabsicht haben, sich die SERPs wesentlich genauer und länger ansehen, also die User, die lediglich auf der Suche nach Informationen sind. So sehen sich User mit Kaufabsicht die SERPs im Schnitt 11,4 Sekunden an, die auf der Suche nach Informationen lediglich 1,1 Sekunden.

Ganze 98 Prozent blicken in erster Linie auf die organischen Suchmaschinenergebnisse und nicht auf bezahlte Einträge bzw. Anzeigen.

Die Ausnahme bilden hier die Anzeigen, die oberhalb der organischen SERPs bei Google stehen. Diese werden von 95 Prozent der Testpersonen wahrgenommen. Die übrigen bezahlten Einträge werden von lediglich 31 Prozent der Probanden wahrgenommen.

Im Schnitt werden 9,2 Suchergebnisse betrachtet bzw. kurz überfolgen, bevor dann ein Klick auf eines der Suchergebnisse erfolgt. Die 9,2 Ergebnisse, die zuvor betrachtet werden, setzen sich zu 6,6 aus organischen SERPs zusammen. 2,6 bilden die Anzeigen, die oberhalb der organischen SERPs stehen und lediglich 0,6 Prozent der Anzeigen, die in der rechten Spalte angezeigt werden.

In Verbindung mit Usern, die eine Kaufabsicht haben ist vielleicht noch von Interesse, dass diese weniger auf eine Marke, als auf Produktinformationen achten.

Die Ergebnisse dieser Studie sprechen also wieder einmal eine klare Sprache und zwar, dass eine professionelle Suchmaschinenoptimierung den bezahlen Suchmaschineneinträgen in jedem Fall vorzuziehen sind.

 Die Wahrnehmung der Suchergebnisse bei Google

Im Rahmen einer Suchmaschinenoptimierung sollte man auch Kenntnisse davon haben, wie die Suchergebnisse bei den Suchmaschinen von den Usern wahrgenommen werden, damit Maßnahmen gezielter zum Einsatz gebracht werden können. Eine aktuelle Studie hat sich mit diesem Thema auseinander gesetzt und die Ergebnisse der Studie sollen hier kurz zusammengefasst werden.

Ein interessantes Ergebnis der Studie ist, dass User, die eine Kaufabsicht haben, sich die SERPs wesentlich genauer und länger ansehen, also die User, die lediglich auf der Suche nach Informationen sind. So sehen sich User mit Kaufabsicht die SERPs im Schnitt 11,4 Sekunden an, die auf der Suche nach Informationen lediglich 1,1 Sekunden.

Ganze 98 Prozent blicken in erster Linie auf die organischen Suchmaschinenergebnisse und nicht auf bezahlte Einträge bzw. Anzeigen.

Die Ausnahme bilden hier die Anzeigen, die oberhalb der organischen SERPs bei Google stehen. Diese werden von 95 Prozent der Testpersonen wahrgenommen. Die übrigen bezahlten Einträge werden von lediglich 31 Prozent der Probanden wahrgenommen.

Im Schnitt werden 9,2 Suchergebnisse betrachtet bzw. kurz überfolgen, bevor dann ein Klick auf eines der Suchergebnisse erfolgt. Die 9,2 Ergebnisse, die zuvor betrachtet werden, setzen sich zu 6,6 aus organischen SERPs zusammen. 2,6 bilden die Anzeigen, die oberhalb der organischen SERPs stehen und lediglich 0,6 Prozent der Anzeigen, die in der rechten Spalte angezeigt werden.

In Verbindung mit Usern, die eine Kaufabsicht haben ist vielleicht noch von Interesse, dass diese weniger auf eine Marke, als auf Produktinformationen achten.

Die Ergebnisse dieser Studie sprechen also wieder einmal eine klare Sprache und zwar, dass eine professionelle Suchmaschinenoptimierung den bezahlen Suchmaschineneinträgen in jedem Fall vorzuziehen sind.

jetzt kommentieren? 24. Oktober 2008

Neues Gmail Tool für Partleute

Jeder kennt sicher die Situation in der man jemanden gerne etwas sagen möchte, es aber nicht wirklich zu Stande bekommt das auszusprechen, was einem auf dem Herzen liegt. Jeder kennt sicherlich auch die Situation eines feucht fröhlichen Abends, dem einen oder anderen Gläschen Wein oder Bier zu viel und dem plötzlichen Mut, den man Dank des Alkohols aufbringen kann. Da kann es dann schon einmal passieren, dass man eine E-Mail verschickt, die man im Nachhinein – am folgenden Tag, wo man mit Kopfschmerzen im Bett liegt – bereut und am liebsten nicht geschrieben hätte.Für genau solche Situationen und deren unerwünschten Nebenwirkungen hat Google Laps nun ein neues Tool entwickelt. Das Tool nennt sich Mail Goggles und soll verhindern, dass Nachrichten in einem Zustand versandt werden, wo es nicht sicher ist, dass man die E-Mail am nächsten Tag nicht bereut.

Das Tool funktioniert so, dass es nach Aktivierung immer am Abend eines jeden Wochenendes aktiv ist. Schreibt man nun eine E-Mail und klickt auf den „Senden” Button, bekommt man ein paar mathematische Rechenaufgaben gestellt, die es zu lösen gilt. Werden die gestellten Aufgaben nicht korrekt beantwortet, geht Mail Googles davon aus, dass der User betrunken ist, oder einen sonstigen Zustand hat, der seine Zurechnungsfähigkeit beeinflusst und das E-Mail besser nicht abschicken sollte.

Das Tool funktioniert nicht nur an Wochenenden, sondern man kann es auch nach eigenen Wünschen und Vorstellungen konfigurieren, also jede beliebige Zeit und jeden beliebigen Tag einstellen. Das ist vor Allem für alle von Interesse, die gerne ein After Work Clubbing machen und in weiterer Folge dann die Hemmungen fallen lassen.

Praktisch ist dieses Tool allemal und zeigt wieder einmal den Erfindergeist von Google.

jetzt kommentieren? 22. Oktober 2008

PageRank, Trust Rank, oder wie nun?

Der PageRank ist wohl einer der Begriffe, der am häufigsten fällt, wenn man an eine professionelle Suchmaschinenoptimierung denkt. Der PageRank ist für viele Auftraggeber einer SEO-Kampagne der Indikator dafür (neben dem Ranking natürlich), ob gute Arbeit geleistet wurde, oder nicht. Darüber hinaus ist der PageRank eines der Kriterien, denen bei einer Linkpartnerschaft die größte Bedeutung beigemessen werden.Der PageRank einer Seite ist also das Um und Auf einer Seite und spielt eine große Rolle hinsichtlich des Rankings einer Seite, oder etwa doch nicht?

Tatsächlich ist es so, dass der PageRank heut zu Tage nur noch eine untergeordnete Rolle spielt. Er hat also bei weitem nicht mehr den Einfluss auf die Positionierung einer Seite, wie dies in der Vergangenheit war. An Stelle des PageRanks ist der Trust Rank getreten. Der Trust Rank stellt das Vertrauen dar, dass die Suchmaschine in eine Seite hat. Je höher das Vertrauen in eine Seite und je relevanter diese für ein bestimmtes Thema zu sein scheint, desto besser wird in weiterer Folge auch das Ranking dieser Seite sein.

Doch warum hält sich der PageRank so verbissen in den Köpfen der Leute, vor Allem derjenigen, die sich nicht so sehr mit der Suchmaschinenoptimierung auskennen? Die Antwort ist recht einfach. Der kleine grüne Balken ist  ein Symbol, das nicht schwer zu lesen ist und mit dessen Hilfe man anscheinend alle nötigen Informationen ablesen kann.

Doch genau hier liegt auch der Knackpunkt, warum der grüne Balken keine große Rolle mehr spielt. Zum einen, weil man diesen leicht erkaufen kann und zwar durch den Kauf von Backlinks von Seiten, die bereits einen hohen PageRank besitzen. Diese vererben den PageRank nämlich an alle Seiten weiter, die sie verlinkt haben. Der andere Grund, warum der PageRank keine große Rolle mehr spielt ist der, dass sich eine Skala, die über 10 Stufen verfügt, keineswegs dazu eignet, die Relevanz einer jeden Seite des gesamten Internets abzubilden.

Dennoch wird es noch eine ganze Weile dauern, bis der PageRank ganz aus den Köpfen der Menschen verschwindet. Bis dahin wird er weiterhin ein Indikator zur Erfolgmessung bleiben und auch etwa bei Linkpartnerschaften dienlich sein.

jetzt kommentieren? 21. Oktober 2008

Wie wichtig ist die Endung einer Domain?

Bei der Entscheidung für eine Domain Endung, muss man wohl zwei verschiedene Ausgangspunkte unterscheiden. Spricht man zum Beispiel von einem Unternehmen, das in Deutschland seinen Sitz hat und seine Produkte in Deutschland verkaufen will, dann wird dieses Unternehmen bei seiner Firmenhomepage an einer .de Endung wohl oder übel nicht vorbei kommen.Bei Webprojekten, wo die Vorgaben nicht so streng sind, stellt sich früher oder später immer die Frage nach der richtigen Domain Endung.

Am Einprägsamsten für eine Domain ist wohl eine .de Endung bzw. eine .com oder .net. Hinsichtlich des Rankings kann man aber sagen, dass es in der Zwischenzeit mehr oder weniger egal ist, welche Endung eine Seite aufweist, denn die Endung als Rankingfaktor spielt nicht mehr eine so große Rolle, wie früher einmal.

Viele SEOs argumentieren damit, dass sich die Suchmaschine zum Beispiel bei einer .de Endung leichter bei der Einstufung tut, aus welchem Land die Seite kommt. Das stimmt aber nur zum Teil, denn will man wirklich der Suchmaschine einen Gefallen tun in der Hoffnung, dass sie dies mit einem besseren Ranking belohnt, so muss man auch auf andere Dinge achten. Eines dieser anderen Dinge ist beispielsweise der Standort des Servers. Steht der Server irgendwo in den Vereinigten Staaten und man selbst hat aber eine .de Endung, dann wird dies nicht wirklich viel bringen, da der Suchmaschine trotzdem zweideutige Indikationen gegeben werden. Möchte man diesen Rankingfaktor also wirklich beachten, dann sollte der Server in dem Land stehen, für die man die Seite macht und ebenfalls die Endung sollte die vom Land sein.

Dies spielte früher eine gewichtigere Rolle, da sich die Suchmaschine anhand der Domain Endung leichter tat, die Sprache der Seite herauszufinden. Mittlerweile sind die Suchmaschinen allerdings dazu in der Lage, die Sprache einer Seite – also den Text einer Seite – selbst zu erkennen und müssen nicht mehr auf die Endung einer Domain zurückgreifen.

jetzt kommentieren? 16. Oktober 2008

Weshalb dauert eine professionelle Suchmaschinenoptimierung eigentlich so lange?

Neben den vielen Vorteilen, die eine professionelle Suchmaschinenoptimierung zu bieten hat, wie zum Beispiel den guten Platzierungen bei den generischen Suchergebnissen, dem daraus steigenden Traffic zusammen mit den höheren Verkaufszahlen, ist wohl das größte Manko des SEOs die Lange Anlaufzeit, die benötigt wird, bis die gesetzten Maßnahmen greifen. Bei der Suchmaschinenoptimierung ist es häufig so, dass das was heute gemacht wirst, erst viel später Früchte tragen und sichtbar sein wird.Diese Frage taucht auch oft von Interessenten von SEO auf, darum wollen wir uns dieser Frage heute kurz widmen. Kurz deshalb, weil sie eigentlich ganz einfach zu beantworten ist.

Ein Grund für die Verzögerung ist, dass Änderungen einer Seite nicht sofort von der Suchmaschine übernommen werden. Der Bot kommt nur in mehr oder weniger regelmäßigen Zeitabständen auf einer Seite vorbei, abhängig von deren Relefanz und Größe. Je unbekannter eine Seite der Suchmaschine ist, je weniger Inhalt sie hat und je unbedeutender sie der Suchmaschine erscheint, desto weniger oft wird der Bot vorbeischauen. Kommt er also zum Beispiel nur ein Mal im Monat vorbei, dann sind die OnSite Optimierungsmaßnahmen erst nach einem Monat auch spürbar.

Bei der OffSite Optimierung, die zum Großteil aus dem erhalt von Backlinks besteht, muss man nun bedenken, dass die gesetzten Links auf den anderen Seiten ebenfalls erst von der Suchmaschine gesehen werden müssen. So wir die Verzögerung noch größer, weil es bei anderen Seiten sein kann, dass der Bot noch weniger oft vorbeikommt.

In diesem Zusammenhang sollte man auch noch erwähnen, dass Suchmaschinen eine langsame Optimierung bevorzugen, oder besser gesagt, eine Optimierung, die nicht nach einer solchen aussieht. Setzt man zum Beispiel innerhalb von einem Tag 100 neue Backlinks, dann wird sich dies negativ auf das Ranking einer Seite auswirken, weil offensichtlich ist, dass die Verlinkung keine natürliche ist, sondern dass versucht wird das Ranking der Seite zu manipulieren. Solche Manipulationen versuchen Suchmaschinen zu verhindern.

Aus diesem Grund ist es wichtig, der Suchmaschinenoptimierung ihre Zeit zu geben, denn nur so wird diese auch erfolgreich sein.

jetzt kommentieren? 08. Oktober 2008

Kurzzeitig einen hohen PageRank durch eine Weiterleitung erhalten

Heute wollen wir kurz eine Methode vorstellen, die einem für eine gewisse Dauer einen hohen PageRank bringen kann, ohne dass man sonderlich viel dazu tun muss.Diese Methode wurde vor Kurzem präsentiert und scheint auch so zu funktionieren. Dabei ging es um einen Webmaster, der sich eine neue Domain zulegte. Da er aber zu dem damaligen Zeitpunkt nicht die Muse fand einen Inhalt auf die Seite zu stellen, leitete er diese auf eine seiner anderen Seiten weiter, die bereits einen hohen PageRank hatte.

Nach einiger Zeit, als er dann endlich die Muse hatte, hob er die Weiterleitung auf und stellte einen eigenen Inhalt auf die Seite. In weiterer Folge stellte sich aber heraus, dass die Domain den PageRank der alten geerbt zu haben schien. Machte man zum Beispiel eine Google Abfrage mit „link:domain” wurden exakt die selben Links ausgegeben, wie bei der anderen Domain, auf die er zuvor weitergeleitet hatte.

Das wird allerdings nicht von langer Dauer sein und Google wird dies bald wieder korrigiert haben.

Dies ist allerdings dennoch eine interessante Methode, um für eine kurze Dauer zu einem hohen Pagerank zu kommen, ohne dass man dafür viel Arbeit hat.

jetzt kommentieren? 06. Oktober 2008

Mehr Traffic durch flickr

Wer mit Hilfe von flickr seine Fotos ins Netz stellt, der wird auch dementsprechend viel Publikum haben wollen. Doch wie kann Traffic bei flickr generiert werden?Bei dieser Frage macht es Sinn, wenn man den Traffic in einen Traffic von der Seite selbst (also einen internen Traffic) und einen Traffic, der von außen kommt (also einem externen Traffic), unterteilt.

Den internen Traffic kann man beispielsweise erhöhen, wenn man sich an sogenannten Gruppen beteiligt. Hier gibt es oft Wettbewerbe, bei denen man mitmachen kann und sicherlich schon ein paar mehr Besucher auf die eigenen Fotos bekommt. Die Kontaktlisten, die es auch bei flickr gibt, sind ebenfalls eine gute Quelle für Traffic. es ist deshalb wichtig, sich mit Hilfe dieser Kontaktlisten ein Netzwerk aufzubauen, denn in solchen Kontaktlisten scheinen zum Beispiel immer die neusten Online gestellten Fotos auf. Wenn man mit den Tags richtig arbeitet, kann man auch über die Suche einen beträchtlichen Traffic erzielen. Um auf sich selbst aufmerksam zu machen, bietet sich die Möglichkeit andere Fotos zu den eigenen Favoriten hinzuzufügen. Die flickr User, denen das Foto gehört, werden in weiterer Folge sicherlich auch vorbei schauen, von wem ihr Foto zu den Favoriten hinzugefügt worden ist.

Den externen Traffic kann man beispielsweise erhöhen, wenn man bereits eine eigene Homepage hat. Die eigenen Fotos können dann nämlich auf die eigene Seite eingebunden werden. Man kann aber auch mit RSS Feeds arbeiten und eine Meldung einbauen, die bei neu eingestellten Fotos mitgeschickt wird. In Verbindung mit den bereits oben erwähnten Tags, einem relevanten Text und sonstigen SEO Techniken, kann man auch über Suchmaschinen für seine eigenen Bilder gefunden werden.

Anhand dieser verschiedenen Techniken, sollte es kein Problem mehr sein, den Traffic in flickr zu erhöhen.

jetzt kommentieren? 04. Oktober 2008

Fehler, die man im Zusammenhang mit einer Social Media Optimization vermeiden sollte

Social Media Optimization – oder kurz einfach auch SMO genannt – ist ein Trend, der sich auch bei uns immer größerer Beliebtheit erfreut. Gemeint ist dabei die Vermarktung eines Produktes, oder einer Dienstleistung innerhalb der sozialen Netzwerke des Internets. Bei der Social Media Optimization gibt es aber auch Fehler, die man vermeiden sollte, denn diese könnten sich unter Umständen sogar negativ auf den Verkauf eines Produktes oder einer Dienstleistung auswirken.Bei sozialen Netzwerken muss man sich in der Regel registrieren, bevor man einen Post machen kann. Hier lauert auch schon der erste Fehler, der einem passieren kann. Und zwar, dass ein neuer User registriert wird und der einzige bzw. der erste Post, der abgegeben wird ist sofort eine Produktempfehlung. Das ist sehr auffallend und richt nach einem Fake, sodass sich die User in ihrer Kaufentscheidung beeinflusst fühlen, was dann in weiterer Folge eher dazu führen wird, dass sich ein User dazu entscheiden wird, das Produkt nicht zu kaufen.

Der Fehler Nummer Zwei hängt mit dem ersten Fehler zusammen. Oft wird zusammen mit einer Empfehlung auch noch eine Bewertung als Kunde abgegeben. Hier ist dann sofort ersichtlich, dass es sich um ein und den selben User handelt und die Posts allein deswegen online gestellt werden, um Werbung zu machen.

Ein weiterer gravierender Fehler ist, wenn man des Weiteren mehrere Fake-Profile erstellt, mit denen man dann eine Konversation anfängt. Vor Allem ist das dumm, wenn man das von den Rechnern der Firma aus macht. Denn für Internetuser, die sich ein bisschen auskennen, ist es eine Leichtigkeit anhand der IP-Adresse herauszufinden, wer sich hinter den Usern verbirgt und so kann der Schwindel schneller auffallen, als einem lieb ist.

Solche Fehler im Zusammenhang mit einer Social Media Optimization sollten prinzipiell vermieden werden, da sie überhaupt keinen Sinn haben und kontraproduktiv sind. Vor Allem in den Zeiten, wo Internetsurfer keineswegs positiv auf Werbung – und schon gar nicht auf bewusst, unbewusste und manipulierende – reagieren.  

jetzt kommentieren? 02. Oktober 2008

Black Hole SEO – was ist das?

Wieder einmal gibt es einen neuen Begriff in der SEO Welt. Dieses mal heißt er Black Hole SEO. Black Hole SEO bedeutet kurz ausgedrückt folgendes: fließt ein Linkjuice einer sehr großen und vor Allem starken Seite zu – die also eine Authority darstellt – behält diese den Linkjuice meist für sich. Das heißt, dass keine externe Verlinkung mehr erfolgt, bzw. die externen Links auf nofollow gesetzt werden. Aus diesem Grund wird das Ganze auch Black Hole SEO genannt. Die Authority-Seite verhält sich wie ein schwarzes Lock. Linkjuice kommt herein, es geht allerdings keiner mehr raus (ein Paradebeispiel hierfür ist Wikipedia).Bei kleineren Websites wird in der SEO-Szene meist geraten, dass sie auf Authorities verlinken sollen. Stichwort: good neighborhood. Da Authorities aber bereits solche sind, hat es für sie keinen Sinn, auf eine andere Authority zu verlinken. Aus diesem Grund werden externe Links auf nofollow gesetzt bzw. es werden einfach selbst neue Artikel verfasst und verlinkt, die eventuell benötigt werden. Somit bleibt der Linkjuice auf der Seite und, durch die eigene Erstellung von weiterführenden Artikeln, auch der Traffic. Der Traffic kann dann unter Anderem dazu verwendet werden, mehr Werbung zu schalten und dadurch mehr Einnahmen zu erzielen.

Diese Vorgehensweise ist allerdings nur für wirklich große Seiten zu empfehlen, die es sich leisten können. Bei kleinen Seiten wird sich das Ganze eher negativ auswirken. Sowohl auf den Traffic, als auch aus SEO-Sicht. Einer Studie zu Folge bevorzugen User Seiten, die viele externe Links haben und somit einen großen Mehrwert darstellen. Aus SEO-Sicht spielt die bereits genannte good neighborhood eine entscheidende Rolle.

Black Hole SEO ist also nur etwas für die Großen, normale Webmaster und SEOs sollten auf diese Technik verzichten.

jetzt kommentieren? 28. September 2008

Die richtige Keyword Dichte

Oft hört bzw. liest man, dass die Keyword Dichte ein entscheidender Faktor hinsichtlich des Rankings einer Seite ist. Bei der Keyword Dichte handelt es sich um eine Kennzahl, welche definiert wie oft ein Keyword im Verhältnis zur gesamten Wortzahl einer Seite vorkommt. Man könnte die Keyword Dichte also mit folgender Formel ausdrücken: Keyword Dichte = Anzahl der Keywords / Gesamtzahl der Wörter x 100Was die optimale Keyword Dichte ist, ist sehr strittig. Viele professionelle SEOs sprechen davon, dass diese zwischen 6 und 8 Prozent liegen sollte, um maximale Ergebnisse zu erzielen.

Als gesicherte Ergebnisse kann man allerdings folgendes zählen: Klarerweise sollte die Keyword Dichte größer als 0 sein! Das ist deshalb klar, weil das sonst bedeuten würde, dass das Keyword gar nicht auf der Seite vorkommt. Es ist rein theoretisch zwar möglich eine Seite auf ein Keyword hin zu optimieren, das auf der Seite gar nicht vorkommt. Dies ist aber ein äußerst zeitaufwendiges Unterfangen, was in den aller meisten Fällen in keiner Relation zum Nutzen steht.

Weiters gilt als quasi sicher, dass eine zu hohe Keyword Dichte zu Abstrafungen führen kann. Keywordspam nennt man das Ganze dann, wenn ein Keyword so oft wie möglich in einem Text vorkommt, nur damit die Suchmaschine die Seite besser rankt. Das Gegenteil ist allerdings der Fall. Google erkennt solche Seiten, die versuchen mittels Keywordspamming das Ranking zu beeinflussen und straft diese folglich ab.

In der Praxis hat es sich als nützlich erwiesen, ein Keywords so oft unterzubringen, dass es noch Sinn macht. Das heißt, wenn man sich einen Text durchliest, dann sollte man nicht den Eindruck haben, dass dieser rein für das Keyword erstellt worden ist. Man sollte schön drüber lesen können, ohne dass einem die Wordwiederholung zu sehr auffällt.

jetzt kommentieren? 27. September 2008

Ist eine Keyword gerichtete Suchmaschinenoptimierung noch zeitgemäß?

Früher war der Index der Suchmaschinen noch klein und man kam somit auch schnell zu relevanten Informationen, auch wenn man den Suchbegriff sehr allgemein gehalten hat. Vor Allem der Index von Google ist in der Vergangenheit extrem angewachsen. Auch die Internetuser werden immer „schlauer” und verwenden nicht mehr so häufig Ein-Wort-Keywords, sondern verfeinern und spezifizieren ihre Suchanfragen unter Verwendung von Mehrwort-Keywords.Eine Suchmaschinenoptimierung beinhaltet meist um die 10 Keywords. Das stellt vor Allem bei großen Portalen ein Problem dar. Auf solchen großen Portalen gibt es meist eine Vielzahl von relevanten Keywords, ganz abgesehen von den Long Tail Keywords, die meist gar nicht beachtet werden. Da wirft sich die Frage auf, ob eine Optimierung auf nur 10 Keywords heute noch zeitgemäß ist? Sicherlich kann man mit 10 Keywords, einen Großteil der Suchanfragen abdecken. Allerdings ist es auch eine Tatsache, dass ein beträchtlicher Traffic auch mit anderen Keywords, als den 10, auf die man optimiert, zu Stande kommt.

Hier kommt dann eine gezielte OnPage Optimierung ins spiel und hier besonders ein guter Content. Man sollte im Content nicht nur die 10 Begriffe, auf die man optimiert, unterbringen, sondern nach Möglichkeit auch Synonyme und den Long Tail berücksichtigen. Eine solche Vorgehensweise wird in Zukunft auch eine immer größere Rolle spielen. Suchmaschinen und hier im Speziellen Google, sind mittlerweile in der Lage Synonyme und themenverwandte Begriffe zu erkennen (siehe beispielsweise die Synonymvorschläge beim AdWords Keywords Tool oder der normalen Suche). Auch wenn solche Zusammenhänge in das Ranking noch nicht so stark einfließen, so ist es sicherlich nur eine Frage der Zeit, bis die Suchmaschine nicht einfach nur stur die Keywords abzählt, sondern eben auch die besagten Synonyme und themenverwandten Begriffe mit berücksichtigt.

Es ist somit eine Überlegung wert, seine Seite nicht schon jetzt auf künftige Kriterien umzustellen und somit einer der ersten zu sein, welcher die Umstellung geschafft hat.

jetzt kommentieren? 25. September 2008

ältere Beiträge