Posts gespeichert unter 'Google News'

Google beendet einige seiner Dienste

Neben den nun bereits angekündigten Entlassungen und Schließungen von Entwicklungsstandorten, kommt jetzt eine weitere etwas enttäuschende Nachricht aus dem Hause Google. Dieses Mal handelt es sich um einige Online Dienste des Suchmaschinenkonzerns. Betroffen sind der Bibliotheksdienst Catalog Search, der Twitter Konkurrent „Jaiku”, Google Notebook und das mobile Social Network Dodgeball.

Des Weiteren wird auch der Google Mashup Editor, ein Dienst, der verschiedene Online Anwendungen miteinander verknüpfen konnte, binnen sechs Wochen geschlossen werden. Allerdings müssen Fans nicht all zu sehr trauern, da die Funktionen des Editors in den Web-Entwicklungsdienst App Engine integriert werden wird. Betroffen von der Schließung ist zudem auch noch die Upload Funktion von Google Video. Diese wird in wenigen Monaten das zeitliche segnen. Auch hierfür ist eine Alternative vorgesehen und zwar auf Youtube und Picasa.

Bezüglich Jaiku lässt Google seine User wissen, dass einige Funktionen des Microblogging Dienstes ebenfalls in die bereits vorher erwähnte App Engine integriert werden. Zudem soll der Code von Jaiku als Open Source Projekt veröffentlicht werden. Google selbst wird allerdings keine weiteren Ressourcen mehr für die Weiterentwicklung aufwenden. Auf der App Engine soll es dennoch weiterhin möglich sein, dass jeder seinen eigenen Microblogging Dienst einrichten kann. Google wünscht sich in diesem Zusammenhang, dass so eine freie Microblogging Plattform entsteht.

Hinzu kommt, dass Google verkündet hat, dass 100 Mitarbeiter des Personalrekrutings entlassen werden.

Von einer Schließung betroffen sind auch drei Entwicklungsstandorte und zwar in Austin in Texas, in Tordheim in Norwegen und in Lulea in Schweden. Insgesamt wird dies 70 Entwickler betreffen.

Wie man sieht, geht die Wirtschaftskrise scheinbar auch an Google nicht spurlos vorbei und so muss das Unternehmen ebenfalls Einsparungen treffen.

jetzt kommentieren? 09. Februar 2009

Magazine nun auch bei Google Books

Die Online Buchsuche von Google wird nun um ein weiteres Highlight erweitert. In Zukunft soll man dort nun auch alte Magazine finden. Hierfür wurde eine Zusammenarbeit mit mehreren US-amerikanischen Zeitschriftenverlagen eingegangen. So werden gedruckte Zeitschriftenexemplare nun digitalisiert, online gestellt und archiviert. Google teilt in seinem offiziellen Blog mit, dass unter anderem auch die Verlage Johnson Publishing, Hearst und New York Media daran beteiligt sind.
Ins Netz kommen neben Magazinarchiven auch aktuelle Ausgaben. Ganz anders, als bei den digitalisierten Büchern, sollen die digitalisierten Magazine auch Usern zugänglich sein, die sich außerhalb der Vereinigten Staaten befinden.
Erst im Oktober hatte Google einen Rechtsstreit mit der amerikanischen Authors Guild und der AAP (der Association of American Publishers) beigelegt. Dabei hatte man sich darauf geeinigt, verschieden Werke zu scannen und ins Netz zu stellen.
Seit September diesen Jahres scannt Google nun auch alte Zeitungsarchive und stellte diese ins World Wide Web.
Die Magazine werden vollständig in Farbe gescannt und auch so ins Netz gestellt. So können über die Büchersuche Artikel durchsucht werden oder aber unterschiedliche Jahrgänge von Zeitschriften durchforstet werden. Die Jahrgänge werden jeweils auf der Startseite eines Magazins nach Jahrzehnten sortiert aufgelistet. Einen Index, über den man eine bestimmte Zeitschrift aussuchen kann, gibt es allerdings keinen. Wird die Startseite der Google Büchersuche neu geladen, erscheinen auch andere Magazine.

jetzt kommentieren? 15. Dezember 2008

Ende der Kooperation von Yahoo! und Google

Nachdem die Bedenken der amerikanischen Wettbewerbsbehörde bezüglich der Zusammenarbeit von Yahoo! und Google immer lautstarker wurden und sich auch die gesamte Online Marketing Branche zusammen mit Microsoft kritisch über dieses Vorhaben äußerten, hat sich Google nun dazu entschlossen, das ganze Vorhaben abzublasen. Einer der Gründe dafür sei, dass man langen juristischen Auseinandersetzungen aus dem Wege gehen möchte.Kaum wurde das Scheitern bekannt, da hat Yahoo! den Softwareriesen Microsoft auch schon dazu aufgefordert, ein Übernahme Angebot zu stellen. Das dürfte zeigen, wie Ernst die Lage im Hause Yahoo! zu sein scheint, denn noch vor Kurzem hat sich Yahoo! mit Händen und Füßen vor einer feindlichen Übernahme von Microsoft gewehrt.

Die vergangen Übernahmeangebote wurden von Yahoo! immer als zu niedrig abgewiesen. Das Unternehmen wollte forderte mindestens 37 US-Dollar pro Aktie, was 53 Mrd. US-Dollar entsprach. Microsoft wollte zunächst allerdings nur 31 US-Dollar bezahlen. Nach längeren Verhandlungen hat sich Microsoft dann dazu entschlossen, 33 US-Dollar zu bieten, was Yahoo! allerdings immer noch zu wenig gewesen ist.

Das alles passierte im Frühling dieses Jahres. Die Aktie von Yahoo! war damals noch 19,18 Dollar wert. Diesen Mittwoch waren es allerdings nur noch 13,92 Dollar, die die Aktie an Wert besaß.

Experten gehen nun davon aus, dass sich Microsoft einige Wochen oder Monate Zeit lassen wird, bevor das erste Angebot gestellt wird, denn im Moment scheint Microsoft nicht wirklich großes Interesse an der Übernahme zu zeigen. Das kann aber auch alles nur Strategie sein, um den Preis nach Unten zu drücken. Microsoft hat nun nämlich schon so lange gewartet, da machen es ein paar weitere Wochen oder Monate auch nicht mehr aus.

Es wird sich nun in Zukunft zeigen, wie es mit Yahoo! weitergeht und ob es überhaupt ein weitergehen gibt.

jetzt kommentieren? 10. November 2008

Änderung bei den Mindestgeboten von Google AdWords

Google ist gerade dabei die Qualitätsscores für sein AdWords Programm zu verändern und damit im Zusammenhang steht natürlich auch eine Änderung der Mindestgebote. Genauer gesagt handelt es sich nicht um eine Änderung, sondern das Mindestgebot wird durch ein neues „first page bid” ersetzt”.Ermöglicht wird das Ganze durch Umstellung des Qualitätsfaktors. Der Qualitätsfaktor wird in Zukunft bei jeder Suchanfrage, die ein User stellt, neu und individuell berechnet werden. In weiterer Folge werden dann auch für jede Suchanfrage die Rangaufstellung der Anzeigen neu erstellt werden. Aus diesem Grund erübrigt sich auch die Verwendung des Mindestgebots, weil der Qualitätsfaktor nun individuell und punktgenau berechnet werden wird.

Das heißt auch, dass es im Account künftig keine inaktiven Keywords mehr geben wird, sondern lediglich Keywords, welche nur ganz selten geklickt werden.

Fraglich ist, wie sich diese Veränderungen auf die bereits laufenden Kampagnen auswirken werden, denn hierzu gibt es noch keine Informationen. Auch im eigenen Blog von Google sucht man vergebens nach Informationen.

Es ist aber sehr wahrscheinlich, dass die genannten Veränderungen in den Topplatzierungen wenig verändern werden.

Wer in seiner Kampagne inaktive Keywords hat, der wird diese in Zukunft mit der Bemerkung „potentiell” zu sehen bekommen. In diesem Zusammenhang werden diese (schwachen) Keywords wahrscheinlich auch nur sehr weit hinten gelistet werden.

Wie sich diese Entwicklung auf Anzeigen auswirkt, welche wenig Konkurrenz haben, bleibt mit Spannung abzuwarten. Bisher war es so, wenn die Konkurrenz klein, oder gar nicht vorhanden war, dass eine Topplatzierung durch eine ständige Erhöhung des Mindestgebots unterdrückt worden ist. Dies scheint nun hinfällig zu sein und es könnte der Fall sein, dass sich viele neue Nischen eröffnen.

Bis wann die Umstellung vollzogen werden wird, ist ebenfalls noch unklar. Dem Blog von Google kann man entnehmen, dass die Umstellung in den nächsten Wochen vollzogen werden soll.

jetzt kommentieren? 29. August 2008

Google Street View einmal anders

Ein aktuelles Projekt von Google, namens Street View, hat es sich zur Aufgabe erklärt alle Straßenzüge in einer 360° Ansicht abzulichten und ins Internet zu stellen, um diese Fotos jedermann zugänglich zu machen.

Angefangen hat das Unternehmen mit dem Fotografieren solcher Straßenzüge in den Vereinigten Staaten. Dort kam es zu einer Reihe von Beschwerden vor allem von Datenschutzorganisationen, aber auch von verärgerten Bürger, die sich auf den Fotos widerfanden. Daraufhin hat Google Gesichter von Menschen unkenntlich gemacht und auch die Nummerntafeln von Fahrzeugen entstellt, damit diese nicht mehr zu lesen sind.

Ein Ehepaar in Pittsburg hatte Google sogar verklagt, weil das Unternehmen das Anwesen der beiden fotografierte und zwar von einer Privatstraße aus, auf die sie keine Erlaubnis hatten zu fahren. Google nahm die Fotos zwar aus dem Internet, sagte aber, dass es eine Privatsphäre heut zu Tage nicht einmal mehr in der Wüste gibt. Jedes Anwesen könne mit Hilfe von Satelliten, oder niedrig fliegenden Flugzeugen fotografiert werden.

Das National Leagal and Policy Center ist eine Bürgerrechtsorganisation, welche den Spieß nun umgedreht hat. Die Organisation hat Daten über einen der Google Chefs Sergey Brin gesammelt und nun ins Internet gestellt. Dabei sieht man den Fuhrpark Brins, die Route, die er jeden Tag zur Arbeit zurück legt wird angezeigt und auch findet der Gärtner, bei dem Brins seine Hecken schneiden lässt, eine Anmerkung.

Die Bürgerrechtsorganisation will sich mit diesem Vorhaben an Brins „rächen” und diesem zeigen, was es heißt, wenn in die Privatsphäre eingedrungen wird.

Brins hat sich zu diesen Vorkommnissen noch nicht geäußert. Allerdings muss man der Organisation sagen, dass es eine einfallsreiche – und für Außenstehende – und eine witzige Idee ist.

jetzt kommentieren? 26. August 2008

JavaScript nun auch von Google gespidert

Google hat es wieder einmal geschafft, die SEO Welt etwas aufatmen zu lassen. Nachdem vor kurzem bekannt wurde, dass nun endlich auch Flash Dateien gelesen und indexiert werden können, kommt nun die nächste gute Nachricht aus dem Hause Google. Es soll nun möglich sein JavaScripts zu spidern.Dies wurde auch von SMOZ Mitglieder bestätigt, welche eine Reihe von Tests zur Verifizierung durchführten.

Allerdings wird es sich bei dieser Neuerung ähnlich verhalten, wie bei der von Flash. Dass diese beiden nun gelesen werden können, ist schon ein guter Anfang. Dennoch weiß bisher keiner genau, in welchem Umfang diese ausgelesen werden können und ob es einen Unterschied hinsichtlich des Rankings zu „normalen” HTML gibt. Das Ganze ist noch zu neu, als dass jemand schon Erfahrungen damit hätte machen können.

Eine geeignete Erweiterung in den Webmastertools von Google wäre also auch hier, wie auch bei Flash, angebracht um das Ganze etwas nachvollziehen zu können.

Bis dahin aber, bleibt einem nichts anderes übrig, als abzuwarten und die nächsten Entwicklungen zu beobachten.

Noch ein kleiner Tipp, falls jemand bisher JavaScript dafür benutzt hat, um Google vom Spidern abhalten zu können, der könnte nun versuchen dieses Script in eine externe Datei zu verpacken. Diese Datei sollte dann mit einem nofollow Attribut versehen werden, was den Spider weiterhin davon abhalten sollte die Datei durchzulesen.

jetzt kommentieren? 21. August 2008

Google Analytics nicht ganz fehlerhaft

Was man häufig nur bei selbstgeschriebener Software sieht, scheint nun auch bei Google Analytics aufzutauchen. Die Rede ist von sogenannten Bugs, also Fehlern in der Anwendung. Man sieht also, dass das nicht nur passiert, wenn ein kleiner Hobbyprogrammierer ans Werk geht, sondern, dass das auch durchaus einem Großunternehmen wie Google passieren kann, bei dem eine Menge sehr gut ausgebildeter Leute arbeiten.So taucht zum Beispiel ziemlich häufig der Fehler auf, dass sich User nicht in Google Analytics einloggen können, weil in einer Redirect Loop feststecken. Das äußert sich dann so, dass eine Fehlermeldung im Browser angezeigt wird, welche besagt „… that the server is redirecting the request for this address in a way that will never complete”, dass der Server die Anfrage also auf eine Art weiterleitet, die nie abgeschlossen sein wird.

Ein weiter Fehler, der bereits vielen Usern aufgefallen ist, ist, dass eingeloggten Usern gemeldet wird, dass ihr tracking code nicht richtig installiert sei. Dies scheint allerdings ein Fehler zu sein, denn dieser ist richtig installiert, arbeitet bereits und liefert auch schon Daten. Diese Meldung ist also nicht nötig und somit ein Fehler im System.

Darüber hinaus wird auch noch häufig berichtet, dass Google Analytics die Stadt Informationen in der sogenannten Map Übersicht bei eigenen Usern verdoppelt.

Natürlich handelt es sich bei den besagten Fehlern um Kleinigkeiten, die den Ablauf des Ganzen nicht in großem Ausmaße stören. Dennoch zeigen diese Beispiele schön, dass sich auch der Riese irren kann und Fehler macht.

jetzt kommentieren? 04. August 2008

Eindrucksvolle Zahlen über Google

Google ist wohl unumstritten eine der Suchmaschinen mit den besten Suchergebnissen. Das hat wohl auch damit zu tun, dass der Google Index mittlerweile über eine unglaubliche Zahl von 1.000.000.000.000 – also 1 Billionen oder auch anders ausgedrückt eine 1 mit zwölf Nullen – Seiten in seinem Index verfügt. Diese Seiten werden innerhalt von Bruchteilen einer Sekunde auf Relevanz hinsichtlich eines Suchbegriffes durchsucht.Wie kommt es allerdings dazu, dass Google so viele Seiten in seinem Index hat? Eigentlich lässt sich das ganz einfach erklären: Google geht nämlich so vor, dass der Bot auf einige bekannte Seiten geschickt wird, um diese zu durchsuchen. Dabei wird dem Bot die Anweisung mit auf den Weg gegeben, dass er alle Links, die auf einer Seite stehen, verfolgen soll. Auf die Seiten, auf die er anhand der Links gelangt, geht das Spiel wieder von Vorne los und alle Links, die wieder auf dieser Seite stehen, werden verfolgt. So breitet sich der Bot – ähnlich einem Virus – exponentiell über das Internet aus und kommt zu so einer Vielzahl an verschiedenen unique Seiten. Unique deshalb, da es zahllose Seiten gibt, die zwar eine andere Domain haben, aber den exakt gleichen Inhalt haben, wie eine andere Seite. Laut Nissan Hajaj und Jesse Alpert kommen täglich ein paar Milliarden solcher Seiten, die im Grunde genommen nur Duplikate sind, im Internet hinzu. Der Bot von Google durchsucht diese Seiten zwar auch, nimmt die meisten von ihnen allerdings nicht in seinen Index auf.

Man muss aber auch dazu sagen, dass laut der Meinung vieler Experten die von Google indexierten Seiten nur einen Bruchteil vom eigentlichen Internet darstellen. So vermuten diese Experten, dass Google nur circa 10 – 25 Prozent (die Meinungen gehen hierbei weit auseinander) des gesamten Internets repräsentiert. Diese Seiten, die von den Suchmaschinen nicht im Index aufgenommen worden sind, bilden einen Teil des sogenannten Deep Webs.

Abschließend noch ein kleiner Blick in die Vergangenheit: Im Jahre 1998 hatte Google gerade einmal 26.000.000 Seiten in seinem Index. Im Jahr 2000 allerdings schon eine Milliarde. Man sieht also wie schnell sich das Internet vergrößert und es dürfte auch klar sein, dass es deshalb immer unumgänglicher wird eigene Maßnahmen (Stichwort Suchmaschinenoptimierung) zu setzen, um nicht in den unendlichen Weiten des Internets verloren zu gehen, oder schlimmer noch, gar nicht erst auffindbar zu sein.

jetzt kommentieren? 01. August 2008

Google Knol nun für jedermann zugänglich

Im Google Blog war gestern nachzulesen, dass Knoll ab gestern für die breite Öffentlichkeit zugänglich ist. Das Wort Knol ist abgeleitet von Knowledge und bei diesem neuen Feature handelt es sich um eine Plattform bei der Leute die Möglichkeit haben zu Themen, die innerhalb ihres Wissensbereichs liegen, Artikel schreiben können. Anscheinend kann jeder mitmachen und Artikel schreiben, oder zumindest diese Artikel oder auch Knols genannt reviewen.Allem Anschein nach scheint Google damit eine Alternative zu Wikipedia entwickeln zu wollen. Ob dieses Vorhaben aber durchzusetzen ist, kann bezweifelt werden. Wikipedia ist in dieser Hinsicht ein Gigant, mit Artikeln zu fast jedem Thema in fast allen Sprachen und mit einer Vielzahl an Autoren und Nutzern, die sich aktiv daran beteiligen. Es wird ein schwieriges für Google werden nur annähernd eine gleichartige Gefolgschaft zu erhalten, wie die von Wikipedia. Allerdings muss man auch sagen, dass fast alles, was Google in die Hand nimmt zu Gold wird und es dem Unternehmen auch schon gelungen ist die unmöglichsten Ideen durchzubringen und erfolgreich damit zu sein.

Im Moment steckt Knol allerdings noch in den Kinderschuhen und ist bisher nur in der englischen Version verfügbar.

Natürlich hat Google, wie auch bei jedem veröffentlichten Feature, einen Hintergedanken bei dieser ganzen Sache. So wird der Wikipedia Klon sicherlich voll mit themenrelevanten AdWords sein, die schlussendlich den Sinn haben Geld in das Haus Google zu bringen. Das ist ein Fakt, der es für viele mögliche Autoren sicherlich unattraktiv machen wird, denn Wikipedia (die freie Enzyklopädie) ist nicht auf Geld aus und sozusagen ein NGO des Internets.

Bleibt die zukünftige Entwicklung Knols abzuwarten.

jetzt kommentieren? 25. Juli 2008

Googles 3D Welt Lively soll sexfrei bleiben

Kaum hat Google seine neue 3D Welt Lively vor einer Woche ins Internet gestellt, wurden in sogenannten „Sex-Rooms” schon die ersten sexuellen, virtuellen Kontakte ausgetauscht. Für diese Art von Kontakten hat das Unternehmen allerding strenge Richtlinien im Sinne des Jugendschutzes vorgesehen. So werden unter anderem Nacktheit und andere sexuell anrüchige Inhalt verboten.

Damit der Jugendschutz auch weiterhin garantiert ist und sich somit auch Jugendliche in der Welt frei bewegen können, hat Google nun solchen Gruppen, die gegen die Richtlinien verstoßen, den Kampf angesagt. So habe es auch mittlerweile schon eine Reihe von Beschwerden gegen solche Gruppen gegeben. Google reagierte darauf und hat nun auf seiner Seite geschrieben, dass Räume, die einen sexuellen Inhalt haben, sofort entfernt werden würden.

Die virtuelle Welt von Google ist allerdings noch weit davon entfernt, ins pornografische Fahrwasser zu gelangen. Wenn man Lively mit seinem größten Konkurrenten Second Life vergleicht, sieht man, dass in Second Life erheblich mehr pornografischer und sexueller Inhalt zu finden ist. Die bei Google gefunden Sex-Rooms seien nur eine Kleinigkeit im Vergleich dazu. Man muss aber hervorheben, dass Second Live von vorne herein für ein erwachsenes Zielpublikum konzipiert wurde, im Gegenteil zu Lively, wo auch Jugendliche Zutritt haben. Das Mindestalter, um bei Lively mitzumachen beträgt 13 Jahre. Es dürfen zwar auch Jugendliche zwischen 13 bis 17 Jahren bei Second Life mitmachen, allerdings bekommen diese eine abgespeckte Version zu Gesicht, die sich dann Teen Second Life nennt und wo die sexuellen Inhalte so gut als möglich ausgefiltert werden.

Noch strenger will Google gegen Kinderpornografie vorgehen. So gab das Unternehmen bekannt, dass Links zu kinderpornografischen Seite sofort gelöscht werden und die zuständigen Behörden sofort verständigt werden würden. 

jetzt kommentieren? 18. Juli 2008

Google Street View kommt nach Berlin

Im Moment sieht man auf Berlins Straßen eine Vielzahl von dunklen Kleinwagen, die auf ihren Dächern mit Hilfe von Teleskopmasten spezielle Kameras montiert haben und im Schritttempo durch die Stadt fahren. Diese Fahrzeuge sind im Dienste von Google unterwegs und lichten dabei alle Straßenzüge von Berlin für das Projekt Street View ab. Schon bald wird das Ergebnis dieses Unternehmens für jedermann im Internet ansehbar sein. Stefan Keuchel – Google-Sprecher – ist begeistert und sieht in der Abfotografierung Berlins Straßen eine neue Art der Stadterschließung. Der Beauftragte für Datenschutz der Stadt Berlin sieht dieses Projekt allerdings weniger positiv.Keuchel sieht in Google Street View eine Erweiterung des bereits allseits bekannten Features Google Maps. Mit Hilfe von Google Street View ist es Nutzern möglich, im virtuellen Rahmen durch die Straßenzüge der Stadt zu wandern. In den USA wurden bereits über 40 Metropolen für das Projekt abgelichtet und lassen sich auf die selbe Weise erkunden. Berlin ist momentan aber nicht die einzige Stadt, die in Street View aufgenommen wird. Neben Berlin werden auch Frankfurt und München abfotografiert. Es sei von großem Vorteil sich eine Stadt vor dessen Besuch etwas genauer anzusehen und sich mit ihr etwas vertraut zu machen, so Keuchel.

In den Kameraaugen der Fahrzeuge, die für Google Street View unterwegs sind, befinden sich elf Linsen, die eine 360 Grad Aufnahme der einzelnen Straßen ermöglichen. Eine bewegte Reise durch die Stadt ist allerdings nicht möglich, sondern lediglich von einer 360 Grad Ansicht zur nächsten.

Datenschützer sehen eher die negativen Aspekte des Projektes. So sei es möglich anhand der Straßennamen und – nummern in Erfahrung zu bringen, wo jemand wohnt. Im Zeichen des Datenschutzes macht Google Gesichter und KFZ-Kennzeichen bereits unkenntlich, denn bereits in den USA haben sich Bürger darüber beschwert, ohne deren Zustimmung abgelichtet worden zu sein.

Zur Unkenntlichmachung der Gesichter, verwendet Google eine Software, die in der Lage ist Gesichter unkenntlich zu machen und diese dann anschließen verpixelt. Aufgrund dessen, werden sicherlich nicht alle Gesichter unkenntlich gemacht werden können, da die Software nicht alle Gesichter erkennen kann.

Google Street View ist sicherlich eine nette Spielerei, aber für viele vielleicht doch schon etwas zu viel. Denn wenn ich mir eine Stadt quasi so anschauen kann, als wenn ich dort wäre, warum muss ich dann überhaupt noch dorthin fahren?

jetzt kommentieren? 16. Juli 2008

Google: die schlaue Microsoftversion

Die Vormachtstellung von Google im Bereich der Suchmaschinen ist bereits monopolverdächtig, dennoch beteuert das Unternehmen, dass es aus den Fehlern von Microsoft gelernt habe und deshalb die Regeln einhalten werde. Marktbeobachter schlagen dennoch bereits jetzt Alarm.Die schnelle Entwicklung von Google wird oft mit der von Microsoft verglichen. Damals war Microsoft das Unternehmen, das quasi aus dem Nichts mit Hilfe gekonnter Nutzung von Netzwerken und strategischen Partnerschaften in den Himmel wuchs. Was Microsoft mit der IT-Revolution gelang, gelang Google mit der Internet Revolution und so dominiert Google mehr oder weniger das Internet. Die New York Times meint, dass sich der Werdegang der beiden Unternehmen sehr ähnle Google dabei aber einen etwas anderen Weg gegangen sei, um zum gleichen Ziel zu gelangen.

Einer der wesentlichsten Unterschiede zu Microsoft besteht darin, dass Google überaus anpassungsfähig ist. Diese Anpassungsfähigkeit ist auch nötig, denn anders als damals, kann Google nicht auf die gleichen Mittel zurückgreifen wie einst Windows, damit die Kunden an die Marke bzw. an das Unternehmen gebunden werden. Die Produkte von Google sind kostenlos und für jedermann frei zugänglich. Die Software basiert dabei auf Open-Source-Entwicklungen. Daher muss sich der Suchmaschinenriese ständig an die Bedürfnisse der Kunden anpassen, damit der Marktanteil von über 60 Prozent auch gehalten werden kann. Diese Anpassungsfähigkeit lässt sich Google auch einiges kosten, so sind im Unternehmen zahlreiche Programmierer, Entwickler und Rater damit beschäftigt, das Angebot der Suchmaschine ständig zu verbessern und der Konkurrenz immer einen Schritt voraus zu sein.

Google profitiert vor allem vom Schneeballeffekt. Es steht jedem frei die Dienste von Google in Anspruch zu nehmen. So kann jeder frei entscheiden, ob er Gmail, oder die Google Suche verwendet. Wird der User, der mit Google Anwendungen arbeitet allerdings zufriedengestellt, wird dieser aller Voraussicht nach auch bei diesen Anwendungen bleiben und diese auch weiterempfehlen. Googles Leitspruch ist „don’t be evil”, welcher auch im Zusammenhang mit der Kundengewinnung eine große Rolle spielt. Klar ist aber auch, dass derjenige, der den Markt beherrscht, nicht nur Gutes tun wird. Allerdings betont das Unternehmen immer wieder, dass man aus den Kartellrechtsverletzungen von Microsoft gelernt habe und deshalb nicht die gleichen Fehler begehen wird.

Diese schönen Worte kommen allerdings nicht bei jedem Marktbeobachter und Analysten an. Vor allem die kürzlich vereinbarte Zusammenarbeit mit Yahoo! gerät immer mehr ins Kreuzfeuer der Kritik. Das Anzeigengeschäft von Google sei viel zu undurchsichtig, weshalb man eine doch böse werdende Suchmaschine Google, die die Preise für die Textanzeigen erhöht, kaum erkennen könne.

Nicht zu letzt aus diesen Gründen steht Google unter der Beobachtung der amerikanischen und europäischen Kontrollbehörden. Das Problem ist vor allem, dass es neuen Firmen kaum möglich sei neben Google im Suchmaschinensektor Fuß zu fassen.

Google wird in Zukunft also auf jeden Schritt genau acht geben müssen, denn es gibt viele, die nur auf einen Fehltritt des Riesen warten.

jetzt kommentieren? 08. Juli 2008

Google indexiert keine Blog Einträge mehr

Es gibt wieder einmal neues vom Google Index. Dies betrifft vor allem große Blogs, oder sogar alle Blogs. Seit mehreren Tagen schaut es so aus, als ob viele Blog Seiten und deren Blog Beiträge aus dem Google Index verschwunden sind. Die Blogs können nun nur noch über die Google Blog Search gefunden werden. Allem Anschein nach sind überwiegend Blog Beiträge betroffen, die zwischen dem 26. Juni und dem 1. Juli erstellt worden sind.Diese Vorgehensweise ist vor allem aus diesem Grund unverständlich, dass sich die Google Blog Search noch in der Beta Phase befindet und eigentlich nur als Zusatz zu der eigentlichen Google Suche dienen sollte.

Besonder schwer treffen dürfte dies Webmaster und Blog Betreiber, die vom Google Traffic „leben”. Denn die User, die über Google auf die Seite kommen bleiben von einem Moment auf den anderen plötzlich aus. Ob alle Blogs von dieser „Neuerung” betroffen sind, ist noch unklar. Es scheint sich aber abzuzeichnen, dass vor allem WordPress Blogs von dieser Maßnahme betroffen sind.

Einige Blog Webmaster haben auch schon versucht etwas gegen das Verschwinden ihrer Blogs auf der Google Suche zu unternehmen. So wurde versucht, die XML Sitemap erneut zu erstellen und an Google zu senden. Das ganze war allerdings ohne Erfolg.

Fraglich bleibt nun, ob das ein vorübergehender Zustand ist, ob Google einmal mehr einen neuen Algorithmus testet, oder ob diese Vorgehensweise sich etwa sogar gegen Blogger richtet, die Blogs nur aus dem Grund des Geldmachens betreiben. Dies scheint allerdings nur schwer vorstellbar, da sich Google hier sozusagen ins eigene Fleisch schneiden würde, da viele derartiger Blogs AdSense enthalten, die einen der Haupteinnahmequellen des Suchmaschinenriesens darstellen.

jetzt kommentieren? 07. Juli 2008

ratproxy – Googles neue Sicherheitssoftware

Google hat eine neue OpenSource Software veröffentlicht. Die Anwendung stellt sich zwischen Browser und Website und fungiert dabei als Proxy. Hinweise auf eventuelle Sicherheitslücken werden dabei von der Anwendung protokolliert. So wird es für die Entwickler möglich, dass sie einfach und schnell nach möglichen Lücken und Risiken in ihren Anwendungen suchen können.

Ratproxy – so nennt sich das Goldstück – arbeitet dabei ganz gleich wie ein „normaler” Proxyserver. In der Überprüfung der Seite sind auch Javascripts, HTML-Dateien und Flash Inhalte integriert. Gut an dieser neuen gratis Anwendung ist, dass auch auf dem Computer abgespeicherte Cookies unter die Lupe genommen werden können. Die neue Sicherheitssoftware von Google wurde unter der sogenannten Apache Linzens 2.0 freigegeben. Die Software wurde auf Google Open Source Plattform veröffentlicht und steht ab sofort zum Download bereit.

Ratproxy 1.51 ist kompatibel mit MacOS X, Linux, FreeBSD und Microsoft.

jetzt kommentieren? 07. Juli 2008

Wieder Neuigkeiten bei Google

Wie viel Einfluss der PageRank auf das Ranking einer Seite bei Google noch hat, ist ein heiß diskutiertes Thema. Viele meinen er spiele mittlerweile nur noch eine untergeordnete Rolle.Bei Money Bloggern (das sind Blogger, die mit ihren Blogs Geld verdienen wollen) sieht das Ganze allerdings noch ganz anders aus. Hier spielt der PageRank nach wie vor eine große Rolle. Diverse Geldquellen wie etwa LinkLift sind nur dann lukrativ, wenn auch der PageRank eines Blogs stimmt.

Auch wenn der PageRank beim Ranking nicht mehr so viel Einfluss nimmt, hat er immer noch eine gewisse „Macht”. Wenn es zum Beispiel um den Verkauf von Werbeplätzen oder dergleichen geht, ist der PageRank immer noch eine Argumentationsgrundlage, um einen gewissen Preis zu verlangen. Dies gilt auch beim Linktausch, um die Linkpopularität zu steigern. Hier wird meist auch nur ein Link gegen einen gleichwertigen PageRank getauscht.

Allgemein gesagt kann man sagen, dass der PageRank mit der Zahl der Links, die auf die Seite linken, steigt. Bei den Links muss man allerdings acht geben, dass sie von Seiten kommen, die für das eigene Thema relevant sind. Ebenso wichtig ist, dass der Link nicht von einer Seite kommt, die von Google bereits abgestraft wurde. Eine Abstrafung kann zum Beispiel im Zuge von Spaming „verhängt” werden. Seiten werden von Google als Spam erachtet, wenn sie unlautere Methoden verwenden, um bei den Suchmaschinenergebnissen höhere Rankings zu erreichen. Solche unlauteren Methoden sind zum Beispiel versteckter Text (wenn Keywords in der gleichen Farbe, wieder Hintergrund geschrieben werden, oder wenn der Text so klein geschrieben wird, dass der User diesen nicht mehr lesen kann), Cloaking (sind vorgeschaltete Seiten vor der eigentlichen Seite, die bei der Suchmaschine für gute Platzierungen sorgen sollen), oder auch Keyword-Stuffing (die Unterbringung von so viel als möglich Keywords, um den Anschein zu erwecken, dass die Seite sehr relevant ist, für ein gewisses Thema). Linkt eine solche Seite auf die eigene Seite, spricht man von „bad neighborhood” also schlechter Nachbarschaft. Dies kann dann ebenfalls zur Abstrafung der eigenen Seite führen.

Ob der PageRank also für Google noch relevant ist, oder nicht, es schadet nie an einer Erhöhung des PageRanks zu arbeiten. 

jetzt kommentieren? 01. Juli 2008

ältere Beiträge