SAMSoft Softwareentwicklung Augsburg Startseite

Suchmaschinenoptimierung   Suchmaschinen-Optimierung
  Teil 1

Skills
History
Projects
Team
Links
Contact


Inhalt

SEO - was ist das?
Ausgangsbasis ist eine Liste
Wie ein Searchbot, Webcrawler oder
Spider funktioniert

Die Keystrings im Webauftritt
Einfluss des Designs
Suchmaschinen-Spam
Hidden Text
Cloaking
Doorway Pages
Das Ranking
Das Google™ PageRank™
Abfrage der Linkpopularität
Webverzeichnisse und Branchenportale
Linktausch, PR-Artikel, Sponsoring
Aktualität, Umfang und Traffic
Spamming von Newsgroups, Foren,
Blogs und Guestbooks

Erfolgskontrolle und Transparenz
Vorgetäuschter, künstlicher Traffic
AdWords, AdSense, Yahoo Search Marketing
und das MIVA-Netzwerk

Seiten unter CMS-Verwaltung und Shops
Die Kostenfrage
Gesperrt! Was nun?
Quellen, weitere Links und ein Zauberspruch
Feedback
Anhang: Spezielle Linkfarmen

SEO - was ist das?

Jede Firma, jede Organisation, jede Privatperson, die eine kommerzielle oder private Webpräsenz unterhält, möchte auf jeden Fall eines: So viele Besucher wie möglich bekommen. Dafür gibt es verschiedene Möglichkeiten. Man kann sich auf Mund zu Mund Propaganda verlassen, man kann Inserate und Banner schalten, man kann versuchen in Rundfunk und Fernsehen erwähnt zu werden. Das hilft sicher alles, aber eines ist ganz sicher: Um im weltweiten Netz gefunden zu werden, braucht man Einträge in den großen Suchmaschinen, und zwar möglichst auf einem der vorderen Listenplätze. Nur, wie kommt man da hin?

An jeder Ecke im Internet werden die Dienste von Suchmaschinen-Optimierern angeboten, die traumhafte Positionierungen bei den Suchmaschinen versprechen. Es gibt viele seriöse, aber auch viele unseriöse Angebote. Es gibt saubere und unsaubere Methoden. Man kann auch sagen, das Geschäft mit der Suchmaschinen-Optimierung ist zwielichtig, die Anbieter dieser Dienstleistung haben keinen guten Ruf und sind auch nicht sonderlich beliebt, weder bei den Suchmaschinen-Betreibern noch bei den Anwendern. Warum ist das so? Was macht eigentlich ein Search Engine Optimizer (SEO)?

Die Webmaster-Guidelines von Google

Ausgangsbasis ist eine Liste

Wenn Sie der Chef einer Firma sind, die ein Produkt zu verkaufen hat, dann haben Sie eine Marketingabteilung. Die Marketingabteilung kümmert sich darum, das Produkt richtig zu beschreiben, eine passende Käuferschicht zu bestimmen und diese möglichen Käufer so gezielt wie möglich anzusprechen. Wenn Sie eine Webpage in die Trefferlisten einer Suchmaschine bringen wollen, gehen Sie ganz ähnlich vor. Als Erstes brauchen Sie eine Liste von Begriffen, die Ihren Auftritt so treffend wie möglich beschreiben, die Keystrings.

Vielleicht klingen die ersten Begriffe und Sätze, die Ihnen einfallen, in etwa so: "Das ist Ihre Chance! Top-Qualität zu Top-Preisen! Besuchen Sie den Marktführer! Wir sind Ihr Erfolgsgarant!" Das ist natürlich ganz falsch. Als erstes müssen Sie lernen, sich vollständig in den Internet-Nutzer hineinzuversetzen. Was wird der Mensch am Computer da draußen in die Eingabezeile einer Suchmaschine schreiben? Wird er nach dem Marktführer suchen? Sucht er einen Erfolgsgarant? Will er Top-Qualität? Nein, das tut er nicht. Er denkt nicht daran. Der Sucher denkt überhaupt nicht in Marketingbegriffen. Der Sucher gibt ein, zwei magere Merkmale ein, "rot", "elektrisch" und "leise", fügt vielleicht bestenfalls noch "preisgünstig" hinzu und macht dabei obendrein auch noch einige Schreibfehler. Die Marketing-Chefin hat an der Uni gelernt, man soll den Kunden immer persönlich ansprechen. Also schreibt sie in das description-Tag: "Besuchen Sie uns, wir sind rund um die Uhr für Sie da!" Doch ihr Kunde sucht - bestenfalls - ganz banal nach einem 24-Stundenservice.

Das ist also das Erste, was ein erfahrener SEO macht: Er erstellt Listen mit Schlüsselbegriffen und treffenden Phrasen, die zu dem Auftritt passen. Für diese Tätigkeit hat er entweder Gespür, Talent und Autorität, oder er hat das nicht, dann ist er nicht gut. Er denkt sich in den Auftritt und in das Angebot hinein und testet Hunderte von Suchabfragen. Er studiert die Mitbewerber, prüft, wie diese sich präsentieren. Nachdem eine Liste mit Keywords erstellt ist, die ganz auf das Verhalten der Internetnutzer abgestimmt ist, stellt sich die Frage, wie man die Suchmaschinen dazu bringt, auf diese Begriffe zu reagieren und die Webpräsenz zu listen. Die Antwort lautet: Man muss die Searchbots anlocken und füttern.

Wie ein Searchbot, Webcrawler oder Spider funktioniert

In den allermeisten Fällen muss man seine Webseiten bei den großen Suchmaschinen nicht anmelden. Die Suchmaschinenbetreiber lassen Tag und Nacht eigene Programme, sogenannte Bots, Crawler oder Spider durch das Internet laufen, die jeden Link verfolgen und jede verknüpfte Datei im Internet abscannen. Der Spider von Google nennt sich Googlebot. Diese Scannerprogramme wandern von Webserver zu Webserver und laden die verfügbaren Dateien herunter. Dabei verhalten sie sich aber nicht wie ein Internet-Explorer.

Um Zeit und Bandbreite zu sparen, werden natürlich keine Grafiken und keine Mediendateien angesehen, ausgewertet oder analysiert. Schrift in Grafik kann und will der Crawler nicht lesen. Es werden keine Scripts interpretiert und keine Framesets aufgebaut. Der Webcrawler liest einfach nur, was im Klartext dasteht. Wenn er Text findet, dann untersucht er den Context und baut markante Worte in seinen Suchindex ein. Wenn er einen Hyperlink findet, dann merkt er ihn sich und besucht das Ziel als eine seiner nächsten Aufgaben. Wer sich einen Eindruck vermitteln will, wie so ein Webcrawler die eigenen Seiten sieht, kann sich das Programm Lynx herunterladen. Lynx ist ein Internetbrowser, der als Kommandozeilenprogramm vollständig im Textmodus arbeitet.

Homepage von Lynx

Dynamische Seiten eines Internetauftritts, die "on the fly" erzeugt werden, können für den Searchbot ein Problem darstellen. Oft will der Webprogrammierer auf das Verhalten des Benutzers entsprechend reagieren und eine Seite zeigen, deren Inhalt von den Eingaben des Benutzers abhängig ist. Wenn der Inhalt einer Seite von submitteten GET- oder, schlimmer noch, von POST-Daten abhängig ist, kann es sein, dass der Searchbot die Seite niemals zu sehen bekommt. Es gibt eine einfache Grundregel: Ein Webcrawler macht keine Benutzereingaben. Was man in einem Webauftritt nicht mit einfachen Mausklicks erreichen kann, sieht die Suchmaschine möglicherweise niemals.

Weiter auf der nächsten Seite

Weiter auf der nächsten Seite

 


© 1990-2015
SAMSoft® Dipl.-Ing. Stefan Meisel
Ingenieurbüro für Datentechnik