Tag: SEO
Mitte der 1990er Jahre fingen die anstehenden Suchmaschinen im Netz an, das frühe Web zu systematisieren. Die Seitenbesitzer erkannten zügig den Wert einer bevorzugten Listung in Resultaten und recht bald entwickelten sich Anstalt, die sich auf die Aufwertung qualifitierten.
In den Anfängen erfolgte der Antritt oft zu der Transfer der URL der richtigen Seite in puncto verschiedenen Suchmaschinen. Diese sendeten dann einen Webcrawler zur Auswertung der Seite aus und indexierten sie.[1] Der Webcrawler lud die Homepage auf den Webserver der Anlaufstelle, wo ein 2. Programm, der so genannte Indexer, Angaben herauslas und katalogisierte (genannte Ansprüche, Links zu weiteren Seiten).
Die zeitigen Varianten der Suchalgorithmen basierten auf Informationen, die aufgrund der Webmaster auch vorhanden worden sind, wie Meta-Elemente, oder durch Indexdateien in Internet Suchmaschinen wie ALIWEB. Meta-Elemente geben eine Übersicht via Thema einer Seite, dennoch registrierte sich bald raus, dass die Nutzung dieser Tipps nicht zuverlässig war, da die Wahl der angewendeten Schlagworte dank dem Webmaster eine ungenaue Abbildung des Seiteninhalts spiegeln vermochten. Ungenaue und unvollständige Daten in den Meta-Elementen vermochten so irrelevante Unterseiten bei individuellen Ausschau halten listen.[2] Auch versuchten Seitenersteller diverse Merkmale innerhalb des HTML-Codes einer Seite so zu interagieren, dass die Seite besser in Suchergebnissen aufgeführt wird.[3]
Da die damaligen Suchmaschinen im Internet sehr auf Faktoren angewiesen waren, die bloß in den Taschen der Webmaster lagen, waren sie auch sehr labil für Missbrauch und Manipulationen in der Positionierung. Um gehobenere und relevantere Urteile in den Serps zu erhalten, mussten sich die Unternhemer der Suchmaschinen im Internet an diese Voraussetzungen anpassen. Weil der Riesenerfolg einer Suchmaschine davon abhängig ist, besondere Suchergebnisse zu den gestellten Suchbegriffen anzuzeigen, vermochten unpassende Urteile dazu führen, dass sich die Anwender nach anderen Wege bei der Suche im Web umschauen. Die Rückmeldung der Suchmaschinen im Internet vorrat in komplexeren Algorithmen für das Ranking, die Kriterien beinhalteten, die von Webmastern nicht oder nur nicht leicht kontrollierbar waren. Larry Page und Sergey Brin entwarfen mit „Backrub“ – dem Vorläufer von Die Suchmaschine – eine Recherche, die auf einem mathematischen Matching-Verfahren basierte, der mit Hilfe der Verlinkungsstruktur Internetseiten gewichtete und dies in Rankingalgorithmus reingehen ließ. Auch übrige Suchmaschinen im WWW bezogen bei Folgezeit die Verlinkungsstruktur bspw. fit der Linkpopularität in ihre Algorithmen mit ein.
Bing