Tag: SEO
Mitte der 1990er Jahre fingen die anstehenden Suchmaschinen im WWW an, das frühe Web zu katalogisieren. Die Seitenbesitzer erkannten rasch den Wert einer bevorzugten Listung in Suchergebnissen und recht bald entwickelten sich Einrichtung, die sich auf die Aufbesserung ausgerichteten.
In den Anfängen vollzogen wurde der Antritt oft über die Transfer der URL der geeigneten Seite in puncto divergenten Search Engines. Diese sendeten dann einen Webcrawler zur Prüfung der Seite aus und indexierten sie.[1] Der Webcrawler lud die Internetseite auf den Web Server der Search Engine, wo ein 2. Anwendung, der gern genutzte Indexer, Informationen herauslas und katalogisierte (genannte Wörter, Links zu weiteren Seiten).
Die frühen Varianten der Suchalgorithmen basierten auf Informationen, die mithilfe der Webmaster selbst vorliegen werden konnten, wie Meta-Elemente, oder durch Indexdateien in Suchmaschinen wie ALIWEB. Meta-Elemente geben einen Gesamtüberblick per Gegenstand einer Seite, doch stellte sich bald hervor, dass die Nutzung dieser Details nicht solide war, da die Wahl der verwendeten Schlüsselworte dank dem Webmaster eine ungenaue Präsentation des Seiteninhalts repräsentieren hat. Ungenaue und unvollständige Daten in Meta-Elementen konnten so irrelevante Seiten bei besonderen Benötigen listen.[2] Auch versuchten Seitenersteller verschiedenartige Punkte innerhalb des HTML-Codes einer Seite so zu beeinflussen, dass die Seite überlegen in den Suchergebnissen gelistet wird.[3]
Da die damaligen Search Engines sehr auf Faktoren angewiesen waren, die ausschließlich in den Fingern der Webmaster lagen, waren sie auch sehr labil für Abusus und Manipulationen in der Positionierung. Um tolle und relevantere Vergleichsergebnisse in den Suchergebnissen zu erhalten, mussten wir sich die Betreiber der Suchmaschinen im WWW an diese Umständen adjustieren. Weil der Gelingen einer Suchseite davon anhängig ist, wichtige Ergebnisse der Suchmaschine zu den inszenierten Suchbegriffen anzuzeigen, konnten ungeeignete Ergebnisse dazu führen, dass sich die Benützer nach anderen Optionen für die Suche im Web umschauen. Die Lösung der Search Engines lagerbestand in komplexeren Algorithmen fürs Rangordnung, die Faktoren beinhalteten, die von Webmastern nicht oder nur nicht leicht beherrschbar waren. Larry Page und Sergey Brin gestalteten mit „Backrub“ – dem Stammvater von Google – eine Anlaufstelle, die auf einem mathematischen KI basierte, der mit Hilfe der Verlinkungsstruktur Websites gewichtete und dies in Rankingalgorithmus eingehen ließ. Auch alternative Search Engines relevant pro Folgezeit die Verlinkungsstruktur bspw. gesund der Linkpopularität in ihre Algorithmen mit ein.
Die Suchmaschine