Tag: SEO
Mitte der 1990er Jahre fingen die ersten Suchmaschinen im Internet an, das frühe Web zu systematisieren. Die Seitenbesitzer erkannten direkt den Wert einer lieblings Listung in den Suchergebnissen und recht bald entwickelten sich Einrichtung, die sich auf die Aufbesserung spezialisierten.
In Anfängen bis zu diesem Zeitpunkt der Antritt oft zu der Übermittlung der URL der jeweiligen Seite an die unterschiedlichen Internet Suchmaschinen. Diese sendeten dann einen Webcrawler zur Prüfung der Seite aus und indexierten sie.[1] Der Webcrawler lud die Internetpräsenz auf den Webserver der Search Engine, wo ein weiteres Anwendung, der die bekannten Indexer, Infos herauslas und katalogisierte (genannte Wörter, Links zu diversen Seiten).
Die neuzeitlichen Varianten der Suchalgorithmen basierten auf Infos, die mithilfe der Webmaster auch existieren wurden, wie Meta-Elemente, oder durch Indexdateien in Search Engines wie ALIWEB. Meta-Elemente geben eine Übersicht über den Inhalt einer Seite, allerdings registrierte sich bald raus, dass die Verwendung der Vorschläge nicht verlässlich war, da die Wahl der angewendeten Schlagworte durch den Webmaster eine ungenaue Vorführung des Seiteninhalts repräsentieren hat. Ungenaue und unvollständige Daten in Meta-Elementen konnten so irrelevante Seiten bei charakteristischen Ausschau halten listen.[2] Auch versuchten Seitenersteller diverse Fähigkeiten in des HTML-Codes einer Seite so zu steuern, dass die Seite überlegen in den Resultaten gefunden wird.[3]
Da die damaligen Search Engines sehr auf Aspekte angewiesen waren, die nur in Koffern der Webmaster lagen, waren sie auch sehr labil für Straftat und Manipulationen im Ranking. Um gehobenere und relevantere Urteile in den Serps zu bekommen, musste ich sich die Unternhemer der Suchmaschinen im Netz an diese Rahmenbedingungen integrieren. Weil der Gelingen einer Suchseiten davon abhängig ist, wichtigste Suchresultate zu den inszenierten Suchbegriffen anzuzeigen, konnten unpassende Testergebnisse darin resultieren, dass sich die User nach weiteren Chancen bei der Suche im Web umsehen. Die Rückmeldung der Suchmaschinen im Internet vorrat in komplexeren Algorithmen fürs Rangfolge, die Punkte beinhalteten, die von Webmastern nicht oder nur schwierig kontrollierbar waren. Larry Page und Sergey Brin konstruierten mit „Backrub“ – dem Urahn von Google – eine Search Engine, die auf einem mathematischen Matching-Verfahren basierte, der anhand der Verlinkungsstruktur Internetseiten gewichtete und dies in Rankingalgorithmus eingehen ließ. Auch andere Suchmaschinen bedeckt in der Folgezeit die Verlinkungsstruktur bspw. als der Linkpopularität in ihre Algorithmen mit ein.
Suchmaschinen