Tag: SEO
Mitte der 1990er Jahre fingen die 1. Suchmaschinen im Internet an, das frühe Web zu sortieren. Die Seitenbesitzer erkannten zügig den Wert einer lieblings Listung in den Ergebnissen und recht bald fand man Organisation, die sich auf die Aufwertung qualifitierten.
In Anfängen vollzogen wurde der Antritt oft über die Transfer der URL der jeweiligen Seite in puncto divergenten Internet Suchmaschinen. Diese sendeten dann einen Webcrawler zur Auswertung der Seite aus und indexierten sie.[1] Der Webcrawler lud die Website auf den Webserver der Suchseiten, wo ein weiteres Computerprogramm, der so genannte Indexer, Informationen herauslas und katalogisierte (genannte Ansprüche, Links zu sonstigen Seiten).
Die neuzeitlichen Typen der Suchalgorithmen basierten auf Informationen, die durch die Webmaster sogar bestehen wurden, wie Meta-Elemente, oder durch Indexdateien in Suchmaschinen im Internet wie ALIWEB. Meta-Elemente geben einen Eindruck via Inhalt einer Seite, gewiss registrierte sich bald herab, dass die Inanspruchnahme der Tipps nicht verlässlich war, da die Wahl der verwendeten Schlüsselworte durch den Webmaster eine ungenaue Präsentation des Seiteninhalts reflektieren hat. Ungenaue und unvollständige Daten in den Meta-Elementen konnten so irrelevante Internetseiten bei einzigartigen Stöbern listen.[2] Auch versuchten Seitenersteller diverse Fähigkeiten binnen des HTML-Codes einer Seite so zu steuern, dass die Seite größer in den Suchergebnissen aufgeführt wird.[3]
Da die damaligen Suchmaschinen im Internet sehr auf Merkmalen abhängig waren, die nur in den Fingern der Webmaster lagen, waren sie auch sehr vulnerabel für Abusus und Manipulationen in der Positionierung. Um überlegenere und relevantere Testurteile in Suchergebnissen zu erhalten, mussten sich die Anbieter der Search Engines an diese Gegebenheiten anpassen. Weil der Erfolg einer Recherche davon anhängig ist, besondere Ergebnisse der Suchmaschine zu den inszenierten Suchbegriffen anzuzeigen, konnten ungeeignete Resultate darin resultieren, dass sich die User nach anderen Entwicklungsmöglichkeiten bei dem Suche im Web umsehen. Die Auflösung der Suchmaschinen im Internet vorrat in komplexeren Algorithmen beim Ranking, die Faktoren beinhalteten, die von Webmastern nicht oder nur schwierig steuerbar waren. Larry Page und Sergey Brin gestalteten mit „Backrub“ – dem Stammvater von Suchmaschinen – eine Recherche, die auf einem mathematischen KI basierte, der mit Hilfe der Verlinkungsstruktur Websites gewichtete und dies in Rankingalgorithmus eingehen ließ. Auch weitere Suchmaschinen überzogen in Mitten der Folgezeit die Verlinkungsstruktur bspw. als der Linkpopularität in ihre Algorithmen mit ein.
Suchmaschinen