Tag: SEO
Mitte der 1990er Jahre fingen die aller ersten Search Engines an, das frühe Web zu ordnen. Die Seitenbesitzer erkannten zügig den Wert einer lieblings Listung in Resultaten und recht bald entstanden Organisation, die sich auf die Besserung professionellen.
In den Anfängen ereignete sich der Antritt oft zu der Übermittlung der URL der jeweiligen Seite bei der unterschiedlichen Suchmaschinen im Netz. Diese sendeten dann einen Webcrawler zur Auswertung der Seite aus und indexierten sie.[1] Der Webcrawler lud die Homepage auf den Webserver der Recherche, wo ein weiteres Computerprogramm, der die bekannten Indexer, Angaben herauslas und katalogisierte (genannte Ansprüche, Links zu ähnlichen Seiten).
Die zeitigen Versionen der Suchalgorithmen basierten auf Infos, die dank der Webmaster auch vorgegeben sind, wie Meta-Elemente, oder durch Indexdateien in Suchmaschinen im WWW wie ALIWEB. Meta-Elemente geben einen Gesamteindruck mit Thema einer Seite, jedoch registrierte sich bald herab, dass die Anwendung dieser Ratschläge nicht verlässlich war, da die Wahl der gebrauchten Schlüsselworte durch den Webmaster eine ungenaue Erläuterung des Seiteninhalts wiedergeben kann. Ungenaue und unvollständige Daten in den Meta-Elementen konnten so irrelevante Websites bei einzigartigen Recherchieren listen.[2] Auch versuchten Seitenersteller diverse Fähigkeiten innert des HTML-Codes einer Seite so zu lenken, dass die Seite stärker in Resultaten gelistet wird.[3]
Da die neuzeitlichen Suchmaschinen sehr auf Aspekte angewiesen waren, die bloß in den Fingern der Webmaster lagen, waren sie auch sehr labil für Delikt und Manipulationen in der Positionierung. Um bessere und relevantere Testurteile in Serps zu bekommen, musste ich sich die Betreiber der Suchmaschinen im Netz an diese Rahmenbedingungen anpassen. Weil der Riesenerfolg einer Suchseiten davon abhängt, wichtigste Ergebnisse der Suchmaschine zu den gestellten Keywords anzuzeigen, konnten ungeeignete Testergebnisse darin resultieren, dass sich die User nach weiteren Entwicklungsmöglichkeiten bei dem Suche im Web umblicken. Die Antwort der Suchmaschinen im WWW vorrat in komplexeren Algorithmen beim Rang, die Punkte beinhalteten, die von Webmastern nicht oder nur mühevoll steuerbar waren. Larry Page und Sergey Brin entwarfen mit „Backrub“ – dem Urahn von Google – eine Anlaufstelle, die auf einem mathematischen Algorithmus basierte, der anhand der Verlinkungsstruktur Kanten gewichtete und dies in den Rankingalgorithmus eingehen ließ. Auch andere Suchmaschinen bedeckt in Mitten der Folgezeit die Verlinkungsstruktur bspw. als der Linkpopularität in ihre Algorithmen mit ein.
Die Suchmaschine