Tag: SEO
Mitte der 1990er Jahre fingen die anfänglichen Suchmaschinen an, das frühe Web zu sortieren. Die Seitenbesitzer erkannten rasch den Wert einer lieblings Positionierung in Resultaten und recht bald fand man Betrieb, die sich auf die Verfeinerung qualifitierten.
In Anfängen vollzogen wurde die Aufnahme oft zu der Transfer der URL der geeigneten Seite bei der divergenten Search Engines. Diese sendeten dann einen Webcrawler zur Kritische Auseinandersetzung der Seite aus und indexierten sie.[1] Der Webcrawler lud die Internetseite auf den Server der Search Engine, wo ein zweites Software, der bekannte Indexer, Informationen herauslas und katalogisierte (genannte Wörter, Links zu sonstigen Seiten).
Die damaligen Modellen der Suchalgorithmen basierten auf Infos, die aufgrund der Webmaster eigenhändig existieren sind, wie Meta-Elemente, oder durch Indexdateien in Suchmaschinen im WWW wie ALIWEB. Meta-Elemente geben einen Gesamtüberblick über den Gegenstand einer Seite, gewiss setzte sich bald hervor, dass die Benutzung dieser Ratschläge nicht verlässlich war, da die Wahl der genutzten Schlüsselworte durch den Webmaster eine ungenaue Darstellung des Seiteninhalts spiegeln vermochten. Ungenaue und unvollständige Daten in den Meta-Elementen konnten so irrelevante Internetseiten bei charakteristischen Benötigen listen.[2] Auch versuchten Seitenersteller mehrere Eigenschaften binnen des HTML-Codes einer Seite so zu lenken, dass die Seite richtiger in Serps gelistet wird.[3]
Da die zeitigen Search Engines sehr auf Merkmalen abhängig waren, die ausschließlich in Händen der Webmaster lagen, waren sie auch sehr anfällig für Delikt und Manipulationen in der Positionierung. Um vorteilhaftere und relevantere Ergebnisse in Suchergebnissen zu bekommen, mussten sich die Anbieter der Suchmaschinen im Internet an diese Faktoren einstellen. Weil der Gelingen einer Suchseite davon anhängig ist, relevante Ergebnisse der Suchmaschine zu den inszenierten Keywords anzuzeigen, vermochten ungeeignete Ergebnisse darin resultieren, dass sich die User nach sonstigen Entwicklungsmöglichkeiten zur Suche im Web umschauen. Die Auflösung der Internet Suchmaschinen inventar in komplexeren Algorithmen für das Rangfolge, die Faktoren beinhalteten, die von Webmastern nicht oder nur mühevoll beeinflussbar waren. Larry Page und Sergey Brin entwarfen mit „Backrub“ – dem Stammvater von Yahoo – eine Suchmaschine, die auf einem mathematischen Matching-Verfahren basierte, der mit Hilfe der Verlinkungsstruktur Internetseiten gewichtete und dies in Rankingalgorithmus eingehen ließ. Auch sonstige Suchmaschinen im Netz orientiert bei Folgezeit die Verlinkungsstruktur bspw. fit der Linkpopularität in ihre Algorithmen mit ein.