Hvad er en søgemaskine ?

Søgemaskiner, hvorledes virker de ....

En søgemaskine virker som en åben database, hvor informationer opsamles løbende fra Internettets forskellige websteder. Informationerne indsamles efter forskellige systemer ( algoritmer ) afhængigt af de enkelte søgemaskiner. Disse vægter forskellige opsætninger på siderne forskelligt. Det kan være metatags, beskrivelser, bodytekst og link-popularitet på de enkelte sider. Alt sammen forhold, der afgør den aktuelle placering på den enkelte søgemaskine.

Robotterne / spiderne er dem, som søgemaskinerne anvender til at hente information fra de enkelte sider, de sendes igennem. Robotterne følger nettes mange tråde ( links ) til de forskellige websites og registrerer derefter og gemmer de informationer, de har hentet i den pågældende søgemaskines eget logaritme system. Disse ord / ordstillinger, samlinger af tekster, beskrivelser etc. gemmes i databasen og kommer frem, når der søges på et bestemt ord eller eller ordstilling.

Problemerne opstår imidlertid, når der er mange websider, der har samme søgeord / søgeordstillinger. Dette medfører, at der kan være fra ganske få til flere millioner sider med samme søgeord / søgeordstillinger. Det er ok, hvis man er placeret imellem de første sider - så er der en chance for, at siden bliver fundet. Hvis placeringen er fra placering 40 - 10.000.000 skal der en god fantasi til at forestille sig en kunde / køber, der henvender sig efter forespørgsel på søgemaskinen.

Søgemaskiner er systemer, der robotindekserer siderne og holder sig ajour med de forskellige sites i et konstant system.

Eksempler på søgerobotter.:  Google identificerer sig med følgende parametre, som man vil kunne finde i sin logfil.:

2010-07-05, 18:39:56 --  -- 66.249.68.100 -- index.html -- Mozilla/5.0 (compatible; Googlebot/2.1; +http://www.google.com/bot.html) --  -- GET

Man vil kunne se forskellige IP adresser på Googlebot. Der anvendes flere tusinde i forbindelse med indsamling af data fra nettet.


Webindeks - Direktories

Emnekataloger

En anden måde at håndtere datainformation på er optagelse i forskellige webindeks - direktorie - emnekataloger.

Fordelen er, at siderne optages manuelt ved, at der er en person, der registrerer og kigger siderne igennem -  og herefter placerer siderne under et emneområde som f.eks. E-handel - Industri - Dyr eller lign.

Her sikres en vurdering og placering efter de beskrivelser og søgeord, der opgives ved tilmeldingen, og da det er en person, der kigger på siderne kan der ikke manipuleres med søgeresultaterne her.

Derfor er det yderst vigtigt at få beskrevet nogle gode tekster med indholdsmæssige kvaliteter, der beskriver webstedet på en i øjenfaldende måde,når siderne tilmeldes til emnekataloger.

Emnekataloger findes hos bl.a. www.danske links.dk

Fordelen ved placeringer i emnekataloger er, at de er med til at skabe linkpopularitet. Søgeresultater på andre søgemaskiner kommer i nogle tilfælde frem med søgeresultater med direkte henvisning til jeres websted på bestemte ord.

Desværre har tiden vist, at mange linkkataloger er skiftet fra det oprindelige formål! Fra at være linkkataloger har de udviklet sig til det, der må betragtes som linkfarme. Et sådan sted er ikke anbefalelsesværdigt at placere sit website! Udviklingen er imidlertid sket i takt med, at flere og flere jagter kunstig linkpopularitet, hvilket gør, at der kommer tonsvis af useriøse kataloger på markeder.

Så. Rådet er, at det stadig godt kan betale sig at anvende linkkataloge. Men man skal se sig godt for, hvilket katalog man tilmelder sit website til.