SEO ordbogen
Her finder du de forskellige ord, der bruges specifikt indenfor SEO, serveropsætninger, programmering og søgemaskinemarkedsføring.
Accelerated Mobile Pages
Google er gået med på AMP projektet i forbindelse med hurtige mobilvenlige websider, og viser disse sider i sit indeks fra 24. februar 2016, hvor de fortolker amphtml efter denne standard. Du kan læse mere om AMP projektet her.
Link til konsortiets hjemmeside.: https://www.ampproject.org/
AI og ChatGtp
AI - kunstig intelligens, hentyder til simuleringen af menneskelig intelligens i maskiner.
Det opnås gennem udarbejdede algoritmer og en software, der giver maskinerne evnen til lære og træffe beslutninger på baggrund af sine data.
AI kan spænde fra simple opgaver som talgenkendelse til mere komplekse som billedgenkendelse, sprogforståelse og beslutningstagning.
Med fremskridt inden for maskinlæring og neurale netværk er AI's kapaciteter vokset eksponentielt, hvilket muliggør automatisering og forbedring af mange processer i forskellige industrier.
Algoritme
Det er en kompliceret formel, der anvendes af søgemaskiner til beregning af relevans ud fra givne kriterier, ved f.eks. at justere på en algoritme på en søgemaskine, så kan den måde den opfatter de enkelte sider ændres.
Søgemaskiner som Google, Bing og Yahoo mv. anvender komplicerede algoritmer til beregning af placeringer af websider i deres index.
Algoritmen består af programkodning, der vægter de forskellige elementer den pågældende søgemaskine finder vigtigst, f.eks. titler, nøgleord, beskrivelser, links, ankertekster, tekstmæssigt indhold, keyword density, eksterne links (linkpopularitet) mv.
Den måde den enkelte søgemaskine vægter de forskellige parametre, varierer fra søgemaskine til søgemaskine.
ALT Tags
Det er en tekst til et givent billede. Teksterne vises, når musen bevæges hen over billedet, hvis der er skrevet tekster til de pågældende billeder.
Alt Tags er nyttige i visse sammenhænge, specielt til at kunne søge efter billeder med et indhold svarende til teksterne i alt tagget.
I ren html version kan ALT tag se således ud.
<img src="http://www.onlinemarketing.dk/images/seo.gif"border="0" alt="SEO" />
Ankertekst
Der er her tale om den synlige tekst i et hyperlink. F.eks. Markedsføring - Dette er en anker tekst som viser et link på vores hjemmeside. Kodningen for denne ser således ud i html version: <a href="http://www.onlinemarketing.dk/"> Markedsføring</ a>
Ankertekster anvendes til at beskrive den side brugeren skal besøge via det pågældende link.
At anvende beskrivende ankertekster er vigtige elementer i den moderne søgemaskineoptimering.
Bot
Her er der tale om en robot, går også under betegnelsen crawler og spider.: Læs mere under Crawler.
Black Hat SEO
Navnet på en teknik der bevidst slører tekst og sidesammensætning, for derigennem at kunne skabe gode placeringer på søgemaskinerne.
Søgemaskinerne accepterer ikke denne form for søgemaskineoptimering, de fjerner websteder der indeholder cloaking og andre blackhat elementer, hvis de opdager det.
Mange teknikker går under betegnelsen Blackhat SEO, de fleste metoder der anvendes er amatør metoder (fattigmands cloaking) som kan spottes ret hurtigt, disse amatør metoder udføres sågar at virksomheder der sælger søgemaskineoptimering.
Der anvendes endvidere indenfor blackhat terminologien avanceret IP cloaking, særligt de nyeste former for partiel IP cloaking er sværere for søgemaskinerne at identificere, derfor er der mange websites på nettet, som bevidst går efter at skabe trafik fra f.eks. kampagnewebsites, og som indeholder denne form for optimering.
At kunne spotte et website med IP cloaking kræver et trænet øje og viden om den bagvedliggende teknik, der findes mange SEO virksomheder både store og små som ikke kan se de bedst optimerede partiel IP cloakede websites, og hvilken teknologi der ligger bagved.
Læs mere om Blackhat SEO og IP Cloaking
Broken link – Brudte link
Et link på et websted der ikke fører til den side som der var tiltænkt, når linket aktiveres lander brugeren på en 404 side, dette er en side som indikerer, at den side man ønskede ikke eksisterer mere.
Cloaking
Det er "Black Hat" teknik, hvor det indhold der vises til søgemaskinerne ikke er det samme som vises til brugerne.
Se Blackhat
CPA
Pris per handling, Cost Per Action, en afregningsmodel for online annoncering, hvor annoncøren betaler for en afgivet handling.
Betegnelsen Pay Per Action eller PPA modeller anvendes ofte som udtryk om samme ydelse.
Kan anvendes i forbindelse med der skal opnås et forud defineret mål og resultat af en annonce eller SEO opgave etc., efter princippet No Cure No Pay modellen, hvor der først betales når der er opnået en given handling.
CPC
Pris per klik, det er det aftalte beløb, der betales for hvert klik der kommer fra en given annonce etc.
CTR - Click Trough Ratio
Her er det forholdet mellem antallet af visninger af en annonce, og antallet af klik på den specifikke annonce. Hvis antallet af brugere, der klikker på annoncen er 100 ud af 100 besøg på den pågældende webside, hvor annoncen er placeret, svarer det til CTR procent på 100 %, hvis dette tal er 10 klik ud af 100 besøg, svarer det til en CTR på 10 %
CPI - Cost Per Impression og CPM - Cost Per Thousand
Bruges i sammenhæng med salg af f.eks. bannerannoncer og visning af reklameblokke for et tusinde visninger.
CPM - Cost Per Thousand
Prisen for annoncering i promille (M= romertallet for 1000) hvilket betyder der afregnes på baggrund af 1000 visninger af en given annonce.
CMS
CMS er navnet på systemer der kan styre indhold på et website, CMS systemer kræver ikke kendskab til kodning, som tidligere metoder til fremstilling af hjemmesider krævede, i et CMS system anvender brugerne et interface som svarer til måden et tekstbehandlingssystem virker, knapper, tekstfonte, billedindsættelser etc.
Der findes indenfor CMS systemer versioner i både Open source, og systemer der kommer fra udviklingshuse og som udbydes kommercielt.
Læs mere om CMS systemer - Her er eksempler på Open Source CMS systemer udgivet under GNU - Drubal CMS system - Joomla CMS system - Typo3 CMS system .
Crawler
Det er et program der er opbygget til at scanne websider og hente data, en webcrawler requester en side, og udtager det indhold som programmet er udviklet til at hente. F.eks. Google Bot, som er en webcrawler der indekserer websider og behandler de indsamlede data efter deres egen algoritme, for derefter at anvende disse data i deres søgeresultater på søgemaskinen.
CSS - Cascading Style Sheets
CSS styleshet betegnes også som typografiark, her beskriver man hvordan websiden ønskes vist for brugerne, skrifttyper, placering af skriftblogge og indhold mv. Et CSS stylesheet kan være placeret i dokumentet eller lagt ud i en tekstfil, som hentes samtidig med den enkelte side vises. Dette gøres ved at indsætte en linie i headeren der kalder stylesheetet.
<link rel="stylesheet" href="/mit.css" type="text/css" />
Fordelen er at der ikke skal arbejdes med skrifttyper mv. på andre sider, der indsættes bare samme CSS stylesheet, som så giver sidens indhold samme formatering.
Der kan anvendes mere avancerede former for CSS stylesheet som styrer sidens layout og andre funktioner, her vil det ofte være nødvendigt at anvende flere stylesheet til opgaven, de indsættes ligeledes i headeren.
Eks.
<link rel="stylesheet" href="/system.css" type="text/css" />
<link rel="stylesheet" href="/mit.css" type="text/css" />
Description tag
Metatag der beskriver sidens indhold, brug en kort beskrivelse af sidens indhold typisk 140 – 160 tegn. Description tag ses af søgemaskinerne, nogle vægter ikke det indholdsmæssige i beregning af ranking og pagerank, men anvender det i visse sammenhænge i resultaterne der vises på en søgemaskinen, en god og sigende beskrivelse her, øger chancen for at en bruger netop trykker på dit link frem for et andet.
DNS cloaking
DNS cloaking er cloaking udført ved brug domæne navneservere,
Her arbejdes der med tilgangen til mapper med forskelligt indhold, her anvendes dns serveren kombineret med webserveren til at bestemme hvem der skal se de enkelte elementer.
Cloaking formen kombineres ofte med andre former for cloaking, såsom IP delivery, herved skjules elementerne med et dobbelt system, hvilket igen giver længere levetid på cloakingsiderne.
Doorway sider
Der er tale om sider der kun er skabt for søgemaskiner. Brugere der kommer ind via en doorway side, bliver typisk omdirigeret / viderestillet til en anden side med mere læsevenligt indhold.
Det falder ind under gruppen "Black Hat" teknik, og disse sider kan føre til permanent udelukkelse fra søgemaskiner indeks, da de betragtes som spam.
Man ser virksomheder, store som små anvende disse teknikker for at være placeret med søgeord i alle afskygninger og med stavefejl mv. – men det kan ikke anbefales at anvende denne form for optimering, da risikomomenterne for udelukkelse på søgemaskinerne er stor, og virkningsgraden i dag er væsentligt dårligere end tidligere.
Læs mere om indgangssider.: Hvad ønsker virksomheden at ranke på i søgemaskinerne
Dublicate content
Kopieret indhold opstår ved at have flere kopier af samme side eller indhold, her kan være tale om ensartede sider med forskellige sidenavne eller sider med identisk indhold på flere domæner.
Søgemaskinerne arbejder selv med at frasortere kopieret indhold, men hvis man er klar over problematikken, er det bedre selv at styre hvilke sider søgemaskinen skal indeksere frem for det bygger på en robots valg i en given situation, og med dårligere placeringer i søgeresultaterne til følge.
Det er ikke altid bevidst forsøg på snyd fra webmasteres side når der opstår problemer med kopieret indhold, men mere uvidenhed om hvordan systemerne fungerer.
Læs en mere uddybende forklaring på dublicate content
EPV - Earnings per Visitor
Indtjening per besøgende – et udtryk der anvendes i forbindelse med en given indtjening for en besøgende.
Etisk søgemaskineoptimering
Etisk søgemaskineoptimering, er optimering der udføres med omhu, og hvor søgemaskinernes guidelines følges slavisk, denne form for søgemaskineoptimering betegnes ofte som Whitehat SEO og organisk SEO
FFA – Free for All
Linkkatalog som optager websites omgående, og i takt med nye tilmeldinger til FFA siderne, glider det tilmeldte link længere og længere ned på siden, for til sidst helt at forsvinde ud af indekset.
FFA kataloger er ikke noget en moderne webmaster skal bruge tid på, de giver ingen værdi i forhold til søgemaskineoptimering og i værste tilfælde kan de skade websitet mere end de gavner.
Mange af disse FFA kataloger indsamler e-mail adresser når du tilmelder et site til deres kataloger, derefter bliver linket fra dit website vist ganske få minutter, men din e-mail vil efterfølgende modtage alverdens spam i form af reklamer og lign. fra udbyderne af disse katalogtjenester, og her taler vi ikke om begrænset levetid, men spam i al evighed.
Frames
Hjemmeside udarbejdet med rammer, her vil menupunkter kunne fastholdes (fikseres) i forhold til de enkelte sider, der er tale om en lidt ældre teknik og metode til håndtering af de enkelte websider, metoden er ikke anbefalelsesværdig, mange har problemer med at søgemaskineoptimere websider med frames, da de enkelte websider vil fremstå uden menuer etc. i de indekserede udgaver når de hentes via f.eks. en søgemaskine.
Lignende funktioner, hvor det er muligt at scrolle på siden kan opnås med CSS stylesheet i stedet, hvilket er at foretrække.
Vi har tidligere opnået rigtigt gode resultater med websider fremstillet med frames, det kræver kendskab til den måde de fungerer på - og så fremstille programdele der kan bringe de løse websider ind i det korrekte rammesæt, når sider aktiveres uden for rammen.
Men fortvivl ikke hvis du har et website opbygget med frames, vi kan godt få det godt indekseret på søgemaskinerne med et godt resultat.
Men vi anbefaler ikke brug af løsninger med Frames til nutidens websider.
Google, verdens største søgemaskine - Google begyndte i 1996 som et forskningsprojekt af Larry Page som får følgeskab Sergey Brin. De var begge PHD studerende på Stanford University i Californien.
Læs mere om Google´s historie og tidslinie.
GoogleBot
Googlebot - Det er den robot (spider) Google-søgemaskinen anvendes til scanning af websites og indsamling af data at skabe sit søgeindeks.
Googlebot præsenterer sig med følgende parametre en IP adresse f.eks. (66.249.67.116) og en identifikationsstreng som Mozilla/5.0 (compatible; Googlebot/2.1; +http://www.google.com/bot.html)
Googlebot kommer fra mange separate IP adresser og henter indhold til de enkelte datacentre.
Bemærk, der findes også falske Googlebot, her er der tale om almindelige personer der med programmer udgiver sig for at være en Googlebot. De anvender det for at se om de kan finde ud af om en webside indeholder skjulte elementer for den almindelige bruger. F.eks. poorman cloaking etc. De kommer fra egen IP adresse på det netværk de arbejder på, hvor de faker i forespørgslen til websitet med en Google identifikationsstreng.
IP cloaking og IP delivery, kan hvis det er opsat korrekt ikke spores med en fake Googlebots, det kræver et samhørighed imellem spiderens IP adresse og identifikationsstrengen.
Google Bomb
Google Bomb - Det kaldes også 'link bombe", det er en linkmetode til at påvirke placeringen på Google´s resultatside på bestemte ord.
Den mest berømte forekomst i Danmark, er på ordet hulemand, hvilket førte hen til tidligere Statsminister Anders Fog Rasmussens website, når der blev søgt på ordet hulemand på Google.
Google demonterer disse bomber når de bliver bekendt med dem, men systemet fungerer og anvendes tit til sjov og mere seriøse demonstrationer. Den tidligere præsident George W. Bush og det Hvide Hus har ligeledes været udsat for linkbomber.
Google Directory
Google directory anvender Dmoz som kilde til sit index, her opdateres med jævne mellemrum data fra Dmoz, opdateringsfrekvensen varierer, der kan gå en lang periode fra et website er optaget i Dmoz til det figurerer i Google directory.
Læs mere om Google directory.
Google Hummingbird
Hovedalgoritmen blev ændret i september 2013 hos Google under navnet Hummingbird opdateringen. De foretog en omfattende opdatering af de bagvedliggende teknologier og ændrede således i selve grundalgoritmen, der efterhånden havde en del år på bagen.
Google indeksering
Google indekserer dagligt alle verdens websider og filtrerer disse ud fra deres fastlagte algoritmer etc.
At indeksere et website svarer til at sitet crawles igennem og tekstindhold flyttes til Google´s webservere, her beregnes relevans på baggrund af mange forskellige parametre, hvorefter websitet indgår i søgeindekset på en given placering.
Nye websider har tendens til i starten at blive indekseret bedre end de egentligt er berettiget til, det skyldes formodentligt, at Google ikke straffer nye websites, men giver websitet mulighed for at have en god placering indtil Google´s algoritme, og de indgående links validitet er gennemgået i forhold til indekseringsformlen. Mange af disse kendte faktorer og muligheder anvendes i forbindelse med Google optimering af nye og gamle websites.
Google Panda
Google ønsker at forbedre søgemaskinens kvalitet af søgeresultater. Der er efterhånden kommet flere og flere websites op i søgeresultaterne, som må betegnes som fejlplacerede ud fra indhold og trust. Google ønsker at fjerne eller de-ranke sider med minimalt indhold eller med indhold, som de betegner som sider med lav kvalitet. I dag kan sider med højt kvalitetsindhold fra forskning, webtrends og andre sider med unikt indhold have svært ved overhovedet at komme op i søgemaskinens resultatliste, dette skyldes at mange af disse websites ikke er søgemaskineoptimeret, hvilket giver dem dårligere placeringsmuligheder frem for ringere sider, der er top søgemaskineoptimeret på gloser, ordstillinger og indhold sammensat af nøgleord og tilfældig tekst.
Google Penguin
Denne algoritme, som bygger på jævnlige kørsler i modsætning til de traditionelle algoritmer, der kontinuerligt fungerer i forhold til websites struktur, links etc. så er følgerne af denne algoritme væsentligt større, da et website kan være ude af Googles indeks på f.eks. et søgeord, og søgeord, der relaterer til en specifik urladresse eller i værste fald et domænenavn i meget lang tid. Hvis der er tale om et brandname og sitet ikke findes imellem de første 100 sider på resultatlisten, så er der med stor sandsynlighed tale om en filtrering fra Googles side med algoritmen Penguin.
Der er mange faktorer, som vurderes efter når rankingen af et website finder sted, f.eks. sidetitler, sideindhold, interne links og sammenhængen imellem disse, dette kombineret med eksterne links, der linker ind til websitet med relevante ankertekster og beskrivelser. På eksterne links vil kvaliteten af websitet indgå i den samlede vurdering og ranking.
Google Penguin er fokuseret på det, som Google betegner som linkspam, der kan være tale om mange links fra sider uden væsentlig værdi, hvor der linkes tilbage til et givent websted med links og ankertekster, der skal matche sidens indhold. Google er i dag blevet god til at identificere disse såkaldte dårlige linkprofiler og kvitterer herved ved at smide det pågældende websites url adresser der ikke matcher de nye kriterier helt ud af indekset eller så langt tilbage at det ikke giver organisk trafik.
Google Sandbox
Google Sandbox – omdiskuteret teori om et filter, som Google skulle anvende, hvorefter nye domæner filtreres og får dårligere placeringer på centrale ord.
Der har været skrevet meget om Google´s sandkasse, teorien er aldrig blevet bekræftet af Google, men mange SEO virksomheder verden over har bemærket behandling af nye websites der giver antydning af et sådan filter eksisterer, det er ikke alle lande og markeder der har bemærket et sådan filter.
Google Mobil friendly algoritme
21.04-2015 har Google indført en ny algoritme, der vedrører mobilvenlighed og hvorledes et mobilvenlige websites vises på en mobiltelefon og tablets. Hvis de ikke opfylder Googles specicikationer, så vil sitet få en dårligere placering i Googles mobilindeks, hvilket kan betyde væsentligt færre besøgende fra disse platforme.
Testes med Googles testværktøj: https://www.google.com/webmasters/tools/mobile-friendly/ Det vurderes at andelen af trafik til et website fra mobiltelefoner, i 2015 vil ligge på omkring 30%. Det vil for et gennemsnitligt website betyde at halvdelen af trafikken kommer fra mobil.
Google har meget klart meldt ud at websites der ikke er mobilvenlige, ikke vises i søgeresultaterne på mobiltelefoner, hvis der er andre sites, der er mobilvenlige og har et lignende indhold. Den nye algoritme er en del af de 200 parametre et website vurderes på og med særlig fokus på responsivt / adaptivt design for mobilversioner og visninger på disse platforme..
Det betyder i praksis at et website, der ikke er mobilvenligt potentielt mister 20 - 30% af trafikken fra Google alene fordi dette punkt ikke er i orden. Bemærk: Det er altid vigtigt at se på de aktuelle guidelines fra Google, her er de sidste specifikationer med. Hvis man ikke jævnligt samstemmer imellem guidelines og tidligere viden, så kan der mistes mange placeringer. I forbindelse med udmeldingen af denne algoritmeopdatering, så er der udgivet guides til de forskellige metoder, der bruges til mobilsites i dag, og som Google understøtter.
Se den aktuelle guide her.: https://developers.google.com/webmasters/mobile-sites/mobile-seo/
Google+
Google+ er Googles bud på et socialt netværk med mange muligheder.
Med Google+ kan der udføres tilknytninger imellem personer og virksomheder i forskellige typer af netværk. På netværket kan deles tanker, billeder og video, og der er mulighed for videochat og f.eks. gruppechat med helt op til ni personer.
Google+ bruges af Google som en del af Googles algoritmer, således den indgår i en aktuel søgning. Det sociale netværk indgår herved i den personificerede søgning på søgemaskinen.
Hit
Et hit i statistikken, det indikerer at der er foretaget en anmodning om at tilgå en fil på webserveren, her er der tale om både webbrowsere (almindelige brugere) og spidere (søgemaskine crawlere).
Hver gang en useragent anmoder om en side, registreres der et hit i webserverloggen.
Man kan så efterfølgende gennemgå serverlog og se hvilke brugere og agenter der besøger websitet.
Et website og mange hits
Hits bliver ofte misfortolket og regnet som brugere af et website, det viste antal af hits kan ikke sidestilles med antal brugere og fysiske personer der besøger websitet, da det omhandler al trafik, brugere og spidere etc.
H-tags
H formatering er tags der anvendes i forbindelse med angivelser af overskrifter i et dokument, de anvendes i forskellige størrelser, html standarden angiver seks varianter og størrelser:
<h1> Dette er en overskrift 1 </ h1>
<h2> Dette er en overskrift 2 </ h2>
<h3> Dette er en overskrift 3 </ h3>
<h4> Dette er en overskrift 4 </ h4>
<h5> Dette er en overskrift 5 </ h5>
<h6> Dette er en overskrift 6 </ h6>
Htaccess
Skjult tekst fil der placeres i et katalog eller roden af et websted, denne type fil fungerer kun i forbindelse med apache servere, Htaccess filen giver mulighed for at programmere funktioner, som serveren efterfølgende anvender i forbindelse med afviklingen af det website filen er placeret.
Man skriver koderne i regular expression, webserverens operativsystem ser ned i det pågældende websteds rodmappe når sider blive kaldt, og bruger de informationer der er kodet her i forbindelse med afviklingen af det pågældende website.
Htaccess giver mulighed for at passwordbeskytte en mappe eller website, foretage rewrite rules, hvor f.eks. urlér omskrives fra dynamiske til noget der ligner statiske urlér, opsætte hvilken startfil (diretoryindex) websitet skal tilgår fra rod niveauet, og mange yderligere funktioner.
Htaccess er en genial måde at kunne kommunikere med webserveren og foretage tilpasninger der giver bedre resultater med søgemaskineoptimering i forbindelse med optimering af et dynamisk website.
Keyword Density
Keyword Density - Det er antallet af gentagelser af et søgeord på én side, og det kommer til udtryk i form af en procentdel i forhold til den samlede mængde ord.
Keyword Stuffing
Keyword stuffing, er en teknik hvor nøgleord anvendes i overdreven form, nøgleord placeres mange gange i dokumentet, i skjulte tags som f.eks. noscrip tag, "et kodefelt som er skjult for brugerne", men synlig for søgemaskinerne, brug af nøgleord i billedtekster i stort omfang, tidligere blev det at gentage søgeord i tekstfelter med samme farve som baggrundsfarven anvendt, for at få ordet gentaget flere gange, en anden teknik er at tilføje ord med skrifttyper der bevidst er små 1pixel, at de ikke kan ses af den normale bruger.
Søgemaskinerne er blevet gode til at spotte disse teknikker, konsekvensen er udelukkelse fra deres index, hvis man bliver taget med disse teknikker implementeret på sit website.
Så derfor undgå brug af disse teknikker i søgemaskineoptimeringen af websitet, anvend i stedet de teknikker som søgemaskinerne accepterer.
Keyword tag
Keyword tag, er et metatag som indeholder nøgleord i forhold til websidens indholdsmæssige tekstfundament.
Ikke alle søgemaskiner anvender dette metatags, grunden er at der tidligere blev fyldt alverdens ligegyldige søgeord ind i dette tag og derved var med til at tilføje spamsider til søgemaskinernes indeks.
Brug det med relevante søgetermer, ellers undlad at anvende det – Google bruger ikke tags i sin vurdering af websites, men tiderne kan skifte og derfor skader det ikke at anvende det som det fra start er tiltænkt.
Linkbuilding
I dag kræver det for at være synlig på internettet, links fra flere relevante websites, et websted der ikke er forbundet til nettet med relevante links, vil have svært ved at være synligt på søgemaskinerne.
At udarbejde og implementere en linkstrategi for et website kræver stor viden og ekspertise, det handler ikke bare om at udveksle links imellem forskellige websites, men at skaffe relevante links der svarer indholdsmæssigt til indholdet af ens egen hjemmeside.
Linkbuilding er en væsentlig faktor i moderne SEO, måske den sværeste disciplin, for uden korrekt opbygning af link, ingen gode placeringer på topord i søgemaskinerne.
Linkfarm
Udtrykket anvendes om sider der udveksler links i stor skala på kryds og tværs af hinanden, disse net hænger tit sammen, og folk betaler for at få lagt deres link ind på sådanne farme, formålet er at booste linkpopulariteten hos køberen af de pågældende links, men resultatet er tit det modsatte, specielt hvis man som led i købet af linkpladserne har forpligtet sig til at linke tilbage til en linkfarmside.
I søgemaskinerne guidelines fremhæves det udtrykkeligt, at de anser linkfarming som snyd og kan fjerne et website der deltager i en linkfarm fra deres index.
Linkjuice
Linkjuice giver mulighed for at skabe bedre placeringer på søgemaskinerne, link fra gode og relevante websider overfører linkjuice (linklove) til dit website. Google ser f.eks. hvem der linker til hinanden og på hvilken baggrund linket er sat op i forhold til det tekstmæssige indhold på både linksiden og modtagersiden, jo bedre sammenhæng des bedre.
Ikke konkurrenceprægede søgeord kræver få relevante links, mens søgeord hvor der er mange der gerne vil ligge på side et på søgemaskinen kræver mange og relevante linksider med høj pagerank.
Metatags
Metatags er koder placeret i dokumentets header, her er det muligt at foretage beskrivelser af dokumentet (siden).
Der har været eksperimenteret med biblioteks metatags i forbindelse med dokumenter, de går under betegnelsen Dublin core standarden, der er mange som søgemaskineoptimeringsmæssigt anvender disse tags, og regner med at jo flere keyword (nøgleord) der indsættes i headeren, jo bedre, men det er ikke tilfældet –Dublin Core standarden egner sig måske i bibliotekssammenhæng til visse former for identifikation, men har absolut ingen effekt i forbindelse med søgemaskineoptimering på et almindeligt website.
Læs en mere uddybende forklaring på metatags
ODP
Open Directory Project (Dmoz) Er det største web bibliotek på internettet, Dmoz bliver løbende opdateret af over 75.000 frivillige personer World Wide.
Organiske søgemaskineresultater
Her er der tale om venstre sides placeringer på de forskellige søgemaskiner, et organisk søgemaskineresultat er et resultat i den gratis del på søgemaskinen, disse sider er prioriteret ud fra søgemaskinens vurdering om relevans, og som i situationen er den bedste indenfor den konkrete søgning brugeren har foretaget.
Partiel Cloaking
Her er typisk tale om IP delivery, afvigelsen fra almindelig cloaking og IP delivery er at der kun optimeres på 2 – 10 ord på en aktuel webside, resten af tekster og formateringer er det samme som brugerne ser, der anvendes typisk en helt anden engine til dette job, i forhold til traditionel IP delivery som typisk anvender 302 kodninger i sidste led i forhold til brugerne, hvorimod søgemaskinernes robotter får en kodning 200 fra webserveren.
Dette gør at denne form for cloaking er yderst svær at identificere, det gælder både for søgemaskinerne, deres manuelle redaktører, seo virksomheder og for konkurrenter.
Denne form for cloaking hører til i den absolut dyreste klasse, da der arbejdes med serverbaserede funktioner, opslag af IP tabeller og søgemaskine identifikationsstrenge samt kontrol af ejerskab af de enkelte IP adresser.
Partiel cloaking kan identificeres, men det kræver et professionelt overblik, for at se hvordan sådan et system fungerer og spotte sites der anvender denne teknik.
90 – 95% af de virksomheder der udbyder SEO, vil ikke kunne spotte denne optimeringsform.
Robots.txt
Robots.txt - Det er en tekstfil som placeres på hjemmesiden rod bibliotek, hvor forskellige instrukser til søgemaskinerne kan beskrives, f.eks at undlade at indeksere en fil en mappe mv.
Læs mere om Robots.txt filer her.
SEA - Search Engine Advertising
SEA = Search Engine Advertising, der dækker de forskellige typer af annoncering man kan købe i de forskellige søgemaskiner – uanset afregningsform og formater.
SEM - Search Engine Marketing
Fælles betegnelse over søgemaskinemarkedsføring, i denne kategori indgår både de organiske optimeringer, PPC kampagner og de fleste andre områder indenfor online markedsføring, som der arbejdes med på den pågældende hjemmeside.
SEO
Betegnelse for søgemaskineoptimering, kommer af det engelske ord Search engine optimization som forkortes til SEO. Se også søgemaskineoptimering.
SERPS
Serps er betegnelsen for resultaterne på søgemaskinernes resultatsider på en given søgning. Her listes de mest relevante sider op med dem som søgemaskinen finder mest relevante, i forhold til den aktuelle søgning.
SSI - Server Side Includes
Hvad er Server Side Includes? Her er tale om en serverteknologi der anvendes i forbindelse med Apache webservere og i HTML dokumenter, hvor fortolkningen foregår på webserveren, hvilket betyder brugeren og clienten ser resultatet af scriptafviklingen, når en aktuel side kaldes. SSI er derfor ikke afhængig af brugerens opsætning, men bygger udelukkende på webserverens afvikling af programmet.
Hvad kan man så bruge SSI Server Side Includes til?
Der kan f.eks. anvendes i forbindelse med menuer, hvor man skriver de forskellige sider og url adresser ind i en tekstfil, når der rettes i menuen skal der kun rettes i en fil, derefter anvendes denne på de websider der anvender include funktionen.
F.eks.
<!--#include virtual="include/menu.txt"-->
Eller med f.eks en tekstboks indsat i højre side på udvalgte websider
<!--#include virtual="include/h-tekstbox.txt"-->
Koden indsættes på den eller de websider der skal have menu eller tekstbox indsat.
Der findes lignende teknologier til ASP og PHP
Den eneste forskel er sammensætningen af koden.
Søgemaskineekspert
En søgemaskineekspert arbejder professionelt med søgemaskiner og søgemaskineoptimering, personen skal have indgående kendskab til optimerings principper, forståelse for søgemaskiner og virkemåde, webanalyse, serveropsætninger, sammensætning af tekstindhold på websider, linkstrukturer og linkbuilding, som er nogle af hovedelementerne.
Det er vigtigt at vælge en ekspert med mange års erfaring indenfor området, mange kalder sig eksperter med 10 års erfaring, hvilket sjældent passer, man bør spørge efter referencer på udførte opgaver, og evt. lige smutte forbi waybach maskinen på web.archive.org og se hvad der blev solgt fra websitet på det tidspunkt som erfaringsgrundlaget refererer til.
Online marketing og hovedfirma har websider der beskriver salg af ydelsen søgemaskineoptimering som selvstændigt produkt på sider i web.archive.org fra 2001 og fremefter – vores virksomhed har udført over 10.000 optimeringsopgaver World Wide siden år 1999.
Søgerobot
Se crawler.
Stop Word – Stopord
Her er der tale om ord der ignoreres af søgemaskiner i forbindelse med søgninger, eksempelvis kan nævnes ord som.:
Af, alle, andet, andre, de, den, der, det, dig, for, hvem, i, ikke - og mange flere ord, der isoleret set ikke giver nogen betydning.
Ikke alle søgemaskiner anvender samme stopord, ligesom der i nogle tilfælde og sammenhænge kan medtages disse ord i søgeresultaterne.
Titel Tag
Et Meta Tag i overskriften til enhver hjemmeside.
Det er det vigtigste af alle tags – god beskrivelse her er første skridt på vejen til gode placeringer på søgemaskinerne. Et titeltag bør ikke være på mere end 62 tegn inklusive blanktegn.
Google læser dog et sted i mellem 60 – 62 tegn.
URL
URL - Universal Resource Locator, en lokalitet adresse, navnet på en fil på et websted.
Webdirectory
Web Directory - en samling af websteder opsat i grupper efter fag og indholdskategorier.
I et webdirectory er der normalt redaktører som godkender eller afviser de tilmeldte websider.
Et af de mest kendte webdirectory er Dmoz, hvor der på verdensplan er over 75.000 frivillige redaktører til at vedligeholde dette katalog.
Derudover findes der et hav af SEO kataloger i alle afskygninger World Wide, værdien af tilmelding til disse kataloger er nedadgående, fremtidsudsigterne for at hente linkjuice herfra er ikke særligt gode, da f.eks. Google har sat ind overfor betalte optagelser i denne form for kataloger – Man vil fremover se at Google fjerner linkværdierne fra flere og flere af disse kataloger, dermed forsvinder incitamentet til at få optaget en side i et sådan katalog.