Hvordan finner, gjennomsøker og indekserer søkemotorer innholdet ditt?

Search Engine Optimization

Jeg anbefaler ikke ofte at klienter bygger ut sine egne e-handels- eller innholdsstyringssystemer på grunn av alle de usynlige utvidelsesalternativene som er nødvendige i dag - primært fokusert på søk og sosial optimalisering. Jeg skrev en artikkel på hvordan du velger et CMS og jeg viser det fremdeles til selskapene jeg jobber med som er fristet bare til å bygge sitt eget innholdsstyringssystem.

Imidlertid er det absolutt situasjoner der en tilpasset plattform er en nødvendighet. Når det er den optimale løsningen, presser jeg fremdeles kundene mine til å bygge ut de nødvendige funksjonene for å optimalisere nettstedene deres for søk og sosiale medier. Det er i utgangspunktet tre viktige funksjoner som er en nødvendighet.

  • Robots.txt
  • XML Sitemap
  • metadata

Hva er en Robots.txt-fil?

Robots.txt fil - robots.txt filen er en ren tekstfil som er i rotkatalogen til nettstedet og forteller søkemotorene hva de skal inkludere og ekskludere fra søkeresultatene. De siste årene har søkemotorer også bedt om at du inkluderer banen til et XML-sitemap i filen. Her er et eksempel på meg, som gjør at alle roboter kan gjennomsøke nettstedet mitt og også dirigere dem til XML-sitemap:

User-agent: *
Sitemap: https://martech.zone/sitemap_index.xml

Hva er et XML-nettkart?

XML Sitemap - Akkurat som HTML er for visning i en nettleser, skrives XML for å bli fordøyd programmatisk. Et XML-sitemap er i utgangspunktet en tabell over hver side på nettstedet ditt og når det sist ble oppdatert. XML-nettstedskart kan også være kjedekjedet ... det vil si at et XML-nettstedskart kan referere til et annet. Det er flott hvis du ønsker å organisere og dele opp elementene på nettstedet ditt på en logisk måte (vanlige spørsmål, sider, produkter osv.) I sine egne områdekart.

Nettkart er viktige, slik at du effektivt kan fortelle søkemotorene om hvilket innhold du har opprettet og når det sist ble redigert. Prosessen en søkemotor bruker når du går til nettstedet ditt, er ikke effektiv uten å implementere et områdekart og utdrag.

Uten et XML-nettkartrisikerer du at sidene dine aldri blir oppdaget. Hva om du har en ny produkt destinasjonsside som ikke er koblet internt eller eksternt. Hvordan oppdager Google det? Vel, rett og slett ... til en link er funnet til den, vil du ikke bli oppdaget. Heldigvis gjør søkemotorer det mulig for innholdsstyringssystemer og e-handelsplattformer å rulle ut en rød løper for dem!

  1. Google oppdager en ekstern eller intern lenke til nettstedet ditt.
  2. Google indekserer siden og rangerer den i henhold til innholdet og hva innholdet og kvaliteten på den henvisende lenken er.

Med et XML-nettkart, overlater du ikke oppdagelsen av innholdet ditt eller oppdateringen av innholdet ditt til tilfeldighetene! For mange utviklere prøver å ta snarveier som også skader dem. De publiserer den samme rich snippet over hele nettstedet, og gir informasjon som ikke er relevant for sideinformasjonen. De publiserer et områdekart med de samme datoene på hver side (eller alle oppdateres når en-side oppdateres), og gir køer til søkemotorene om at de spiller systemet eller upålitelige. Eller de pinger ikke søkemotorene i det hele tatt ... slik at søkemotoren ikke innser at ny informasjon er publisert.

Hva er metadata? Mikrodata? Rich Snippets?

Rich snippets er nøye merket mikrodata som er skjult for betrakteren, men synlig på siden for søkemotorer eller sosiale mediasider å bruke. Dette er kjent som metadata. Google overholder Schema.org som en standard for å inkludere ting som bilder, titler, beskrivelser ... samt en mengde andre informative utdrag som pris, antall, stedsinformasjon, rangeringer osv. Skjema vil forbedre søkemotorens synlighet og sannsynligheten for at en bruker vil klikke gjennom.

Facebook bruker OpenGraph protokoll (selvfølgelig kunne de ikke være den samme), har Twitter til og med en kodebit for å spesifisere Twitter-profilen din. Flere og flere plattformer bruker denne metadata for å forhåndsvise innebygde lenker og annen informasjon når de publiserer.

Nettsidene dine har en underliggende betydning som folk forstår når de leser websidene. Men søkemotorer har en begrenset forståelse av hva som diskuteres på disse sidene. Ved å legge til flere koder i HTML-en på websidene dine - koder som sier "Hei søkemotor, denne informasjonen beskriver denne spesifikke filmen, eller stedet, eller personen eller videoen" - du kan hjelpe søkemotorer og andre applikasjoner med å forstå innholdet ditt bedre og vise den på en nyttig, relevant måte. Microdata er et sett med koder, introdusert med HTML5, som lar deg gjøre dette.

Schema.org, hva er MicroData?

Selvfølgelig kreves ingen av disse ... men jeg anbefaler dem på det sterkeste. Når du for eksempel deler en lenke på Facebook, og ikke noe bilde, tittel eller beskrivelse kommer opp ... få mennesker vil være interessert og faktisk klikke seg gjennom. Og hvis skjemautdragene dine ikke er på hver side, kan du selvfølgelig fremdeles vises i søkeresultatene ... men konkurrenter kan slå deg ut når de har vist ytterligere informasjon.

Registrer XML-nettstedskartene dine med Search Console

Det er viktig at hvis du har bygd ditt eget innholds- eller netthandelsplattform, at du har et delsystem som pinger søkemotorene, publiserer mikrodata og deretter gir et gyldig XML-sitemap for innholdet eller produktinformasjonen du finner!

Når robots.txt-filen, XML-sitemaps og rich snippets er tilpasset og optimalisert på hele nettstedet ditt, må du ikke glemme å registrere deg for hver søkemotors Search Console (også kjent som Webmaster-verktøy) der du kan overvåke helsen og synligheten til nettsted på søkemotorer. Du kan til og med spesifisere områdekartbanen din hvis ingen er oppført, og se hvordan søkemotoren bruker den, om det er noen problemer med den, og til og med hvordan du retter dem.

Rull ut den røde løperen til søkemotorer og sosiale medier, så finner du rangering av nettstedet ditt bedre, oppføringene dine på resultatsidene for søkemotoren klikket gjennom mer, og sidene dine deles mer på sosiale medier. Det hele legger opp!

Hvordan Robots.txt, Sitemaps og MetaData fungerer sammen

Å kombinere alle disse elementene er mye som å rulle ut den røde løperen for nettstedet ditt. Her er gjennomsøkingsprosessen som en bot tar sammen med hvordan søkemotoren indekserer innholdet ditt.

  1. Nettstedet ditt har en robots.txt-fil som også refererer til XML Sitemap-posisjonen din.
  2. CMS- eller netthandelssystemet oppdaterer XML Sitemap med hvilken som helst side og publiser dato eller rediger datainformasjon.
  3. CMS- eller netthandelssystemet pinger søkemotorene for å fortelle dem at nettstedet ditt er oppdatert. Du kan pinge dem direkte eller bruke RPC og en tjeneste som Ping-o-matic å skyve til alle de viktigste søkemotorene.
  4. Søkemotoren kommer umiddelbart tilbake, respekterer Robots.txt-filen, finner nye eller oppdaterte sider via områdekartet og indekserer siden.
  5. Når den indekserer siden din, bruker den rich snippet mikrodata for å forbedre resultatsiden for søkemotoren.
  6. Når andre relevante nettsteder lenker til innholdet ditt, rangeres innholdet ditt bedre.
  7. Når innholdet ditt deles på sosiale medier, kan den spesifiserte rich snippet-informasjonen hjelpe deg med å forhåndsvise innholdet ditt og lede det til den sosiale profilen din.

2 Kommentarer

  1. 1

    nettstedet mitt er ikke i stand til å indeksere nytt innhold, jeg henter nettstedskart og nettadresser på webmaster, men kan fortsatt ikke forbedre dette. Er det google backend-problem?

Hva tror du?

Dette nettstedet bruker Akismet for å redusere spam. Lær hvordan kommentaren din behandles.