fbpx

3. Hoe zoekmachines werken?

Zoekmachines zijn een grote encyclopedie die automatisch de juiste pagina op het internet zoekt. Ze bestaan ​​om de inhoud van internet te ontdekken, te begrijpen en te organiseren voor de vragen die zoekers stellen.

Hoe werken zoekmachines?

Zoekmachines hebben drie primaire functies:

  1. Crawlen: Zoeken op het internet en identificeren van code/ inhoud van elke website zie ze vinden. Eenmaal een website is gecrawld wordt is het bestaan van een pagina gesignaleerd door de zoekmachines.
  2. Indexeren: Bewaren en organiseren van de code/inhoud die ze tijdens het crawlen hebben gevonden. Eenmaal de inhoud van de pagina is opgenomen in het indexeren kan het worden weergegeven in de resultaten.
  3. Prioriteren: Rangschikken van de pagina’s om de vragen van de bezoekers zo goed mogelijk te beantwoorden. Hier wordt de rangschikking van de zoekopdrachten bepaald.

1. Wat is Crawlen?

Crawling is het proces waarbij zoekmachines een team van robots (genaamd crawlers of spinnen) sturen om websites te verkennen om nieuwe en bijgewerkte inhoud te vinden. Inhoud kan variëren – het kan een webpagina, een afbeelding, een video, een PDF, … zijn – maar ongeacht de indeling wordt inhoud ontdekt via links.

De spinnen van zoekmachines zoals google of bing beginnen met het ophalen van enkele webpagina’s en volgt vervolgens de links op die webpagina’s om nieuwe URLs te vinden. Door dit pad van links te volgen, kan de crawler nieuwe inhoud vinden en deze toevoegen aan hun enorme database met ontdekte URLs.

Afbeeldingsresultaat voor crawlen

Dit is de hoofdreden waarom een sitemap voor uw website belangrijk is. Het laat de spinnen van de zoekmachines toe uw volledige website in kaart te brengen.

2. Wat is Indexeren?

Indexeren is wannneer zoekmachines die informatie van het “Crawlen” verwerken en opslaan in de index. De index is een enorme database met alle inhoud die ze hebben ontdekt en die ze goed genoeg achten om te dienen voor zoekers. Deze dient als de input voor de prioretisering.

3. Wat is Prioriteren?

Prioretiseren is het algoritme dat bepaalt welke webpagina, uit de index, wordt getoond voor een bepaalde zoekopdracht.

Wanneer iemand een zoekopdracht uitvoert, doorzoeken zoekmachines hun index op zeer relevante inhoud en ordenen die inhoud vervolgens in de hoop de zoekopdracht van de gebruiker op te lossen. Deze volgorde van zoekresultaten op relevantie staat bekend als rangorde. Over het algemeen kunt u ervan uitgaan dat hoe hoger een website is, hoe relevanter de zoekmachine gelooft dat de site geschikt is voor de zoekopdracht.

Het is mogelijk om crawlers van zoekmachines van een deel van of uw hele site te blokkeren, of zoekmachines te instrueren om te voorkomen dat bepaalde pagina’s in hun index worden opgeslagen. Hoewel er redenen kunnen zijn om dit te doen, moet je eerst controleren of deze toegankelijk is voor crawlers en kan worden geïndexeerd als je wilt dat je inhoud wordt gevonden door zoekers. Anders is het zo goed als onzichtbaar.

Aan het einde van dit hoofdstuk hebt u de context die u nodig hebt om met de zoekmachine te werken in plaats van ertegen!

Uitgebreide uitleg over de werking van zoekmachines:

Crawling: kunnen zoekmachines uw pagina's vinden?

Zoals u zojuist hebt geleerd, is het een vereiste om ervoor te zorgen dat uw site wordt gecrawld en geïndexeerd om te worden weergegeven in de zoekopdrachten. Als u al een website heeft, is het misschien een goed idee om te beginnen met het kijken hoeveel van uw pagina’s in de index staan. Dit levert een een goed beeld van het aantal pagina’s die google heeft geïndexeerd.

U kan uw geïndexeerde pagina’s controleren door “site:yourdomain.com”, in te typen in google.

Ga naar Google en typ “site: yourdomain.com” in de zoekbalk:

Het aantal resultaten dat Google weergeeft (zie “Ongeveer XX resultaten” hierboven) is niet exact, maar het geeft u wel een goed idee van welke pagina’s op uw site zijn geïndexeerd en hoe deze momenteel worden weergegeven in zoekresultaten.

Voor nauwkeurigere resultaten controleert en gebruikt u het rapport “Index Coverage” in de Google Search Console. U kunt zich aanmelden voor een gratis Google Search Console-account als u er momenteel geen heeft. Met deze tool kunt u onder andere sitemaps voor uw site indienen en controleren hoeveel verzonden pagina’s daadwerkelijk zijn toegevoegd aan de index van Google.

Indien u niet in de zoekresultaten wordt weergegeven, zijn er een paar mogelijke redenen waarom:

  • Uw site is gloednieuw en is nog niet gecrawld.
  • Uw site is niet gekoppeld aan externe websites.
  • De navigatie van uw site maakt het moeilijk voor een robot om deze effectief te doorzoeken.
  • Uw site bevat een aantal basiscode genaamd crawler-richtlijnen die zoekmachines blokkeert.
  • Uw site is door Google bestraft voor spamtactieken.

Vertel zoekmachines hoe ze uw website kunnen crawlen

Als u Google Search Console of de geavanceerde zoekoperator ‘site: domain.com’ hebt gebruikt en ontdekt dat sommige van uw belangrijke pagina’s ontbreken in de index en / of dat sommige van uw onbelangrijke pagina’s per ongeluk zijn geïndexeerd, kunt u enkele optimalisaties uitvoeren implementeren om Googlebot beter te sturen hoe u wilt dat uw webinhoud wordt gecrawld. Door zoekmachines te vertellen hoe u uw site kunt crawlen, kunt u beter bepalen wat er in de index terechtkomt.

De meeste mensen denken erover na om ervoor te zorgen dat Google hun belangrijke pagina’s kan vinden, maar het is gemakkelijk om te vergeten dat er waarschijnlijk pagina’s zijn die u niet wilt dat Googlebot vindt. Dit kunnen dingen zijn zoals oude URL’s met dunne inhoud, dubbele URL’s (zoals sorteer- en filterparameters voor e-commerce), speciale promotiecodepagina’s, enscenering of testpagina’s, enzovoort.

Gebruik robots.txt om Googlebot weg te leiden van bepaalde pagina’s en delen van uw site.

robots.txt

Robots.txt-bestanden bevinden zich in de hoofdmap van websites (bijvoorbeeld uwdomein.com/robots.txt) en geven aan welke delen van uw sitezoekmachines wel en niet moeten crawlen, evenals de snelheid waarmee ze uw site crawlen , via specifieke robots.txt-richtlijnen .

robots.txt

Als Googlebot een robots.txt-bestand voor een site niet kan vinden, wordt de site doorzocht.
Als Googlebot een robots.txt-bestand voor een site vindt, houdt het zich meestal aan de suggesties en gaat het door met het crawlen van de site.
Als Googlebot een fout tegenkomt tijdens het proberen toegang te krijgen tot het robots.txt-bestand van een site en niet kan bepalen of er een bestaat of niet, wordt de site niet doorzocht.

URL-parameters definiëren in GSC

Sommige sites (meest gebruikelijk bij e-commerce) maken dezelfde inhoud beschikbaar op meerdere verschillende URL’s door bepaalde parameters aan URL’s toe te voegen. Als je ooit online hebt gewinkeld, heb je je zoekopdracht waarschijnlijk beperkt via filters. U kunt bijvoorbeeld zoeken naar ‘schoenen’ op Amazon en vervolgens uw zoekopdracht verfijnen op maat, kleur en stijl. Elke keer dat u verfijnt, verandert de URL enigszins:

  • https://www.example.com/products/women/dresses/green.htm
  • https://www.example.com/products/women?category=dresses&color=green
  • https://example.com/shopindex.php? product_id = 32 & highlight = groen + jurk
    & cat_id = 1 & sessionid = 123 $ affid = 4

Hoe weet Google welke versie van de URL voor zoekers moet worden gebruikt? Google doet vrij goed zijn best om de representatieve URL zelf te bepalen, maar u kunt de functie URL-parameters in Google Search Console gebruiken om Google precies te vertellen hoe u wilt dat uw pagina’s worden behandeld. Als u deze functie gebruikt om Googlebot te vertellen ‘geen URL’s met parameter ____ crawlen’, vraagt ​​u in wezen om deze inhoud te verbergen voor Googlebot, wat kan leiden tot het verwijderen van die pagina’s uit zoekresultaten. Dat is wat u wilt als die parameters dubbele pagina’s maken, maar niet ideaal als u wilt dat die pagina’s worden geïndexeerd.

Kunnen zoekmachines uw website navigatie volgen?

Net zoals een crawler uw site moet ontdekken via links van andere sites, heeft hij een pad met links op uw eigen site nodig om hem van pagina naar pagina te leiden. Als u een pagina heeft die u wilt laten vinden door zoekmachines, maar waaraan geen enkele andere pagina linkt, is deze zo goed als onzichtbaar. Veel sites maken de kritieke fout door hun navigatie zodanig te structureren dat ze niet toegankelijk zijn voor zoekmachines, waardoor ze niet meer in de zoekresultaten kunnen worden opgenomen.

Een afbeelding van hoe pagina's waarnaar wordt gelinkt, kan worden gevonden door crawlers, terwijl een pagina waarnaar niet wordt gelinkt in uw sitenavigatie bestaat als een eiland, onontdekt.

Gebruikt u sitemaps?

Een sitemap is precies wat het klinkt: een lijst met URL’s op uw site die crawlers kunnen gebruiken om uw inhoud te ontdekken en te indexeren. Een van de gemakkelijkste manieren om ervoor te zorgen dat Google uw pagina’s met de hoogste prioriteit vindt, is om een ​​bestand te maken dat voldoet aan de normen van Google en dit in te dienen via Google Search Console. Hoewel het indienen van een sitemap niet de noodzaak van goede sitenavigatie vervangt, kan het zeker crawlers helpen een pad te volgen naar al uw belangrijke pagina’s.

Indexeren: hoe interpreteren zoekmachines uw pagina's en slaan deze op?

Nadat u zeker weet dat uw site is gecrawld, is de volgende opdracht om ervoor te zorgen dat deze kan worden geïndexeerd. Dat klopt – alleen omdat uw site kan worden ontdekt en doorzocht door een zoekmachine, betekent dit niet noodzakelijkerwijs dat deze wordt opgeslagen in hun index.

In het vorige gedeelte over crawlen hebben we besproken hoe zoekmachines uw webpagina’s ontdekken. De index is waar uw ontdekte pagina’s worden opgeslagen. Nadat een crawler een pagina heeft gevonden, geeft de zoekmachine deze weer zoals een browser dat zou doen. Tijdens dit proces analyseert de zoekmachine de inhoud van die pagina. Al die informatie wordt opgeslagen in de index.

Afbeeldingsresultaat voor indexing google

Kan ik zien hoe een Googlebot-crawler mijn pagina's ziet?

Ja, de gecachte versie van uw pagina geeft een momentopname weer van de laatste keer dat Googlebot deze heeft gecrawld.

Google kruipt en cachet webpagina’s op verschillende frequenties. Meer gevestigde, bekende sites die vaak posten zoals https://www.nytimes.com zullen vaker worden gecrawld dan de veel minder bekende website voor de drukte van Roger de Mozbot, http://www.rogerlovescupcakes.com ( als het maar echt was …)

U kunt zien hoe uw gecachte versie van een pagina eruitziet door op de vervolgkeuzepijl naast de URL in de SERP te klikken en “In cache” te kiezen:

Worden pagina's ooit uit de Index verwijderd?

Ja, pagina’s kunnen uit de index worden verwijderd! Enkele van de belangrijkste redenen waarom een ​​URL kan worden verwijderd, zijn:

De URL retourneert een “niet gevonden” -fout (4XX) of serverfout (5XX) – Dit kan per ongeluk zijn (de pagina is verplaatst en een 301-omleiding is niet ingesteld) of opzettelijk (de pagina is verwijderd en 404ed om haal het uit de index)
Aan de URL is een noindex-metatag toegevoegd. Deze tag kan door site-eigenaren worden toegevoegd om de zoekmachine te instrueren de pagina uit de index weg te laten.
De URL is handmatig bestraft voor het overtreden van de richtlijnen voor webmasters van de zoekmachine en is daarom uit de index verwijderd.
De URL is geblokkeerd voor crawlen met de toevoeging van een wachtwoord vereist voordat bezoekers toegang hebben tot de pagina.
Als u van mening bent dat een pagina op uw website die eerder in de index van Google stond niet meer wordt weergegeven, kunt u het hulpprogramma URL-inspectie gebruiken om de status van de pagina te achterhalen of Fetch gebruiken als Google met de functie “Indexering aanvragen” om afzonderlijke URL’s naar de index verzenden. (Bonus: GSC’s “haal” -tool heeft ook een “render” -optie waarmee u kunt zien of er problemen zijn met hoe Google uw pagina interpreteert).

Prioritering: hoe rangschikken zoekmachines URL's?

Hoe zorgen zoekmachines ervoor dat wanneer iemand een zoekopdracht in de zoekbalk typt, deze relevante resultaten terugkrijgt? Dat proces staat bekend als rangschikking, of het rangschikken van zoekresultaten op meest relevante naar minst relevante voor een bepaalde zoekopdracht.

Een artistieke interpretatie van rangorde, met drie honden die mooi op de eerste, tweede en derde plaats staan.

Om de relevantie te bepalen, gebruiken zoekmachines algoritmen, een proces of formule waarmee opgeslagen informatie op een zinvolle manier wordt opgehaald en geordend. Deze algoritmen hebben in de loop der jaren veel veranderingen ondergaan om de kwaliteit van zoekresultaten te verbeteren. Google maakt bijvoorbeeld elke dag algoritmeaanpassingen – sommige van deze updates zijn kleine aanpassingen in de kwaliteit, terwijl andere kern / brede algoritme-updates zijn die worden ingezet om een ​​specifiek probleem aan te pakken, zoals Penguin om linkspam aan te pakken. Bekijk onze Google Algorithm Change History voor een lijst met zowel bevestigde als niet-bevestigde Google-updates die teruggaan tot het jaar 2000.

Waarom verandert het algoritme zo vaak? Probeert Google ons alleen maar scherp te houden? Hoewel Google niet altijd details onthult over de reden waarom ze doen wat ze doen, weten we wel dat het doel van Google bij het maken van algoritmeaanpassingen is de algehele zoekkwaliteit te verbeteren. Daarom zal Google in antwoord op vragen over algoritme-updates antwoorden met iets in de trant van: “We maken voortdurend kwaliteitsupdates.” Dit geeft aan dat, als uw site te lijden na een algoritme aanpassing, vergelijk het tegen kwaliteitsrichtlijnen van Google of Search Quality Rater Guidelines , beide zijn zeer vertellen in termen van wat zoekmachines willen.

Wat willen zoekmachines?

Zoekmachines hebben altijd hetzelfde gewild: nuttige antwoorden geven op vragen van gebruikers in de handigste formaten. Als dat waar is, waarom lijkt SEO dan nu anders dan in de afgelopen jaren?

Denk erover na als iemand een nieuwe taal leert.

In het begin is hun begrip van de taal erg rudimentair – “Zie Spot Run”. Na verloop van tijd begint hun begrip te verdiepen en leren ze semantiek – de betekenis achter taal en de relatie tussen woorden en zinnen. Uiteindelijk, met voldoende oefening, kent de student de taal goed genoeg om zelfs nuance te begrijpen, en is in staat antwoorden te geven op zelfs vage of onvolledige vragen.

Toen zoekmachines net begonnen onze taal te leren, was het veel eenvoudiger om het systeem te bespelen met behulp van trucs en tactieken die in strijd zijn met kwaliteitsrichtlijnen. Neem bijvoorbeeld stuffing met zoekwoorden. Als u wilt rangschikken voor een bepaald zoekwoord zoals ‘grappige grappen’, kunt u de woorden ‘grappige grappen’ een aantal keren aan uw pagina toevoegen en vetgedrukt maken, in de hoop uw positie voor die term te verbeteren:

Welkom bij grappige grappen ! We vertellen de grappigste grappen ter wereld. Grappige grappen zijn leuk en gek. Je grappige grap wacht op je. Leun achterover en lees grappige grappen, want grappige grappen kunnen je blij en grappiger maken . Enkele grappige favoriete grappige grappen .
Deze tactiek zorgde voor vreselijke gebruikerservaringen en in plaats van te lachen om grappige grappen, werden mensen gebombardeerd door vervelende, moeilijk leesbare tekst. Misschien werkte het in het verleden, maar dit is nooit wat zoekmachines wilden.

De rollinks spelen in SEO

Als we het over links hebben, kunnen we twee dingen bedoelen. Backlinks of “inkomende links” zijn links van andere websites die naar uw website verwijzen, terwijl interne links links op uw eigen site zijn die naar uw andere pagina’s (op dezelfde site) verwijzen.

Een afbeelding van hoe inkomende links en interne links werken.

Links hebben historisch een grote rol gespeeld in SEO. Al heel vroeg hadden zoekmachines hulp nodig bij het uitzoeken welke URL’s betrouwbaarder waren dan andere om hen te helpen bepalen hoe ze zoekresultaten moesten rangschikken. Berekening van het aantal links dat naar een bepaalde site verwijst, heeft hen hierbij geholpen.

Backlinks werken op dezelfde manier als echte WoM-verwijzingen (Word-of-Mouth). Laten we een hypothetische coffeeshop, Jenny’s Coffee, als voorbeeld nemen:

  • Verwijzingen van anderen = goed teken van autoriteit
    • Voorbeeld: veel verschillende mensen hebben je allemaal verteld dat Jenny’s Coffee de beste in de stad is
  • Verwijzingen van jezelf = bevooroordeeld, dus geen goed teken van autoriteit
    • Voorbeeld: Jenny beweert dat Jenny’s Coffee de beste in de stad is
  • Verwijzingen uit irrelevante of bronnen van lage kwaliteit = geen goed teken van autoriteit en kunnen u zelfs laten markeren voor spam
    • Voorbeeld: Jenny betaalde om mensen die nog nooit haar coffeeshop hebben bezocht anderen te laten vertellen hoe goed het is.
  • Geen verwijzingen = onduidelijke autoriteit
    • Voorbeeld: Jenny’s Coffee is misschien goed, maar je hebt niemand kunnen vinden die een mening heeft, dus je weet het niet zeker.

Dit is de reden waarom PageRank is gemaakt. PageRank (onderdeel van het kernalgoritme van Google) is een algoritme voor linkanalyse dat is vernoemd naar een van de oprichters van Google, Larry Page. PageRank schat het belang van een webpagina door de kwaliteit en de hoeveelheid links te meten die ernaar verwijzen. De veronderstelling is dat hoe relevanter, belangrijker en betrouwbaarder een webpagina is, hoe meer koppelingen deze heeft verdiend.

Hoe meer natuurlijke backlinks u hebt van websites met een hoge autoriteit (vertrouwd), hoe groter uw kans is om hoger te scoren in de zoekresultaten.

De rolinhoud speelt in SEO

Links zouden geen zin hebben als ze zoekers niet naar iets zouden leiden. Dat iets inhoud is! Inhoud is meer dan alleen woorden; het is alles bedoeld om te worden gebruikt door zoekers – er is video-inhoud, afbeeldingsinhoud en natuurlijk tekst. Als zoekmachines antwoordapparaten zijn, is inhoud het middel waarmee de zoekmachines die antwoorden geven.

Telkens wanneer iemand een zoekopdracht uitvoert, zijn er duizenden mogelijke resultaten, dus hoe beslissen zoekmachines welke pagina’s de zoeker waardevol gaat vinden? Een groot deel van het bepalen van waar uw pagina zal rangschikken voor een bepaalde zoekopdracht is hoe goed de inhoud op uw pagina overeenkomt met de intentie van de zoekopdracht. Met andere woorden, komt deze pagina overeen met de gezochte woorden en helpt het de taak te vervullen die de zoeker probeerde te volbrengen?

Vanwege deze focus op gebruikerstevredenheid en taakuitvoering zijn er geen strikte benchmarks voor hoe lang uw inhoud moet zijn, hoe vaak deze een trefwoord moet bevatten of wat u in uw kopteksttags moet plaatsen. Al die kunnen een rol spelen in hoe goed een pagina presteert bij het zoeken, maar de nadruk moet liggen op de gebruikers die de inhoud zullen lezen.

Vandaag, met honderden of zelfs duizenden rangschikkingssignalen, zijn de top drie redelijk consistent gebleven: links naar uw website (die dienen als geloofwaardigheidssignalen van derden), inhoud op de pagina (kwaliteitsinhoud die voldoet aan de intentie van een gebruiker), en RankBrain.

 

Wat is RankBrain?

RankBrain is de machine learning-component van het kernalgoritme van Google. Machine learning is een computerprogramma dat zijn voorspellingen in de loop van de tijd blijft verbeteren door nieuwe observaties en trainingsgegevens. Met andere woorden, het is altijd aan het leren, en omdat het altijd aan het leren is, moeten de zoekresultaten voortdurend verbeteren.

Als RankBrain bijvoorbeeld een lager gerangschikte URL opmerkt die gebruikers een beter resultaat oplevert dan de hoger gerangschikte URL’s, kunt u wedden dat RankBrain die resultaten zal aanpassen, het relevantere resultaat hoger zal plaatsen en de minder relevante pagina’s als bijproduct zal degraderen.

Een afbeelding die laat zien hoe resultaten kunnen veranderen en vluchtig genoeg zijn om verschillende ranglijsten te laten zien, zelfs uren later.

Omdat Google RankBrain zal blijven gebruiken om de meest relevante, nuttige inhoud te promoten, moeten we ons meer dan ooit richten op het vervullen van de intentie van de zoeker. Bied de best mogelijke informatie en ervaring voor zoekers die mogelijk op uw pagina terechtkomen en u hebt een grote eerste stap gezet om goed te presteren in een RankBrain-wereld.

Betrokkenheidsstatistieken: correlatie, oorzakelijk verband of beide?

Met Google-ranglijsten zijn engagementstatistieken hoogstwaarschijnlijk deels correlatie en deels oorzakelijk verband.

Wanneer we engagement-statistieken gebruiken, bedoelen we gegevens die weergeven hoe zoekers omgaan met uw site vanuit zoekresultaten. Dit omvat dingen zoals:

  • Klikken (bezoeken van zoekopdracht)
  • Tijd op pagina (hoeveelheid tijd die de bezoeker op een pagina heeft doorgebracht alvorens deze te verlaten)
  • Bouncepercentage (het percentage van alle websitesessies waarbij gebruikers slechts één pagina hebben bekeken)
  • Pogo-plakken (klikken op een organisch resultaat en dan snel terugkeren naar de SERP om een ​​ander resultaat te kiezen)

Veel tests hebben aangegeven dat engagementstatistieken correleren met een hogere rangorde, maar over oorzakelijk verband is hevig gedebatteerd. Zijn goede betrokkenheidsstatistieken slechts indicatief voor hoog gerangschikte sites? Of staan ​​sites hoog op de lijst omdat ze goede engagement-statistieken hebben?

1. Introductie tot SEO

1. Introductie tot SEO SEO staat voor Search Engine Optimization, ookwel zoekmachine optimalisatie. SEO is dus de activiteit die een digital marketeer onderneemt om uw website

Lees verder »

5. On-page SEO

5. On-page SEO Gebruik uw onderzoek om uw boodschap te scheppen. Nu u weet hoe uw doelmarkt zoekt, is het tijd om in on-page SEO

Lees verder »

6. Technische SEO

6. Technische SEO Technische basiskennis zal u helpen uw site voor zoekmachines te optimaliseren en uw credibiliteit bij ontwikkelaars boosten. Nu u waardevolle inhoud heeft

Lees verder »