Google search is in september 23 jaar geworden. De zoekmachine heeft vele veranderingen ondergaan sinds het systeem in 1997 van start ging. Om te voldoen aan de doelstelling van het bedrijf om “de informatie van de wereld te organiseren”, gebruikt Google crawlers, indexers, algoritmen en technologische intelligentie om de sites te vinden die de beste inhoud voor de gebruiker hebben.
Dit proces begint al voordat je iets in het zoekveld typt en op “Zoeken” klikt. Om dit nauwkeurig en snel te doen, worden honderden miljarden internetpagina’s automatisch geanalyseerd en de resultaten verschijnen in ongeveer een halve seconde.
Om meer uit te leggen over hoe Google’s systeem werkt in zijn zoekprogramma, hebben we drie belangrijke punten opgesomd voor de zoekgigant om zijn resultaten te bereiken.
- Volgen en rangschikken
In tegenstelling tot wat het lijkt, krijgt de gebruiker bij het zoeken op de site niet de inhoud van het hele internet te zien. Er wordt gezocht in de index die Google door middel van zijn eigen mechanismen heeft weten te catalogiseren. In de praktijk is het bijna onmogelijk om geen resultaat te vinden, omdat er in dit soort bibliotheken miljoenen pagina’s zijn die voor elke zoekopdracht worden georganiseerd, met informatie die als relevant wordt beschouwd.
Om deze enorme catalogus samen te stellen, gebruikt Google software die crawlers en indexers wordt genoemd. Deze systemen zijn verantwoordelijk voor het crawlen, vinden en opslaan van pagina’s, het identificeren van hun inhoud en het op een georganiseerde manier creëren van de records. Het doel is het proces te optimaliseren en steeds assertieve antwoorden te geven op de specifieke belangstelling van een gebruiker.
Deze hulpmiddelen zijn ook in staat om de sites met elkaar in verband te brengen via de links die de een naar de ander leiden en zo een netwerk te creëren van miljoenen sites die onderling verbonden zijn en in duizenden machines zijn opgeslagen. Volgens de zoekgigant is deze index meer dan honderd miljoen gigabyte groot.
- Zoek algoritmen
Wanneer een term in Google wordt ingetikt, analyseren robotalgoritmen verschillende factoren in de geclassificeerde items om het beste resultaat te vinden dat aan de gebruiker kan worden getoond. Onder meer de kwaliteit van de site, het tijdstip van bestaan, de herkomst, de hoeveelheid gezochte trefwoorden in de tekst en de aanwezigheid van synoniemen worden onderzocht.
Deze algoritmen worden aangepast en beoordeeld door meer dan 10 duizend medewerkers, bekend als Search Quality Evaluators. Zij volgen een reeks richtsnoeren om de urgentie van het onderzoek te evalueren, waarbij drie onderwerpen in aanmerking worden genomen: urgentie, relevantie en autoriteit. In het geval van nieuwssites, bijvoorbeeld, kunnen nieuwe verhalen binnen enkele seconden na publicatie aan de index worden toegevoegd.
- Intelligentie in de resultaten
Om nauwkeurige resultaten te kunnen leveren, heeft Google technologieën ontwikkeld die de taal en de plaats van de zoekopdracht van de gebruiker kunnen detecteren, woordreeksen kunnen ontcijferen, zinnen kunnen aanvullen, tikfouten kunnen interpreteren, synoniemen kunnen toepassen en kunnen bepalen of de zoekopdracht breed of verfijnd is.
De mechanismen kunnen ook ontdekken of de pagina gevarieerde items bevat die overeenkomen met de gezochte woorden, en niet alleen de gezochte termen herhaalt. Naast het interpreteren van de context van de zoekopdracht aan de hand van wat er op dat moment in de wereld in het nieuws is.