Hallo, Ik heet John.
Ik leid de zoek- en automatische leerteams
bij Google.
Ik vind het prachtig inspirerend
dat mensen wereldwijd
zoekmachines gebruiken om
banale vragen te stellen
en ongelofelijk belangrijke.
Het is dus een enorme
verantwoordelijkheid hen
de beste antwoorden te geven
die we kunnen.
Hallo, ik heet Akshaya, en ik werk voor
het zoekteam van Bing.
Het gebeurd vaak dat we onderzoek
doen naar
kunstmatige intelligentie en automatisch
leren,
maar we moeten kijken hoe de gebruikers
dit gaan gebruiken,
omdat we uiteindelijk een impact willen
maken op de maatschappij.
Laten we een simpele vraag stellen.
Hoe lang duurt een reis naar Mars?
Waar kwamen deze resultaten vandaan
en waarom stond dit hoger op de lijst
dan de andere?
Ok, laten we er dieper op in gaan en
kijken hoe de zoekmachine
jouw verzoek veranderde in een resultaat.
Wat je moet weten is dat als je een
zoekopdracht uitvoert,
de zoekmachine niet daadwerkelijk het
Wereldwijde web op gaat om jouw
zoekopdracht in realtime uit te voeren.
Dat is omdat er meer dan een miljard
websites zijn
op het internet en er elke minuut er
honderden bijkomen.
Dus als de zoekmachine door elke
website zou moeten zoeken,
om de website te vinden die jij zoekt,
dan zou dat een eeuwigheid duren.
Dus om jouw zoekopdracht sneller
uit te voeren, scannen zoekmachines het
web constant van te voren
om informatie vast te leggen die jouw
zoekopdracht later van nut kan zijn.
Op die manier heeft de zoekmachine
reeds wat het nodig heeft
wat betreft jouw zoekopdracht over
reizen naar Mars
om je een antwoord in realtime te geven.
Het werkt als volgt.
Het internet bestaat uit een web van pagina's
die via hyperlinks met elkaar zijn verbonden.
Zoekmachines zijn constant bezig met het
uitvoeren van een programma
dat een Spider heet en dat deze web-
pagina's doorloopt
om informatie over ze te verzamelen.
Elk keer als het een hyperlink
vindt, volgt het deze totdat het elke
pagina heeft bezocht dat het
kan vinden op het complete
internet.
Voor elke pagina die de Spider bezoekt,
legt het informatie vast die nodig kan
zijn voor een zoekopdracht
door het toe te voegen aan een
speciale database: een zoekindex.
Laten we teruggaan naar die eerdere
zoekopdracht
en kijken of we kunnen ontdekken hoe de
zoekmachine
deze resultaten tevoorschijn haalde.
Als je vraag hoe lang een reis naar
Mars duurt,
dan zoekt de zoekmachine naar elk van
die woorden in de zoekindex
om onmiddellijk een lijst
te krijgen
van alle pagina's op het internet
die deze woorden bevatten.
Maar alleen al het zoeken naar deze termen
kan miljoenen pagina's opleveren,
en dus moet de zoekmachine in staat
zijn om de beste
koppelingen eerst aan je te laten zien.
HIer wordt het lastig omdat de zoekmachine
misschien moet raden waar je naar
op zoek bent.
Elke zoekmachine gebruikt zijn eigen
algoritme
om de pagina's in rangvolgorde te zetten
op basis van wat het denkt dat jij wilt.
Het rangalgoritme van de zoekmachine
kan controleren
of je zoekterm in de titelpagina staat,
het kan controleren of alle worden naast
elkaar verschijnen,
of elk ander type berekening
die het helpen bij het beter achterhalen
welke pagina's jij wilt zien en welke niet.
Google heeft het beroemdste algoritme
uitgevonden
voor het kiezen van de meest relevante
resultaten voor een zoekopdracht door
rekening te houden met hoeveel webpagina's
gekoppeld zijn aan een bepaalde pagina.
Het idee is dat als veel websites denken
dat een webpagina interessant is,
het waarschijnljk de pagina is waar je
naar op zoek bent.
Dit algoritme wordt 'Page rank' genoemd,
niet vanwege de wijze waarop het
webpagina's in een ranglijst plaats,
maar omdat het genoemd is naar de
uitvinder ervan: Larry Page,
een van de oprichters van Google.
Aangezien een website vaak geld verdient
als je het bezoekt,
zijn spammers constant bezig met het
vinden van manieren om
het zoekalgoritme te saboteren zodat hun
pagina's
hoger in de lijst komen te staan.
Zoekmachines werken regelmatig hun
algoritmes bij
om te voorkomen dat nep of onbetrouwbare
websites bovenaan de lijst komen te staan.
Uiteindeljk ben jij degene die waakzaam
moet zijn
voor dergelijke pagina's die onbetrouwbaar
zijn
door naar het webadres te kijken en te
controleren of het een betrouwbare bron is.
Zoekprogramma's blijven zich ontwikkelen
om de algoritmes te verbeteren
zodat ze betere en snellere resultaten
geven dan die van de concurrent.
Moderne zoekmachines gebruiken zelfs
informatie
die jij niet expliciet hebt opgegeven om je
te helpen bij het beperken van je zoekopdracht.
Als je bijvoorbeeld een zoekopdracht gaf
voor hondenparken,
dan zullen veel zoekmachines je
resulaten geven
voor alle hondenparken in de buurt,
zelfs als je niet je locatie had
opgegeven.
Moderne zoekmachines begrijpen
meer dan alleen
maar de woorden op een pagina,
maar wat ze daadwerkelijk betekenen
om de beste optie te vinden
die past bij waar je naar op zoek bent.
Als je bijvoorbeeld zoekt naar
sneller pitcher,
dan weet het dat zoekt naar
een atleet.
Maar als je zoekt naar grote kruik,
leidt het tot resultaten voor je keuken.
Voor het beter begrijpen van woorden,
gebruiken we automatisch leren,
een soort kunstmatige intelligentie.
Het stelt zoekalgoritmes in staat
om niet alleen
individuele letters of woorden op
een pagina te zoeken,
maar ook te begrijpen wat de onderliggende
betekenis is van de woorden.
Het internet groeit exponentieel,
maar als de teams die zoekmachines
ontwerpen ons werk goed doen,
dan zal de informatie die je zoekt altijd
slechts enkele toetsaanslagen verderop liggen.