-
Hallo, Ik heet John.
-
Ik leid de zoek- en automatische leerteams
bij Google.
-
Ik vind het prachtig inspirerend
-
dat mensen wereldwijd
-
zoekmachines gebruiken om
banale vragen te stellen
-
en ongelofelijk belangrijke.
-
Het is dus een enorme
verantwoordelijkheid hen
-
de beste antwoorden te geven
die we kunnen.
-
Hallo, ik heet Akshaya, en ik werk voor
het zoekteam van Bing.
-
Het gebeurd vaak dat we onderzoek
doen naar
-
kunstmatige intelligentie en automatisch
leren,
-
maar we moeten kijken hoe de gebruikers
dit gaan gebruiken,
-
omdat we uiteindelijk een impact willen
maken op de maatschappij.
-
Laten we een simpele vraag stellen.
-
Hoe lang duurt een reis naar Mars?
-
Waar kwamen deze resultaten vandaan
-
en waarom stond dit hoger op de lijst
dan de andere?
-
Ok, laten we er dieper op in gaan en
kijken hoe de zoekmachine
-
jouw verzoek veranderde in een resultaat.
-
Wat je moet weten is dat als je een
zoekopdracht uitvoert,
-
de zoekmachine niet daadwerkelijk het
Wereldwijde web op gaat om jouw
-
zoekopdracht in realtime uit te voeren.
-
Dat is omdat er meer dan een miljard
websites zijn
-
op het internet en er elke minuut er
honderden bijkomen.
-
Dus als de zoekmachine door elke
website zou moeten zoeken,
-
om de website te vinden die jij zoekt,
-
dan zou dat een eeuwigheid duren.
-
Dus om jouw zoekopdracht sneller
-
uit te voeren, scannen zoekmachines het
web constant van te voren
-
om informatie vast te leggen die jouw
zoekopdracht later van nut kan zijn.
-
Op die manier heeft de zoekmachine
reeds wat het nodig heeft
-
wat betreft jouw zoekopdracht over
reizen naar Mars
-
om je een antwoord in realtime te geven.
-
Het werkt als volgt.
-
Het internet bestaat uit een web van pagina's
die via hyperlinks met elkaar zijn verbonden.
-
Zoekmachines zijn constant bezig met het
uitvoeren van een programma
-
dat een Spider heet en dat deze web-
pagina's doorloopt
-
om informatie over ze te verzamelen.
-
Elk keer als het een hyperlink
-
vindt, volgt het deze totdat het elke
pagina heeft bezocht dat het
-
kan vinden op het complete
internet.
-
Voor elke pagina die de Spider bezoekt,
-
legt het informatie vast die nodig kan
zijn voor een zoekopdracht
-
door het toe te voegen aan een
speciale database: een zoekindex.
-
Laten we teruggaan naar die eerdere
zoekopdracht
-
en kijken of we kunnen ontdekken hoe de
zoekmachine
-
deze resultaten tevoorschijn haalde.
-
Als je vraag hoe lang een reis naar
Mars duurt,
-
dan zoekt de zoekmachine naar elk van
die woorden in de zoekindex
-
om onmiddellijk een lijst
te krijgen
-
van alle pagina's op het internet
die deze woorden bevatten.
-
Maar alleen al het zoeken naar deze termen
-
kan miljoenen pagina's opleveren,
-
en dus moet de zoekmachine in staat
zijn om de beste
-
koppelingen eerst aan je te laten zien.
-
HIer wordt het lastig omdat de zoekmachine
-
misschien moet raden waar je naar
op zoek bent.
-
Elke zoekmachine gebruikt zijn eigen
algoritme
-
om de pagina's in rangvolgorde te zetten
op basis van wat het denkt dat jij wilt.
-
Het rangalgoritme van de zoekmachine
kan controleren
-
of je zoekterm in de titelpagina staat,
-
het kan controleren of alle worden naast
elkaar verschijnen,
-
of elk ander type berekening
-
die het helpen bij het beter achterhalen
-
welke pagina's jij wilt zien en welke niet.
-
Google heeft het beroemdste algoritme
uitgevonden
-
voor het kiezen van de meest relevante
resultaten voor een zoekopdracht door
-
rekening te houden met hoeveel webpagina's
gekoppeld zijn aan een bepaalde pagina.
-
Het idee is dat als veel websites denken
-
dat een webpagina interessant is,
-
het waarschijnljk de pagina is waar je
naar op zoek bent.
-
Dit algoritme wordt 'Page rank' genoemd,
-
niet vanwege de wijze waarop het
webpagina's in een ranglijst plaats,
-
maar omdat het genoemd is naar de
uitvinder ervan: Larry Page,
-
een van de oprichters van Google.
-
Aangezien een website vaak geld verdient
als je het bezoekt,
-
zijn spammers constant bezig met het
vinden van manieren om
-
het zoekalgoritme te saboteren zodat hun
pagina's
-
hoger in de lijst komen te staan.
-
Zoekmachines werken regelmatig hun
algoritmes bij
-
om te voorkomen dat nep of onbetrouwbare
websites bovenaan de lijst komen te staan.
-
Uiteindeljk ben jij degene die waakzaam
moet zijn
-
voor dergelijke pagina's die onbetrouwbaar
zijn
-
door naar het webadres te kijken en te
controleren of het een betrouwbare bron is.
-
Zoekprogramma's blijven zich ontwikkelen
-
om de algoritmes te verbeteren
zodat ze betere en snellere resultaten
-
geven dan die van de concurrent.
-
Moderne zoekmachines gebruiken zelfs
informatie
-
die jij niet expliciet hebt opgegeven om je
te helpen bij het beperken van je zoekopdracht.
-
Als je bijvoorbeeld een zoekopdracht gaf
voor hondenparken,
-
dan zullen veel zoekmachines je
resulaten geven
-
voor alle hondenparken in de buurt,
-
zelfs als je niet je locatie had
opgegeven.
-
Moderne zoekmachines begrijpen
meer dan alleen
-
maar de woorden op een pagina,
-
maar wat ze daadwerkelijk betekenen
om de beste optie te vinden
-
die past bij waar je naar op zoek bent.
-
Als je bijvoorbeeld zoekt naar
sneller pitcher,
-
dan weet het dat zoekt naar
een atleet.
-
Maar als je zoekt naar grote kruik,
-
leidt het tot resultaten voor je keuken.
-
Voor het beter begrijpen van woorden,
gebruiken we automatisch leren,
-
een soort kunstmatige intelligentie.
-
Het stelt zoekalgoritmes in staat
om niet alleen
-
individuele letters of woorden op
een pagina te zoeken,
-
maar ook te begrijpen wat de onderliggende
betekenis is van de woorden.
-
Het internet groeit exponentieel,
-
maar als de teams die zoekmachines
ontwerpen ons werk goed doen,
-
dan zal de informatie die je zoekt altijd
slechts enkele toetsaanslagen verderop liggen.