0:00:02.366,0:00:05.864 Ik laat je wat zien. 0:00:05.864,0:00:10.000 (Video) Meisje: Oké, dat is een poes[br]die in bed zit. 0:00:10.000,0:00:14.300 De jongen verzorgt de olifant. 0:00:14.300,0:00:18.414 Dat zijn mensen[br]die met het vliegtuig gaan. 0:00:18.414,0:00:21.234 Dat is een groot vliegtuig. 0:00:21.234,0:00:23.510 Fei-Fei Li: Dit is een kind van drie 0:00:23.510,0:00:27.349 dat beschrijft wat het ziet[br]op een serie foto's. 0:00:27.349,0:00:30.194 Het moet nog veel leren over de wereld, 0:00:30.194,0:00:34.743 maar het is nu al een expert[br]in iets heel belangrijks: 0:00:34.743,0:00:37.919 iets zinnigs maken van wat het ziet. 0:00:37.919,0:00:42.185 Onze maatschappij is technologisch[br]verder dan ooit. 0:00:42.185,0:00:45.924 We sturen mensen naar de maan,[br]maken telefoons die tegen ons praten, 0:00:45.924,0:00:51.030 of stellen radiozenders samen, die alleen[br]muziek uitzenden die we mooi vinden. 0:00:51.030,0:00:57.685 Toch worstelen onze geavanceerde machines[br]en computers met deze taak. 0:00:57.688,0:01:01.327 Ik ben hier vandaag om je[br]de voortgang te laten zien 0:01:01.327,0:01:05.384 van de recentste ontwikkelingen[br]in ons onderzoek naar computervisie, 0:01:05.384,0:01:10.375 een van de meest grensverleggende[br]en mogelijk revolutionaire technologieën 0:01:10.375,0:01:12.741 in de computerwetenschap. 0:01:12.741,0:01:17.322 Ja, we hebben prototypes van auto's[br]die zelf kunnen rijden, 0:01:17.322,0:01:21.265 maar zonder slim zicht,[br]zien ze het verschil niet 0:01:21.265,0:01:25.235 tussen een verfrommelde papieren zak[br]op de weg, waar je overheen kan rijden, 0:01:25.235,0:01:29.255 en een evengrote kei,[br]waar je omheen moet rijden. 0:01:29.255,0:01:32.805 We hebben geweldige[br]megapixelcamera's gemaakt, 0:01:32.805,0:01:36.280 maar we kunnen blinden[br]nog niet laten zien. 0:01:36.280,0:01:39.525 Drones kunnen grote afstanden vliegen, 0:01:39.525,0:01:41.859 maar hun visie-technologie schiet tekort 0:01:41.859,0:01:45.320 om veranderingen te helpen opsporen[br]in het regenwoud. 0:01:45.320,0:01:48.270 Er zijn overal veiligheidscamera's, 0:01:48.270,0:01:54.057 maar die waarschuwen ons niet[br]als een kind verdrinkt in een zwembad. 0:01:54.057,0:01:59.502 Foto's en filmpjes zijn deel[br]van ons leven geworden. 0:01:59.502,0:02:03.849 Ze verschijnen sneller dan welk mens, 0:02:03.849,0:02:06.632 of welk team mensen ooit kan bekijken, 0:02:06.632,0:02:10.553 en jullie en ik dragen daaraan bij[br]op deze TED. 0:02:10.553,0:02:15.785 Onze meest geavanceerde software [br]heeft nog steeds moeite met het begrijpen 0:02:15.785,0:02:19.661 van deze enorme hoeveelheid gegevens. 0:02:19.661,0:02:26.239 Met andere woorden,[br]we zijn met z'n allen heel erg blind, 0:02:26.239,0:02:31.306 omdat onze slimste machines[br]ook nog blind zijn. 0:02:31.306,0:02:34.192 Je zal je afvragen[br]waarom het zo moeilijk is. 0:02:34.192,0:02:36.825 Camera's kunnen dit soort foto's nemen 0:02:36.825,0:02:40.749 door licht om te zetten[br]naar een 2-dimensionale serie getallen, 0:02:40.749,0:02:42.789 bekend als pixels. 0:02:42.789,0:02:45.040 Maar dit zijn slechts levenloze getallen. 0:02:45.040,0:02:48.151 Ze hebben zelf geen betekenis. 0:02:48.151,0:02:52.174 Horen is niet hetzelfde als luisteren. 0:02:52.174,0:02:56.284 Foto's nemen is niet hetzelfde als zien. 0:02:56.284,0:03:00.973 En met zien[br]bedoelen we echt begrijpen. 0:03:00.973,0:03:07.470 Het kostte Moeder Natuur[br]540 miljoen jaar hard werken 0:03:07.470,0:03:09.443 om dit te doen. 0:03:09.443,0:03:11.204 Veel van die inspanning 0:03:11.204,0:03:16.245 ging zitten in het ontwikkelen[br]van het verwerkingsgedeelte in ons brein. 0:03:16.245,0:03:19.032 Niet de ogen zelf. 0:03:19.032,0:03:21.809 Gezichtsvermogen begint bij de ogen, 0:03:21.809,0:03:25.507 maar het gebeurt in feite[br]in de hersenen. 0:03:26.287,0:03:30.557 Al 15 jaar, vanaf mijn[br]promoveren aan Caltech, 0:03:30.557,0:03:34.173 en later, toen ik de leiding had[br]van het Stanford Vision Lab, 0:03:34.173,0:03:38.669 werk ik samen met mijn mentoren,[br]medewerkers en studenten 0:03:38.669,0:03:41.558 om computers te leren zien. 0:03:42.098,0:03:45.952 Ons onderzoeksgebied heet[br]computervisie en machine-leren. 0:03:45.952,0:03:50.840 Het is onderdeel van het algemene[br]gebied van kunstmatige intelligentie. 0:03:50.840,0:03:56.283 Uiteindelijk willen we de machines[br]aanleren wat wijzelf ook doen: 0:03:56.283,0:04:01.880 voorwerpen benoemen, mensen herkennen,[br]ruimtelijke vormen afleiden, 0:04:01.880,0:04:07.568 het begrijpen van verhoudingen,[br]emoties, acties en bedoelingen. 0:04:07.568,0:04:13.711 Jullie en ik maken complete verhalen[br]van mensen, plaatsen en dingen, 0:04:13.711,0:04:16.935 op het moment dat we ernaar kijken. 0:04:16.935,0:04:22.538 Eerst moeten we de computer leren[br]voorwerpen te zien, 0:04:22.538,0:04:25.746 de bouwsteen van de visuele wereld. 0:04:25.746,0:04:30.340 Heel simpel gezegd:[br]stel je dit leerproces voor 0:04:30.340,0:04:33.335 als het aan de computer laten zien[br]van oefenplaatjes 0:04:33.335,0:04:36.656 van bepaalde voorwerpen,[br]bijvoorbeeld katten, 0:04:36.656,0:04:41.213 en ontwerp een model dat leert[br]van deze oefenplaatjes. 0:04:41.213,0:04:43.277 Hoe moeilijk is dat? 0:04:43.277,0:04:47.489 Een kat is tenslotte alleen maar[br]een verzameling vormen en kleuren. 0:04:47.489,0:04:51.235 En dit deden we in het begintijd[br]van het modelleren van voorwerpen. 0:04:51.235,0:04:55.197 We moesten de computer[br]algoritmes leren in een wiskundige taal, 0:04:55.197,0:04:58.380 dat een kat een ronde kop heeft,[br]een mollig lijf, 0:04:58.380,0:05:00.589 twee puntoren en een lange staart. 0:05:00.589,0:05:02.679 En dat leek goed te gaan. 0:05:02.699,0:05:04.672 Maar deze kat dan? 0:05:04.672,0:05:05.753 (Gelach) 0:05:05.753,0:05:07.439 Die ligt helemaal opgekruld. 0:05:07.439,0:05:12.408 Nu moet je nog een vorm en gezichtspunt[br]toevoegen aan je model. 0:05:12.408,0:05:15.033 Maar als katten zijn verstopt? 0:05:15.033,0:05:17.838 Deze grappige katten bijvoorbeeld. 0:05:17.838,0:05:19.363 (Gelach) 0:05:19.363,0:05:21.529 Nu ga je het snappen. 0:05:21.529,0:05:24.896 Zelf iets simpels als een huisdier 0:05:24.896,0:05:29.000 kan zorgen voor ontelbaar veel[br]variaties van het model. 0:05:29.000,0:05:32.333 Dat is nog maar één voorwerp. 0:05:32.573,0:05:35.065 Acht jaar geleden 0:05:35.065,0:05:41.185 veranderde een simpele[br]en grondige observatie mijn denken. 0:05:41.185,0:05:43.900 Niemand vertelt aan een kind[br]hoe het moet kijken. 0:05:43.900,0:05:46.131 Zeker niet in de eerste jaren. 0:05:46.131,0:05:51.371 Ze leren het via ervaringen en voorbeelden[br]uit het echte leven. 0:05:51.371,0:05:53.711 Bekijk de ogen van kinderen eens 0:05:53.711,0:05:56.445 als een paar biologische camera's. 0:05:56.445,0:06:00.555 Ze nemen elke 200 milliseconden een foto, 0:06:00.555,0:06:03.679 de gemiddelde tijd van een oogbeweging. 0:06:03.679,0:06:09.529 Als het drie is, heeft een kind[br]honderden miljoenen beelden gezien 0:06:09.529,0:06:11.043 van de echte wereld. 0:06:11.043,0:06:14.193 Dat zijn heel wat oefenvoorbeelden. 0:06:14.193,0:06:20.082 In plaats van je alleen te richten op[br]steeds betere algoritmes, 0:06:20.082,0:06:25.644 zag ik in dat je de algoritmes[br]de oefengegevens moest geven 0:06:25.644,0:06:28.673 dat een kind ook krijgt door ervaring. 0:06:28.673,0:06:32.841 Zowel qua kwantiteit als kwaliteit. 0:06:32.841,0:06:34.439 Toen we dat wisten, 0:06:34.439,0:06:37.670 wisten we dat we een verzameling [br]gegevens moesten maken 0:06:37.670,0:06:41.619 die veel meer plaatjes bevat[br]dan wij ooit hebben gehad. 0:06:41.619,0:06:44.706 Misschien wel duizenden keren meer. 0:06:44.706,0:06:48.817 Samen met professor Kai Li[br]aan de Princeton Universiteit, 0:06:48.817,0:06:53.569 lanceerden we in 2007[br]het ImageNet-project. 0:06:53.569,0:06:57.267 Gelukkig hoefden we geen camera[br]op ons hoofd te zetten 0:06:57.267,0:06:58.991 en jaren te wachten. 0:06:58.991,0:07:00.634 We gingen het internet op, 0:07:00.634,0:07:05.070 de grootste schat aan plaatjes[br]die de mens ooit heeft gemaakt. 0:07:05.070,0:07:08.111 We downloadden[br]meer dan een miljard plaatjes 0:07:08.111,0:07:13.761 en gebruikten crowdsourcing,[br]zoals met de Amazon Mechanische Turk 0:07:13.761,0:07:16.330 om ons de plaatjes te helpen kenmerken. 0:07:16.330,0:07:21.230 Op zijn hoogtepunt was ImageNet[br]een van de grootste werkgevers 0:07:21.230,0:07:24.226 voor de Amazon [br]Mechanische Turk-werknemers: 0:07:24.226,0:07:28.080 In totaal bijna 50.000 mensen 0:07:28.080,0:07:32.020 uit 167 landen van de wereld 0:07:32.020,0:07:36.067 hielpen ons met het opschonen,[br]sorteren en markeren 0:07:36.067,0:07:40.232 van bijna een miljard[br]mogelijk bruikbare plaatjes. 0:07:40.232,0:07:43.265 Zoveel moeite kostte het 0:07:43.265,0:07:46.815 om slechts een fractie[br]van de beelden te verwerken 0:07:46.815,0:07:51.778 dat een kind opneemt[br]in zijn eerste jaren. 0:07:51.778,0:07:56.050 Achteraf gezien lijkt dit idee[br]om big data te gebruiken 0:07:56.050,0:08:00.330 om computeralgoritmes te trainen,[br]nogal logisch, 0:08:00.330,0:08:04.540 maar in 2007 was dat niet zo. 0:08:04.540,0:08:08.308 We stonden best lang alleen[br]op deze weg. 0:08:08.308,0:08:13.591 Een paar vriendelijke collega's[br]raadden me aan wat nuttigers te gaan doen, 0:08:13.591,0:08:17.703 en we hadden veel moeite[br]om onderzoeksgeld bij elkaar te krijgen. 0:08:17.703,0:08:20.418 Ik grapte een keer naar mijn studenten 0:08:20.418,0:08:24.301 dat ik mijn stomerij zou heropenen[br]om ImageNet te sponsoren. 0:08:24.301,0:08:28.962 Zo bekostigde ik immers ook mijn studie. 0:08:28.962,0:08:30.898 We gingen dus door. 0:08:30.898,0:08:35.702 In 2009 leverde het ImageNet-project[br]een database op 0:08:35.702,0:08:38.556 met 15 miljoen plaatjes 0:08:38.556,0:08:43.660 in 22.000 categorieën[br]van voorwerpen en dingen 0:08:43.660,0:08:46.690 ingedeeld met alledaagse Engelse woorden. 0:08:46.690,0:08:49.786 Zowel qua kwantiteit als kwaliteit, 0:08:49.786,0:08:52.878 was dit een ongekende schaal. 0:08:52.878,0:08:56.339 We hebben bijvoorbeeld[br]in het geval van de katten, 0:08:56.339,0:08:59.148 meer dan 62.000 katten 0:08:59.148,0:09:03.088 in allerlei posities en houdingen[br] 0:09:03.088,0:09:08.331 en allerlei soorten wilde en huiskatten. 0:09:08.331,0:09:11.825 We waren enthousiast[br]toen we ImageNet in elkaar hadden gezet 0:09:11.825,0:09:15.303 en we wilden dat de hele onderzoekswereld[br]er plezier van had. 0:09:15.303,0:09:19.444 Dus volgens de TED-methode stelden we[br]gratis de hele verzameling beschikbaar 0:09:19.444,0:09:24.276 aan de wereldwijde onderzoeksgemeenschap. 0:09:24.276,0:09:28.636 (Applaus) 0:09:29.106,0:09:33.774 Nu we de gegevens hebben[br]om het computerbrein te voeden, 0:09:33.774,0:09:37.491 kunnen we terugkomen[br]op de algoritmes zelf. 0:09:37.491,0:09:42.549 Het bleek dat de overdadige informatie[br]die ImageNet gaf, 0:09:42.549,0:09:47.675 precies paste bij een speciaal soort[br]algoritme voor machineleren. 0:09:47.675,0:09:50.090 die convolutioneel neuraal netwerk heet, 0:09:50.090,0:09:55.338 het eerst aangepakt door Kunihiko[br]Fukushima, Geoff Hinton en Yann LeCun, 0:09:55.338,0:09:58.853 in de jaren zeventig en tachtig. 0:09:58.853,0:10:00.384 Net als in de hersenen, 0:10:00.384,0:10:04.235 die bestaan uit miljarden [br]goedverbonden neuronen, 0:10:04.235,0:10:08.065 is de basiseenheid [br]van een neuraal netwerk 0:10:08.065,0:10:10.495 een neuronenachtig knooppunt. 0:10:10.495,0:10:13.115 Het ontvangt input[br]van andere knooppunten 0:10:13.115,0:10:15.993 en stuurt output naar andere. 0:10:15.993,0:10:20.856 Deze honderdduizenden, [br]of zelfs miljoenen knooppunten 0:10:20.856,0:10:23.923 zijn bovendien[br]in hiërarchische lagen georganiseerd. 0:10:23.923,0:10:26.357 Ook weer net als in de hersenen. 0:10:26.357,0:10:31.420 In een neuraal netwerk dat we gebruiken[br]om voorwerpherkenning te trainen, 0:10:31.420,0:10:34.601 zitten 24 miljoen knooppunten, 0:10:34.601,0:10:37.228 140 miljoen parameters, 0:10:37.228,0:10:40.371 en 15 miljard verbindingen. 0:10:40.371,0:10:43.076 Dat is een gigantisch model. 0:10:43.076,0:10:46.977 Mogelijk gemaakt door de enorme[br]hoeveelheid gegevens van IMageNet 0:10:46.977,0:10:51.860 en moderne processoren[br]om zo'n gigantisch model te trainen, 0:10:51.860,0:10:54.849 kwam het convolutioneel[br]neuraal netwerk tot bloei, 0:10:54.849,0:10:58.035 op een manier die niemand had verwacht. 0:10:58.035,0:10:59.883 Het werd de architectuur 0:10:59.883,0:11:04.093 die de meeste opwindende [br]nieuwe resultaten leverde 0:11:04.093,0:11:05.993 op het gebied van voorwerpherkenning. 0:11:05.993,0:11:08.793 Dit is een computer die ons vertelt 0:11:08.793,0:11:11.173 dat op deze foto een kat staat 0:11:11.173,0:11:12.776 en waar de kat is. 0:11:12.776,0:11:15.188 Er zijn natuurlijk meer dingen dan katten. 0:11:15.188,0:11:17.626 Hier is een computeralgoritme dat zegt 0:11:17.626,0:11:20.900 dat op deze foto[br]een jongen met teddybeer staat, 0:11:20.900,0:11:25.266 een hond, een persoon[br]en een vliegertje op de achtergrond, 0:11:25.266,0:11:28.401 of een foto met veel dingen, 0:11:28.401,0:11:33.045 zoals een man, een skateboard,[br]een hek, een lantaarnpaal, enzovoort. 0:11:33.045,0:11:39.298 Soms, als de computer het[br]niet helemaal zeker weet, 0:11:39.298,0:11:41.774 hebben we hem geleerd[br]slim genoeg te zijn 0:11:41.774,0:11:45.462 om een veilig antwoord te geven[br]in plaats van te veel prijs te geven, 0:11:45.462,0:11:48.133 wat wij ook zouden doen. 0:11:48.133,0:11:53.129 Op andere momenten is het opmerkelijk[br]wat het computeralgoritme ons vertelt 0:11:53.129,0:11:55.242 welke voorwerpen het precies zijn, 0:11:55.242,0:11:58.818 zoals merk, model[br]en bouwjaar van de auto. 0:11:58.818,0:12:04.084 We pasten dit algoritme toe op miljoenen[br]Google Street View-beelden 0:12:04.084,0:12:07.059 dwars door honderden Amerikaanse steden, 0:12:07.059,0:12:10.265 en we bemerkten iets interessants: 0:12:10.265,0:12:13.765 ten eerste bevestigde het ons vermoeden 0:12:13.765,0:12:16.875 dat autoprijzen gelijk op gaan 0:12:16.875,0:12:19.030 met gezinsinkomens. 0:12:19.030,0:12:23.747 Verrassend is echter, [br]dat autoprijzen ook gelijk op gaan 0:12:23.747,0:12:26.577 met de misdaadcijfers in de steden, 0:12:26.577,0:12:30.970 of het stemgedrag met de postcode. 0:12:31.640,0:12:34.266 Wacht even, is dat het? 0:12:34.266,0:12:39.419 Is de computer al net zo goed als de mens[br]of zelfs al beter? 0:12:39.419,0:12:41.557 Niet zo snel. 0:12:41.557,0:12:46.340 Tot nu toe hebben we de computer[br]alleen geleerd voorwerpen te bekijken. 0:12:46.340,0:12:50.954 Net als een kind leren een paar[br]zelfstandige naamwoorden te zeggen. 0:12:50.954,0:12:53.554 Een ongelooflijke prestatie, 0:12:53.554,0:12:56.254 maar pas de eerste stap. 0:12:56.254,0:12:59.936 Er zal vlot een volgende mijlpaal[br]gehaald worden: 0:12:59.936,0:13:03.477 het kind zal beginnen[br]te communiceren in zinnen. 0:13:03.477,0:13:07.701 In plaats van te zeggen dat het een kat is[br]op het plaatje, 0:13:07.701,0:13:12.903 heb je het meisje al horen zeggen[br]dat de kat op een bed ligt. 0:13:12.903,0:13:18.498 Om een computer dus te leren[br]om een plaatje te zien en zinnen te maken, 0:13:18.498,0:13:22.166 moet het huwelijk tussen big data[br]en machineleren 0:13:22.166,0:13:24.721 de volgende stap nemen. 0:13:24.721,0:13:28.877 De computer moet zowel leren[br]van plaatjes 0:13:28.877,0:13:31.733 als van zinnen in natuurlijke taal, 0:13:31.733,0:13:35.055 voortgebracht door mensen. 0:13:35.055,0:13:38.908 Net zoals de hersenen[br]die beeld en taal integreren, 0:13:38.908,0:13:44.109 hebben we een model ontwikkeld[br]dat delen van zichtbare dingen, 0:13:44.109,0:13:46.013 visuele fragmenten, 0:13:46.013,0:13:50.216 verbindt met woorden en zinsdelen. 0:13:50.216,0:13:52.799 Ongeveer vier maanden geleden 0:13:52.799,0:13:55.456 voegden we dit allemaal samen 0:13:55.456,0:13:59.250 en maakten een van de eerste [br]computervisie-modellen 0:13:59.250,0:14:03.404 dat in staat is mensentaalachtige[br]zinnen te maken 0:14:03.404,0:14:06.910 als het voor de eerste keer[br]een plaatje ziet. 0:14:06.910,0:14:11.554 Ik ben zover dat ik wil laten zien[br]wat de computer zegt 0:14:11.554,0:14:13.529 als die het plaatje ziet 0:14:13.529,0:14:19.019 van het meisje dat je aan het begin [br]van de talk hebt gezien. 0:14:19.019,0:14:22.863 (Video) Computer: Een man staat[br]naast de olifant. 0:14:24.083,0:14:28.027 Een groot vliegtuig staat[br]op een startbaan. 0:14:29.057,0:14:33.269 FFL: Natuurlijk werken we hard[br]aan het verbeteren van de algoritmes 0:14:33.269,0:14:35.865 en er moet nog veel geleerd worden. 0:14:35.865,0:14:39.186 (Applaus) 0:14:39.196,0:14:42.877 De computer maakt nog steeds fouten. 0:14:42.877,0:14:46.008 (Video) Computer: Een kat [br]ligt op een bed in een laken. 0:14:46.008,0:14:48.571 FFL: Als hij te veel katten ziet, 0:14:48.571,0:14:51.747 kan hij gaan denken dat alles een kat is. 0:14:53.317,0:14:56.181 (Video) Computer: Een jongetje[br]heeft een honkbalknuppel vast. 0:14:56.181,0:14:57.566 (Gelach) 0:14:57.566,0:15:02.529 FFL: Als hij nog nooit een tandenborstel[br]heeft gezien, raakt hij in de war. 0:15:03.019,0:15:06.483 (Video) Computer: Een man rijdt paard[br]door een straat langs een gebouw. 0:15:06.483,0:15:08.546 (Gelach) 0:15:08.546,0:15:13.448 FFL: We hebben Art 101 nog niet[br]aan de computer geleerd. 0:15:13.448,0:15:16.252 (Video) Computer: Een zebra[br]staat in een grasveld. 0:15:16.252,0:15:20.019 FFL: Het heeft nog niet geleerd [br]de prachtige natuur te waarderen, 0:15:20.019,0:15:22.267 zoals jullie en ik doen. 0:15:22.267,0:15:25.109 De weg is dus lang. 0:15:25.109,0:15:29.315 Het viel niet mee[br]om van nul naar drie jaar te komen 0:15:29.315,0:15:35.111 Van drie tot 13 jaar of verder,[br]is helemaal een grote uitdaging. 0:15:35.111,0:15:39.286 Denk nog even aan dit plaatje[br]van de jongen en de taart. 0:15:39.286,0:15:43.540 Tot nu toe hebben we de computer geleerd[br]om voorwerpen te zien 0:15:43.540,0:15:47.768 of zelfs een simpel verhaaltje[br]te vertellen bij het zien van een plaatje. 0:15:47.768,0:15:51.574 (Video) Computer: Een persoon[br]zit aan tafel met een taart. 0:15:51.574,0:15:53.744 FFL: Maar er zit meer aan vast 0:15:53.744,0:15:56.094 dan alleen een persoon en een taart. 0:15:56.094,0:16:00.941 De computer ziet niet dat dit[br]een speciale Italiaanse taart is 0:16:00.941,0:16:03.928 die alleen met Pasen wordt gegeten. 0:16:03.928,0:16:07.223 De jongen draagt zijn lievelingsshirt 0:16:07.223,0:16:11.333 die hij heeft gekregen van zijn vader[br]na een reis naar Sydney, 0:16:11.333,0:16:15.141 en iedereen ziet hoe blij hij is 0:16:15.141,0:16:18.844 en waar hij precies aan denkt[br]op dat moment. 0:16:18.844,0:16:22.079 Dit is mijn zoon Leo. 0:16:22.079,0:16:24.783 Bij mijn zoektocht[br]naar visuele intelligentie 0:16:24.783,0:16:27.204 denk ik steeds aan Leo 0:16:27.204,0:16:30.107 en aan zijn toekomstige wereld. 0:16:30.107,0:16:32.278 Als machines kunnen zien, 0:16:32.278,0:16:36.990 zullen doktoren en verpleegsters[br]een extra paar onvermoeibare ogen hebben 0:16:36.990,0:16:41.082 om te helpen bij de diagnose[br]en om voor de patiënten te zorgen. 0:16:41.082,0:16:45.465 Auto's zullen slimmer [br]en veiliger over de weg rijden.. 0:16:45.465,0:16:47.949 Robots, niet alleen mensen, 0:16:47.949,0:16:53.288 zullen ons helpen rampplekken te betreden[br]om ingeslotenen en gewonden te redden. 0:16:53.288,0:16:57.594 We zullen nieuwe soorten ontdekken[br]en betere materialen, 0:16:57.594,0:17:02.713 en ongeziene gebieden verkennen[br]met behulp van machines. 0:17:02.713,0:17:07.280 Beetje bij beetje geven we machines[br]gezichtsvermogen. 0:17:07.280,0:17:09.798 Eerst leren we ze te kijken. 0:17:09.798,0:17:12.841 Daarna helpen ze ons bij het kijken. 0:17:12.841,0:17:17.006 Voor het eerst zijn menselijke ogen[br]niet de enige 0:17:17.006,0:17:19.530 die over de wereld nadenken[br]en haar verkennen. 0:17:19.530,0:17:23.400 We gaan de machines niet alleen[br]vanwege hun intelligentie gebruiken, 0:17:23.400,0:17:25.580 en gaan met ze samenwerken 0:17:25.580,0:17:28.960 op manieren die we ons [br]niet kunnen voorstellen. 0:17:28.960,0:17:31.740 Dit is mijn zoektocht: 0:17:31.740,0:17:34.452 computers visuele intelligentie geven 0:17:34.452,0:17:39.353 en een betere toekomst geven[br]aan Leo en aan de wereld. 0:17:39.353,0:17:41.074 Dank je wel. 0:17:41.074,0:17:43.389 (Applaus)