WEBVTT 00:00:01.000 --> 00:00:03.216 Ik kom praten over een gebrek aan intuïtie 00:00:03.240 --> 00:00:04.840 waar velen van ons aan lijden. 00:00:05.180 --> 00:00:08.520 Het is eigenlijk een gebrek om een bepaald soort gevaar aan te voelen. 00:00:09.360 --> 00:00:11.096 Ik ga een scenario beschrijven 00:00:11.120 --> 00:00:14.376 dat volgens mij zowel angstaanjagend 00:00:14.400 --> 00:00:16.160 als waarschijnlijk is, 00:00:16.840 --> 00:00:18.496 en dat is geen goede combinatie, 00:00:18.520 --> 00:00:20.056 zoals zal blijken. 00:00:20.080 --> 00:00:21.670 Toch, in plaats van bang te zijn, 00:00:21.670 --> 00:00:24.800 vinden de meesten van jullie dat eerder cool. NOTE Paragraph 00:00:25.270 --> 00:00:28.380 Ik ga uitleggen waarom de vooruitgang die we boeken 00:00:28.380 --> 00:00:29.980 in artificiële intelligentie, AI, 00:00:29.980 --> 00:00:31.920 ons uiteindelijk zou kunnen vernietigen. 00:00:31.920 --> 00:00:35.140 Ik vind het erg moeilijk om te zien hoe AI ons niet zal vernietigen 00:00:35.140 --> 00:00:37.560 of ons inspireren om onszelf te vernietigen. 00:00:37.560 --> 00:00:39.250 Als je een beetje als ik bent, 00:00:39.250 --> 00:00:41.936 vind je het toch leuk om over deze dingen na te denken. 00:00:41.960 --> 00:00:45.336 Dat antwoord is een deel van het probleem. 00:00:45.360 --> 00:00:47.750 Dat antwoord zou je moeten verontrusten. 00:00:47.920 --> 00:00:50.576 Als ik er jullie in deze talk van zou overtuigen 00:00:50.600 --> 00:00:54.016 dat we wellicht op een wereldwijde hongersnood afstevenen, 00:00:54.040 --> 00:00:57.096 door klimaatverandering of een andere ramp, 00:00:57.120 --> 00:01:00.536 en dat jullie kleinkinderen of hun kleinkinderen, 00:01:00.560 --> 00:01:02.860 zeer waarschijnlijk zo'n leven zouden leiden, 00:01:03.200 --> 00:01:04.400 zou je niet denken, 00:01:05.440 --> 00:01:06.776 "Interessant. 00:01:06.800 --> 00:01:08.000 Leuke TED Talk." NOTE Paragraph 00:01:09.200 --> 00:01:10.720 Hongersnood is niet leuk. 00:01:11.800 --> 00:01:14.800 Daarentegen is doodgaan door sciencefiction wel leuk. 00:01:15.060 --> 00:01:17.340 Eén van de dingen die me het meest zorgen baren 00:01:17.340 --> 00:01:19.030 over de huidige ontwikkeling van AI 00:01:19.030 --> 00:01:23.296 is dat we niet in staat lijken om de juiste emotionele reactie op te wekken 00:01:23.320 --> 00:01:25.136 op de gevaren die op ons afkomen. 00:01:25.160 --> 00:01:28.360 Ik voel deze reactie ook niet, en ik geef nog wel deze talk. NOTE Paragraph 00:01:30.120 --> 00:01:32.816 Het is alsof we voor twee deuren staan. 00:01:32.840 --> 00:01:33.960 Achter deur nummer één 00:01:33.960 --> 00:01:36.920 houden we op met het maken van steeds intelligentere machines. 00:01:37.190 --> 00:01:38.896 Onze computerhardware en -software 00:01:38.896 --> 00:01:41.666 stopt gewoon met beter worden, om wat voor reden dan ook. 00:01:41.666 --> 00:01:44.480 Denk er even over na waarom dit zou kunnen gebeuren. 00:01:45.080 --> 00:01:48.736 Omdat intelligentie en automatisering zo waardevol zijn, 00:01:48.760 --> 00:01:52.820 zullen we doorgaan met onze technologie te verbeteren als we enigszins kunnen. 00:01:53.200 --> 00:01:54.867 Wat kan ons tegenhouden? 00:01:55.800 --> 00:01:57.600 Een mondiale nucleaire oorlog? 00:01:59.000 --> 00:02:00.560 Een wereldwijde pandemie? 00:02:02.320 --> 00:02:03.640 Een asteroïde-inslag? 00:02:05.640 --> 00:02:07.950 Justin Bieber president van de Verenigde Staten? NOTE Paragraph 00:02:07.950 --> 00:02:10.520 (Gelach) NOTE Paragraph 00:02:12.760 --> 00:02:16.680 Het gaat om iets dat onze huidige beschaving zou moeten vernietigen. 00:02:17.360 --> 00:02:21.656 Je moet je voorstellen hoe erg het zou moeten zijn 00:02:21.680 --> 00:02:25.016 om ons tegen te houden onze technologie te verbeteren, 00:02:25.040 --> 00:02:26.256 blijvend, 00:02:26.280 --> 00:02:28.296 generatie na generatie. 00:02:28.320 --> 00:02:30.140 Bijna per definitie is dit het ergste 00:02:30.140 --> 00:02:32.666 dat ooit gebeurd is in de menselijke geschiedenis. NOTE Paragraph 00:02:32.666 --> 00:02:33.816 Het enige alternatief 00:02:33.840 --> 00:02:36.176 is wat er achter deur nummer twee ligt, 00:02:36.200 --> 00:02:39.336 namelijk dat we doorgaan met onze intelligente machines 00:02:39.360 --> 00:02:41.200 jaar na jaar na jaar te verbeteren. 00:02:41.720 --> 00:02:45.360 Op een bepaald moment zullen we machines bouwen die slimmer zijn dan wij, 00:02:46.080 --> 00:02:48.600 en zodra we machines hebben die slimmer zijn dan wij, 00:02:48.600 --> 00:02:50.696 gaan ze zichzelf verder verbeteren. 00:02:50.720 --> 00:02:53.456 Dan lopen we het risico op wat de wiskundige IJ Good 00:02:53.480 --> 00:02:55.256 een 'intelligentie-explosie' noemde: 00:02:55.280 --> 00:02:57.500 dat het proces niet meer te beheersen valt. NOTE Paragraph 00:02:58.120 --> 00:03:00.936 Daarvan werd vaak, zoals hier, een karikatuur gemaakt: 00:03:00.960 --> 00:03:04.176 de angst dat legers van kwaadaardige robots 00:03:04.200 --> 00:03:05.456 ons zouden aanvallen. 00:03:05.480 --> 00:03:08.176 Maar dat is niet het meest waarschijnlijke scenario. 00:03:08.200 --> 00:03:13.056 Het is niet zo dat onze machines spontaan boosaardig zullen worden. 00:03:13.080 --> 00:03:15.696 Het probleem is eigenlijk dat we machines gaan bouwen 00:03:15.720 --> 00:03:17.776 die zo veel competenter zijn dan wij 00:03:17.800 --> 00:03:21.576 dat het geringste verschil tussen hun doelen en de onze 00:03:21.600 --> 00:03:22.800 ons einde kan betekenen. NOTE Paragraph 00:03:23.960 --> 00:03:26.340 Denk maar aan hoe we ons verhouden tot mieren. 00:03:26.600 --> 00:03:28.256 We haten ze niet. 00:03:28.280 --> 00:03:30.336 We zijn er niet op uit om ze kwaad te doen. 00:03:30.360 --> 00:03:32.966 We nemen soms zelfs de moeite om ze niet te schaden. 00:03:32.966 --> 00:03:34.776 We stappen over hen op de stoep. 00:03:34.800 --> 00:03:36.936 Maar wanneer hun aanwezigheid 00:03:36.960 --> 00:03:39.456 serieus in strijd is met één van onze doeleinden, 00:03:39.480 --> 00:03:41.957 laten we zeggen bij de bouw van een gebouw als dit, 00:03:41.981 --> 00:03:44.381 vernietigen we ze zonder er bij stil te staan. 00:03:44.480 --> 00:03:47.416 Het probleem is dat we op een dag machines gaan bouwen 00:03:47.440 --> 00:03:50.176 die, bewust of niet, 00:03:50.200 --> 00:03:52.980 ons met gelijkaardige onverschilligheid gaan behandelen. NOTE Paragraph 00:03:53.760 --> 00:03:56.960 Ik vermoed dat dit voor velen van jullie wat vergezocht lijkt. 00:03:57.360 --> 00:04:00.720 Ik wed dat er zijn die er aan twijfelen 00:04:00.720 --> 00:04:03.720 of superintelligente AI überhaupt mogelijk is, 00:04:03.720 --> 00:04:05.376 laat staan onvermijdelijk. 00:04:05.400 --> 00:04:09.020 Maar dan moet je de fout vinden in één van de volgende veronderstellingen. 00:04:09.044 --> 00:04:10.616 Er zijn er slechts drie. NOTE Paragraph 00:04:11.800 --> 00:04:16.519 Intelligentie is een kwestie van informatieverwerking in fysische systemen. 00:04:17.320 --> 00:04:19.935 Eigenlijk is dit iets meer dan een veronderstelling. 00:04:19.959 --> 00:04:23.416 We hebben al beperkte intelligentie ingebouwd in onze machines 00:04:23.440 --> 00:04:25.456 en veel van die machines werken al 00:04:25.480 --> 00:04:28.120 op een bovenmenselijk niveau van intelligentie. 00:04:28.840 --> 00:04:30.820 We weten dat loutere materie 00:04:30.820 --> 00:04:34.056 aanleiding kan geven tot wat 'algemene intelligentie' wordt genoemd, 00:04:34.080 --> 00:04:37.736 het vermogen om flexibel te denken op meerdere domeinen, 00:04:37.760 --> 00:04:40.896 omdat onze hersenen dat kunnen. 00:04:40.920 --> 00:04:44.856 Ik bedoel, er zijn hier alleen maar atomen 00:04:44.880 --> 00:04:49.376 en zolang we systemen van atomen blijven bouwen 00:04:49.400 --> 00:04:52.096 die steeds intelligenter gedrag gaan vertonen, 00:04:52.120 --> 00:04:54.656 zullen we uiteindelijk, tenzij iets ons tegenhoudt, 00:04:54.680 --> 00:04:58.056 algemene intelligentie creëren 00:04:58.080 --> 00:04:59.376 in onze machines. NOTE Paragraph 00:04:59.400 --> 00:05:03.056 Het maakt niet uit hoe snel we vooruitgaan, 00:05:03.080 --> 00:05:06.256 want elke vooruitgang brengt ons dichter bij het eindpunt. 00:05:06.280 --> 00:05:10.056 Vergeet de wet van Moore, exponentiële vooruitgang is niet nodig. 00:05:10.080 --> 00:05:12.100 We hoeven alleen maar door te gaan. NOTE Paragraph 00:05:13.480 --> 00:05:16.400 De tweede veronderstelling is dat we zullen blijven doorgaan. 00:05:17.000 --> 00:05:19.760 We zullen onze intelligente machines blijven verbeteren. 00:05:21.000 --> 00:05:25.376 En gezien de waarde van intelligentie -- 00:05:25.400 --> 00:05:28.936 ik bedoel, intelligentie is ofwel de bron van alles wat we waarderen 00:05:28.960 --> 00:05:31.736 of ze moet alles beschermen wat we waarderen. 00:05:31.760 --> 00:05:34.016 Het is ons waardevolste hulpmiddel. 00:05:34.040 --> 00:05:35.576 Dus we willen dit doen. 00:05:35.600 --> 00:05:38.936 We hebben problemen die we nodig moeten oplossen. 00:05:38.960 --> 00:05:42.160 We willen ziektes als Alzheimer en kanker genezen. 00:05:43.060 --> 00:05:46.896 We willen economische systemen begrijpen en onze klimaatwetenschap verbeteren. 00:05:46.920 --> 00:05:49.176 Dus zullen we dit doen, als we kunnen. 00:05:49.200 --> 00:05:52.486 De trein is al vertrokken en er is geen houden aan. NOTE Paragraph 00:05:53.880 --> 00:05:59.336 Tot slot staan we waarschijnlijk niet op een piek van intelligentie, 00:05:59.360 --> 00:06:01.160 of ook maar ergens in de buurt ervan. 00:06:01.640 --> 00:06:03.536 En dit is echt het cruciale inzicht. 00:06:03.560 --> 00:06:05.976 Dit maakt onze situatie zo precair 00:06:06.000 --> 00:06:10.040 en dit maakt onze intuïties over de risico's zo onbetrouwbaar. NOTE Paragraph 00:06:11.120 --> 00:06:13.840 Beschouw de slimste mens die ooit heeft geleefd. 00:06:14.640 --> 00:06:18.056 Op bijna ieders lijstje staat hier John von Neumann. 00:06:18.080 --> 00:06:21.416 Ik bedoel, de indruk die von Neumann maakte op de mensen om hem heen, 00:06:21.440 --> 00:06:25.496 inclusief de grootste wiskundigen en fysici van zijn tijd, 00:06:25.520 --> 00:06:27.456 is redelijk goed gedocumenteerd. 00:06:27.480 --> 00:06:31.256 Als slechts de helft van de verhalen over hem half waar zijn, 00:06:31.280 --> 00:06:32.496 dan kan het niet anders 00:06:32.520 --> 00:06:34.976 dan dat hij één van de slimste mensen ooit was. 00:06:35.000 --> 00:06:37.520 Bekijk dit spectrum van intelligentie eens. 00:06:38.320 --> 00:06:40.289 Hier hebben we John von Neumann. 00:06:41.560 --> 00:06:42.894 En dan hebben we jou en mij. 00:06:44.120 --> 00:06:45.416 En dan hebben we een kip. NOTE Paragraph 00:06:45.440 --> 00:06:47.376 (Gelach) NOTE Paragraph 00:06:47.400 --> 00:06:48.616 Sorry, een kip. NOTE Paragraph 00:06:48.640 --> 00:06:49.896 (Gelach) NOTE Paragraph 00:06:49.920 --> 00:06:53.656 Ik moet dit gesprek niet deprimerender maken dan nodig. NOTE Paragraph 00:06:53.680 --> 00:06:55.280 (Gelach) NOTE Paragraph 00:06:56.339 --> 00:07:00.036 Het lijkt echter uiterst waarschijnlijk dat het spectrum van intelligentie 00:07:00.036 --> 00:07:02.960 veel verder reikt dan we op dit moment beseffen. 00:07:04.040 --> 00:07:07.060 Als we machines bouwen die intelligenter zijn dan wij, 00:07:07.060 --> 00:07:09.786 gaan ze hoogstwaarschijnlijk dit spectrum verkennen 00:07:09.786 --> 00:07:11.296 op een onvoorstelbare manier 00:07:11.320 --> 00:07:14.310 en ons onvoorstelbaar overtreffen. NOTE Paragraph 00:07:15.000 --> 00:07:19.336 Het is belangrijk te beseffen dat dit al waar is voor de snelheid alleen. 00:07:19.360 --> 00:07:24.416 Stel dat we zojuist een superintelligente AI hadden gemaakt 00:07:24.440 --> 00:07:27.896 die niet slimmer was dan een gemiddeld team van onderzoekers 00:07:27.920 --> 00:07:30.216 aan Stanford en MIT. 00:07:30.240 --> 00:07:33.436 Elektronische schakelingen werken ongeveer een miljoen keer sneller 00:07:33.436 --> 00:07:34.496 dan biochemische. 00:07:34.520 --> 00:07:37.766 Dus zou deze machine ongeveer een miljoen keer sneller moeten denken 00:07:37.766 --> 00:07:39.496 dan de geesten die ze ontwierpen. 00:07:39.520 --> 00:07:41.176 Laat ze één week lopen 00:07:41.200 --> 00:07:45.760 en ze zal voor 20 000 jaar intellectuele arbeid op menselijk niveau uitvoeren, 00:07:46.400 --> 00:07:48.360 week na week na week. 00:07:49.640 --> 00:07:52.736 Hoe kunnen we een verstand dat dit soort vooruitgang maakt 00:07:52.760 --> 00:07:55.040 nog begrijpen, laat staan beheersen? NOTE Paragraph 00:07:56.840 --> 00:07:59.386 Wat, eerlijk gezegd, ook nog verontrustend is: 00:08:00.036 --> 00:08:03.976 stel je even het beste scenario voor. 00:08:04.000 --> 00:08:08.176 Veronderstel dat we een superintelligente AI ontwerpen 00:08:08.200 --> 00:08:09.546 die absoluut veilig is. 00:08:09.546 --> 00:08:12.856 We vinden gelijk het perfecte ontwerp. 00:08:12.880 --> 00:08:15.096 Het is alsof we een orakel hebben gekregen 00:08:15.120 --> 00:08:17.136 dat zich precies zoals bedoeld gedraagt. 00:08:17.160 --> 00:08:20.880 Deze machine zou het perfecte arbeidsbesparende apparaat zijn. 00:08:21.680 --> 00:08:24.329 Het kan de machine ontwerpen die de machine kan bouwen 00:08:24.329 --> 00:08:25.896 die elk fysiek werk aankan, 00:08:25.920 --> 00:08:27.376 aangedreven door zonlicht, 00:08:27.400 --> 00:08:30.096 min of meer voor de kosten van de grondstoffen. 00:08:30.120 --> 00:08:33.376 Gedaan met alle menselijk geploeter! 00:08:33.400 --> 00:08:36.200 Maar ook het einde van de meeste intellectuele arbeid. NOTE Paragraph 00:08:37.200 --> 00:08:40.256 Wat gaan apen zoals wij in deze omstandigheden doen? 00:08:40.280 --> 00:08:44.360 Nou ja, we zouden vrij zijn om frisbee te spelen en elkaar massages te geven. 00:08:45.840 --> 00:08:48.696 Gooi er nog wat LSD en rare kleren tegenaan 00:08:48.720 --> 00:08:51.366 en de hele wereld wordt één groot Burning Man-festival. NOTE Paragraph 00:08:51.366 --> 00:08:53.160 (Gelach) NOTE Paragraph 00:08:54.320 --> 00:08:56.320 Nu klinkt dat misschien best goed, 00:08:57.280 --> 00:08:59.656 maar vraag jezelf eens af wat er zou gebeuren 00:08:59.680 --> 00:09:02.416 onder onze huidige economische en politieke orde. 00:09:02.440 --> 00:09:05.096 Het lijkt waarschijnlijk dat we getuige zouden zijn 00:09:05.096 --> 00:09:09.016 van een niveau van ongelijke verdeling van rijkdom en werkloosheid 00:09:09.040 --> 00:09:10.686 die we nooit eerder hebben gezien. 00:09:10.686 --> 00:09:13.176 Zonder bereidheid om deze nieuwe rijkdom 00:09:13.200 --> 00:09:15.140 onmiddellijk met iedereen te delen, 00:09:15.640 --> 00:09:19.256 zullen enkele biljonairs de covers van onze zakenmagazines sieren 00:09:19.280 --> 00:09:22.230 terwijl de rest van de wereld vrij zou zijn om te verhongeren. NOTE Paragraph 00:09:22.320 --> 00:09:24.616 Wat zouden de Russen of de Chinezen doen 00:09:24.640 --> 00:09:27.256 als ze hoorden dat een bedrijf in Silicon Valley 00:09:27.280 --> 00:09:30.016 op het punt stond een superintelligente AI te maken? 00:09:30.040 --> 00:09:32.896 Deze machine zou in staat zijn tot het voeren van oorlog, 00:09:32.920 --> 00:09:35.136 hetzij op aarde of in cyberspace, 00:09:35.160 --> 00:09:36.840 met ongekende kracht. 00:09:38.120 --> 00:09:39.976 Dit is een winnaar-pakt-alles-scenario. 00:09:40.000 --> 00:09:43.136 Zes maanden voorsprong op de concurrentie 00:09:43.160 --> 00:09:45.936 komt overeen met 500 000 jaar voorsprong, 00:09:45.960 --> 00:09:47.456 op z'n minst. 00:09:47.480 --> 00:09:52.216 Dus het lijkt erop dat zelfs louter geruchten van dit soort doorbraak 00:09:52.240 --> 00:09:54.876 ertoe kunnen leiden dat het mensdom wild zal worden. NOTE Paragraph 00:09:54.876 --> 00:09:57.536 Eén van de meest angstaanjagende dingen, 00:09:57.560 --> 00:10:00.336 naar mijn mening, 00:10:00.360 --> 00:10:04.656 zijn het soort dingen die AI-onderzoekers zeggen 00:10:04.680 --> 00:10:06.630 wanneer ze ons gerust willen stellen. 00:10:07.000 --> 00:10:10.456 Waar we ons vooral geen zorgen over moeten maken, is tijd. 00:10:10.480 --> 00:10:12.536 Dit is nog allemaal ver weg, weet je. 00:10:12.560 --> 00:10:15.000 Waarschijnlijk nog 50 of 100 jaar weg. 00:10:15.530 --> 00:10:16.976 Eén onderzoeker heeft gezegd: 00:10:17.000 --> 00:10:18.576 "Piekeren over AI-veiligheid 00:10:18.600 --> 00:10:21.260 is net als je zorgen maken over overbevolking op Mars." 00:10:22.116 --> 00:10:23.736 Dit is de Silicon Valley-versie 00:10:23.760 --> 00:10:26.136 van 'breek er je mooie hoofdje niet over'. NOTE Paragraph 00:10:26.160 --> 00:10:27.496 (Gelach) NOTE Paragraph 00:10:27.520 --> 00:10:29.416 Niemand lijkt te merken 00:10:29.440 --> 00:10:31.970 dat verwijzen naar de tijdshorizon 00:10:31.970 --> 00:10:34.260 een totale 'non sequitur' is, een onjuist gevolg. 00:10:34.260 --> 00:10:37.936 Als intelligentie alleen maar een kwestie van informatieverwerking is, 00:10:37.960 --> 00:10:40.616 en we onze machines maar blijven verbeteren, 00:10:40.640 --> 00:10:43.840 zullen we een bepaalde vorm van superintelligentie produceren. 00:10:44.320 --> 00:10:47.976 We hebben geen idee hoe lang het zal duren 00:10:48.000 --> 00:10:50.760 om de voorwaarden te creëren om dat veilig te doen. 00:10:52.200 --> 00:10:53.496 Ik zeg het nog eens. 00:10:53.520 --> 00:10:57.336 We hebben geen idee hoe lang het zal duren 00:10:57.360 --> 00:11:00.010 om de voorwaarden te creëren om dat veilig te doen. NOTE Paragraph 00:11:00.920 --> 00:11:04.696 Mocht het je nog niet zijn opgevallen: 50 jaar is niet meer wat ooit was. 00:11:04.696 --> 00:11:06.856 Dit is 50 jaar in maanden. 00:11:06.880 --> 00:11:08.720 Zo lang hebben we de iPhone al. 00:11:09.440 --> 00:11:12.040 Dit is hoe lang 'The Simpsons' al op televisie zijn. 00:11:12.680 --> 00:11:14.820 Vijftig jaar is niet zo heel veel tijd 00:11:14.820 --> 00:11:17.130 om één van de grootste uitdagingen aan te pakken 00:11:17.130 --> 00:11:19.640 waarmee het mensdom ooit zal worden geconfronteerd. 00:11:19.640 --> 00:11:23.656 We lijken er niet in te slagen om de juiste emotionele reactie te hebben 00:11:23.680 --> 00:11:26.926 op iets waarvan we alle reden hebben te geloven dat het komt. NOTE Paragraph 00:11:26.926 --> 00:11:30.376 De computerwetenschapper Stuart Russell heeft hier een mooie analogie. 00:11:30.400 --> 00:11:35.296 Hij zei, stel je voor dat we een bericht van een buitenaardse beschaving ontvangen, 00:11:35.320 --> 00:11:37.016 dat luidt: 00:11:37.040 --> 00:11:38.576 "Mensen van de Aarde, 00:11:38.600 --> 00:11:40.960 binnen 50 jaar komen we naar jullie planeet. 00:11:41.800 --> 00:11:43.376 Hou je gereed." 00:11:43.400 --> 00:11:47.656 En dan gewoon de maanden aftellen tot aan de landing van het moederschip? 00:11:47.680 --> 00:11:50.680 We zouden een beetje meer urgentie voelen dan we nu doen. NOTE Paragraph 00:11:52.580 --> 00:11:54.926 Waarom we ons ook geen zorgen zouden hoeven maken, 00:11:54.926 --> 00:11:57.410 is dat deze machines sowieso onze waarden delen, 00:11:57.410 --> 00:12:00.216 omdat ze letterlijk uitbreidingen van onszelf zullen zijn. 00:12:00.240 --> 00:12:02.276 Ze zullen worden geënt op onze hersenen, 00:12:02.276 --> 00:12:04.700 en wij zullen in wezen hun limbisch systeem worden. 00:12:05.120 --> 00:12:06.536 Overweeg even 00:12:06.560 --> 00:12:09.736 dat de veiligste en enige verstandige weg vooruit, 00:12:09.760 --> 00:12:11.096 de aanbevolen weg, 00:12:11.120 --> 00:12:14.130 is om deze technologie direct in onze hersenen te implanteren. 00:12:14.600 --> 00:12:17.976 Dit kan in feite de veiligste en enige voorzichtige weg vooruit zijn, 00:12:18.000 --> 00:12:22.526 maar meestal moet iemand zich toch volkomen veilig voelen bij een technologie 00:12:22.526 --> 00:12:24.736 voordat hij ze in zijn hoofd steekt. NOTE Paragraph 00:12:24.760 --> 00:12:26.776 (Gelach) NOTE Paragraph 00:12:26.800 --> 00:12:32.136 Het dieperliggende probleem is dat superintelligente AI op zich bouwen 00:12:32.160 --> 00:12:33.896 waarschijnlijk gemakkelijker lijkt 00:12:33.920 --> 00:12:35.776 dan superintelligente AI bouwen 00:12:35.800 --> 00:12:37.576 én de neurowetenschappen voltooien 00:12:37.600 --> 00:12:40.770 die ons toelaten onze geest er naadloos mee te integreren. 00:12:40.800 --> 00:12:43.976 Gezien het feit dat de bedrijven en overheden die dit werk doen 00:12:44.000 --> 00:12:47.656 waarschijnlijk denken met een race bezig te zijn, 00:12:47.680 --> 00:12:50.936 en omdat deze race winnen neerkomt op de wereld winnen, 00:12:50.960 --> 00:12:53.416 gesteld dat je hem niet direct vernietigt, 00:12:53.440 --> 00:12:56.296 dan lijkt het waarschijnlijk dat alles wat gemakkelijker is, 00:12:56.296 --> 00:12:57.740 voorrang zal krijgen. NOTE Paragraph 00:12:58.560 --> 00:13:01.416 Ik heb helaas geen andere oplossing voor dit probleem 00:13:01.440 --> 00:13:04.056 dan de aanbeveling dat we er over moeten gaan nadenken. 00:13:04.080 --> 00:13:06.456 Ik denk aan iets als een Manhattan Project 00:13:06.480 --> 00:13:08.496 over kunstmatige intelligentie. 00:13:08.520 --> 00:13:11.256 Niet om het te bouwen, want dat gaan we sowieso doen, 00:13:11.280 --> 00:13:14.616 maar om te begrijpen hoe een wapenwedloop te voorkomen 00:13:14.640 --> 00:13:18.136 en het zo te bouwen dat het onze belangen dient. 00:13:18.160 --> 00:13:20.296 Als je over superintelligente AI praat 00:13:20.320 --> 00:13:22.576 die zichzelf kan aanpassen, 00:13:22.600 --> 00:13:25.410 lijkt het erop dat we maar één kans hebben 00:13:25.410 --> 00:13:27.240 om de beginvoorwaarden goed te krijgen 00:13:27.240 --> 00:13:29.296 en zelfs dan zullen we moeten leren omgaan 00:13:29.320 --> 00:13:33.130 met de economische en politieke gevolgen van die goede beginvoorwaarden. NOTE Paragraph 00:13:33.760 --> 00:13:35.816 Maar zodra we toegeven 00:13:35.840 --> 00:13:39.840 dat informatieverwerking de bron van intelligentie is, 00:13:40.720 --> 00:13:45.520 dat een geschikt computersysteem aan de basis van intelligentie ligt, 00:13:46.360 --> 00:13:50.120 en we toegeven dat we deze systemen onafgebroken zullen blijven verbeteren, 00:13:51.280 --> 00:13:55.736 en dat de kennishorizon waarschijnlijk veel verder reikt 00:13:55.760 --> 00:13:57.180 dan we nu weten, 00:13:58.000 --> 00:13:59.336 dan moeten we toegeven 00:13:59.360 --> 00:14:02.000 dat we bezig zijn een soort god te maken. 00:14:03.400 --> 00:14:05.026 Daarom moeten we er nu voor zorgen 00:14:05.026 --> 00:14:07.133 dat het een god is waarmee we kunnen leven. NOTE Paragraph 00:14:08.120 --> 00:14:09.656 Dankjewel. NOTE Paragraph 00:14:09.680 --> 00:14:14.773 (Applaus)