0:00:00.000,0:00:03.000 De schrijver George Eliot waarschuwde ons 0:00:03.000,0:00:05.000 dat onder alle manieren [br]om ernaast te zitten, 0:00:05.000,0:00:07.000 voorspellingen doen [br]het minst te verrechtvaardigen valt. 0:00:07.000,0:00:09.000 Haar 20e-eeuwse tegenhanger, 0:00:09.000,0:00:13.000 Yogi Berra, gaf haar gelijk. 0:00:13.000,0:00:15.000 Hij zei: [br]"Voorspellen is moeilijk, 0:00:15.000,0:00:18.000 vooral als het over de toekomst gaat." 0:00:18.000,0:00:20.000 Ik ga hun waarschuwingen negeren 0:00:20.000,0:00:22.000 en een zeer specifieke prognose maken. 0:00:22.000,0:00:24.000 In de wereld die we zeer snel creëren, 0:00:24.000,0:00:26.000 gaan we meer en meer dingen zien 0:00:26.000,0:00:28.000 die op science fiction lijken, 0:00:28.000,0:00:31.000 en steeds minder dingen [br]die er als banen uitzien. 0:00:31.000,0:00:34.000 Weldra gaan onze auto’s zichzelf besturen. 0:00:34.000,0:00:36.000 Dus gaan we [br]minder vrachtwagenchauffeurs nodig hebben. 0:00:36.000,0:00:39.000 We gaan Siri met Watson combineren 0:00:39.000,0:00:41.000 en dat gebruiken voor het automatiseren [br]van veel werk 0:00:41.000,0:00:43.000 dat nu nog gedaan wordt [br]door onderhoudspersoneel, 0:00:43.000,0:00:46.000 probleemoplossers en diagnostici. 0:00:46.000,0:00:48.000 R2D2 hebben we al oranje geverfd 0:00:48.000,0:00:52.000 en hem aan het werk gezet 0:00:52.000,0:00:54.000 om rekken rond te rijden in magazijnen. 0:00:54.000,0:00:56.000 Dat zijn een hoop minder mensen 0:00:56.000,0:00:58.000 die daar heen en weer moeten lopen. 0:00:58.000,0:01:02.000 Al ongeveer 200 jaar lang 0:01:02.000,0:01:04.000 vertellen mensen precies wat ik nu zeg: 0:01:04.000,0:01:07.000 het tijdperk van technologische werkloosheid [br]komt eraan. 0:01:07.000,0:01:10.000 Het begon met de Luddieten die [br]zowat twee eeuwen geleden 0:01:10.000,0:01:11.000 weefgetouwen stuksloegen in Groot-Brittannië. 0:01:11.000,0:01:13.000 Ze hadden het bij het verkeerde eind. 0:01:13.000,0:01:16.000 Onze economieën in de ontwikkelde wereld 0:01:16.000,0:01:18.000 opereerden met [br]een haast volledige tewerkstelling. 0:01:18.000,0:01:20.000 Dat roept de cruciale vraag op: 0:01:20.000,0:01:23.000 waarom zou het dit keer anders zijn? 0:01:23.000,0:01:26.000 De reden is dat pas in de afgelopen jaren 0:01:26.000,0:01:28.000 onze machines vaardigheden zijn gaan vertonen 0:01:28.000,0:01:31.000 die ze nooit eerder hebben gehad: 0:01:31.000,0:01:34.000 begrijpen, spreken, horen, zien, 0:01:34.000,0:01:38.000 antwoorden, schrijven, [br]en er komen er nog steeds nieuwe bij. 0:01:38.000,0:01:41.000 Mobiele humanoïde robots 0:01:41.000,0:01:43.000 zijn nog ongelooflijk primitief, 0:01:43.000,0:01:45.000 maar de onderzoeksafdeling [br]van het ministerie van defensie 0:01:45.000,0:01:46.000 is net gestart met een competitie 0:01:46.000,0:01:48.000 om ze dingen als dit te laten doen. 0:01:48.000,0:01:50.000 Als de verslagen kloppen, 0:01:50.000,0:01:53.000 gaat dit lukken. 0:01:53.000,0:01:56.000 Ik denk dat de dag niet te ver weg is 0:01:56.000,0:01:58.000 waar androïden veel werk gaan overnemen. 0:01:58.000,0:02:01.000 waar androïden veel werk gaan overnemen. 0:02:01.000,0:02:05.000 We creëren een wereld met meer en meer [br]technologie en steeds minder banen. 0:02:05.000,0:02:09.000 We creëren een wereld met meer en meer [br]technologie en steeds minder banen. 0:02:09.000,0:02:11.000 Het is een wereld [br]die Erik Brynjolfsson en ik 0:02:11.000,0:02:12.000 ‘het nieuwe machinetijdperk’ noemen. 0:02:12.000,0:02:15.000 Maar onthoud dat 0:02:15.000,0:02:17.000 dit buitengewoon nieuws is. 0:02:17.000,0:02:20.000 Dit is op dit moment [br]het beste economische nieuws op de planeet. 0:02:20.000,0:02:24.000 Niet dat er veel concurrentie voor is, niet? 0:02:24.000,0:02:26.000 Dit is dezer dagen [br]het beste economische nieuws 0:02:26.000,0:02:27.000 om twee belangrijke redenen. 0:02:27.000,0:02:30.000 De eerste is dat technologische vooruitgang [br]ons in staat stelt 0:02:30.000,0:02:34.000 om door te gaan [br]met deze verbazingwekkend recente gang van zaken 0:02:34.000,0:02:37.000 waarbij de productie maar blijft groeien 0:02:37.000,0:02:40.000 terwijl tegelijkertijd de prijzen dalen, 0:02:40.000,0:02:44.000 en volume en kwaliteit [br]maar blijven toenemen. 0:02:44.000,0:02:46.000 Sommige mensen noemen 0:02:46.000,0:02:48.000 dit oppervlakkig materialisme, 0:02:48.000,0:02:50.000 maar dat is absoluut de verkeerde manier [br]om ernaar te kijken. 0:02:50.000,0:02:53.000 Dit heet overvloed en dat is precies 0:02:53.000,0:02:56.000 wat wij willen [br]dat ons economisch systeem ons biedt. 0:02:56.000,0:02:59.000 De tweede reden waarom [br]het nieuwe machinetijdperk 0:02:59.000,0:03:02.000 zo’n buitengewoon nieuws is dat, [br]zodra de androïden 0:03:02.000,0:03:05.000 ons werk beginnen te doen, [br]wij dat niet zelf meer hoeven te doen. 0:03:05.000,0:03:09.000 We worden bevrijd van de sleur en het labeur. 0:03:09.000,0:03:11.000 Als ik het hierover heb met mijn vrienden 0:03:11.000,0:03:13.000 in Cambridge en Silicon Valley zeggen ze: 0:03:13.000,0:03:15.000 "Fantastisch. Geen sleur meer, geen labeur. 0:03:15.000,0:03:17.000 Nu kunnen we ons 0:03:17.000,0:03:20.000 een heel ander soort samenleving [br]gaan indenken, 0:03:20.000,0:03:23.000 een waar de makers en de ontdekkers, 0:03:23.000,0:03:24.000 de uitvoerders en de vernieuwers 0:03:24.000,0:03:28.000 samenkomen met hun werkgevers en financiers 0:03:28.000,0:03:31.000 om te praten over problemen, [br]te vermaken, te verlichten 0:03:31.000,0:03:33.000 en elkaar uit te dagen." 0:03:33.000,0:03:37.000 Kortom een samenleving[br]die wat weg heeft van een TED-conferentie. 0:03:37.000,0:03:40.000 Daar zit veel waarheid in. 0:03:40.000,0:03:43.000 Er zijn wonderlijke zaken aan de gang. 0:03:43.000,0:03:45.000 In een wereld waar het bijna even gemakkelijk is 0:03:45.000,0:03:48.000 om een voorwerp te genereren [br]als om een document af te drukken, 0:03:48.000,0:03:50.000 krijgen we geweldige nieuwe mogelijkheden. 0:03:50.000,0:03:54.000 De mensen die vroeger [br]ambachtslieden en hobbyisten waren, 0:03:54.000,0:03:56.000 zijn nu makers, [br]en zijn verantwoordelijk 0:03:56.000,0:03:58.000 voor enorme hoeveelheden innovatie. 0:03:58.000,0:04:01.000 Kunstenaars die voorheen beperkt waren, 0:04:01.000,0:04:04.000 kunnen nu dingen doen 0:04:04.000,0:04:06.000 die vroeger gewoon onmogelijk waren. 0:04:06.000,0:04:08.000 Dit is een tijd van grote bloei, 0:04:08.000,0:04:11.000 en hoe meer ik rondkijk, [br]hoe meer ik ervan overtuigd ben 0:04:11.000,0:04:14.000 dat dit citaat [br]van de natuurkundige Freeman Dyson 0:04:14.000,0:04:16.000 helemaal geen verdichtsel is. 0:04:16.000,0:04:19.000 Het is gewoon een duidelijke vaststelling [br]van de feiten. 0:04:19.000,0:04:20.000 Wij bevinden ons [br]in een verbazingwekkende periode. 0:04:20.000,0:04:21.000 ["Technologie is een geschenk van God. Na de gave van het leven is het misschien wel de grootste van Gods gaven. Het is de moeder van beschavingen, kunsten en wetenschappen."— Freeman Dyson] 0:04:21.000,0:04:24.000 Dat roept een andere grote vraag op: 0:04:24.000,0:04:27.000 wat kan er fout lopen [br]in dit nieuwe machinetijdperk? 0:04:27.000,0:04:30.000 Geweldig, meedoen, bloeien [br]en hop, naar huis. 0:04:30.000,0:04:33.000 We gaan met twee soorten lastige uitdagingen [br]geconfronteerd worden 0:04:33.000,0:04:36.000 naarmate die zelf gecreëerde toekomst [br]op ons afkomt. 0:04:36.000,0:04:39.000 De eerste zijn economisch [br]en ze worden mooi samengevat 0:04:39.000,0:04:42.000 in een apocrief verhaal over een babbel 0:04:42.000,0:04:45.000 tussen Henry Ford II en Walter Reuther, 0:04:45.000,0:04:48.000 vakbondsbaas van de auto-arbeiders. 0:04:48.000,0:04:50.000 Ze bezochten een van de nieuwe moderne fabrieken. 0:04:50.000,0:04:53.000 Ford kijkt Reuther speels aan [br]en vraagt: 0:04:53.000,0:04:55.000 "Zeg Walter, hoe ga je deze robots 0:04:55.000,0:04:57.000 vakbondscontributie laten betalen?" 0:04:57.000,0:04:59.000 Waarop Reuther: "Zeg Henry, 0:04:59.000,0:05:03.000 en hoe ga je ze auto's laten kopen?" 0:05:03.000,0:05:06.000 Reuthers probleem in deze anekdote 0:05:06.000,0:05:10.000 is dat het moeilijk is om je arbeid aan te bieden [br]aan een economie vol machines. 0:05:10.000,0:05:12.000 is dat het moeilijk is om je arbeid aan te bieden [br]aan een economie vol machines. 0:05:12.000,0:05:14.000 Dat komt duidelijk tot uiting [br]in de statistieken. 0:05:14.000,0:05:17.000 Als je in de afgelopen paar decennia kijkt 0:05:17.000,0:05:20.000 naar het rendement op kapitaal [br]--met andere woorden, bedrijfswinsten-- 0:05:20.000,0:05:22.000 dan zien we ze stijgen, 0:05:22.000,0:05:24.000 en we zien dat ze nu hoger zijn dan ooit. 0:05:24.000,0:05:27.000 Als we kijken naar wat er teruggaat naar arbeid, 0:05:27.000,0:05:29.000 met andere woorden het totaal [br]aan lonen in de economie, 0:05:29.000,0:05:31.000 zien we ze op een historisch dieptepunt 0:05:31.000,0:05:34.000 en zeer snel [br]in tegenovergestelde richting evolueren. 0:05:34.000,0:05:36.000 Dat is dus duidelijk [br]slecht nieuws voor Reuther. 0:05:36.000,0:05:40.000 Het lijkt erop dat het geweldig nieuws [br]zou zijn voor Ford, 0:05:40.000,0:05:42.000 maar is het eigenlijk niet. [br]Als je grote hoeveelheden 0:05:42.000,0:05:45.000 van nogal dure dingen [br]aan mensen wil verkopen, 0:05:45.000,0:05:49.000 heb je een grote, stabiele, [br]welvarende middenklasse nodig. 0:05:49.000,0:05:51.000 We hadden die in Amerika, 0:05:51.000,0:05:54.000 gedurende zowat de hele naoorlogse periode. 0:05:54.000,0:05:58.000 Maar de middenklasse [br]komt nu duidelijk in de knel. 0:05:58.000,0:06:00.000 Iedereen kent wel wat statistieken, 0:06:00.000,0:06:02.000 maar om er even eentje naar voren te halen: 0:06:02.000,0:06:05.000 het mediane inkomen in Amerika is 0:06:05.000,0:06:06.000 in de afgelopen 15 jaar gedaald, 0:06:06.000,0:06:08.000 en we dreigen nu gevangen te worden 0:06:08.000,0:06:12.000 in een vicieuze cirkel [br]waar ongelijkheid en polarisatie 0:06:12.000,0:06:15.000 zullen blijven stijgen. 0:06:15.000,0:06:18.000 De aankomende maatschappelijke uitdagingen 0:06:18.000,0:06:20.000 met dat soort ongelijkheid [br]verdienen enige aandacht. 0:06:20.000,0:06:22.000 Er zijn een aantal maatschappelijke uitdagingen 0:06:22.000,0:06:24.000 waar ik niet zo bezorgd over ben: 0:06:24.000,0:06:26.000 dit soort beelden. 0:06:26.000,0:06:28.000 Dit is niet het soort maatschappelijke probleem 0:06:28.000,0:06:30.000 waar ik bezorgd over ben. 0:06:30.000,0:06:33.000 Er is geen tekort aan dystopische visioenen 0:06:33.000,0:06:36.000 over wat er gebeurt [br]als onze machines zelfbewust worden, 0:06:36.000,0:06:39.000 tegen ons in opstand komen [br]en ons aanvallen. 0:06:39.000,0:06:41.000 Daar ga ik me pas zorgen over maken 0:06:41.000,0:06:44.000 wanneer mijn computer [br]zich bewust wordt van mijn printer. 0:06:44.000,0:06:48.000 (Gelach) (Applaus) 0:06:48.000,0:06:51.000 Dit zijn niet de uitdagingen [br]waarover we ons zorgen moeten maken. 0:06:51.000,0:06:54.000 Om de soort maatschappelijke uitdagingen 0:06:54.000,0:06:56.000 in het nieuwe machinetijdperk [br]duidelijk te maken, 0:06:56.000,0:07:00.000 ga ik een verhaal vertellen [br]over twee stereotype Amerikaanse werknemers. 0:07:00.000,0:07:01.000 En om ze echt stereotyp te maken, 0:07:01.000,0:07:03.000 maak ik ze allebei blank. 0:07:03.000,0:07:07.000 De eerste is een universitair opgeleide 0:07:07.000,0:07:10.000 professional, een creatieveling, manager, 0:07:10.000,0:07:13.000 ingenieur, arts, advocaat, dat soort werknemer. 0:07:13.000,0:07:16.000 We noemen hem ‘Ted’. 0:07:16.000,0:07:18.000 Hij zit aan de bovenkant [br]van de Amerikaanse middenklasse. 0:07:18.000,0:07:21.000 Zijn tegenhanger [br]is niet universitair opgeleid 0:07:21.000,0:07:24.000 en werkt als arbeider, als bediende, 0:07:24.000,0:07:27.000 verricht als laagopgeleide ‘witte kraag’- [br]of ‘blauwe kraag’-werk in de economie. 0:07:27.000,0:07:29.000 Hem noemen we ‘Bill’. 0:07:29.000,0:07:32.000 50 jaar geleden 0:07:32.000,0:07:35.000 leidden Bill en Ted [br]een opvallend vergelijkbaar leven. 0:07:35.000,0:07:38.000 In 1960 bijvoorbeeld hadden ze beiden [br]zeer waarschijnlijk 0:07:38.000,0:07:41.000 fulltime banen, [br]werkten ze ten minste 40 uur per week. 0:07:41.000,0:07:45.000 Maar sociaal onderzoek door Charles Murray [br]heeft uitgewezen dat, 0:07:45.000,0:07:47.000 toen we begonnen [br]met het automatiseren van de economie, 0:07:47.000,0:07:52.000 - en rond 1960 begonnen computers [br]te verschijnen in de bedrijven - 0:07:52.000,0:07:55.000 toen we begonnen geleidelijk technologie, 0:07:55.000,0:07:57.000 automatisering en digitale spullen te injecteren in de economie, 0:07:57.000,0:08:00.000 de wegen van Bill en Ted [br]uit elkaar begonnen te lopen. 0:08:00.000,0:08:02.000 In de loop van deze periode bleef Ted 0:08:02.000,0:08:05.000 een fulltime baan houden. [br]Bill niet. 0:08:05.000,0:08:09.000 In veel gevallen is Bill volledig [br]uit de economie gestapt, 0:08:09.000,0:08:12.000 maar Ted slechts zeer zelden. 0:08:12.000,0:08:15.000 Teds huwelijk bleef gelukkig. 0:08:15.000,0:08:17.000 Dat van Bill niet. 0:08:17.000,0:08:20.000 Teds kinderen zijn opgegroeid [br]in een tweeouder-gezin, 0:08:20.000,0:08:23.000 Bij Bill was dat vaak niet zo. 0:08:23.000,0:08:26.000 Andere manieren waarop Bill [br]het in de samenleving laat afweten? 0:08:26.000,0:08:29.000 Hij bracht minder vaak zijn stem uit [br]bij de presidentsverkiezingen 0:08:29.000,0:08:33.000 en kwam veel vaker [br]in de gevangenis terecht. 0:08:33.000,0:08:37.000 Dus kan ik geen gelukkig verhaal vertellen [br]over deze sociale tendensen, 0:08:37.000,0:08:40.000 en ze vertonen geen neiging tot omkering. 0:08:40.000,0:08:43.000 Ze gelden ongeacht de etnische 0:08:43.000,0:08:45.000 of demografische groep, 0:08:45.000,0:08:47.000 en ze worden echt zo ernstig 0:08:47.000,0:08:48.000 dat ze zelfs de geweldige vooruitgang, 0:08:48.000,0:08:52.000 die we hadden door de Beweging voor Burgerrechten, [br]dreigen teniet te doen. 0:08:52.000,0:08:55.000 Wat mijn vrienden in Silicon Valley 0:08:55.000,0:09:00.000 en Cambridge vergeten, is dat ze Ted zijn. 0:09:00.000,0:09:03.000 Ze leiden een ongelooflijk druk, [br]productief leven, 0:09:03.000,0:09:06.000 en ze genieten er alle voordelen van 0:09:06.000,0:09:08.000 terwijl Bill een heel ander soort leven leidt. 0:09:08.000,0:09:10.000 Ze zijn beiden het bewijs [br]van hoe Voltaire het bij het rechte eind had 0:09:10.000,0:09:13.000 toen hij sprak over de voordelen van werk, 0:09:13.000,0:09:16.000 en het feit dat het ons niet één, [br]maar drie grote kwalen bespaart. 0:09:16.000,0:09:17.000 ["Werk beschermt een man tegen drie grote kwalen: [br]verveling, ondeugd en armoe." — Voltaire] 0:09:17.000,0:09:20.000 Hoe pakken we deze uitdagingen aan? 0:09:20.000,0:09:23.000 Het economische voorschrift [br]is verrassend duidelijk, 0:09:23.000,0:09:26.000 verrassend eenvoudig, vooral dan op korte termijn. 0:09:26.000,0:09:29.000 De robots gaan in de komende paar jaar [br]niet al onze banen inpalmen, 0:09:29.000,0:09:34.000 dus is het klassieke Econ 101 voorschrift [br]net wat we nodig hebben: 0:09:34.000,0:09:36.000 moedig ondernemerschap aan, 0:09:36.000,0:09:38.000 investeer in infrastructuur 0:09:38.000,0:09:40.000 en zorg ervoor dat ons onderwijssysteem 0:09:40.000,0:09:43.000 mensen met de nodige vaardigheden voortbrengt. 0:09:43.000,0:09:46.000 Maar op langere termijn, als onze economie 0:09:46.000,0:09:49.000 meer op technologie en minder op arbeid berust, 0:09:49.000,0:09:52.000 en dat komt eraan, dan moeten we rekening houden 0:09:52.000,0:09:53.000 met meer ingrijpende interventies, 0:09:53.000,0:09:57.000 zoals bijvoorbeeld [br]een gegarandeerd minimuminkomen. 0:09:57.000,0:10:00.000 Dat gaat waarschijnlijk nogal wat mensen hier [br]tegen de haren instrijken, 0:10:00.000,0:10:04.000 omdat dat idee gekoppeld is [br]aan uiterst links 0:10:04.000,0:10:07.000 en met vrij radicale maatregelen [br]voor herverdeling. 0:10:07.000,0:10:09.000 Ik heb dit begrip een beetje onderzocht 0:10:09.000,0:10:12.000 en kan die mensen wat kalmeren met de kennis 0:10:12.000,0:10:14.000 dat het idee [br]van een netto gegarandeerd minimuminkomen 0:10:14.000,0:10:18.000 verdedigd werd [br]door ‘schuimbekkende’ socialisten 0:10:18.000,0:10:23.000 als daar zijn: Friedrich Hayek, [br]Richard Nixon en Milton Friedman. 0:10:23.000,0:10:25.000 Als je bezorgd bent 0:10:25.000,0:10:28.000 dat iets als een gegarandeerd inkomen 0:10:28.000,0:10:30.000 onze wil om te slagen gaat verstikken 0:10:30.000,0:10:32.000 en ons zelfgenoegzaam gaat maken, 0:10:32.000,0:10:35.000 wil je misschien ook weten [br]dat sociale mobiliteit, 0:10:35.000,0:10:38.000 een van de dingen waar wij echt trots op zijn [br]in de Verenigde Staten, 0:10:38.000,0:10:41.000 hier nu lager is [br]dan in de Noord-Europese landen 0:10:41.000,0:10:44.000 die zeer genereuze [br]sociale vangnetten hebben. 0:10:44.000,0:10:47.000 Het economische voorschrift [br]is eigenlijk vrij eenvoudig. 0:10:47.000,0:10:50.000 Het maatschappelijke [br]is een veel grotere uitdaging. 0:10:50.000,0:10:52.000 Ik weet niet wat het voorschrift is 0:10:52.000,0:10:56.000 om Bill erbij te betrekken [br]en betrokken te houden voor de rest van zijn leven. 0:10:56.000,0:10:59.000 Ik weet dat onderwijs [br]daar een belangrijk onderdeel van is. 0:10:59.000,0:11:00.000 Ik was getuige uit de eerste hand. 0:11:00.000,0:11:04.000 Ik was de eerste paar jaar [br]van mijn opleiding een Montessori-kind. 0:11:04.000,0:11:06.000 Dat onderwijs leerde me 0:11:06.000,0:11:08.000 dat de wereld een interessante plaats is. 0:11:08.000,0:11:10.000 Het was mijn taak om die te gaan verkennen. 0:11:10.000,0:11:12.000 De school stopte ermee in de derde klas. 0:11:12.000,0:11:14.000 Ik kwam in het openbare schoolsysteem terecht, 0:11:14.000,0:11:18.000 en het voelde [br]alsof ik naar de Goelag werd gestuurd. 0:11:18.000,0:11:21.000 Nu ik erop terugkijk, weet ik [br]dat het de bedoeling was 0:11:21.000,0:11:24.000 mij op een leven als bediende [br]of arbeider voor te bereiden 0:11:24.000,0:11:26.000 maar toen voelde het [br]alsof het de bedoeling was 0:11:26.000,0:11:30.000 mijn interesse in de wereld [br]te verjagen door verveling. 0:11:30.000,0:11:31.000 Dat moet beter. 0:11:31.000,0:11:35.000 We moeten ophouden Bills te produceren. 0:11:35.000,0:11:37.000 We zien al initiatieven [br]voor een beter onderwijs. 0:11:37.000,0:11:40.000 Wij zien hoe technologie onderwijs [br]diep beïnvloedt 0:11:40.000,0:11:43.000 en mensen gaat boeien: [br]van onze jongste 0:11:43.000,0:11:45.000 tot onze oudste leerlingen. 0:11:45.000,0:11:47.000 Zeer prominente zakenmensen vertellen ons 0:11:47.000,0:11:50.000 dat we een aantal dingen die ons [br]nauw aan het hart liggen, moeten herdenken 0:11:50.000,0:11:53.000 We zien zeer ernstige, aanhoudende 0:11:53.000,0:11:55.000 en op data gebaseerde inspanningen [br]om te begrijpen 0:11:55.000,0:11:59.000 hoe we moeten interveniëren in een aantal [br]van onze zwaarst beproefde gemeenschappen. 0:11:59.000,0:12:01.000 De aanzet is er. 0:12:01.000,0:12:03.000 Ik beweer helemaal niet 0:12:03.000,0:12:05.000 dat wat we al hebben, genoeg zal zijn. 0:12:05.000,0:12:07.000 We worden geconfronteerd [br]met zeer taaie uitdagingen. 0:12:07.000,0:12:10.000 Slechts één voorbeeld: [br]ongeveer vijf miljoen Amerikanen 0:12:10.000,0:12:13.000 zijn gedurende ten minste zes maanden [br]werkloos geweest. 0:12:13.000,0:12:14.000 We gaan hun problemen niet oplossen 0:12:14.000,0:12:16.000 door ze terug naar Montessori te sturen. 0:12:16.000,0:12:19.000 Mijn grootste zorg is [br]dat we een wereld gaan creëren 0:12:19.000,0:12:21.000 met schitterende technologieën 0:12:21.000,0:12:24.000 maar ingebed in een armoedige samenleving 0:12:24.000,0:12:27.000 en ondersteund door een economie [br]die ongelijkheid genereert 0:12:27.000,0:12:28.000 in plaats van kansen. 0:12:28.000,0:12:31.000 Maar ik denk niet [br]dat het zo’n vaart zal lopen. 0:12:31.000,0:12:32.000 We gaan het een stuk beter doen 0:12:32.000,0:12:35.000 om een zeer eenvoudige reden: 0:12:35.000,0:12:37.000 de feiten liggen er. 0:12:37.000,0:12:39.000 De realiteit van dit nieuwe machinetijdperk 0:12:39.000,0:12:42.000 en de veranderingen in de economie [br]worden steeds meer algemeen bekend. 0:12:42.000,0:12:45.000 Als we dat proces willen versnellen, 0:12:45.000,0:12:48.000 kunnen we onze beste economen en beleidsmakers 0:12:48.000,0:12:50.000 'Jeopardy!' laten spelen tegen Watson. 0:12:50.000,0:12:53.000 We kunnen congresleden een reis[br]in een zelfsturende auto laten maken. 0:12:53.000,0:12:55.000 Met genoeg van dergelijke initiatieven, 0:12:55.000,0:12:59.000 zal het bewustzijn doordringen [br]dat de dingen aan het veranderen zijn. 0:12:59.000,0:13:00.000 En dan zijn we vertrokken. 0:13:00.000,0:13:03.000 Ik geloof geen moment 0:13:03.000,0:13:06.000 dat we vergeten zijn [br]hoe taaie uitdagingen aan te pakken 0:13:06.000,0:13:10.000 of dat we te apathisch zijn geworden [br]om het zelfs maar te proberen. 0:13:10.000,0:13:12.000 Ik begon mijn talk [br]met citaten van twee woordkunstenaars 0:13:12.000,0:13:15.000 gescheiden van elkaar [br]door een oceaan en een eeuw. 0:13:15.000,0:13:17.000 Laat ik eindigen [br]met de woorden van politici 0:13:17.000,0:13:19.000 die ook ver uit elkaar lagen. 0:13:19.000,0:13:22.000 Winston Churchill kwam in 1949 [br]naar mijn standplaats MIT 0:13:22.000,0:13:25.000 en zei: [br]"Als we de brede massa in elk land 0:13:25.000,0:13:28.000 naar de tafel des overvloeds willen brengen, 0:13:28.000,0:13:31.000 kan dat alleen door de niet-aflatende verbetering 0:13:31.000,0:13:34.000 van al onze middelen [br]voor technologische productie." 0:13:34.000,0:13:37.000 Abraham Lincoln besefte [br]dat er nog iets anders nodig was. 0:13:37.000,0:13:40.000 Hij zei: [br]"Ik geloof vast in mensen. 0:13:40.000,0:13:42.000 Als je ze de waarheid vertelt, 0:13:42.000,0:13:45.000 kunnen ze elke nationale crisis aan. 0:13:45.000,0:13:47.000 Het komt erop aan hen de naakte feiten [br]voor te leggen." 0:13:47.000,0:13:50.000 Ik eindig met deze optimistische noot 0:13:50.000,0:13:54.000 over de naakte feiten van het machinetijdperk, [br]die steeds duidelijker worden 0:13:54.000,0:13:56.000 en ik heb er alle vertrouwen in [br]dat we ze gaan gebruiken 0:13:56.000,0:13:59.000 om een goede koers te varen [br]in de uitdagende, 0:13:59.000,0:14:02.000 overvloedige economie [br]die we aan het creëren zijn. 0:14:02.000,0:14:03.000 Hartelijk dank. 0:14:03.000,0:14:08.000 (Applaus)