Kunnen we AI maken zonder er de controle over te verliezen?
-
0:01 - 0:03Ik kom praten over een gebrek aan intuïtie
-
0:03 - 0:05waar velen van ons aan lijden.
-
0:05 - 0:09Het is eigenlijk een gebrek om
een bepaald soort gevaar aan te voelen. -
0:09 - 0:11Ik ga een scenario beschrijven
-
0:11 - 0:14dat volgens mij zowel angstaanjagend
-
0:14 - 0:16als waarschijnlijk is,
-
0:17 - 0:18en dat is geen goede combinatie,
-
0:19 - 0:20zoals zal blijken.
-
0:20 - 0:22Toch, in plaats van bang te zijn,
-
0:22 - 0:25vinden de meesten van jullie
dat eerder cool. -
0:25 - 0:28Ik ga uitleggen waarom
de vooruitgang die we boeken -
0:28 - 0:30in artificiële intelligentie, AI,
-
0:30 - 0:32ons uiteindelijk zou kunnen vernietigen.
-
0:32 - 0:35Ik vind het erg moeilijk
om te zien hoe AI ons niet zal vernietigen -
0:35 - 0:38of ons inspireren
om onszelf te vernietigen. -
0:38 - 0:39Als je een beetje als ik bent,
-
0:39 - 0:42vind je het toch leuk
om over deze dingen na te denken. -
0:42 - 0:45Dat antwoord is een deel van het probleem.
-
0:45 - 0:48Dat antwoord zou je moeten verontrusten.
-
0:48 - 0:51Als ik er jullie in deze talk
van zou overtuigen -
0:51 - 0:54dat we wellicht op een wereldwijde
hongersnood afstevenen, -
0:54 - 0:57door klimaatverandering
of een andere ramp, -
0:57 - 1:01en dat jullie kleinkinderen
of hun kleinkinderen, -
1:01 - 1:03zeer waarschijnlijk
zo'n leven zouden leiden, -
1:03 - 1:04zou je niet denken,
-
1:05 - 1:07"Interessant.
-
1:07 - 1:08Leuke TED Talk."
-
1:09 - 1:11Hongersnood is niet leuk.
-
1:12 - 1:15Daarentegen is doodgaan
door sciencefiction wel leuk. -
1:15 - 1:17Eén van de dingen
die me het meest zorgen baren -
1:17 - 1:19over de huidige ontwikkeling van AI
-
1:19 - 1:23is dat we niet in staat lijken om
de juiste emotionele reactie op te wekken -
1:23 - 1:25op de gevaren die op ons afkomen.
-
1:25 - 1:28Ik voel deze reactie ook niet,
en ik geef nog wel deze talk. -
1:30 - 1:33Het is alsof we voor twee deuren staan.
-
1:33 - 1:34Achter deur nummer één
-
1:34 - 1:37houden we op met het maken
van steeds intelligentere machines. -
1:37 - 1:39Onze computerhardware en -software
-
1:39 - 1:42stopt gewoon met beter worden,
om wat voor reden dan ook. -
1:42 - 1:44Denk er even over na
waarom dit zou kunnen gebeuren. -
1:45 - 1:49Omdat intelligentie en automatisering
zo waardevol zijn, -
1:49 - 1:53zullen we doorgaan met onze technologie
te verbeteren als we enigszins kunnen. -
1:53 - 1:55Wat kan ons tegenhouden?
-
1:56 - 1:58Een mondiale nucleaire oorlog?
-
1:59 - 2:01Een wereldwijde pandemie?
-
2:02 - 2:04Een asteroïde-inslag?
-
2:06 - 2:08Justin Bieber president
van de Verenigde Staten? -
2:08 - 2:11(Gelach)
-
2:13 - 2:17Het gaat om iets dat onze huidige
beschaving zou moeten vernietigen. -
2:17 - 2:22Je moet je voorstellen
hoe erg het zou moeten zijn -
2:22 - 2:25om ons tegen te houden
onze technologie te verbeteren, -
2:25 - 2:26blijvend,
-
2:26 - 2:28generatie na generatie.
-
2:28 - 2:30Bijna per definitie is dit het ergste
-
2:30 - 2:33dat ooit gebeurd is
in de menselijke geschiedenis. -
2:33 - 2:34Het enige alternatief
-
2:34 - 2:36is wat er achter deur nummer twee ligt,
-
2:36 - 2:39namelijk dat we doorgaan
met onze intelligente machines -
2:39 - 2:41jaar na jaar na jaar te verbeteren.
-
2:42 - 2:45Op een bepaald moment zullen we
machines bouwen die slimmer zijn dan wij, -
2:46 - 2:49en zodra we machines
hebben die slimmer zijn dan wij, -
2:49 - 2:51gaan ze zichzelf verder verbeteren.
-
2:51 - 2:53Dan lopen we het risico
op wat de wiskundige IJ Good -
2:53 - 2:55een 'intelligentie-explosie' noemde:
-
2:55 - 2:58dat het proces niet meer
te beheersen valt. -
2:58 - 3:01Daarvan werd vaak, zoals hier,
een karikatuur gemaakt: -
3:01 - 3:04de angst dat legers
van kwaadaardige robots -
3:04 - 3:05ons zouden aanvallen.
-
3:05 - 3:08Maar dat is niet
het meest waarschijnlijke scenario. -
3:08 - 3:13Het is niet zo dat onze machines
spontaan boosaardig zullen worden. -
3:13 - 3:16Het probleem is eigenlijk
dat we machines gaan bouwen -
3:16 - 3:18die zo veel competenter zijn dan wij
-
3:18 - 3:22dat het geringste verschil
tussen hun doelen en de onze -
3:22 - 3:23ons einde kan betekenen.
-
3:24 - 3:26Denk maar aan hoe we
ons verhouden tot mieren. -
3:27 - 3:28We haten ze niet.
-
3:28 - 3:30We zijn er niet op uit
om ze kwaad te doen. -
3:30 - 3:33We nemen soms zelfs de moeite
om ze niet te schaden. -
3:33 - 3:35We stappen over hen op de stoep.
-
3:35 - 3:37Maar wanneer hun aanwezigheid
-
3:37 - 3:39serieus in strijd is
met één van onze doeleinden, -
3:39 - 3:42laten we zeggen
bij de bouw van een gebouw als dit, -
3:42 - 3:44vernietigen we ze
zonder er bij stil te staan. -
3:44 - 3:47Het probleem is dat we op een dag
machines gaan bouwen -
3:47 - 3:50die, bewust of niet,
-
3:50 - 3:53ons met gelijkaardige
onverschilligheid gaan behandelen. -
3:54 - 3:57Ik vermoed dat dit voor velen
van jullie wat vergezocht lijkt. -
3:57 - 4:01Ik wed dat er zijn die er aan twijfelen
-
4:01 - 4:04of superintelligente AI
überhaupt mogelijk is, -
4:04 - 4:05laat staan onvermijdelijk.
-
4:05 - 4:09Maar dan moet je de fout vinden
in één van de volgende veronderstellingen. -
4:09 - 4:11Er zijn er slechts drie.
-
4:12 - 4:17Intelligentie is een kwestie van
informatieverwerking in fysische systemen. -
4:17 - 4:20Eigenlijk is dit iets meer
dan een veronderstelling. -
4:20 - 4:23We hebben al beperkte intelligentie
ingebouwd in onze machines -
4:23 - 4:25en veel van die machines werken al
-
4:25 - 4:28op een bovenmenselijk
niveau van intelligentie. -
4:29 - 4:31We weten dat loutere materie
-
4:31 - 4:34aanleiding kan geven tot wat
'algemene intelligentie' wordt genoemd, -
4:34 - 4:38het vermogen om flexibel te denken
op meerdere domeinen, -
4:38 - 4:41omdat onze hersenen dat kunnen.
-
4:41 - 4:45Ik bedoel, er zijn hier alleen maar atomen
-
4:45 - 4:49en zolang we systemen
van atomen blijven bouwen -
4:49 - 4:52die steeds intelligenter
gedrag gaan vertonen, -
4:52 - 4:55zullen we uiteindelijk,
tenzij iets ons tegenhoudt, -
4:55 - 4:58algemene intelligentie creëren
-
4:58 - 4:59in onze machines.
-
4:59 - 5:03Het maakt niet uit
hoe snel we vooruitgaan, -
5:03 - 5:06want elke vooruitgang
brengt ons dichter bij het eindpunt. -
5:06 - 5:10Vergeet de wet van Moore,
exponentiële vooruitgang is niet nodig. -
5:10 - 5:12We hoeven alleen maar door te gaan.
-
5:13 - 5:16De tweede veronderstelling
is dat we zullen blijven doorgaan. -
5:17 - 5:20We zullen onze intelligente
machines blijven verbeteren. -
5:21 - 5:25En gezien de waarde van intelligentie --
-
5:25 - 5:29ik bedoel, intelligentie is ofwel de bron
van alles wat we waarderen -
5:29 - 5:32of ze moet alles beschermen
wat we waarderen. -
5:32 - 5:34Het is ons waardevolste hulpmiddel.
-
5:34 - 5:36Dus we willen dit doen.
-
5:36 - 5:39We hebben problemen
die we nodig moeten oplossen. -
5:39 - 5:42We willen ziektes
als Alzheimer en kanker genezen. -
5:43 - 5:47We willen economische systemen begrijpen
en onze klimaatwetenschap verbeteren. -
5:47 - 5:49Dus zullen we dit doen, als we kunnen.
-
5:49 - 5:52De trein is al vertrokken
en er is geen houden aan. -
5:54 - 5:59Tot slot staan we waarschijnlijk niet
op een piek van intelligentie, -
5:59 - 6:01of ook maar ergens in de buurt ervan.
-
6:02 - 6:04En dit is echt het cruciale inzicht.
-
6:04 - 6:06Dit maakt onze situatie zo precair
-
6:06 - 6:10en dit maakt onze intuïties
over de risico's zo onbetrouwbaar. -
6:11 - 6:14Beschouw de slimste mens
die ooit heeft geleefd. -
6:15 - 6:18Op bijna ieders lijstje
staat hier John von Neumann. -
6:18 - 6:21Ik bedoel, de indruk die von Neumann
maakte op de mensen om hem heen, -
6:21 - 6:25inclusief de grootste wiskundigen
en fysici van zijn tijd, -
6:26 - 6:27is redelijk goed gedocumenteerd.
-
6:27 - 6:31Als slechts de helft van de verhalen
over hem half waar zijn, -
6:31 - 6:32dan kan het niet anders
-
6:33 - 6:35dan dat hij één
van de slimste mensen ooit was. -
6:35 - 6:38Bekijk dit spectrum
van intelligentie eens. -
6:38 - 6:40Hier hebben we John von Neumann.
-
6:42 - 6:43En dan hebben we jou en mij.
-
6:44 - 6:45En dan hebben we een kip.
-
6:45 - 6:47(Gelach)
-
6:47 - 6:49Sorry, een kip.
-
6:49 - 6:50(Gelach)
-
6:50 - 6:54Ik moet dit gesprek niet
deprimerender maken dan nodig. -
6:54 - 6:55(Gelach)
-
6:56 - 7:00Het lijkt echter uiterst waarschijnlijk
dat het spectrum van intelligentie -
7:00 - 7:03veel verder reikt
dan we op dit moment beseffen. -
7:04 - 7:07Als we machines bouwen
die intelligenter zijn dan wij, -
7:07 - 7:10gaan ze hoogstwaarschijnlijk
dit spectrum verkennen -
7:10 - 7:11op een onvoorstelbare manier
-
7:11 - 7:14en ons onvoorstelbaar overtreffen.
-
7:15 - 7:19Het is belangrijk te beseffen dat
dit al waar is voor de snelheid alleen. -
7:19 - 7:24Stel dat we zojuist
een superintelligente AI hadden gemaakt -
7:24 - 7:28die niet slimmer was
dan een gemiddeld team van onderzoekers -
7:28 - 7:30aan Stanford en MIT.
-
7:30 - 7:33Elektronische schakelingen werken
ongeveer een miljoen keer sneller -
7:33 - 7:34dan biochemische.
-
7:35 - 7:38Dus zou deze machine ongeveer
een miljoen keer sneller moeten denken -
7:38 - 7:39dan de geesten die ze ontwierpen.
-
7:40 - 7:41Laat ze één week lopen
-
7:41 - 7:46en ze zal voor 20 000 jaar intellectuele
arbeid op menselijk niveau uitvoeren, -
7:46 - 7:48week na week na week.
-
7:50 - 7:53Hoe kunnen we een verstand
dat dit soort vooruitgang maakt -
7:53 - 7:55nog begrijpen, laat staan beheersen?
-
7:57 - 7:59Wat, eerlijk gezegd,
ook nog verontrustend is: -
8:00 - 8:04stel je even het beste scenario voor.
-
8:04 - 8:08Veronderstel dat we
een superintelligente AI ontwerpen -
8:08 - 8:10die absoluut veilig is.
-
8:10 - 8:13We vinden gelijk het perfecte ontwerp.
-
8:13 - 8:15Het is alsof we
een orakel hebben gekregen -
8:15 - 8:17dat zich precies zoals bedoeld gedraagt.
-
8:17 - 8:21Deze machine zou het perfecte
arbeidsbesparende apparaat zijn. -
8:22 - 8:24Het kan de machine ontwerpen
die de machine kan bouwen -
8:24 - 8:26die elk fysiek werk aankan,
-
8:26 - 8:27aangedreven door zonlicht,
-
8:27 - 8:30min of meer voor de kosten
van de grondstoffen. -
8:30 - 8:33Gedaan met alle menselijk geploeter!
-
8:33 - 8:36Maar ook het einde
van de meeste intellectuele arbeid. -
8:37 - 8:40Wat gaan apen zoals wij
in deze omstandigheden doen? -
8:40 - 8:44Nou ja, we zouden vrij zijn om frisbee
te spelen en elkaar massages te geven. -
8:46 - 8:49Gooi er nog wat LSD
en rare kleren tegenaan -
8:49 - 8:51en de hele wereld wordt
één groot Burning Man-festival. -
8:51 - 8:53(Gelach)
-
8:54 - 8:56Nu klinkt dat misschien best goed,
-
8:57 - 9:00maar vraag jezelf eens af
wat er zou gebeuren -
9:00 - 9:02onder onze huidige economische
en politieke orde. -
9:02 - 9:05Het lijkt waarschijnlijk
dat we getuige zouden zijn -
9:05 - 9:09van een niveau van ongelijke verdeling
van rijkdom en werkloosheid -
9:09 - 9:11die we nooit eerder hebben gezien.
-
9:11 - 9:13Zonder bereidheid om
deze nieuwe rijkdom -
9:13 - 9:15onmiddellijk met iedereen te delen,
-
9:16 - 9:19zullen enkele biljonairs de covers
van onze zakenmagazines sieren -
9:19 - 9:22terwijl de rest van de wereld
vrij zou zijn om te verhongeren. -
9:22 - 9:25Wat zouden de Russen of de Chinezen doen
-
9:25 - 9:27als ze hoorden
dat een bedrijf in Silicon Valley -
9:27 - 9:30op het punt stond
een superintelligente AI te maken? -
9:30 - 9:33Deze machine zou in staat zijn
tot het voeren van oorlog, -
9:33 - 9:35hetzij op aarde of in cyberspace,
-
9:35 - 9:37met ongekende kracht.
-
9:38 - 9:40Dit is een winnaar-pakt-alles-scenario.
-
9:40 - 9:43Zes maanden voorsprong op de concurrentie
-
9:43 - 9:46komt overeen met 500 000 jaar voorsprong,
-
9:46 - 9:47op z'n minst.
-
9:47 - 9:52Dus het lijkt erop dat zelfs louter
geruchten van dit soort doorbraak -
9:52 - 9:55ertoe kunnen leiden
dat het mensdom wild zal worden. -
9:55 - 9:58Eén van de meest angstaanjagende dingen,
-
9:58 - 10:00naar mijn mening,
-
10:00 - 10:05zijn het soort dingen
die AI-onderzoekers zeggen -
10:05 - 10:07wanneer ze ons gerust willen stellen.
-
10:07 - 10:10Waar we ons vooral
geen zorgen over moeten maken, is tijd. -
10:10 - 10:13Dit is nog allemaal ver weg, weet je.
-
10:13 - 10:15Waarschijnlijk nog 50 of 100 jaar weg.
-
10:16 - 10:17Eén onderzoeker heeft gezegd:
-
10:17 - 10:19"Piekeren over AI-veiligheid
-
10:19 - 10:21is net als je zorgen maken
over overbevolking op Mars." -
10:22 - 10:24Dit is de Silicon Valley-versie
-
10:24 - 10:26van 'breek er je mooie hoofdje niet over'.
-
10:26 - 10:27(Gelach)
-
10:28 - 10:29Niemand lijkt te merken
-
10:29 - 10:32dat verwijzen naar de tijdshorizon
-
10:32 - 10:34een totale 'non sequitur' is,
een onjuist gevolg. -
10:34 - 10:38Als intelligentie alleen maar
een kwestie van informatieverwerking is, -
10:38 - 10:41en we onze machines
maar blijven verbeteren, -
10:41 - 10:44zullen we een bepaalde vorm
van superintelligentie produceren. -
10:44 - 10:48We hebben geen idee
hoe lang het zal duren -
10:48 - 10:51om de voorwaarden te creëren
om dat veilig te doen. -
10:52 - 10:53Ik zeg het nog eens.
-
10:54 - 10:57We hebben geen idee
hoe lang het zal duren -
10:57 - 11:00om de voorwaarden te creëren
om dat veilig te doen. -
11:01 - 11:05Mocht het je nog niet zijn opgevallen:
50 jaar is niet meer wat ooit was. -
11:05 - 11:07Dit is 50 jaar in maanden.
-
11:07 - 11:09Zo lang hebben we de iPhone al.
-
11:09 - 11:12Dit is hoe lang 'The Simpsons'
al op televisie zijn. -
11:13 - 11:15Vijftig jaar is niet zo heel veel tijd
-
11:15 - 11:17om één van de grootste
uitdagingen aan te pakken -
11:17 - 11:20waarmee het mensdom
ooit zal worden geconfronteerd. -
11:20 - 11:24We lijken er niet in te slagen om
de juiste emotionele reactie te hebben -
11:24 - 11:27op iets waarvan we alle reden hebben
te geloven dat het komt. -
11:27 - 11:30De computerwetenschapper Stuart Russell
heeft hier een mooie analogie. -
11:30 - 11:35Hij zei, stel je voor dat we een bericht
van een buitenaardse beschaving ontvangen, -
11:35 - 11:37dat luidt:
-
11:37 - 11:39"Mensen van de Aarde,
-
11:39 - 11:41binnen 50 jaar komen
we naar jullie planeet. -
11:42 - 11:43Hou je gereed."
-
11:43 - 11:48En dan gewoon de maanden aftellen
tot aan de landing van het moederschip? -
11:48 - 11:51We zouden een beetje
meer urgentie voelen dan we nu doen. -
11:53 - 11:55Waarom we ons ook
geen zorgen zouden hoeven maken, -
11:55 - 11:57is dat deze machines sowieso
onze waarden delen, -
11:57 - 12:00omdat ze letterlijk uitbreidingen
van onszelf zullen zijn. -
12:00 - 12:02Ze zullen worden geënt op onze hersenen,
-
12:02 - 12:05en wij zullen in wezen
hun limbisch systeem worden. -
12:05 - 12:07Overweeg even
-
12:07 - 12:10dat de veiligste
en enige verstandige weg vooruit, -
12:10 - 12:11de aanbevolen weg,
-
12:11 - 12:14is om deze technologie
direct in onze hersenen te implanteren. -
12:15 - 12:18Dit kan in feite de veiligste
en enige voorzichtige weg vooruit zijn, -
12:18 - 12:23maar meestal moet iemand zich toch
volkomen veilig voelen bij een technologie -
12:23 - 12:25voordat hij ze in zijn hoofd steekt.
-
12:25 - 12:27(Gelach)
-
12:27 - 12:32Het dieperliggende probleem is dat
superintelligente AI op zich bouwen -
12:32 - 12:34waarschijnlijk gemakkelijker lijkt
-
12:34 - 12:36dan superintelligente AI bouwen
-
12:36 - 12:38én de neurowetenschappen voltooien
-
12:38 - 12:41die ons toelaten onze geest
er naadloos mee te integreren. -
12:41 - 12:44Gezien het feit dat de bedrijven
en overheden die dit werk doen -
12:44 - 12:48waarschijnlijk denken
met een race bezig te zijn, -
12:48 - 12:51en omdat deze race winnen
neerkomt op de wereld winnen, -
12:51 - 12:53gesteld dat je hem niet direct vernietigt,
-
12:53 - 12:56dan lijkt het waarschijnlijk
dat alles wat gemakkelijker is, -
12:56 - 12:58voorrang zal krijgen.
-
12:59 - 13:01Ik heb helaas geen andere oplossing
voor dit probleem -
13:01 - 13:04dan de aanbeveling dat we er
over moeten gaan nadenken. -
13:04 - 13:06Ik denk aan iets als een Manhattan Project
-
13:06 - 13:08over kunstmatige intelligentie.
-
13:09 - 13:11Niet om het te bouwen,
want dat gaan we sowieso doen, -
13:11 - 13:15maar om te begrijpen
hoe een wapenwedloop te voorkomen -
13:15 - 13:18en het zo te bouwen
dat het onze belangen dient. -
13:18 - 13:20Als je over superintelligente AI praat
-
13:20 - 13:23die zichzelf kan aanpassen,
-
13:23 - 13:25lijkt het erop dat we
maar één kans hebben -
13:25 - 13:27om de beginvoorwaarden goed te krijgen
-
13:27 - 13:29en zelfs dan zullen we moeten leren omgaan
-
13:29 - 13:33met de economische en politieke
gevolgen van die goede beginvoorwaarden. -
13:34 - 13:36Maar zodra we toegeven
-
13:36 - 13:40dat informatieverwerking
de bron van intelligentie is, -
13:41 - 13:46dat een geschikt computersysteem
aan de basis van intelligentie ligt, -
13:46 - 13:50en we toegeven dat we deze systemen
onafgebroken zullen blijven verbeteren, -
13:51 - 13:56en dat de kennishorizon
waarschijnlijk veel verder reikt -
13:56 - 13:57dan we nu weten,
-
13:58 - 13:59dan moeten we toegeven
-
13:59 - 14:02dat we bezig zijn een soort god te maken.
-
14:03 - 14:05Daarom moeten we er nu voor zorgen
-
14:05 - 14:07dat het een god is
waarmee we kunnen leven. -
14:08 - 14:10Dankjewel.
-
14:10 - 14:15(Applaus)
- Title:
- Kunnen we AI maken zonder er de controle over te verliezen?
- Speaker:
- Sam Harris
- Description:
-
Bang voor superintelligente AI? Je zou het moeten zijn, zegt neurowetenschapper en filosoof Sam Harris -- en niet alleen op de een of andere theoretische manier. We gaan bovenmenselijke machines bouwen, zegt Harris, maar we zijn nog niet klaar met de problemen die verband houden met het feit dat we iets creëren dat met ons kan omgaan zoals wij dat doen met mieren.
- Video Language:
- English
- Team:
closed TED
- Project:
- TEDTalks
- Duration:
- 14:27
![]() |
Peter van de Ven approved Dutch subtitles for Can we build AI without losing control over it? | |
![]() |
Peter van de Ven edited Dutch subtitles for Can we build AI without losing control over it? | |
![]() |
Peter van de Ven edited Dutch subtitles for Can we build AI without losing control over it? | |
![]() |
Marleen Laschet accepted Dutch subtitles for Can we build AI without losing control over it? | |
![]() |
Marleen Laschet edited Dutch subtitles for Can we build AI without losing control over it? | |
![]() |
Marleen Laschet edited Dutch subtitles for Can we build AI without losing control over it? | |
![]() |
Marleen Laschet edited Dutch subtitles for Can we build AI without losing control over it? | |
![]() |
Rik Delaet edited Dutch subtitles for Can we build AI without losing control over it? |