Daniel Suarez: Robots mogen niet beslissen over leven en dood
-
0:01 - 0:04Ik schrijf sciencefictionthrillers.
-
0:04 - 0:06Als ik 'killerrobots' zeg,
-
0:06 - 0:08dan denk je waarschijnlijk zoiets.
-
0:08 - 0:11Maar ik ga het hier niet over fictie hebben.
-
0:11 - 0:14Ik ga het hebben over echte killerrobots,
-
0:14 - 0:17autonome gevechtsdrones.
-
0:17 - 0:21Ik heb het niet over Predators of Reapers,
-
0:21 - 0:24waar een mens beslist welk doel ze kiezen.
-
0:24 - 0:27Ik heb het over volledig autonome robotwapens
-
0:27 - 0:30die dodelijke beslissingen nemen over mensen,
-
0:30 - 0:32helemaal alleen.
-
0:32 - 0:36Daar bestaat een technische term voor:
dodelijke autonomie. -
0:36 - 0:39Dodelijk autonome killerrobots
-
0:39 - 0:42hebben vele vormen:
ze vliegen, rijden, -
0:42 - 0:45of liggen gewoon op de loer.
-
0:45 - 0:48Ze worden heel snel een realiteit.
-
0:48 - 0:50Momenteel zijn er twee automatische
sluipschuttersstations -
0:50 - 0:55in de gedemilitariseerde zone
tussen Noord- en Zuid-Korea. -
0:55 - 0:57Beide machines kunnen automatisch
-
0:57 - 1:00een menselijk doelwit identificeren en beschieten,
-
1:00 - 1:05de linkse op een afstand
van meer dan een kilometer. -
1:05 - 1:08In beide gevallen komt er nog een mens tussen
-
1:08 - 1:10om de beslissing tot schieten om te doden te nemen,
-
1:10 - 1:16maar het is geen technologische vereiste.
Het is een keuze. -
1:16 - 1:19Op die keuze wil ik me richten,
-
1:19 - 1:22want als we dodelijke beslissingen laten verhuizen
-
1:22 - 1:25van de mens naar software,
-
1:25 - 1:28is het risico niet alleen dat we
het menselijke uit de oorlog verwijderen, -
1:28 - 1:32maar ook dat we ons sociale landschap
volledig wijzigen, -
1:32 - 1:34ver van het slagveld.
-
1:34 - 1:38Want de manier waarop mensen
conflicten oplossen, -
1:38 - 1:40bepaalt ons sociale landschap.
-
1:40 - 1:43Dat is in de geschiedenis altijd zo geweest.
-
1:43 - 1:46Er waren bijvoorbeeld moderne wapensystemen
-
1:46 - 1:48in 1400 voor Christus.
-
1:48 - 1:51Ze waren duur om te bouwen
en te onderhouden, -
1:51 - 1:54maar je hield er het gepeupel
mee onder de duim -
1:54 - 1:58en de verdeling van de politieke macht
in de feodale maatschappij weerspiegelde dat. -
1:58 - 2:01De macht was geconcentreerd aan de top.
-
2:01 - 2:04Wat veranderde er?
Technologische innovatie. -
2:04 - 2:06Buskruit, het kanon.
-
2:06 - 2:10Al snel waren harnas en kasteel verouderd.
-
2:10 - 2:12Het maakte minder uit
wie je opstelde op het slagveld -
2:12 - 2:16dan hoeveel mensen
je opstelde op het slagveld. -
2:16 - 2:20Naarmate de legers groter werden,
ontstond de natiestaat -
2:20 - 2:23als politieke en logistieke
defensievereiste. -
2:23 - 2:26Toen de leiders meer op het gepeupel
moesten rekenen, gingen ze de macht delen. -
2:26 - 2:28Toen de leiders meer op het gepeupel
moesten rekenen, gingen ze de macht delen. -
2:28 - 2:30De representatieve overheid kreeg vorm.
-
2:30 - 2:33De middelen die we gebruiken
om conflicten op te lossen, -
2:33 - 2:37geven ons sociale landschap vorm.
-
2:37 - 2:41Autonome robotwapens zijn zo'n middel,
-
2:41 - 2:46behalve dat ze, doordat heel weinig mensen
ten oorlog moeten trekken, -
2:46 - 2:51het risico inhouden dat de macht weer
in weinig handen wordt geconcentreerd, -
2:51 - 2:57waardoor een 5 eeuwen lange trend
richting democratie wordt omgekeerd. -
2:57 - 2:59Als we dat weten,
-
2:59 - 3:03kunnen we beslissende stappen zetten
voor het behoud van democratische instellingen -
3:03 - 3:07om te doen wat mensen best kunnen:
zich aanpassen. -
3:07 - 3:09Maar de tijd dringt.
-
3:09 - 3:1270 landen ontwikkelen hun eigen
telegeleide gevechtsdrones, -
3:12 - 3:1470 landen ontwikkelen hun eigen
telegeleide gevechtsdrones, -
3:14 - 3:17Je zal zien dat telegeleide gevechtsdrones
-
3:17 - 3:22de voorlopers zijn van autonome
robotwapens. -
3:22 - 3:24Zodra je telegeleide pilootdrones hebt opgesteld,
-
3:24 - 3:28zijn er drie krachtige factoren
die de beslissing wegduwen -
3:28 - 3:32van de mens naar het wapensysteem zelf.
-
3:32 - 3:38De eerste is de overvloed aan beelden
die drones produceren. -
3:38 - 3:41In 2004 produceerde de dronevloot van de VS
-
3:41 - 3:47samen 71 uur bewakingsfilm voor analyse.
-
3:47 - 3:51Tegen 2011 was dat al 300.000 uur geworden,
-
3:51 - 3:54meer dan de mens kan nakijken,
-
3:54 - 3:58maar zelfs dat aantal
zal nog drastisch stijgen. -
3:58 - 4:01De defensieprogramma's 'Gorgonenblik' en 'Argus'
zetten tot 65 onafhankelijke camera-ogen -
4:01 - 4:04De defensieprogramma's 'Gorgonenblik' en 'Argus'
zetten tot 65 onafhankelijke camera-ogen -
4:04 - 4:06op elk droneplatform.
-
4:06 - 4:09Dat zou veel meer zijn
dan de mens kan nakijken. -
4:09 - 4:11Dat betekent dat visuele inlichtingensoftware
-
4:11 - 4:15ze zal moeten doorzoeken
naar interessante dingen. -
4:15 - 4:17Dat betekent dat binnenkort
-
4:17 - 4:19de drones de mensen zullen zeggen
waar ze naar moeten kijken, -
4:19 - 4:22niet omgekeerd.
-
4:22 - 4:24Maar er is een tweede krachtige stimulans
-
4:24 - 4:28om de beslissing van de mens
naar de machine te verplaatsen: -
4:28 - 4:31elektromagnetische stoorzenders,
-
4:31 - 4:33die de verbinding tussen de drone
-
4:33 - 4:36en zijn bestuurder verbreken.
-
4:36 - 4:38We zagen er een voorbeeld van in 2011
-
4:38 - 4:41toen een Amerikaanse RQ-170 Sentinel
-
4:41 - 4:46in de war raakte boven Iran
door een moedwillige verstoring van zijn gps. -
4:46 - 4:51Elke telegeleide drone is kwetsbaar
voor dat soort aanvallen. -
4:51 - 4:53Dat betekent dat drones
-
4:53 - 4:56meer beslissingen zullen moeten nemen.
-
4:56 - 4:59Ze zullen het doel van hun missie kennen
-
4:59 - 5:04en reageren op nieuwe omstandigheden
zonder menselijke hulp. -
5:04 - 5:07Ze zullen externe radiosignalen negeren
-
5:07 - 5:09en er zelf niet veel uitzenden.
-
5:09 - 5:11Dat brengt ons tot de derde
-
5:11 - 5:15en krachtigste stimulans
om beslissingen te verplaatsen -
5:15 - 5:18van de mens naar de wapens:
-
5:18 - 5:22plausibele ontkenbaarheid.
-
5:22 - 5:25We leven in een globale economie.
-
5:25 - 5:29Er is hoogtechnologische productie
op de meeste continenten. -
5:29 - 5:32Cyberspionage moffelt
geavanceerde ontwerpen weg -
5:32 - 5:34in onbekende onderdelen.
-
5:34 - 5:36In die omgeving is het heel waarschijnlijk
-
5:36 - 5:40dat succesvolle droneontwerpen
zullen worden gemaakt in fabrieken van onderaannemers -
5:40 - 5:43en vandaar richting grijze markt gaan.
-
5:43 - 5:45In die situatie zal het,
als je het wrak -
5:45 - 5:48van een zelfmoorddrone doorzoekt,
heel moeilijk te zeggen zijn -
5:48 - 5:52wie dat wapen heeft gestuurd.
-
5:52 - 5:55Daardoor wordt de mogelijkheid
van anoniem oorlogvoeren heel reëel. -
5:55 - 5:58Daardoor wordt de mogelijkheid
van anoniem oorlogvoeren heel reëel. -
5:58 - 6:01Dat zou het geopolitieke evenwicht
op zijn kop kunnen zetten, -
6:01 - 6:04waardoor het voor een natie moeilijk wordt
om zijn vuurkracht in te zetten -
6:04 - 6:07tegen een aanvaller.
Dat zou de balans kunnen doen overhellen -
6:07 - 6:11van verdediging naar aanval
in de 21e eeuw. -
6:11 - 6:14Het zou van militaire actie
een haalbare kaart maken, -
6:14 - 6:16niet alleen voor kleine landen,
-
6:16 - 6:19maar voor criminele organisaties,
privébedrijven, -
6:19 - 6:21zelfs machtige individuen.
-
6:21 - 6:25Het zou een landschap
van rivaliserende krijgsheren creëren -
6:25 - 6:28die de rechtsstaat en de burgerlijke
maatschappij ondermijnen. -
6:28 - 6:32Als verantwoordelijkheid en transparantie
-
6:32 - 6:34twee hoekstenen zijn van de representatieve democratie,
-
6:34 - 6:39dan kunnen autonome robotwapens
ze beide ondermijnen. -
6:39 - 6:40Misschien denk je
-
6:40 - 6:42dat burgers van hoogtechnologische naties
-
6:42 - 6:45voordeel hebben bij elke robotoorlog,
-
6:45 - 6:49dat burgers van die naties
minder kwetsbaar zouden zijn, -
6:49 - 6:53vooral tegen ontwikkelingslanden.
-
6:53 - 6:57Volgens mij is het net andersom.
-
6:57 - 6:59Ik denk dat burgers
van hoogtechnologische maatschappijen -
6:59 - 7:03kwetsbaarder zijn voor robotwapens.
-
7:03 - 7:07Dat ligt aan één enkel ding: gegevens.
-
7:07 - 7:11Gegevens zijn de motor van hightech-maatschappijen.
-
7:11 - 7:14Gsm-geolocatie, metagegevens van telecommunicatie,
-
7:14 - 7:17sociale media, email, sms, financiële transactiegegevens,
-
7:17 - 7:21transportgegegeven, een overvloed
aan realtime-gegevens -
7:21 - 7:24over de bewegingen en sociale interactie van mensen.
-
7:24 - 7:28Kortom, we zijn zichtbaarder voor machines
-
7:28 - 7:30dan wie dan ook in de geschiedenis.
-
7:30 - 7:36Dat is perfect voor een autonoom wapen
dat een doel in het vizier moet krijgen. -
7:36 - 7:37Wat je hier ziet,
-
7:37 - 7:41is een linkanalyse van een sociale groep.
-
7:41 - 7:44Links wijzen op sociale verbondenheid
tussen individuen. -
7:44 - 7:47Dit soort kaarten kan automatisch gemaakt worden
-
7:47 - 7:52op basis van het spoor van gegevens
dat moderne mensen achterlaten. -
7:52 - 7:54Ze worden meestal gebruikt
om goederen en diensten te verkopen -
7:54 - 7:59aan doelgroepen, maar het is
een tweesnijdende technologie, -
7:59 - 8:02als 'doelen' in een andere context worden gebruikt.
-
8:02 - 8:05Je ziet dat bepaalde individuen gemarkeerd zijn.
-
8:05 - 8:08Dit zijn de knooppunten van de sociale netwerken:
-
8:08 - 8:12organisatoren, opiniemakers, leiders.
-
8:12 - 8:14Deze mensen kan je automatisch identificeren
-
8:14 - 8:17op basis van hun communicatiepatroon.
-
8:17 - 8:19Als marketeer kan je je op hen richten
-
8:19 - 8:21met productstalen, als je je merk wil verspreiden
-
8:21 - 8:24in hun sociale groep.
-
8:24 - 8:26Maar als je een repressieve overheid bent,
-
8:26 - 8:31op zoek naar politieke vijanden,
kan je ze ook verwijderen, -
8:31 - 8:34uitschakelen, hun sociale groep verstoren.
-
8:34 - 8:37De achterblijvers verliezen sociale samenhang
-
8:37 - 8:39en organisatie.
-
8:39 - 8:43In een wereld van goedkope, uitdijende robotwapens,
-
8:43 - 8:45zouden grenzen heel weinig bescherming bieden
-
8:45 - 8:47aan de critici van verre overheden
-
8:47 - 8:51of transnationale criminele organisaties.
-
8:51 - 8:55Volksbewegingen die op verandering aansturen,
-
8:55 - 8:58zouden vroeg ontdekt kunnen worden
en hun leiders uitgeschakeld -
8:58 - 9:01nog voor hun ideeën kritische massa bereiken.
-
9:01 - 9:04Ideeën die kritische massa bereiken,
-
9:04 - 9:08daar draait elk politiek activisme om in een democratie.
-
9:08 - 9:12Anonieme dodelijke wapens
kunnen van dodelijke actie -
9:12 - 9:15een gemakkelijke keuze maken
voor allerlei concurrerende belangen. -
9:15 - 9:19Dat zou de vrije meningsuiting belemmeren
-
9:19 - 9:24en politieke actie van het volk,
het hart van de democratie. -
9:24 - 9:27Daarom hebben we nood aan
een internationaal verdrag -
9:27 - 9:31over robotwapens, en meer bepaald
een wereldwijd verbod -
9:31 - 9:35op het ontwikkelen en inzetten
van killerrobots. -
9:35 - 9:38We hebben al internationale verdragen
-
9:38 - 9:41over nucleaire en biologische wapens.
Die zijn niet perfect, -
9:41 - 9:44maar ze hebben wel grotendeels gewerkt.
-
9:44 - 9:47Robotwapens zouden even gevaarlijk
kunnen zijn, -
9:47 - 9:51want ze zullen bijna zeker worden ingezet
-
9:51 - 9:56en ze zouden onze democratische instellingen ondermijnen.
-
9:56 - 9:59In november 2012 verplichtte
het Ministerie van Defensie van de VS -
9:59 - 10:02In november 2012 verplichtte
het Ministerie van Defensie van de VS -
10:02 - 10:06de aanwezigheid van een mens
bij alle beslissingen over leven en dood. -
10:06 - 10:11Daardoor werden automatische wapens
tijdelijk effectief verboden in het leger van de VS, -
10:11 - 10:15maar die richtlijn moet permanent worden.
-
10:15 - 10:19Dat zou de voorbereiding kunnen zijn
van wereldwijde actie. -
10:19 - 10:23We hebben een internationaal wettelijk kader nodig
-
10:23 - 10:25voor robotwapens,
-
10:25 - 10:28en wel meteen, voor er een verwoestende aanval is
-
10:28 - 10:31of een terroristische aanslag waardoor landen
-
10:31 - 10:33snel-snel deze wapens inzetten
zonder over de gevolgen na te denken. -
10:33 - 10:37snel-snel deze wapens inzetten
zonder over de gevolgen na te denken. -
10:37 - 10:40Automatische robotwapens concentreren teveel macht
-
10:40 - 10:46in te weinig handen, en ze zouden de democratie zelf
in gevaar brengen. -
10:46 - 10:49Begrijp me niet verkeerd,
ik denk dat er massa's -
10:49 - 10:51toepassingen zijn voor onbewapende civiele drones:
-
10:51 - 10:55milieubewaking, reddingsoperaties, logistiek.
-
10:55 - 10:58Als we een internationaal verdrag op robotwapens hebben,
-
10:58 - 11:02hoe kunnen we dan de voordelen van autonome drones
-
11:02 - 11:04en voertuigen combineren met bescherming
-
11:04 - 11:08tegen illegale robotwapens?
-
11:08 - 11:13Ik denk dat het geheim transparantie zal zijn.
-
11:13 - 11:16Geen enkele robot mag zich aan privacy verwachten
-
11:16 - 11:20op een openbare plaats.
-
11:20 - 11:25(Applaus)
-
11:25 - 11:27In elke robot en drone zou een cryptografisch ondertekend
identiteitsbewijs moeten gegraveerd zijn -
11:27 - 11:30In elke robot en drone zou een cryptografisch ondertekend
identiteitsbewijs moeten gegraveerd zijn -
11:30 - 11:33dat kan worden gebruikt om zijn beweging
door publieke ruimtes te volgen. -
11:33 - 11:36We hebben nummerplaten op auto's
en staartnummers op vliegtuigen. -
11:36 - 11:38Dit is niet anders.
-
11:38 - 11:40Elke burger zou een app moeten kunnen downloaden
-
11:40 - 11:43die de populatie van drones en autonome voertuigen toont
-
11:43 - 11:45die zich door de publieke ruimte om hem heen beweegt,
-
11:45 - 11:48nu meteen en in het verleden.
-
11:48 - 11:52Burgerleiders zouden sensoren
en burgerlijke drones moeten inzetten -
11:52 - 11:54om schurkendrones te detecteren.
-
11:54 - 11:57In plaats van eigen killerdrones te sturen
om ze af te maken, -
11:57 - 12:00zouden ze mensen
op hun aanwezigheid moeten wijzen. -
12:00 - 12:03In bepaalde strenge veiligheidszones
-
12:03 - 12:05zouden burgerlijke drones ze kunnen strikken
-
12:05 - 12:07en wegslepen naar een ontmijningsinstallatie.
-
12:07 - 12:11Maar dit is veeleer een immuunsysteem
-
12:11 - 12:12dan een wapensysteem.
-
12:12 - 12:14Het zou ons toelaten om
-
12:14 - 12:16autonome voertuigen en drones te gebruiken
-
12:16 - 12:21zonder onze open, burgerlijke maatschappij op te geven.
-
12:21 - 12:24We moeten de inzet en ontwikkeling
-
12:24 - 12:26van killerrobots verbieden.
-
12:26 - 12:30Laten we niet zwichten voor de verleiding
om oorlog te automatiseren. -
12:30 - 12:33Autocratische regeringen
en criminele organisaties -
12:33 - 12:36zullen dat zeker doen.
Laten we ze niet volgen. -
12:36 - 12:38Autonome robotwapens
-
12:38 - 12:40zouden te veel macht concentreren
-
12:40 - 12:43in te weinig onzichtbare handen.
-
12:43 - 12:46Dat zou de representatieve democratie ondermijnen.
-
12:46 - 12:49Laten we ervoor zorgen dat,
tenminste voor democratieën, -
12:49 - 12:51killerrobots fictie blijven.
-
12:51 - 12:52Dankuwel.
-
12:52 - 12:57(Applaus)
-
12:57 - 13:02Dankuwel. (Applaus)
- Title:
- Daniel Suarez: Robots mogen niet beslissen over leven en dood
- Speaker:
- Daniel Suarez
- Description:
-
Als schrijver verzint Daniel Suarez dystopische toekomstverhalen. Maar op het TED-podium doorloopt hij met ons een echt scenario waar we allemaal meer over moeten weten: het risico op autonome oorlogsrobots. Geavanceerde drones, automatische wapens en spionagetools op basis van artificiële intelligentie zouden volgens hem de mens de beslissing om oorlog te voeren, uit handen kunnen nemen.
- Video Language:
- English
- Team:
closed TED
- Project:
- TEDTalks
- Duration:
- 13:20
![]() |
Els De Keyser approved Dutch subtitles for The kill decision shouldn't belong to a robot | |
![]() |
Rik Delaet accepted Dutch subtitles for The kill decision shouldn't belong to a robot | |
![]() |
Rik Delaet commented on Dutch subtitles for The kill decision shouldn't belong to a robot | |
![]() |
Rik Delaet edited Dutch subtitles for The kill decision shouldn't belong to a robot | |
![]() |
Rik Delaet edited Dutch subtitles for The kill decision shouldn't belong to a robot | |
![]() |
Rik Delaet edited Dutch subtitles for The kill decision shouldn't belong to a robot | |
![]() |
Rik Delaet edited Dutch subtitles for The kill decision shouldn't belong to a robot | |
![]() |
Els De Keyser edited Dutch subtitles for The kill decision shouldn't belong to a robot |