< Return to Video

Daniel Suarez: Robots mogen niet beslissen over leven en dood

  • 0:01 - 0:04
    Ik schrijf sciencefictionthrillers.
  • 0:04 - 0:06
    Als ik 'killerrobots' zeg,
  • 0:06 - 0:08
    dan denk je waarschijnlijk zoiets.
  • 0:08 - 0:11
    Maar ik ga het hier niet over fictie hebben.
  • 0:11 - 0:14
    Ik ga het hebben over echte killerrobots,
  • 0:14 - 0:17
    autonome gevechtsdrones.
  • 0:17 - 0:21
    Ik heb het niet over Predators of Reapers,
  • 0:21 - 0:24
    waar een mens beslist welk doel ze kiezen.
  • 0:24 - 0:27
    Ik heb het over volledig autonome robotwapens
  • 0:27 - 0:30
    die dodelijke beslissingen nemen over mensen,
  • 0:30 - 0:32
    helemaal alleen.
  • 0:32 - 0:36
    Daar bestaat een technische term voor:
    dodelijke autonomie.
  • 0:36 - 0:39
    Dodelijk autonome killerrobots
  • 0:39 - 0:42
    hebben vele vormen:
    ze vliegen, rijden,
  • 0:42 - 0:45
    of liggen gewoon op de loer.
  • 0:45 - 0:48
    Ze worden heel snel een realiteit.
  • 0:48 - 0:50
    Momenteel zijn er twee automatische
    sluipschuttersstations
  • 0:50 - 0:55
    in de gedemilitariseerde zone
    tussen Noord- en Zuid-Korea.
  • 0:55 - 0:57
    Beide machines kunnen automatisch
  • 0:57 - 1:00
    een menselijk doelwit identificeren en beschieten,
  • 1:00 - 1:05
    de linkse op een afstand
    van meer dan een kilometer.
  • 1:05 - 1:08
    In beide gevallen komt er nog een mens tussen
  • 1:08 - 1:10
    om de beslissing tot schieten om te doden te nemen,
  • 1:10 - 1:16
    maar het is geen technologische vereiste.
    Het is een keuze.
  • 1:16 - 1:19
    Op die keuze wil ik me richten,
  • 1:19 - 1:22
    want als we dodelijke beslissingen laten verhuizen
  • 1:22 - 1:25
    van de mens naar software,
  • 1:25 - 1:28
    is het risico niet alleen dat we
    het menselijke uit de oorlog verwijderen,
  • 1:28 - 1:32
    maar ook dat we ons sociale landschap
    volledig wijzigen,
  • 1:32 - 1:34
    ver van het slagveld.
  • 1:34 - 1:38
    Want de manier waarop mensen
    conflicten oplossen,
  • 1:38 - 1:40
    bepaalt ons sociale landschap.
  • 1:40 - 1:43
    Dat is in de geschiedenis altijd zo geweest.
  • 1:43 - 1:46
    Er waren bijvoorbeeld moderne wapensystemen
  • 1:46 - 1:48
    in 1400 voor Christus.
  • 1:48 - 1:51
    Ze waren duur om te bouwen
    en te onderhouden,
  • 1:51 - 1:54
    maar je hield er het gepeupel
    mee onder de duim
  • 1:54 - 1:58
    en de verdeling van de politieke macht
    in de feodale maatschappij weerspiegelde dat.
  • 1:58 - 2:01
    De macht was geconcentreerd aan de top.
  • 2:01 - 2:04
    Wat veranderde er?
    Technologische innovatie.
  • 2:04 - 2:06
    Buskruit, het kanon.
  • 2:06 - 2:10
    Al snel waren harnas en kasteel verouderd.
  • 2:10 - 2:12
    Het maakte minder uit
    wie je opstelde op het slagveld
  • 2:12 - 2:16
    dan hoeveel mensen
    je opstelde op het slagveld.
  • 2:16 - 2:20
    Naarmate de legers groter werden,
    ontstond de natiestaat
  • 2:20 - 2:23
    als politieke en logistieke
    defensievereiste.
  • 2:23 - 2:26
    Toen de leiders meer op het gepeupel
    moesten rekenen, gingen ze de macht delen.
  • 2:26 - 2:28
    Toen de leiders meer op het gepeupel
    moesten rekenen, gingen ze de macht delen.
  • 2:28 - 2:30
    De representatieve overheid kreeg vorm.
  • 2:30 - 2:33
    De middelen die we gebruiken
    om conflicten op te lossen,
  • 2:33 - 2:37
    geven ons sociale landschap vorm.
  • 2:37 - 2:41
    Autonome robotwapens zijn zo'n middel,
  • 2:41 - 2:46
    behalve dat ze, doordat heel weinig mensen
    ten oorlog moeten trekken,
  • 2:46 - 2:51
    het risico inhouden dat de macht weer
    in weinig handen wordt geconcentreerd,
  • 2:51 - 2:57
    waardoor een 5 eeuwen lange trend
    richting democratie wordt omgekeerd.
  • 2:57 - 2:59
    Als we dat weten,
  • 2:59 - 3:03
    kunnen we beslissende stappen zetten
    voor het behoud van democratische instellingen
  • 3:03 - 3:07
    om te doen wat mensen best kunnen:
    zich aanpassen.
  • 3:07 - 3:09
    Maar de tijd dringt.
  • 3:09 - 3:12
    70 landen ontwikkelen hun eigen
    telegeleide gevechtsdrones,
  • 3:12 - 3:14
    70 landen ontwikkelen hun eigen
    telegeleide gevechtsdrones,
  • 3:14 - 3:17
    Je zal zien dat telegeleide gevechtsdrones
  • 3:17 - 3:22
    de voorlopers zijn van autonome
    robotwapens.
  • 3:22 - 3:24
    Zodra je telegeleide pilootdrones hebt opgesteld,
  • 3:24 - 3:28
    zijn er drie krachtige factoren
    die de beslissing wegduwen
  • 3:28 - 3:32
    van de mens naar het wapensysteem zelf.
  • 3:32 - 3:38
    De eerste is de overvloed aan beelden
    die drones produceren.
  • 3:38 - 3:41
    In 2004 produceerde de dronevloot van de VS
  • 3:41 - 3:47
    samen 71 uur bewakingsfilm voor analyse.
  • 3:47 - 3:51
    Tegen 2011 was dat al 300.000 uur geworden,
  • 3:51 - 3:54
    meer dan de mens kan nakijken,
  • 3:54 - 3:58
    maar zelfs dat aantal
    zal nog drastisch stijgen.
  • 3:58 - 4:01
    De defensieprogramma's 'Gorgonenblik' en 'Argus'
    zetten tot 65 onafhankelijke camera-ogen
  • 4:01 - 4:04
    De defensieprogramma's 'Gorgonenblik' en 'Argus'
    zetten tot 65 onafhankelijke camera-ogen
  • 4:04 - 4:06
    op elk droneplatform.
  • 4:06 - 4:09
    Dat zou veel meer zijn
    dan de mens kan nakijken.
  • 4:09 - 4:11
    Dat betekent dat visuele inlichtingensoftware
  • 4:11 - 4:15
    ze zal moeten doorzoeken
    naar interessante dingen.
  • 4:15 - 4:17
    Dat betekent dat binnenkort
  • 4:17 - 4:19
    de drones de mensen zullen zeggen
    waar ze naar moeten kijken,
  • 4:19 - 4:22
    niet omgekeerd.
  • 4:22 - 4:24
    Maar er is een tweede krachtige stimulans
  • 4:24 - 4:28
    om de beslissing van de mens
    naar de machine te verplaatsen:
  • 4:28 - 4:31
    elektromagnetische stoorzenders,
  • 4:31 - 4:33
    die de verbinding tussen de drone
  • 4:33 - 4:36
    en zijn bestuurder verbreken.
  • 4:36 - 4:38
    We zagen er een voorbeeld van in 2011
  • 4:38 - 4:41
    toen een Amerikaanse RQ-170 Sentinel
  • 4:41 - 4:46
    in de war raakte boven Iran
    door een moedwillige verstoring van zijn gps.
  • 4:46 - 4:51
    Elke telegeleide drone is kwetsbaar
    voor dat soort aanvallen.
  • 4:51 - 4:53
    Dat betekent dat drones
  • 4:53 - 4:56
    meer beslissingen zullen moeten nemen.
  • 4:56 - 4:59
    Ze zullen het doel van hun missie kennen
  • 4:59 - 5:04
    en reageren op nieuwe omstandigheden
    zonder menselijke hulp.
  • 5:04 - 5:07
    Ze zullen externe radiosignalen negeren
  • 5:07 - 5:09
    en er zelf niet veel uitzenden.
  • 5:09 - 5:11
    Dat brengt ons tot de derde
  • 5:11 - 5:15
    en krachtigste stimulans
    om beslissingen te verplaatsen
  • 5:15 - 5:18
    van de mens naar de wapens:
  • 5:18 - 5:22
    plausibele ontkenbaarheid.
  • 5:22 - 5:25
    We leven in een globale economie.
  • 5:25 - 5:29
    Er is hoogtechnologische productie
    op de meeste continenten.
  • 5:29 - 5:32
    Cyberspionage moffelt
    geavanceerde ontwerpen weg
  • 5:32 - 5:34
    in onbekende onderdelen.
  • 5:34 - 5:36
    In die omgeving is het heel waarschijnlijk
  • 5:36 - 5:40
    dat succesvolle droneontwerpen
    zullen worden gemaakt in fabrieken van onderaannemers
  • 5:40 - 5:43
    en vandaar richting grijze markt gaan.
  • 5:43 - 5:45
    In die situatie zal het,
    als je het wrak
  • 5:45 - 5:48
    van een zelfmoorddrone doorzoekt,
    heel moeilijk te zeggen zijn
  • 5:48 - 5:52
    wie dat wapen heeft gestuurd.
  • 5:52 - 5:55
    Daardoor wordt de mogelijkheid
    van anoniem oorlogvoeren heel reëel.
  • 5:55 - 5:58
    Daardoor wordt de mogelijkheid
    van anoniem oorlogvoeren heel reëel.
  • 5:58 - 6:01
    Dat zou het geopolitieke evenwicht
    op zijn kop kunnen zetten,
  • 6:01 - 6:04
    waardoor het voor een natie moeilijk wordt
    om zijn vuurkracht in te zetten
  • 6:04 - 6:07
    tegen een aanvaller.
    Dat zou de balans kunnen doen overhellen
  • 6:07 - 6:11
    van verdediging naar aanval
    in de 21e eeuw.
  • 6:11 - 6:14
    Het zou van militaire actie
    een haalbare kaart maken,
  • 6:14 - 6:16
    niet alleen voor kleine landen,
  • 6:16 - 6:19
    maar voor criminele organisaties,
    privébedrijven,
  • 6:19 - 6:21
    zelfs machtige individuen.
  • 6:21 - 6:25
    Het zou een landschap
    van rivaliserende krijgsheren creëren
  • 6:25 - 6:28
    die de rechtsstaat en de burgerlijke
    maatschappij ondermijnen.
  • 6:28 - 6:32
    Als verantwoordelijkheid en transparantie
  • 6:32 - 6:34
    twee hoekstenen zijn van de representatieve democratie,
  • 6:34 - 6:39
    dan kunnen autonome robotwapens
    ze beide ondermijnen.
  • 6:39 - 6:40
    Misschien denk je
  • 6:40 - 6:42
    dat burgers van hoogtechnologische naties
  • 6:42 - 6:45
    voordeel hebben bij elke robotoorlog,
  • 6:45 - 6:49
    dat burgers van die naties
    minder kwetsbaar zouden zijn,
  • 6:49 - 6:53
    vooral tegen ontwikkelingslanden.
  • 6:53 - 6:57
    Volgens mij is het net andersom.
  • 6:57 - 6:59
    Ik denk dat burgers
    van hoogtechnologische maatschappijen
  • 6:59 - 7:03
    kwetsbaarder zijn voor robotwapens.
  • 7:03 - 7:07
    Dat ligt aan één enkel ding: gegevens.
  • 7:07 - 7:11
    Gegevens zijn de motor van hightech-maatschappijen.
  • 7:11 - 7:14
    Gsm-geolocatie, metagegevens van telecommunicatie,
  • 7:14 - 7:17
    sociale media, email, sms, financiële transactiegegevens,
  • 7:17 - 7:21
    transportgegegeven, een overvloed
    aan realtime-gegevens
  • 7:21 - 7:24
    over de bewegingen en sociale interactie van mensen.
  • 7:24 - 7:28
    Kortom, we zijn zichtbaarder voor machines
  • 7:28 - 7:30
    dan wie dan ook in de geschiedenis.
  • 7:30 - 7:36
    Dat is perfect voor een autonoom wapen
    dat een doel in het vizier moet krijgen.
  • 7:36 - 7:37
    Wat je hier ziet,
  • 7:37 - 7:41
    is een linkanalyse van een sociale groep.
  • 7:41 - 7:44
    Links wijzen op sociale verbondenheid
    tussen individuen.
  • 7:44 - 7:47
    Dit soort kaarten kan automatisch gemaakt worden
  • 7:47 - 7:52
    op basis van het spoor van gegevens
    dat moderne mensen achterlaten.
  • 7:52 - 7:54
    Ze worden meestal gebruikt
    om goederen en diensten te verkopen
  • 7:54 - 7:59
    aan doelgroepen, maar het is
    een tweesnijdende technologie,
  • 7:59 - 8:02
    als 'doelen' in een andere context worden gebruikt.
  • 8:02 - 8:05
    Je ziet dat bepaalde individuen gemarkeerd zijn.
  • 8:05 - 8:08
    Dit zijn de knooppunten van de sociale netwerken:
  • 8:08 - 8:12
    organisatoren, opiniemakers, leiders.
  • 8:12 - 8:14
    Deze mensen kan je automatisch identificeren
  • 8:14 - 8:17
    op basis van hun communicatiepatroon.
  • 8:17 - 8:19
    Als marketeer kan je je op hen richten
  • 8:19 - 8:21
    met productstalen, als je je merk wil verspreiden
  • 8:21 - 8:24
    in hun sociale groep.
  • 8:24 - 8:26
    Maar als je een repressieve overheid bent,
  • 8:26 - 8:31
    op zoek naar politieke vijanden,
    kan je ze ook verwijderen,
  • 8:31 - 8:34
    uitschakelen, hun sociale groep verstoren.
  • 8:34 - 8:37
    De achterblijvers verliezen sociale samenhang
  • 8:37 - 8:39
    en organisatie.
  • 8:39 - 8:43
    In een wereld van goedkope, uitdijende robotwapens,
  • 8:43 - 8:45
    zouden grenzen heel weinig bescherming bieden
  • 8:45 - 8:47
    aan de critici van verre overheden
  • 8:47 - 8:51
    of transnationale criminele organisaties.
  • 8:51 - 8:55
    Volksbewegingen die op verandering aansturen,
  • 8:55 - 8:58
    zouden vroeg ontdekt kunnen worden
    en hun leiders uitgeschakeld
  • 8:58 - 9:01
    nog voor hun ideeën kritische massa bereiken.
  • 9:01 - 9:04
    Ideeën die kritische massa bereiken,
  • 9:04 - 9:08
    daar draait elk politiek activisme om in een democratie.
  • 9:08 - 9:12
    Anonieme dodelijke wapens
    kunnen van dodelijke actie
  • 9:12 - 9:15
    een gemakkelijke keuze maken
    voor allerlei concurrerende belangen.
  • 9:15 - 9:19
    Dat zou de vrije meningsuiting belemmeren
  • 9:19 - 9:24
    en politieke actie van het volk,
    het hart van de democratie.
  • 9:24 - 9:27
    Daarom hebben we nood aan
    een internationaal verdrag
  • 9:27 - 9:31
    over robotwapens, en meer bepaald
    een wereldwijd verbod
  • 9:31 - 9:35
    op het ontwikkelen en inzetten
    van killerrobots.
  • 9:35 - 9:38
    We hebben al internationale verdragen
  • 9:38 - 9:41
    over nucleaire en biologische wapens.
    Die zijn niet perfect,
  • 9:41 - 9:44
    maar ze hebben wel grotendeels gewerkt.
  • 9:44 - 9:47
    Robotwapens zouden even gevaarlijk
    kunnen zijn,
  • 9:47 - 9:51
    want ze zullen bijna zeker worden ingezet
  • 9:51 - 9:56
    en ze zouden onze democratische instellingen ondermijnen.
  • 9:56 - 9:59
    In november 2012 verplichtte
    het Ministerie van Defensie van de VS
  • 9:59 - 10:02
    In november 2012 verplichtte
    het Ministerie van Defensie van de VS
  • 10:02 - 10:06
    de aanwezigheid van een mens
    bij alle beslissingen over leven en dood.
  • 10:06 - 10:11
    Daardoor werden automatische wapens
    tijdelijk effectief verboden in het leger van de VS,
  • 10:11 - 10:15
    maar die richtlijn moet permanent worden.
  • 10:15 - 10:19
    Dat zou de voorbereiding kunnen zijn
    van wereldwijde actie.
  • 10:19 - 10:23
    We hebben een internationaal wettelijk kader nodig
  • 10:23 - 10:25
    voor robotwapens,
  • 10:25 - 10:28
    en wel meteen, voor er een verwoestende aanval is
  • 10:28 - 10:31
    of een terroristische aanslag waardoor landen
  • 10:31 - 10:33
    snel-snel deze wapens inzetten
    zonder over de gevolgen na te denken.
  • 10:33 - 10:37
    snel-snel deze wapens inzetten
    zonder over de gevolgen na te denken.
  • 10:37 - 10:40
    Automatische robotwapens concentreren teveel macht
  • 10:40 - 10:46
    in te weinig handen, en ze zouden de democratie zelf
    in gevaar brengen.
  • 10:46 - 10:49
    Begrijp me niet verkeerd,
    ik denk dat er massa's
  • 10:49 - 10:51
    toepassingen zijn voor onbewapende civiele drones:
  • 10:51 - 10:55
    milieubewaking, reddingsoperaties, logistiek.
  • 10:55 - 10:58
    Als we een internationaal verdrag op robotwapens hebben,
  • 10:58 - 11:02
    hoe kunnen we dan de voordelen van autonome drones
  • 11:02 - 11:04
    en voertuigen combineren met bescherming
  • 11:04 - 11:08
    tegen illegale robotwapens?
  • 11:08 - 11:13
    Ik denk dat het geheim transparantie zal zijn.
  • 11:13 - 11:16
    Geen enkele robot mag zich aan privacy verwachten
  • 11:16 - 11:20
    op een openbare plaats.
  • 11:20 - 11:25
    (Applaus)
  • 11:25 - 11:27
    In elke robot en drone zou een cryptografisch ondertekend
    identiteitsbewijs moeten gegraveerd zijn
  • 11:27 - 11:30
    In elke robot en drone zou een cryptografisch ondertekend
    identiteitsbewijs moeten gegraveerd zijn
  • 11:30 - 11:33
    dat kan worden gebruikt om zijn beweging
    door publieke ruimtes te volgen.
  • 11:33 - 11:36
    We hebben nummerplaten op auto's
    en staartnummers op vliegtuigen.
  • 11:36 - 11:38
    Dit is niet anders.
  • 11:38 - 11:40
    Elke burger zou een app moeten kunnen downloaden
  • 11:40 - 11:43
    die de populatie van drones en autonome voertuigen toont
  • 11:43 - 11:45
    die zich door de publieke ruimte om hem heen beweegt,
  • 11:45 - 11:48
    nu meteen en in het verleden.
  • 11:48 - 11:52
    Burgerleiders zouden sensoren
    en burgerlijke drones moeten inzetten
  • 11:52 - 11:54
    om schurkendrones te detecteren.
  • 11:54 - 11:57
    In plaats van eigen killerdrones te sturen
    om ze af te maken,
  • 11:57 - 12:00
    zouden ze mensen
    op hun aanwezigheid moeten wijzen.
  • 12:00 - 12:03
    In bepaalde strenge veiligheidszones
  • 12:03 - 12:05
    zouden burgerlijke drones ze kunnen strikken
  • 12:05 - 12:07
    en wegslepen naar een ontmijningsinstallatie.
  • 12:07 - 12:11
    Maar dit is veeleer een immuunsysteem
  • 12:11 - 12:12
    dan een wapensysteem.
  • 12:12 - 12:14
    Het zou ons toelaten om
  • 12:14 - 12:16
    autonome voertuigen en drones te gebruiken
  • 12:16 - 12:21
    zonder onze open, burgerlijke maatschappij op te geven.
  • 12:21 - 12:24
    We moeten de inzet en ontwikkeling
  • 12:24 - 12:26
    van killerrobots verbieden.
  • 12:26 - 12:30
    Laten we niet zwichten voor de verleiding
    om oorlog te automatiseren.
  • 12:30 - 12:33
    Autocratische regeringen
    en criminele organisaties
  • 12:33 - 12:36
    zullen dat zeker doen.
    Laten we ze niet volgen.
  • 12:36 - 12:38
    Autonome robotwapens
  • 12:38 - 12:40
    zouden te veel macht concentreren
  • 12:40 - 12:43
    in te weinig onzichtbare handen.
  • 12:43 - 12:46
    Dat zou de representatieve democratie ondermijnen.
  • 12:46 - 12:49
    Laten we ervoor zorgen dat,
    tenminste voor democratieën,
  • 12:49 - 12:51
    killerrobots fictie blijven.
  • 12:51 - 12:52
    Dankuwel.
  • 12:52 - 12:57
    (Applaus)
  • 12:57 - 13:02
    Dankuwel. (Applaus)
Title:
Daniel Suarez: Robots mogen niet beslissen over leven en dood
Speaker:
Daniel Suarez
Description:

Als schrijver verzint Daniel Suarez dystopische toekomstverhalen. Maar op het TED-podium doorloopt hij met ons een echt scenario waar we allemaal meer over moeten weten: het risico op autonome oorlogsrobots. Geavanceerde drones, automatische wapens en spionagetools op basis van artificiële intelligentie zouden volgens hem de mens de beslissing om oorlog te voeren, uit handen kunnen nemen.

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
13:20

Dutch subtitles

Revisions