Return to Video

Waarom we een emotionele band met robots hebben

  • 0:01 - 0:05
    Op een dag, zo'n tien jaar geleden,
    vroeg ik aan een vriend
  • 0:05 - 0:08
    of hij een babydinosaurusrobot
    ondersteboven wilde houden.
  • 0:10 - 0:13
    Het was een speelgoedbeest,
    een Pleo, dat ik besteld had,
  • 0:13 - 0:18
    en ik was er erg enthousiast over
    omdat ik altijd van robots gehouden heb.
  • 0:18 - 0:20
    En deze had hele gave
    technologische functies.
  • 0:20 - 0:24
    Hij had motortjes, aanraaksensoren
    en een infraroodcamera.
  • 0:24 - 0:30
    Hij had ook een kantelsensor,
    zodat hij wist welke kant boven was.
  • 0:30 - 0:34
    En als je hem ondersteboven hield,
    begon hij te huilen.
  • 0:35 - 0:38
    Ik vond dit erg gaaf
    en liet hem trots aan mijn vriend zien.
  • 0:38 - 0:41
    "Hou hem eens bij zijn staart vast",
    zei ik, "en kijk wat er gebeurt."
  • 0:43 - 0:47
    Dus we staan te kijken
    naar de verrichtingen van deze robot,
  • 0:47 - 0:49
    die spartelt en huilt.
  • 0:51 - 0:56
    Na een paar seconden
    ga ik me een beetje ongemakkelijk voelen
  • 0:56 - 1:02
    en zeg ik: "Oké, nu is het wel genoeg.
    Zet hem maar weer neer."
  • 1:02 - 1:05
    Daarna aaide ik de robot
    om hem te laten ophouden met huilen.
  • 1:07 - 1:09
    Dat was best een vreemde ervaring voor me.
  • 1:10 - 1:15
    Ten eerste was ik destijds
    niet zo'n moederlijk type.
  • 1:15 - 1:17
    Al ben ik negen maanden geleden
    zelf moeder geworden
  • 1:17 - 1:21
    en heb ik geleerd dat baby's ook spartelen
    als je ze ondersteboven houdt.
  • 1:21 - 1:22
    (Gelach)
  • 1:23 - 1:25
    Maar mijn reactie op deze robot
    was ook interessant,
  • 1:25 - 1:30
    omdat ik precies wist
    hoe dit apparaat werkte
  • 1:30 - 1:33
    en er toch aardig tegen wilde zijn.
  • 1:34 - 1:40
    Dat intrigeerde mij en daar ben ik
    de laatste tien jaar mee bezig geweest.
  • 1:41 - 1:43
    Waarom troostte ik die robot?
  • 1:44 - 1:48
    Ik ontdekte dat de manier
    waarop ik dit apparaat behandelde
  • 1:48 - 1:52
    meer om het lijf had dan een enkel
    ongemakkelijk moment in mijn woonkamer,
  • 1:52 - 1:57
    en dat in een wereld waar robots
    steeds meer een deel van ons leven worden,
  • 1:57 - 2:00
    zo'n instinct daadwerkelijk
    consequenties zou kunnen hebben,
  • 2:01 - 2:05
    want het eerste waar ik achter kwam,
    was dat ik niet de enige ben.
  • 2:07 - 2:12
    In 2007 schreef de Washington Post
    dat het Amerikaanse leger
  • 2:12 - 2:15
    een robot aan het testen was
    die landmijnen onschadelijk maakte.
  • 2:15 - 2:21
    Het was een soort wandelende tak
    die over een mijnenveld liep
  • 2:21 - 2:24
    en als hij op een mijn trapte,
    werd een van zijn poten opgeblazen
  • 2:24 - 2:27
    en liep hij verder op één poot minder
    om nog meer mijnen op te blazen.
  • 2:27 - 2:33
    De kolonel die deze testoefening leidde,
    blies haar uiteindelijk helemaal af,
  • 2:33 - 2:36
    omdat hij het onmenselijk vond
  • 2:36 - 2:40
    om toe te kijken hoe deze robot
    zich over het mijnenveld sleepte.
  • 2:43 - 2:47
    Hoe zou het kunnen dat een
    door de wol geverfde legerofficier
  • 2:47 - 2:51
    en iemand zoals ik
    op deze manier op robots reageren?
  • 2:52 - 2:55
    Natuurlijk hebben science fiction
    en popcultuur ons ertoe aangezet
  • 2:55 - 2:57
    deze dingen te verpersoonlijken,
  • 2:57 - 3:00
    maar het gaat dieper.
  • 3:00 - 3:06
    Het blijkt dat het in onze natuur zit
    om intenties en leven toe te schrijven
  • 3:06 - 3:10
    aan alles wat in onze omgeving
    uit zichzelf lijkt te bewegen.
  • 3:11 - 3:15
    Dus we zullen allerlei soorten robots
    behandelen alsof het levende wezens zijn.
  • 3:15 - 3:17
    Robots die mijnen ontmantelen,
    krijgen een naam.
  • 3:17 - 3:19
    Ze krijgen eremedailles.
  • 3:19 - 3:22
    Er zijn begrafenissen met saluutschoten
    voor hen georganiseerd.
  • 3:22 - 3:26
    Onderzoek wijst uit dat we dit zelfs
    met simpele huishoudrobots doen,
  • 3:26 - 3:28
    zoals de Roomba-stofzuiger.
  • 3:28 - 3:30
    (Gelach)
  • 3:30 - 3:33
    Dat is niet meer dan een schijf
    die rondrijdt en je vloer schoonmaakt,
  • 3:33 - 3:37
    maar het feit dat hij zelfstandig beweegt
    zorgt ervoor dat mensen hem een naam geven
  • 3:37 - 3:41
    en het rot voor hem vinden
    als hij onder de bank vast komt te zitten.
  • 3:41 - 3:42
    (Gelach)
  • 3:42 - 3:46
    We kunnen robots zo ontwerpen
    dat ze juist deze reactie uitlokken,
  • 3:46 - 3:49
    door ze uit te rusten
    met ogen en gezichten of bewegingen
  • 3:49 - 3:54
    die mensen automatisch en onbewust
    associëren met gemoedstoestanden.
  • 3:55 - 3:57
    Er is een hele onderzoekstak,
    mens-robotinteractie genaamd,
  • 3:57 - 4:00
    die laat zien hoe goed dit werkt.
  • 4:00 - 4:03
    Onderzoekers van de Stanford University
    ontdekten bijvoorbeeld
  • 4:03 - 4:05
    dat mensen zich ongemakkelijk voelen
  • 4:05 - 4:07
    als je hen vraagt de edele delen
    van een robot aan te raken.
  • 4:07 - 4:09
    (Gelach)
  • 4:10 - 4:12
    Door deze en veel andere onderzoeken
  • 4:12 - 4:14
    weten we dat mensen reageren
  • 4:14 - 4:18
    op signalen die ze krijgen
    van deze levensechte apparaten,
  • 4:18 - 4:20
    zelfs als ze weten dat ze niet echt zijn.
  • 4:22 - 4:26
    We gaan naar een wereld toe
    waarin overal robots zijn.
  • 4:26 - 4:29
    Robottechnologie begeeft zich
    buiten de fabrieksmuren.
  • 4:29 - 4:32
    Het komt naar de werkvloer en huishoudens.
  • 4:32 - 4:38
    Als deze apparaten, die kunnen voelen,
    zelfstandig beslissingen nemen en leren,
  • 4:38 - 4:41
    tot deze gedeelde ruimtes doordringen,
  • 4:41 - 4:43
    denk ik dat we dat het beste
    kunnen vergelijken
  • 4:43 - 4:45
    met de relatie die we met dieren hebben.
  • 4:46 - 4:49
    Duizenden jaren geleden
    begonnen we dieren te temmen
  • 4:49 - 4:53
    en hen te leren voor ons te werken,
    te vechten en ons gezelschap te houden.
  • 4:54 - 4:58
    Sommige dieren hebben we behandeld
    als gereedschap of als product;
  • 4:58 - 5:01
    andere hebben we vriendelijk behandeld
  • 5:01 - 5:04
    en als huisdier een plaats gegeven
    in onze gemeenschap.
  • 5:04 - 5:08
    Het is denkbaar dat we robots
    op dezelfde manier zullen integreren.
  • 5:09 - 5:13
    Natuurlijk, dieren zijn levende wezens.
  • 5:13 - 5:14
    Robots zijn dat niet.
  • 5:15 - 5:18
    Ik kan jullie vertellen,
    door mijn werk met robotici,
  • 5:18 - 5:22
    dat we nog lang geen robots
    kunnen ontwikkelen die iets kunnen voelen.
  • 5:23 - 5:25
    Maar wij hebben wel gevoelens
    ten aanzien van hén
  • 5:26 - 5:27
    en dat is belangrijk,
  • 5:27 - 5:31
    want als we robots willen toelaten
    in deze gezamenlijke ruimtes,
  • 5:31 - 5:35
    dan moeten we begrijpen dat we er anders
    mee omgaan dan met andere apparaten
  • 5:35 - 5:37
    en dat dit soms,
  • 5:37 - 5:42
    zoals bij de soldaat die zich emotioneel
    hecht aan de robot waarmee hij werkt,
  • 5:43 - 5:46
    inefficiënt kan zijn
    of zelfs ronduit gevaarlijk.
  • 5:47 - 5:49
    In andere gevallen
    kan het juist handig zijn
  • 5:49 - 5:51
    om deze emotionele band
    met robots te versterken.
  • 5:52 - 5:54
    We kennen al verschillende
    praktische toepassingen,
  • 5:55 - 5:57
    zoals robots die werken
    met autistische kinderen
  • 5:57 - 6:01
    en hun aandacht vasthouden op manieren
    die we nog niet eerder gezien hebben,
  • 6:01 - 6:05
    of robots die samen met leraren
    kinderen helpen te leren, met resultaat.
  • 6:05 - 6:07
    En het werkt niet alleen bij kinderen.
  • 6:08 - 6:11
    Vroege studies laten zien dat robots
    artsen en patiënten kunnen helpen
  • 6:11 - 6:13
    op het gebied van zorg.
  • 6:14 - 6:15
    Dit is de PARO-babyzeehondrobot.
  • 6:15 - 6:19
    Hij wordt gebruikt in verzorgingshuizen
    en bij dementiepatiënten.
  • 6:19 - 6:20
    Hij is er al een tijdje.
  • 6:20 - 6:24
    En ik herinner me, jaren geleden,
    toen ik op een feestje was
  • 6:24 - 6:26
    en ik iemand vertelde over deze robot,
  • 6:26 - 6:28
    haar reactie was:
  • 6:28 - 6:32
    "Oh, mijn god. Dat is verschrikkelijk.
  • 6:33 - 6:37
    Niet te geloven dat we mensen robots geven
    in plaats van menselijke zorg."
  • 6:39 - 6:40
    Deze reactie komt vaak voor
  • 6:40 - 6:43
    en ik denk inderdaad
    dat hij helemaal terecht is,
  • 6:43 - 6:45
    want dat zou verschrikkelijk zijn.
  • 6:46 - 6:49
    Maar dat is niet
    wat de robot hier vervangt.
  • 6:49 - 6:52
    Deze robot vervangt diertherapie
  • 6:52 - 6:56
    als we geen echte dieren
    kunnen gebruiken maar robots wel,
  • 6:56 - 7:02
    omdat we die consequent
    meer als dier dan als apparaat behandelen.
  • 7:03 - 7:06
    Als we deze emotionele band
    met robots erkennen,
  • 7:06 - 7:08
    kan ons dat ook helpen
    uitdagingen het hoofd te bieden
  • 7:08 - 7:12
    als deze apparaten hun intrede doen
    in onze privésfeer.
  • 7:12 - 7:16
    Is het bijvoorbeeld acceptabel
    als de teddybeerrobot van je kind
  • 7:16 - 7:18
    vertrouwelijke gesprekken opneemt?
  • 7:18 - 7:22
    Is het acceptabel als je seksrobot
    onweerstaanbare in-app aankopen aanbiedt?
  • 7:22 - 7:23
    (Gelach)
  • 7:23 - 7:26
    Want de combinatie
    van robots en kapitalisme
  • 7:26 - 7:30
    roept vragen op over
    consumentenbescherming en privacy.
  • 7:31 - 7:32
    En dat zijn niet de enige redenen
  • 7:32 - 7:35
    waarom onze opstelling tegenover
    deze apparaten van belang kan zijn.
  • 7:37 - 7:42
    Een paar jaar na mijn eerste ervaring
    met die babydinosaurusrobot
  • 7:42 - 7:45
    gaf ik een workshop
    met mijn vriend Hannes Gassert.
  • 7:45 - 7:48
    We gaven vijf van deze
    babydinosaurusrobots
  • 7:48 - 7:50
    aan vijf groepjes mensen.
  • 7:50 - 7:52
    Ze moesten er een naam voor verzinnen
  • 7:52 - 7:56
    en ze mochten ermee spelen
    en ermee aanrommelen, zo'n uur lang.
  • 7:57 - 7:59
    Toen haalden we
    een hamer en bijl tevoorschijn
  • 7:59 - 8:01
    en vroegen hen de robots
    te martelen en vermoorden.
  • 8:01 - 8:04
    (Gelach)
  • 8:05 - 8:08
    Dit leek iets gevoeliger te liggen
    dan we gedacht hadden,
  • 8:08 - 8:11
    want geen van de deelnemers
    wilde ook maar een tik uitdelen
  • 8:11 - 8:13
    aan deze babydinosaurusrobots,
  • 8:13 - 8:18
    dus moesten we improviseren
    en op een gegeven moment zeiden we:
  • 8:18 - 8:23
    "Jullie kunnen je eigen robot redden
    als jullie die van een ander team slopen."
  • 8:23 - 8:24
    (Gelach)
  • 8:25 - 8:27
    Zelfs dat werkte niet. Ze konden het niet.
  • 8:27 - 8:28
    Uiteindelijk zeiden we:
  • 8:28 - 8:30
    "We gaan alle robots vernietigen
  • 8:30 - 8:33
    tenzij iemand er één
    met een bijl bewerkt."
  • 8:34 - 8:37
    Eén man stond op en pakte de bijl,
  • 8:37 - 8:40
    en iedereen kromp ineen
    toen hij de bijl liet neerkomen
  • 8:40 - 8:42
    op de nek van de robot;
  • 8:42 - 8:48
    in de kamer viel een ogenblik stilte,
    half geamuseerd, half ernstig,
  • 8:48 - 8:50
    vanwege deze gevallen robot.
  • 8:50 - 8:51
    (Gelach)
  • 8:51 - 8:55
    Dat was een heel interessante ervaring.
  • 8:55 - 8:57
    Het was natuurlijk
    geen gecontroleerd onderzoek,
  • 8:57 - 9:00
    maar het zorgde ervoor dat ik
    meer onderzoek ging doen aan het MIT
  • 9:00 - 9:03
    met Palash Nandy en Cynthia Breazeal.
  • 9:03 - 9:06
    We lieten mensen naar het lab komen
    en lieten hen deze HEXBUGs slopen;
  • 9:06 - 9:09
    ze bewegen zich als insecten,
    op een levensechte manier.
  • 9:09 - 9:13
    In plaats van iets schattigs te kiezen
    waar mensen zich tot aangetrokken voelen,
  • 9:13 - 9:15
    kozen we iets simpelers
  • 9:15 - 9:18
    en we ontdekten dat mensen
    die veel inlevingsvermogen hebben
  • 9:18 - 9:21
    langer aarzelden om
    op de HEXBUGs in te slaan.
  • 9:22 - 9:23
    Dit is maar een klein onderzoek,
  • 9:23 - 9:26
    maar het maakt deel uit
    van een grote groep onderzoeken
  • 9:26 - 9:29
    die beginnen uit te wijzen
    dat er een verband zou kunnen zijn
  • 9:29 - 9:34
    tussen iemands inlevingsvermogen
    en zijn houding ten aanzien van robots.
  • 9:34 - 9:37
    Mijn vraag voor de toekomst
    van mens-robotinteractie is niet:
  • 9:37 - 9:40
    'Kunnen we ons inleven in robots?'
  • 9:41 - 9:44
    maar: 'Hebben robots invloed
    op ons inlevingsvermogen?'
  • 9:46 - 9:48
    Moet je bijvoorbeeld verhinderen
  • 9:48 - 9:50
    dat je kind een robothond schopt,
  • 9:51 - 9:54
    niet alleen omdat je nu eenmaal
    tegen spullen aan trapt,
  • 9:54 - 9:58
    maar omdat het kind misschien anders
    ook sneller een echte hond zou schoppen?
  • 9:59 - 10:01
    Nogmaals, het gaat hier
    niet alleen over kinderen.
  • 10:02 - 10:04
    Hetzelfde speelt bij
    gewelddadige videogames,
  • 10:04 - 10:06
    maar nu is het op totaal onbekend terrein,
  • 10:06 - 10:12
    want op lichamelijke prikkels reageren we
    veel sterker dan op schermbeelden.
  • 10:14 - 10:16
    Als we ons gewelddadig opstellen
    naar robots toe,
  • 10:16 - 10:19
    vooral naar robots die ontworpen zijn
    om levensecht te lijken,
  • 10:19 - 10:23
    is dat dan een gezonde uitlaatklep
    voor onze gewelddadige gevoelens
  • 10:23 - 10:26
    of trainen we dan juist ons vermogen
    om ons wreed te gedragen?
  • 10:28 - 10:29
    We weten het niet ...
  • 10:31 - 10:35
    Het antwoord op deze vraag
    kan menselijk gedrag beïnvloeden,
  • 10:35 - 10:37
    kan sociale normen beïnvloeden,
  • 10:37 - 10:41
    kan leiden tot regels
    over wat we wel en niet kunnen doen
  • 10:41 - 10:42
    met bepaalde robots,
  • 10:42 - 10:45
    net zoals er wetten zijn
    omtrent dierenmishandeling.
  • 10:45 - 10:48
    Want zelfs als robots geen gevoel hebben,
  • 10:48 - 10:52
    dan nog kan de manier waarop we ons
    tegenover hen opstellen, belangrijk zijn.
  • 10:53 - 10:56
    Of we nu wel of niet
    de regels gaan veranderen,
  • 10:57 - 11:00
    robots zouden ons kunnen helpen
    onszelf beter te gaan begrijpen.
  • 11:02 - 11:05
    Het meeste van wat ik
    de laatste tien jaar heb geleerd,
  • 11:05 - 11:07
    ging helemaal niet over technologie.
  • 11:07 - 11:10
    Het ging over psychologie en empathie
  • 11:10 - 11:12
    en hoe we met elkaar omgaan.
  • 11:14 - 11:16
    Want als een kind lief doet
    tegen een Roomba,
  • 11:17 - 11:21
    als een soldaat een robot
    op het slagveld probeert te redden,
  • 11:21 - 11:25
    of als een groep mensen weigert
    om een babydinosaurusrobot kwaad te doen,
  • 11:26 - 11:29
    dan zijn deze robots niet alleen
    motoren en tandwielen en algoritmes.
  • 11:31 - 11:33
    Dan zijn ze reflecties
    van onze eigen menselijkheid.
  • 11:34 - 11:35
    Dank jullie wel.
  • 11:35 - 11:38
    (Applaus)
Title:
Waarom we een emotionele band met robots hebben
Speaker:
Kate Darling
Description:

We zijn nog lang niet zover dat we robots kunnen maken die emoties hebben, maar we hebben al wel emoties naar hen toe, zegt robot-ethicus Kate Darling, en dat kan consequenties hebben. Kom meer te weten over de manier waarop we biologisch geprogrammeerd zijn om intenties en gevoelens aan machines toe te schrijven -- en hoe ons dat kan helpen onszelf beter te begrijpen.

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
11:51

Dutch subtitles

Revisions