Return to Video

Kan vi utveckla artificiell intelligens utan att tappa kontrollen över den?

  • 0:01 - 0:03
    Jag ska prata om en intuitionsbrist
  • 0:03 - 0:05
    som många av oss lider av.
  • 0:05 - 0:09
    Det är ett misslyckande att
    upptäcka en viss typ av fara.
  • 0:09 - 0:11
    Jag ska beskriva ett scenario
  • 0:11 - 0:14
    som jag tycker är både skrämmande
  • 0:14 - 0:16
    och förmodligen kommer att ske,
  • 0:17 - 0:18
    och det är en dålig kombination,
  • 0:19 - 0:20
    som det visar sig.
  • 0:20 - 0:23
    Istället för att bli rädda,
    kommer många tycka
  • 0:23 - 0:25
    att det jag pratar om är ganska häftigt.
  • 0:25 - 0:28
    Jag ska beskriva hur de framsteg vi gör
  • 0:28 - 0:30
    inom artificiell intelligens
  • 0:30 - 0:32
    till slut kan förgöra oss.
  • 0:32 - 0:35
    Faktum är, jag tror det är svårt
    att se att de inte gör det
  • 0:35 - 0:37
    eller får oss att förgöra oss själva.
  • 0:37 - 0:39
    Och om du tänker det minsta likt mig,
  • 0:39 - 0:42
    tycker du att det här är
    spännande att tänka på.
  • 0:42 - 0:45
    Den inställningen är en del av problemet.
  • 0:45 - 0:47
    OK? Den inställningen borde oroa dig.
  • 0:48 - 0:51
    Om jag i det här föredraget
    skulle övertyga dig om
  • 0:51 - 0:54
    att vi kan drabbas av en
    global svältkatastrof,
  • 0:54 - 0:57
    på grund av klimatförändringar
    eller någon annan katastrof,
  • 0:57 - 1:01
    och att dina barnbarn,
    eller deras barnbarn,
  • 1:01 - 1:02
    sannolikt skulle leva så här,
  • 1:03 - 1:04
    då skulle du inte tänka,
  • 1:05 - 1:07
    "Intressant.
  • 1:07 - 1:08
    Jag gillar föredraget."
  • 1:09 - 1:11
    Svält är inte roligt.
  • 1:12 - 1:15
    Död i science fiction,
    å andra sidan, är roligt,
  • 1:15 - 1:19
    och en av de saker som för närvarande
    oroar mig mest i utvecklingen av AI
  • 1:19 - 1:23
    är att vi tycks oförmögna att förespråka
    ett passande emotionellt gensvar
  • 1:23 - 1:26
    inför de risker som ligger framför oss.
  • 1:26 - 1:29
    Jag kan inte förespråka ett gensvar,
    och jag håller det här talet.
  • 1:30 - 1:33
    Det är som att vi står framför två dörrar.
  • 1:33 - 1:34
    Väljer vi dörr ett,
  • 1:34 - 1:37
    slutar vi göra framsteg i utvecklandet
    av intelligenta maskiner.
  • 1:37 - 1:41
    Av någon anledning blir vår
    hård- och mjukvara inte bättre.
  • 1:41 - 1:44
    Fundera lite på varför
    det skulle kunna hända.
  • 1:45 - 1:49
    Jag menar, givet värdet av
    intelligens och automation,
  • 1:49 - 1:52
    kommer vi fortsätta utveckla
    tekniken, om vi kan.
  • 1:53 - 1:55
    Vad skulle kunna stoppa oss?
  • 1:56 - 1:58
    Ett fullskaligt kärnvapenkrig?
  • 1:59 - 2:01
    En global pandemi?
  • 2:02 - 2:04
    Ett asteroidnedslag?
  • 2:06 - 2:08
    Justin Bieber blir USAs president?
  • 2:08 - 2:11
    (Skratt)
  • 2:13 - 2:17
    Poängen är att, något måste förgöra
    civilisationen så som vi känner den.
  • 2:17 - 2:22
    Ni måste föreställa er
    hur illa det måste vara
  • 2:22 - 2:25
    för att hindra oss att göra
    framsteg inom tekniken
  • 2:25 - 2:26
    permanent,
  • 2:26 - 2:28
    generation efter generation.
  • 2:28 - 2:30
    Nästan per definition, är detta det värsta
  • 2:30 - 2:32
    som någonsin inträffat genom historien.
  • 2:33 - 2:34
    Så det enda alternativet,
  • 2:34 - 2:36
    är det som finns bakom den andra dörren,
  • 2:36 - 2:39
    att vi fortsätter att utveckla
    våra intelligenta maskiner
  • 2:39 - 2:41
    år efter år efter år.
  • 2:42 - 2:45
    Vid en viss punkt, kommer vi att bygga
    maskiner som är smartare än vi,
  • 2:46 - 2:49
    och när vi väl har dessa smarta maskiner,
  • 2:49 - 2:51
    kommer de att förbättra sig själva.
  • 2:51 - 2:53
    Då riskerar vi
    det matematikern IJ Good kallade,
  • 2:53 - 2:55
    en "intelligensexplosion",
  • 2:55 - 2:57
    dvs att processen går oss ur händerna.
  • 2:58 - 3:01
    Detta skojas ofta bort, som här,
  • 3:01 - 3:04
    som en rädsla för att en
    armé av ondsinta robotar
  • 3:04 - 3:05
    kommer att attackera oss.
  • 3:05 - 3:08
    Men det är inte det troligaste scenariot.
  • 3:08 - 3:13
    Våra maskiner kommer inte
    att bli spontant illvilliga.
  • 3:13 - 3:16
    Bekymret är att vi kommer
    att bygga maskiner
  • 3:16 - 3:18
    som är så mycket mer kompetenta än vi
  • 3:18 - 3:22
    att den minsta lilla skillnad
    mellan deras mål och våra
  • 3:22 - 3:23
    skulle kunna förgöra oss.
  • 3:24 - 3:26
    Tänk bara på vår inställning till myror.
  • 3:27 - 3:28
    Vi hatar inte dem.
  • 3:28 - 3:30
    Vi skadar inte dem medvetet.
  • 3:30 - 3:33
    Ibland anstränger vi oss
    för att inte skada dem.
  • 3:33 - 3:35
    Vi kliver över dem på trottoaren.
  • 3:35 - 3:37
    Men så fort deras närvaro
  • 3:37 - 3:39
    kommer i allvarlig konflikt med våra mål,
  • 3:39 - 3:42
    som till exempel vid husbyggnationer,
  • 3:42 - 3:44
    förintar vi dem utan pardon.
  • 3:44 - 3:47
    Bekymret är att vi en dag
    kommer att bygga maskiner
  • 3:47 - 3:50
    som, oavsett om de är medvetna eller ej,
  • 3:50 - 3:52
    skulle kunna behandla oss
    med samma förakt.
  • 3:54 - 3:57
    Jag misstänker att det verkar
    långsökt för många av er.
  • 3:57 - 4:04
    Jag slår vad om att en del av er tvivlar
    på att superintelligent AI är möjlig,
  • 4:04 - 4:05
    än mindre nödvändig.
  • 4:05 - 4:09
    Men då måste ni finna felen med
    några av följande antaganden.
  • 4:09 - 4:11
    Det finns bara tre.
  • 4:12 - 4:17
    Intelligens handlar om processandet
    av information i fysiska system.
  • 4:17 - 4:20
    Det är egentligen mer
    än bara ett antagande.
  • 4:20 - 4:23
    Vi använder redan maskininlärning
    i många maskiner,
  • 4:23 - 4:25
    och många av dessa maskiner presterar
  • 4:25 - 4:28
    redan på nivåer långt över
    mänsklig intelligens.
  • 4:29 - 4:31
    Och vi vet att materia
  • 4:31 - 4:34
    kan skapa det som
    kallas "generell intelligens"
  • 4:34 - 4:38
    en förmåga att tänka flexibelt
    över flera dimensioner,
  • 4:38 - 4:41
    eftersom våra hjärnor
    har klarat det. Eller hur?
  • 4:41 - 4:45
    Jag menar, det är ju bara atomer här inne,
  • 4:45 - 4:49
    och så länge vi fortsätter att
    bygga system av atomer
  • 4:49 - 4:52
    som uppvisar mer och mer intelligens,
  • 4:52 - 4:55
    kommer vi till slut,
    om vi inte blir avbrutna,
  • 4:55 - 4:58
    ha byggt in generell intelligens
  • 4:58 - 4:59
    i våra maskiner.
  • 4:59 - 5:03
    Det är viktigt att inse att
    utvecklingstakten inte spelar någon roll,
  • 5:03 - 5:06
    eftersom minsta framsteg
    räcker för att nå slutstationen.
  • 5:06 - 5:10
    Vi behöver inte Moores lag. Utvecklingen
    behöver inte vara exponentiell.
  • 5:10 - 5:12
    Vi behöver bara fortsätta framåt.
  • 5:13 - 5:16
    Det andra antagandet är
    att vi kommer fortsätta.
  • 5:17 - 5:20
    Vi fortsätter utvecklingen
    av de intelligenta maskinerna.
  • 5:21 - 5:25
    Och givet värdet på intelligens -
  • 5:25 - 5:29
    jag menar, intelligens är antingen
    summan av allt vi sätter värde på
  • 5:29 - 5:32
    eller som vi behöver för att
    skydda det vi värdesätter.
  • 5:32 - 5:34
    Det är vår värdefullaste resurs.
  • 5:34 - 5:36
    Så vi vill göra det här.
  • 5:36 - 5:39
    Vi har problem som vi desperat måste lösa.
  • 5:39 - 5:42
    Vi vill bota sjukdomar som
    Alzheimers och cancer.
  • 5:43 - 5:47
    Vi vill förstå de ekonomiska systemen.
    Vi vill utveckla klimatforskningen.
  • 5:47 - 5:49
    Så vi kommer att göra det, om vi kan.
  • 5:49 - 5:52
    Tåget har redan lämnat stationen,
    och det finns ingen broms.
  • 5:54 - 5:59
    Slutligen, vi har inte
    nått intelligensens topp,
  • 5:59 - 6:01
    vi är troligen inte ens i närheten.
  • 6:02 - 6:04
    Det är den riktigt kritiska insikten.
  • 6:04 - 6:06
    Det är det här som gör
    vår situation så vansklig,
  • 6:06 - 6:10
    och det gör också våra
    riskantaganden så opålitliga.
  • 6:11 - 6:14
    Fundera på den smartaste person
    som någonsin levt.
  • 6:15 - 6:18
    En som finns på nästan allas lista
    är John von Neumann.
  • 6:18 - 6:21
    Jag menar, de intryck som Neumann
    gjorde på folk runt honom,
  • 6:21 - 6:25
    inkluderat de främsta matematikerna
    och fysikerna under hans levnad,
  • 6:26 - 6:27
    är ganska väldokumenterade.
  • 6:27 - 6:31
    Om bara hälften av berättelserna
    om honom är halvsanna,
  • 6:31 - 6:33
    råder det ingen tvekan om
  • 6:33 - 6:35
    att han är en av de smartaste någonsin.
  • 6:35 - 6:38
    Så fundera på vidden av intelligens.
  • 6:38 - 6:40
    Här har vi John von Neumann.
  • 6:42 - 6:43
    Så har vi dig och mig.
  • 6:44 - 6:45
    Så har vi kycklingar.
  • 6:45 - 6:47
    (Skratt)
  • 6:47 - 6:49
    Ursäkta, en kyckling.
  • 6:49 - 6:50
    (Skratt)
  • 6:50 - 6:54
    Det finns inga skäl att göra föredraget
    mer deprimerande än det redan är.
  • 6:54 - 6:55
    (Skratt)
  • 6:56 - 7:00
    Det verkar dock mycket troligt,
    att spektrat av intelligens,
  • 7:00 - 7:03
    sträcker sig mycket längre
    än vi kan föreställa oss idag,
  • 7:04 - 7:07
    och om vi bygger maskiner
    som är intelligentare än vi,
  • 7:07 - 7:09
    kommer de troligtvis
    utforska detta spektrum
  • 7:09 - 7:11
    på sätt som vi inte kan föreställa oss,
  • 7:11 - 7:14
    och överträffa oss på
    sätt som vi inte kan förstå.
  • 7:15 - 7:19
    Det är viktigt att se att det här är sant
    genom hastigheten det sker med.
  • 7:19 - 7:24
    Ok? Föreställ er att vi
    byggt en superintelligent AI
  • 7:24 - 7:28
    som inte är smartare än din
    genomsnittliga forskargrupp
  • 7:28 - 7:30
    på Stanford eller MIT.
  • 7:30 - 7:33
    Elektroniska kretsar är ungefär
    en miljon gånger snabbare
  • 7:33 - 7:34
    än biokemiska,
  • 7:35 - 7:38
    så maskinen skulle tänka ungefär
    en miljon gånger snabbare
  • 7:38 - 7:39
    än hjärnorna som byggt den.
  • 7:40 - 7:41
    Ni låter den köra i en vecka,
  • 7:41 - 7:46
    och den kommer att processa
    20 000 år av mänskligt tänkande,
  • 7:46 - 7:48
    vecka ut och vecka in.
  • 7:50 - 7:53
    Hur kan vi ens förstå, än mindre begränsa
  • 7:53 - 7:55
    en kraft som gör sådana framsteg?
  • 7:57 - 7:59
    Det andra som är uppriktigt oroande,
  • 7:59 - 8:04
    är, föreställ dig ett bästa scenario.
  • 8:04 - 8:08
    Föreställ dig att vi designar
    en superintelligent AI
  • 8:08 - 8:10
    utan säkerhetsproblem.
  • 8:10 - 8:13
    Vi har den perfekta designen från början.
  • 8:13 - 8:15
    Det är som att vi skulle få ett orakel
  • 8:15 - 8:17
    som beter sig exakt som vi avsett.
  • 8:17 - 8:21
    Den här maskinen skulle vara
    den perfekta "jobbspararen".
  • 8:22 - 8:24
    Den kan designa maskinen
    som kan bygga maskinen
  • 8:24 - 8:26
    som kan utföra allt fysiskt arbete,
  • 8:26 - 8:27
    och drivs av solenergi,
  • 8:27 - 8:30
    mer eller mindre till
    kostnaden för råmaterialet.
  • 8:30 - 8:33
    Då pratar vi om slutet
    av mänsklighetens slit.
  • 8:33 - 8:36
    Och även om slutet för mycket
    av intellektuellt arbete.
  • 8:37 - 8:40
    Så vad ska apor som vi göra
    under sådana omständigheter?
  • 8:40 - 8:44
    Ja, vi får tid över att kasta frisbee
    och ge varandra massage.
  • 8:46 - 8:49
    Lägg till lite LSD och några
    underliga klädesplagg,
  • 8:49 - 8:51
    och hela världen kan bli som Burning Man.
  • 8:51 - 8:53
    (Skratt)
  • 8:54 - 8:56
    Ok, det kan låta ganska trevligt,
  • 8:57 - 9:00
    men ställ dig frågan vad som skulle ske
  • 9:00 - 9:02
    under våra nuvarande
    ekonomiska och politiska system?
  • 9:02 - 9:05
    Det verkar troligt att vi skulle bevittna
  • 9:05 - 9:09
    enorma skillnader i välfärd
    och tillgång till arbete
  • 9:09 - 9:11
    som vi aldrig tidigare upplevt.
  • 9:11 - 9:13
    Saknas en vilja att
    låta detta nya välstånd
  • 9:13 - 9:15
    tjäna hela mänskligheten,
  • 9:16 - 9:19
    kommer några triljonärer att pryda
    omslagen på våra affärstidningar
  • 9:19 - 9:22
    medan resten av världen kan få svälta.
  • 9:22 - 9:25
    Vad skulle ryssarna eller kineserna göra
  • 9:25 - 9:27
    om de hörde att ett
    företag i Silicon Valley
  • 9:27 - 9:30
    höll på att sjösätta en
    superintelligent AI?
  • 9:30 - 9:33
    Den maskinen skulle vara
    kapabel att föra krig,
  • 9:33 - 9:35
    antingen på land eller i cyberrymden,
  • 9:35 - 9:37
    med aldrig tidigare skådad kraft.
  • 9:38 - 9:40
    Det är ett vinnaren-tar-allt scenario.
  • 9:40 - 9:43
    Att ligga sex månader före i den tävlingen
  • 9:43 - 9:46
    är att vara 500 000 år före,
  • 9:46 - 9:47
    minst.
  • 9:47 - 9:52
    Det ser ut som att blott rykten
    kring denna typ av genombrott
  • 9:52 - 9:55
    kan leda till att vår art går bärsärk.
  • 9:55 - 9:58
    En av de mest skrämmande sakerna,
  • 9:58 - 10:00
    enligt min mening, i dag,
  • 10:00 - 10:05
    är det som forskare inom AI säger
  • 10:05 - 10:06
    när de vill lugna oss.
  • 10:07 - 10:11
    Det vanligaste argumentet för att
    vi inte ska oroa oss handlar om tid.
  • 10:11 - 10:13
    Det här ligger långt fram, vet du väl.
  • 10:13 - 10:15
    Det här är säkert 50 eller 100 år bort.
  • 10:16 - 10:17
    En forskare har sagt,
  • 10:17 - 10:19
    "Att oroa sig för AI-säkerhet är
  • 10:19 - 10:21
    som att oroa sig för
    ett överbefolkat Mars."
  • 10:22 - 10:24
    Det är Silicon Valley-versionen av
  • 10:24 - 10:26
    "oroa inte ditt söta lilla huvud."
  • 10:26 - 10:27
    (Skratt)
  • 10:28 - 10:29
    Ingen verkar uppmärksamma att,
  • 10:29 - 10:32
    att referera till tidsaspekten
  • 10:32 - 10:35
    är ett "Goddag yxskaft"-svar.
  • 10:35 - 10:38
    Om intelligens bara handlar
    om att processa information,
  • 10:38 - 10:41
    och vi fortsätter att
    utveckla våra maskiner,
  • 10:41 - 10:44
    kommer vi till slut skapa
    någon form av superintelligens.
  • 10:44 - 10:48
    Vi har ingen aning om
    hur lång tid det kommer att ta
  • 10:48 - 10:50
    att skapa villkoren för
    att göra det riskfritt.
  • 10:52 - 10:53
    Jag tar det en gång till.
  • 10:54 - 10:57
    Vi vet inte hur lång tid det kommer att ta
  • 10:57 - 11:00
    för att skapa de säkra villkoren.
  • 11:01 - 11:05
    Du har kanske inte noterat det,
    men 50 år är inte vad det brukade vara.
  • 11:05 - 11:07
    Det här är 50 år i månader.
  • 11:07 - 11:09
    Så här länge har vi haft iPhone.
  • 11:09 - 11:12
    Så här länge har "Simpsons" visats på TV.
  • 11:13 - 11:15
    50 år är inte så lång tid
  • 11:15 - 11:18
    att möta den största utmaningen
    mänskligheten någonsin skådat.
  • 11:20 - 11:24
    Än en gång, vi verkar inte kunna uppbåda
    ett passande emetionellt gensvar
  • 11:24 - 11:26
    för den framtid vi har all
    anledning att tro kommer.
  • 11:26 - 11:30
    Datorforskaren Stuart Russell
    drar en intressant parallell.
  • 11:30 - 11:35
    Han sade, föreställ er att vi fick ett
    meddelande från en främmande civilisation,
  • 11:35 - 11:37
    som sade:
  • 11:37 - 11:39
    "Människor på Jorden,
  • 11:39 - 11:41
    vi kommer att landa
    på er planet om 50 år.
  • 11:42 - 11:43
    Gör er redo."
  • 11:43 - 11:48
    Och nu räknar vi bara ner månaderna
    tills moderskeppet landar?
  • 11:48 - 11:51
    Vi borde förstå att det
    brådskar mer än vad vi gör.
  • 11:53 - 11:55
    Vi hör att vi inte behöver oroa oss
  • 11:55 - 11:58
    för maskinerna kommer
    att dela våra värderingar
  • 11:58 - 12:00
    eftersom de kommer att
    vara en förlängning av oss.
  • 12:00 - 12:02
    De kommer att ympas in i våra hjärnor,
  • 12:02 - 12:04
    och vi kommer att vara
    deras limbiska system.
  • 12:05 - 12:07
    Reflektera nu över
  • 12:07 - 12:10
    att den tryggaste och
    förståndigaste vägen framåt,
  • 12:10 - 12:11
    som förespråkas,
  • 12:11 - 12:14
    är att operera in tekniken
    direkt i våra hjärnor.
  • 12:15 - 12:18
    Det kanske är den tryggaste
    och smartaste vägen att ta,
  • 12:18 - 12:21
    men vanligtvis måste
    säkerhetsriskerna med en teknik
  • 12:21 - 12:25
    vara ordentligt utredda innan
    man stoppar in den i hjärnan.
  • 12:25 - 12:27
    (Skratt)
  • 12:27 - 12:32
    Det djupare problemet är att
    utveckla en fristående superintelligent AI
  • 12:32 - 12:34
    förmodligen är enklare
  • 12:34 - 12:36
    än att utveckla superintelligent AI
  • 12:36 - 12:38
    och ha koll på neurovetenskapen
  • 12:38 - 12:40
    som låter oss sömlöst
    integrera våra sinnen med den.
  • 12:41 - 12:44
    Givet att företag och
    stater som står för vetenskapen
  • 12:44 - 12:48
    sannolikt kommer att uppfatta sig
    vara i kamp med alla andra,
  • 12:48 - 12:51
    givet att genom att vinna kapplöpningen
    vinner man världen,
  • 12:51 - 12:53
    förutsatt att de inte
    förstör den i nästa steg,
  • 12:53 - 12:56
    då verkar det troligt att
    allt som är enklare att göra
  • 12:56 - 12:57
    kommer att göras först.
  • 12:59 - 13:01
    Tyvärr har jag ingen lösning
    på det här problemet,
  • 13:01 - 13:04
    mer än att fler av oss
    måste fundera på det.
  • 13:04 - 13:06
    Jag tror vi behöver ett Manhattan-projekt
  • 13:06 - 13:08
    på temat artificiell intelligens.
  • 13:09 - 13:12
    Inte för att bygga den,
    det tror jag oundvikligen vi gör,
  • 13:12 - 13:15
    men för att förstå hur vi ska
    undvika en kapprustning
  • 13:15 - 13:18
    och för att utveckla den i linje
    med våra egna intressen.
  • 13:18 - 13:20
    När man pratar om superintelligent AI
  • 13:20 - 13:23
    som kan förändra sig själv,
  • 13:23 - 13:27
    verkar det som att vi bara har
    en chans att få det rätt från början,
  • 13:27 - 13:29
    och även då måste vi sätta oss in i
  • 13:29 - 13:32
    och lösa de ekonomiska och
    politiska konsekvenserna.
  • 13:34 - 13:36
    Men i den stund vi tillstår
  • 13:36 - 13:40
    att informationsbearbetning
    är källan till intelligens,
  • 13:41 - 13:46
    att något datorstyrt beräkningsprogram
    är basen för intelligens,
  • 13:46 - 13:50
    och att vi kommer att förbättra
    dessa system kontinuerligt,
  • 13:51 - 13:56
    och vi erkänner att
    kognitionshorisonten vida överstiger
  • 13:56 - 13:57
    vad vi vet idag,
  • 13:58 - 13:59
    då måste vi också erkänna
  • 13:59 - 14:02
    att vi är i färd med att
    skapa någon form av gud.
  • 14:03 - 14:05
    Nu borde vara ett bra tillfälle att
  • 14:05 - 14:07
    se till att det är en gud vi vill ha.
  • 14:08 - 14:10
    Tack så mycket.
  • 14:10 - 14:13
    (Applåder)
Title:
Kan vi utveckla artificiell intelligens utan att tappa kontrollen över den?
Speaker:
Sam Harris
Description:

Rädd för superintelligent AI? Det borde du vara, säger neuroforskaren och filosofen Sam Harris, och inte bara på ett teoretiskt plan. Vi kommer att bygga supermänskliga maskiner, säger Harris, men vi har ännu inte börjat brottas med de problem som följer med skapandet av någonting som kan komma att behandla oss på samma sätt som vi behandlar myror.

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
14:27

Swedish subtitles

Revisions Compare revisions