Return to Video

De underbara och skrämmande konsekvenserna av datorer som kan lära sig

  • 0:01 - 0:05
    Det brukade vara så att om du ville
    få en dator att göra något nytt
  • 0:05 - 0:06
    så behövde du programmera den.
  • 0:06 - 0:10
    Programmering, för dem av er
    som inte har gjort det själva,
  • 0:10 - 0:11
    kräver att man
  • 0:11 - 0:14
    på ett olidligt detaljerat sätt
  • 0:14 - 0:17
    anger varenda steg
    man vill att datorn ska ta
  • 0:17 - 0:19
    för att uppnå önskat mål.
  • 0:19 - 0:23
    Men, om du vill göra något
    som du inte vet själv hur man gör,
  • 0:23 - 0:25
    då blir det här en enorm utmaning.
  • 0:25 - 0:28
    Så det här var den utmaning som denne man,
    Arthur Samuel, ställdes inför.
  • 0:28 - 0:32
    1956 ville han få sin dator till
  • 0:32 - 0:35
    att slå honom i spelet Dam.
  • 0:35 - 0:37
    Hur kan du skriva ett program,
  • 0:37 - 0:40
    och ange på ett olidligt detaljerat sätt,
    hur det ska slå dig i Dam?
  • 0:40 - 0:42
    Så han kom på en idé:
  • 0:42 - 0:46
    han lät datorn spela
    mot sig själv tusentals gånger
  • 0:46 - 0:48
    och lära sig att spela Dam.
  • 0:49 - 0:52
    Och det fungerade faktiskt, och vid 1962
  • 0:52 - 0:55
    hade datorn slagit
    Connecticuts statsmästare.
  • 0:55 - 0:59
    Så Arthur Samuels
    var maskininlärningens fader,
  • 0:59 - 1:00
    och jag är skyldig honom så mycket,
  • 1:00 - 1:03
    för att jag är verksam
    inom maskininlärning.
  • 1:03 - 1:04
    Jag var ordförande i Kaggle,
  • 1:04 - 1:08
    en gemenskap på över 200 000
    verksamma inom maskininlärning.
  • 1:08 - 1:10
    Kaggle anordnar tävlingar
  • 1:10 - 1:14
    för att försöka åstadkomma
    lösningar på olösta problem,
  • 1:14 - 1:17
    och det har varit framgångsrikt
    vid hundratals tillfällen.
  • 1:17 - 1:20
    Så från den synvinkeln
    kunde jag få veta
  • 1:20 - 1:24
    väldigt mycket om vad maskininlärning
    kan göra i det förflutna, kan göra idag,
  • 1:24 - 1:26
    och vad den kan tänkas göra i framtiden.
  • 1:26 - 1:29
    Maskininlärningens första stora framgång
  • 1:29 - 1:31
    var kanske Google.
  • 1:31 - 1:34
    Google visade att det är möjligt
    att få fram information
  • 1:34 - 1:36
    genom att använda en datoralgoritm,
  • 1:36 - 1:38
    en datoralgoritm som bygger
    på maskininlärning.
  • 1:38 - 1:42
    Sen dess har maskininlärning
    rönt många kommersiella framgångar.
  • 1:42 - 1:44
    Företag som Amazon och Netflix
  • 1:44 - 1:46
    använder maskininlärning
    för att föreslå produkter
  • 1:46 - 1:48
    som du kan tänkas vilja köpa,
  • 1:48 - 1:50
    filmer som du kan tänkas vilja se.
  • 1:50 - 1:52
    Ibland är det nästan lite läskigt.
  • 1:52 - 1:53
    Företag som LinkedIn och Facebook
  • 1:53 - 1:56
    kan ibland berätta för dig
    vilka dina vänner kan tänkas vara
  • 1:56 - 1:59
    och du kan inte föreställa dig
    hur det gick till
  • 1:59 - 2:01
    och det beror på att de använder
    maskininlärningens kraft.
  • 2:01 - 2:05
    Det här är algoritmer som har lärt sig
    att göra detta utifrån data
  • 2:05 - 2:07
    snarare än att ha blivit
    programmerade till det.
  • 2:07 - 2:10
    Det här också hemligheten
    bakom IBM:s framgångar
  • 2:10 - 2:14
    med att få Watson att slå
    de två världsmästarna i Jeopardy,
  • 2:14 - 2:17
    genom att besvara otroligt subtila
    och komplexa frågor som den här.
  • 2:17 - 2:20
    [Det antika "Lion of Nimrud" försvann
    från denna stads ...]
  • 2:20 - 2:23
    Det här är också anledningen till
    att vi nu ser självkörande bilar.
  • 2:23 - 2:26
    Om du vill kunna skilja på till exempel
  • 2:26 - 2:28
    ett träd och en fotgängare
    så är det ganska viktigt.
  • 2:28 - 2:31
    Vi vet inte hur vi skulle kunna
    programmera något sånt,
  • 2:31 - 2:34
    men med maskininlärning
    är det här nu möjligt.
  • 2:34 - 2:37
    Och den här bilen har faktiskt
    kört över 1,5 miljoner mil,
  • 2:37 - 2:40
    utan olyckor, på vanliga vägar.
  • 2:40 - 2:44
    Så nu vet vi att datorer kan lära sig,
  • 2:44 - 2:46
    och datorer kan lära sig att göra saker
  • 2:46 - 2:49
    som vi ibland faktiskt själva
    inte vet hur man gör,
  • 2:49 - 2:52
    eller så kan de göra något
    bättre än vi.
  • 2:52 - 2:56
    Ett av det mer häpnadsväckande exemplen
    av maskininlärning som jag har sett
  • 2:56 - 2:58
    tog plats i ett projekt
    som jag körde på Kaggle
  • 2:58 - 3:02
    där ett lag som leddes av en kille
    som heter Geoffrey Hinton
  • 3:02 - 3:03
    från University of Toronto
  • 3:03 - 3:06
    vann en tävling
    i automatisk medicinforskning.
  • 3:06 - 3:09
    Men vad som var exceptionellt
    var inte bara att de slog
  • 3:09 - 3:13
    alla Mercks algoritmer och hela den
    internationella akademiska gemenskapen,
  • 3:13 - 3:18
    utan att ingen i laget hade någon bakgrund
    i kemi, biologi eller livsvetenskap
  • 3:18 - 3:20
    och de klarade det på två veckor.
  • 3:20 - 3:22
    Hur gjorde de detta?
  • 3:22 - 3:25
    De använde en enastående algoritm
    som kallas djupinlärning.
  • 3:25 - 3:28
    Det här var så viktigt
    att det till och med rapporterades
  • 3:28 - 3:31
    på framsidan till New York Times
    några veckor senare.
  • 3:31 - 3:34
    Här är Geoffrey Hinton till vänster.
  • 3:34 - 3:38
    Djupinlärningsalgoritmen
    är inspirerad av hur hjärnan fungerar
  • 3:38 - 3:40
    och som en effekt av det
  • 3:40 - 3:44
    så har den inga teoretiska begränsningar
    i vad den kan åstadkomma.
  • 3:44 - 3:47
    Ju mer data och beräkningstid du ger den,
  • 3:47 - 3:48
    desto bättre blir den.
  • 3:48 - 3:51
    New York Times visade
    i sin artikel också på
  • 3:51 - 3:53
    en annan exceptionell effekt
    av djupinlärning
  • 3:53 - 3:55
    som jag ska visa er nu.
  • 3:56 - 4:00
    Den visar att datorer
    kan lyssna och förstå.
  • 4:01 - 4:03
    (Video) Richard Rashid: Det sista steget
  • 4:03 - 4:06
    som jag vill kunna ta i den här processen
  • 4:06 - 4:10
    är att kunna tala till er på kinesiska.
  • 4:11 - 4:14
    Nyckeln här är att
  • 4:14 - 4:19
    vi har kunnat ta en stor mängd information
    från många som talar kinesiska
  • 4:19 - 4:21
    och producera ett "text till tal"-system
  • 4:21 - 4:26
    som tar kinesisk text
    och konverterar den till kinesiskt språk.
  • 4:26 - 4:30
    Sen har vi tagit en timme
    eller så av min egen röst
  • 4:30 - 4:32
    och vi har använt den till att modulera
  • 4:32 - 4:36
    vårt grundläggande "text till tal"-system
    så att det låter som jag.
  • 4:36 - 4:39
    Återigen, resultatet är inte perfekt.
  • 4:39 - 4:42
    Det finns fortfarande några fel.
  • 4:42 - 4:44
    (Kinesiska)
  • 4:44 - 4:47
    (Applåder)
  • 4:49 - 4:52
    Det finns mycket att göra
    på det här området.
  • 4:53 - 4:56
    (Kinesiska)
  • 4:57 - 5:00
    (Applåder)
  • 5:01 - 5:05
    Jeremy Howard: Det där var
    på en maskininlärningskonferens i Kina.
  • 5:05 - 5:07
    Det är faktiskt inte ofta
    på akademiska konferenser
  • 5:07 - 5:09
    att man hör spontana applåder,
  • 5:09 - 5:13
    fast på TEDx-konferenser
    är det förstås välkommet.
  • 5:13 - 5:15
    Allt ni såg där hände
    med hjälp av maskininlärning.
  • 5:15 - 5:16
    (Applåder) Tack.
  • 5:16 - 5:19
    Avskriften till engelska
    var djupinlärning.
  • 5:19 - 5:22
    Översättningen till kinesiska och texten
    i övre högra hörnet vad djupinlärning
  • 5:22 - 5:26
    och skapandet av rösten
    var också djupinlärning.
  • 5:27 - 5:29
    Så djupinlärning är en exceptionell sak.
  • 5:29 - 5:32
    Det är en enda algoritm som ser ut
    att kunna göra nästan vad som helst,
  • 5:32 - 5:36
    och jag upptäckte att ett år tidigare
    hade den också lärt sig att se.
  • 5:36 - 5:37
    I en obskyr tävling från Tyskland
  • 5:37 - 5:40
    som hette German Traffic Sign
    Recognition Benchmark,
  • 5:40 - 5:43
    hade djupinlärning lärt sig
    att känna igen trafikskyltar som den här.
  • 5:43 - 5:45
    Den kunde inte bara
    känna igen trafikskyltarna
  • 5:45 - 5:47
    bättre än alla andra algoritmer,
  • 5:47 - 5:50
    utan resultattavlan visade
    att den faktiskt var bättre än människor
  • 5:50 - 5:52
    ungefär dubbelt så bra som människor.
  • 5:52 - 5:54
    Vid 2011 hade vi det första exemplet
  • 5:54 - 5:57
    på en dator som kan se
    bättre än människor.
  • 5:57 - 5:59
    Sen dess har det hänt många saker.
  • 5:59 - 6:03
    2012 meddelade Google att de hade
    låtit en djupinlärningsalgoritm
  • 6:03 - 6:04
    titta på YouTube-klipp
  • 6:04 - 6:08
    och beräknade datan
    på 16 000 datorer i en månad.
  • 6:08 - 6:12
    Och datorn lärde sig, helt av sig själv,
    om koncept som människor och katter
  • 6:12 - 6:14
    bara genom att titta på klippen.
  • 6:14 - 6:16
    Det här är väldigt likt
    den mänskliga lärprocessen.
  • 6:16 - 6:19
    Människor lär sig inte genom
    att någon berättar vad de ser,
  • 6:19 - 6:22
    utan de lär sig själva
    vad de här sakerna är.
  • 6:22 - 6:26
    2012 vann George Hinton,
    som vi såg tidigare, också
  • 6:26 - 6:29
    den väldigt populära ImageNet-tävlingen,
  • 6:29 - 6:33
    när han försökte lista ut,
    på basis av 1,5 miljoner bilder,
  • 6:33 - 6:34
    vad bilderna innehöll.
  • 6:34 - 6:38
    Nu 2014, är vi nere på
    en sexprocentig felmarginal
  • 6:38 - 6:39
    för bildigenkänning.
  • 6:39 - 6:41
    Detta är, återigen, bättre än människor.
  • 6:41 - 6:45
    Så maskiner gör verkligen
    ett exceptionellt bra jobb här
  • 6:45 - 6:47
    och används nu inom industrin.
  • 6:47 - 6:50
    Till exempel meddelade Google förra året
  • 6:50 - 6:55
    att de hade mappat varenda plats
    i Frankrike på två timmar.
  • 6:55 - 6:58
    Och de gjorde detta genom
    att föda bilder av gatuvyer
  • 6:58 - 7:01
    in i en djupinlärningsalgoritm
    för att den skulle känna igen
  • 7:01 - 7:03
    och läsa gatunummer.
  • 7:03 - 7:05
    Föreställ er hur lång tid
    detta skulle ha tagit:
  • 7:05 - 7:08
    dussintals med människor, många år.
  • 7:08 - 7:10
    Det här händer också i Kina.
  • 7:10 - 7:14
    Baidu kan väl kanske sägas vara
    ett kinesiskt Google
  • 7:14 - 7:17
    och vad ni ser här uppe till vänster
  • 7:17 - 7:19
    är ett exempel på en bild
    som jag laddade upp
  • 7:19 - 7:21
    i Baidus djupinlärningssystem,
  • 7:21 - 7:24
    och nedanför kan ni se att systemet
    har förstått vad bilden innehåller
  • 7:24 - 7:26
    och hittat liknande bilder.
  • 7:26 - 7:29
    De liknande bilderna har faktiskt
    liknande bakgrunder,
  • 7:29 - 7:31
    liknande ansiktsvinklar,
  • 7:31 - 7:33
    till och med några med utstickande tungor.
  • 7:33 - 7:36
    Det här handlar inte om att titta
    på text på en webbsida.
  • 7:36 - 7:37
    Allt jag laddade upp var en bild.
  • 7:37 - 7:41
    Så, nu har vi datorer
    som faktiskt förstår vad de ser
  • 7:41 - 7:43
    och därmed kan söka igenom databaser
  • 7:43 - 7:46
    med hundra miljontals bilder i realtid.
  • 7:46 - 7:49
    Så vad betyder det nu att datorer kan se?
  • 7:49 - 7:52
    Det betyder inte bara
    att datorer kan se.
  • 7:52 - 7:54
    Djupinlärning har faktiskt
    gjort mer än så.
  • 7:54 - 7:56
    Komplexa, nyanserade meningar
  • 7:56 - 7:58
    som den här kan nu förstås
  • 7:58 - 7:59
    med djupinlärningsalgoritmer.
  • 7:59 - 8:00
    Som ni kan se här,
  • 8:00 - 8:04
    så har det här Stanford-baserade systemet
    med den röda pricken i toppen
  • 8:04 - 8:07
    räknat ut att den här meningen
    uttrycker negativa känslor.
  • 8:07 - 8:10
    Djupinlärning är faktiskt nära
    den mänskliga prestationsförmågan
  • 8:10 - 8:13
    när det gäller att förstå
    vad meningar handlar om
  • 8:13 - 8:15
    och vad de säger om det.
  • 8:16 - 8:19
    Djupinlärning har också använts
    till att läsa kinesiska,
  • 8:19 - 8:22
    på, återigen, nästan modersmålsnivå.
  • 8:22 - 8:24
    Den här algoritmen
    har utvecklats i Schweitz
  • 8:24 - 8:27
    av människor som varken talar
    eller förstår kinesiska.
  • 8:27 - 8:29
    Jag brukar säga att,
    att använda djupinlärning
  • 8:29 - 8:32
    är nära nog det bästa systemet
    i världen för detta
  • 8:32 - 8:36
    även jämfört med
    mänsklig modersmålsförståelse.
  • 8:37 - 8:40
    Det här ett system som vi satte ihop
    på mitt företag
  • 8:40 - 8:42
    som visar hur allt det här sätts ihop.
  • 8:42 - 8:44
    De här bilderna har ingen vidhängd text,
  • 8:44 - 8:47
    och medan jag skriver in meningar här
  • 8:47 - 8:50
    så förstår den de här bilderna i realtid
  • 8:50 - 8:51
    och listar ut vad de handlar om
  • 8:51 - 8:54
    och hittar bilder som liknar
    den text som jag skriver in.
  • 8:54 - 8:57
    Så ni kan se att den faktiskt
    förstår mina meningar
  • 8:57 - 8:59
    och faktiskt förstår de här bilderna.
  • 8:59 - 9:02
    Jag vet att ni har sett
    liknande saker på Google,
  • 9:02 - 9:05
    där du kan skriva in saker
    och den visar dig bilder,
  • 9:05 - 9:08
    men vad den faktiskt gör är
    att den söker av webbsidan efter text.
  • 9:08 - 9:11
    Det är en stor skillnad
    mot att förstå bilderna.
  • 9:11 - 9:13
    Det här är något som datorer
    har kunnat göra
  • 9:13 - 9:17
    för första gången
    för bara några månader sen.
  • 9:17 - 9:21
    Så nu kan vi se att datorer
    inte bara kan se, de kan också läsa,
  • 9:21 - 9:25
    och så har vi också visat
    att de kan förstå vad de hör.
  • 9:25 - 9:27
    Kanske är det inte överraskande
    att jag nu berättar för er
  • 9:27 - 9:29
    att de kan skriva.
  • 9:29 - 9:31
    Här är lite text som jag genererade igår
  • 9:31 - 9:33
    med hjälp av en djupinlärningsalgoritm.
  • 9:34 - 9:37
    Och här är lite text som en algoritm
    från Stanford har genererat.
  • 9:37 - 9:39
    Var och en av dessa meningar
    har genererats
  • 9:39 - 9:43
    av en djupinlärningsalgoritm
    för att förklara varje bild.
  • 9:43 - 9:48
    Den här algoritmen har aldrig förut sett
    en man i svart tröja som spelar gitarr.
  • 9:48 - 9:50
    Den har sett en man förut,
    den har sett svart förut,
  • 9:50 - 9:51
    den har sett en gitarr förut,
  • 9:51 - 9:55
    men den har helt fristående genererat
    den här nya beskrivningen av bilden.
  • 9:55 - 9:59
    Vi är ännu inte riktigt framme
    vid mänsklig prestationsförmåga här,
  • 9:59 - 9:59
    men vi är nära.
  • 9:59 - 10:03
    Tester har visat att människor föredrar
    den datorgenererade förklaringen
  • 10:03 - 10:05
    en av fyra gånger.
  • 10:05 - 10:07
    Det här systemet är nu bara
    två veckor gammalt,
  • 10:07 - 10:09
    så det är sannolikt att datoralgoritmen
  • 10:09 - 10:11
    kommer att slå mänsklig prestationsförmåga
  • 10:11 - 10:12
    inom ett år
  • 10:12 - 10:13
    om det fortsätter i samma takt.
  • 10:13 - 10:16
    Så, datorer kan skriva också.
  • 10:16 - 10:20
    När vi slår samman allt det här
    så ser vi väldigt spännande möjligheter.
  • 10:20 - 10:21
    Till exempel inom läkekonsten,
  • 10:21 - 10:24
    ett team i Boston meddelade
    att de hade upptäckt
  • 10:24 - 10:27
    dussintals nya kliniskt
    relevanta kännetecken
  • 10:27 - 10:31
    på tumörer, som hjälper läkare
    att göra cancerprognoser.
  • 10:32 - 10:34
    Också liknande,
    meddelade en grupp i Stanford
  • 10:34 - 10:39
    att de, genom att titta på vävnad
    under förstoring, hade utvecklat
  • 10:39 - 10:41
    ett maskininlärningsbaserat system
  • 10:41 - 10:43
    som faktiskt är bättre
    än mänskliga patologer
  • 10:43 - 10:45
    på att förutse överlevnadssiffror
  • 10:45 - 10:47
    för cancersjuka.
  • 10:47 - 10:49
    I båda dessa fall
    visade sig förutsägelserna
  • 10:49 - 10:51
    inte bara vara mer rättvisande
  • 10:51 - 10:53
    utan de genererade också
    ny insiktsfull kunskap.
  • 10:53 - 10:55
    I röntgenfallet
  • 10:55 - 10:58
    var det nya kliniska indikatorer
    som människor kan förstå.
  • 10:58 - 11:00
    I patologifallet
  • 11:00 - 11:04
    upptäckte systemet
    att cellerna runt cancern
  • 11:04 - 11:08
    är lika viktiga som cancercellerna själva
  • 11:08 - 11:09
    för att ställa diagnos.
  • 11:09 - 11:14
    Det här var motsatsen till vad patologer
    hade fått lära sig i årtionden.
  • 11:15 - 11:18
    I båda dessa fall var systemen utvecklade
  • 11:18 - 11:21
    av en kombination av medicinska experter
    och maskininlärningsexperter,
  • 11:21 - 11:24
    men sedan ett år tillbaka
    har vi tagit oss förbi det också.
  • 11:24 - 11:28
    Det här är ett exempel på hur man
    identifierar cancerområden
  • 11:28 - 11:30
    i mänsklig vävnad under ett mikroskåp.
  • 11:30 - 11:35
    Systemet som visas här kan identifiera
    de områdena med större exakthet,
  • 11:35 - 11:38
    eller ungefär lika exakt,
    som mänskliga patologer,
  • 11:38 - 11:41
    fast det enbart bygger på djupinlärning
    helt utan medicinsk expertis
  • 11:41 - 11:44
    och har byggts av människor
    som inte har någon erfarenhet på området.
  • 11:45 - 11:47
    På liknande vis, här, det här med
    segmentering av neuroner.
  • 11:47 - 11:51
    Vi kan nu segmentera neuroner
    ungefär lika exakt som människor kan,
  • 11:51 - 11:53
    men det här systemet utvecklades
    med hjälp av djupinlärning
  • 11:53 - 11:56
    av människor utan erfarenhet av läkekonst.
  • 11:57 - 12:00
    Så jag själv, som någon som inte har
    någon erfarenhet av läkekonst,
  • 12:00 - 12:04
    tycks vara helt kvalificerad för
    att starta ett nytt medicinskt företag,
  • 12:04 - 12:06
    vilket jag gjorde.
  • 12:06 - 12:08
    Jag var en aning livrädd för att göra det,
  • 12:08 - 12:11
    men teoretiskt sett borde det vara möjligt
  • 12:11 - 12:16
    att praktisera nyttig läkekonst
    bara på basis av dessa dataanalystekniker.
  • 12:16 - 12:19
    Och som tur är har återkopplingen
    varit fantastisk,
  • 12:19 - 12:21
    inte bara från media
    utan också från läkarkåren,
  • 12:21 - 12:23
    som har varit väldigt stöttande.
  • 12:23 - 12:27
    Teorin innebär att vi kan ta mittendelen
    av den medicinska processen
  • 12:27 - 12:30
    och göra om den till dataanalys
    så långt det är möjligt,
  • 12:30 - 12:33
    och på så sätt frigöra läkarna till
    att göra det de är bäst på.
  • 12:33 - 12:35
    Jag vill ge er ett exempel.
  • 12:35 - 12:37
    Det tar oss nu ungefär 15 minuter
  • 12:37 - 12:40
    att ta fram ett nytt
    medicinskt diagnostiskt test
  • 12:40 - 12:42
    och jag ska visa er det i realtid nu,
  • 12:42 - 12:44
    men jag har komprimerat det
    till tre minuter
  • 12:44 - 12:45
    genom att skära bort en del.
  • 12:45 - 12:49
    Snarare än att visa er hur man skapar
    ett medicinskt diagnostiskt test,
  • 12:49 - 12:50
    så vill jag visa er
  • 12:50 - 12:52
    ett diagnostiskt test på bilbilder,
  • 12:52 - 12:54
    eftersom det är något
    som vi alla kan förstå.
  • 12:54 - 12:57
    Så vi börjar med ungefär
    1,5 miljoner bilbilder,
  • 12:57 - 13:00
    och jag vill skapa något som kan sortera
    dem beroende på vilken
  • 13:00 - 13:03
    vinkel bilden är tagen ur.
  • 13:03 - 13:07
    De här bilderna har inga etiketter,
    så jag måste börja från början.
  • 13:07 - 13:08
    Med vår djupinlärningsalgoritm
  • 13:08 - 13:12
    kan den automatiskt identifiera områden
    med struktur i bilderna.
  • 13:12 - 13:16
    Det fina är att nu kan människan
    och datorn samarbeta.
  • 13:16 - 13:18
    Människan, som ni ser här,
  • 13:18 - 13:22
    talar om för datorn vilka områden
    som är intressanta, den information
  • 13:22 - 13:26
    som hon vill att datorn använder
    för att förbättra algoritmen.
  • 13:26 - 13:28
    De här djupinlärningssystemen
  • 13:28 - 13:30
    existerar faktiskt
    i en 16000-dimensionell rymd,
  • 13:30 - 13:33
    så ni kan här se hur datorn roterar
    genom den rymden
  • 13:33 - 13:35
    och letar efter nya strukturella områden.
  • 13:35 - 13:37
    Och när den hittar ett sånt
  • 13:37 - 13:41
    så kan människan som styr den påpeka
    att dessa områden är intressanta.
  • 13:41 - 13:43
    Så här har datorn lyckats hitta områden,
  • 13:43 - 13:46
    till exempel vinklar.
  • 13:46 - 13:48
    Så medan vi går igenom den här processen,
  • 13:48 - 13:50
    så berättar vi gradvis
    mer och mer för datorn
  • 13:50 - 13:52
    om vilka strukturer vi letar efter.
  • 13:52 - 13:54
    I ett diagnostiskt test
  • 13:54 - 13:57
    skulle det här motsvara en patolog
    som identifierar sjuka områden
  • 13:57 - 14:02
    eller en radiolog som identifierar
    potentiellt farliga knutor.
  • 14:02 - 14:05
    Och ibland kan det vara svårt
    för algoritmen.
  • 14:05 - 14:07
    I det här fallet blev den något förvirrad.
  • 14:07 - 14:09
    Fronten och bakänden på bilarna
    är helt ihopblandade.
  • 14:09 - 14:11
    Så här behöver vi
    vara lite mer försiktiga,
  • 14:11 - 14:15
    och manuellt välja ut fronterna
    men inte bakändarna,
  • 14:15 - 14:20
    och sen berätta för datorn
    att detta är en sorts grupp
  • 14:20 - 14:22
    som vi är intresserade av.
  • 14:22 - 14:24
    Så vi gör det en stund,
    vi hoppar över en liten bit,
  • 14:24 - 14:26
    och sen tränar vi
    maskininlärningsalgoritmen
  • 14:26 - 14:28
    baserat på ett par hundra saker
  • 14:28 - 14:30
    och så hoppas vi att den har
    blivit mycket bättre.
  • 14:30 - 14:34
    Ni kan se att den nu har börjat tona ut
    vissa av de här bilderna
  • 14:34 - 14:38
    och visar oss därmed att den redan vet
    hur den själv ska förstå vissa av dem.
  • 14:38 - 14:41
    Sen kan vi använda det här konceptet
    av liknande bilder
  • 14:41 - 14:43
    och med hjälp av liknande bilder
  • 14:43 - 14:45
    kan ni nu se att datorn vid det här laget
  • 14:45 - 14:47
    kan hitta enbart bilder med bilfronter.
  • 14:47 - 14:50
    Så, vid det här laget kan människan
    berätta för datorn att,
  • 14:50 - 14:52
    "Okej, bra - du har gjort
    ett bra jobb med det."
  • 14:54 - 14:56
    Ibland är det förstås
    även vid det här laget
  • 14:56 - 15:00
    svårt att skilja ut grupper.
  • 15:00 - 15:02
    I det här fallet,
    trots att vi har låtit datorn
  • 15:02 - 15:04
    försöka rotera det här en stund,
  • 15:04 - 15:07
    så ser vi att bilder
    av vänster och höger sida
  • 15:07 - 15:08
    har blandats ihop.
  • 15:08 - 15:10
    Så vi kan ge datorn några tips,
  • 15:10 - 15:13
    som "Okej, försök hitta
    en projektion som skiljer ut
  • 15:13 - 15:15
    vänstersidorna och högersidorna
  • 15:15 - 15:16
    så gott det går
  • 15:16 - 15:18
    med hjälp av en djupinlärningsalgoritm."
  • 15:18 - 15:21
    Och med det tipset - ah, så lyckas den.
  • 15:21 - 15:24
    Den har hittat ett sätt
    att tänka kring de här objekten
  • 15:24 - 15:26
    som har skiljt ut dessa tillsammans.
  • 15:26 - 15:29
    Så ni förstår tanken här.
  • 15:29 - 15:32
    Det här är ett fall som inte handlar om
  • 15:32 - 15:37
    att människan ersätts av datorn,
  • 15:37 - 15:40
    utan om att de arbetar tillsammans.
  • 15:40 - 15:43
    Vad vi gör är att vi ersätter någonting
    som brukade ta ett helt team
  • 15:43 - 15:45
    på fem eller sex personer ungefär sju år
  • 15:45 - 15:48
    och ersätter det med någonting
    som tar 15 minuter
  • 15:48 - 15:50
    för en person på egen hand.
  • 15:50 - 15:54
    Så den här processen kräver ungefär
    fyra eller fem upprepningar.
  • 15:54 - 15:56
    Ni kan se att vi nu har 62 procent
  • 15:56 - 15:58
    av våra 1,5 miljoner bilder
    korrekt klassificerade.
  • 15:58 - 16:01
    Och vid det här laget,
    kan vi börja att ganska snabbt
  • 16:01 - 16:02
    ta tag i en hela stora sektioner
  • 16:02 - 16:06
    och kolla igenom för att säkerställa
    att det inte finns några misstag.
  • 16:06 - 16:09
    Där vi hittar misstag
    kan vi uppmärksamma datorn på dem.
  • 16:10 - 16:13
    Genom att använda den här sortens process
    för alla olika grupper,
  • 16:13 - 16:15
    är vi nu uppe i 80 procent
  • 16:15 - 16:18
    framgångsrikt klassificerade bilder.
  • 16:18 - 16:20
    Och vid det här laget
    är det bara en fråga om
  • 16:20 - 16:23
    att hitta de få bilder
    som inte har klassificerats korrekt,
  • 16:23 - 16:26
    och försöka förstå varför.
  • 16:26 - 16:28
    Och på det sättet
  • 16:28 - 16:32
    är vi efter 15 minuter uppe
    i 97 procent klassificerade bilder.
  • 16:32 - 16:36
    Det här är en teknik som skulle kunna
    bistå med att överbrygga det stora problem
  • 16:36 - 16:40
    som utgörs av begränsad tillgång
    till medicinsk expertis i världen.
  • 16:40 - 16:43
    Världsekonomiskt forum menar
    att det råder en mellan 10x och 20x
  • 16:43 - 16:46
    brist på läkare i utvecklingsländer
  • 16:46 - 16:48
    och att det skulle ta ungefär 300 år
  • 16:48 - 16:50
    att lära upp tillräckligt många människor
  • 16:50 - 16:51
    för att lösa det.
  • 16:51 - 16:54
    Så föreställ er om vi kan hjälpa till
    att öka effektiviteten
  • 16:54 - 16:56
    med hjälp av djupinlärning.
  • 16:56 - 16:59
    Så, de här möjligheterna
    gör mig väldigt ivrig.
  • 16:59 - 17:01
    Jag är också bekymrad över problemen.
  • 17:01 - 17:04
    Problemet är att i alla blå områden
    på den här kartan
  • 17:04 - 17:08
    består jobben till 80 procent av tjänster.
  • 17:08 - 17:10
    Vad är tjänster?
  • 17:10 - 17:11
    Det här är tjänster.
  • 17:11 - 17:16
    Det här är också precis vad datorerna
    har lärt sig att göra.
  • 17:16 - 17:19
    Så 80 procent av jobben
    i den utvecklade världen
  • 17:19 - 17:22
    utför sånt som datorer
    precis har lärt sig att göra.
  • 17:22 - 17:23
    Vad betyder det här?
  • 17:23 - 17:26
    Nå, det blir fint.
    Nya jobb kommer att ersätta dem.
  • 17:26 - 17:29
    Till exempel blir det fler jobb
    för forskare inom data.
  • 17:29 - 17:30
    Eller, inte riktigt.
  • 17:30 - 17:33
    Det tar inte en forskare särskilt lång tid
    att bygga en sån här.
  • 17:33 - 17:36
    De här fyra algoritmerna, till exempel,
    har alla byggts av samma kille.
  • 17:36 - 17:38
    Så, om ni tänker att,
    "Åh, det här har hänt förr,
  • 17:38 - 17:42
    vi har sett det här hända
    när nya saker har uppfunnits
  • 17:42 - 17:44
    och de har ersatts av nya jobb,
  • 17:44 - 17:46
    vilka kommer de nya jobben att vara?"
  • 17:46 - 17:48
    Det är väldigt svårt att räkna ut,
  • 17:48 - 17:51
    eftersom mänsklig prestationsförmåga
    utvecklas gradvis,
  • 17:51 - 17:54
    emedan vi nu har ett system,
    djupinlärning, som vi vet
  • 17:54 - 17:57
    faktiskt utvecklas exponentiellt.
  • 17:57 - 17:58
    Och vi är här.
  • 17:58 - 18:01
    Så nu ser vi saker omkring oss och
  • 18:01 - 18:03
    och vi tänker "Åh, datorer är
    rätt korkade." Eller hur?
  • 18:03 - 18:07
    Men om fem år kommer datorerna
    att ha lämnat oss långt bakom sig.
  • 18:07 - 18:11
    Så vi behöver börja tänka på
    den här förmågan redan nu.
  • 18:11 - 18:12
    Vi har sett det en gång tidigare förstås.
  • 18:12 - 18:14
    I den industriella revolutionen
  • 18:14 - 18:17
    såg vi en stegvis förändring
    i prestanda tack vare motorer.
  • 18:18 - 18:21
    Saken är den, att efter en stund
    flackade kurvan ut.
  • 18:21 - 18:22
    Det orsakade social förändring,
  • 18:22 - 18:26
    men så snart motorerna användes
    för att generera kraft i alla situationer
  • 18:26 - 18:28
    så lugnade det ner sig.
  • 18:28 - 18:29
    Maskininlärningsrevolutionen
  • 18:29 - 18:32
    kommer skilja sig mycket
    från den industriella revolutionen,
  • 18:32 - 18:36
    därför att maskininlärningsrevolutionen
    aldrig kommer att lugna ner sig.
  • 18:36 - 18:38
    Ju bättre datorer blir
    på intellektuella aktiviteter
  • 18:38 - 18:43
    desto bättre kan de bygga bättre datorer
    som har större intellektuella förmågor,
  • 18:43 - 18:45
    så det här kommer att bli en förändring
  • 18:45 - 18:47
    som världen aldrig förr har upplevt,
  • 18:47 - 18:50
    så er tidigare uppfattning
    om vad som är möjligt förändras.
  • 18:51 - 18:53
    Det här påverkar oss redan.
  • 18:53 - 18:56
    Under de senaste 25 åren
    har kapitalproduktiviteten ökat,
  • 18:56 - 19:01
    arbetsproduktivitet är oförändrad,
    faktiskt en aning minskande.
  • 19:01 - 19:04
    Så jag vill att vi börjar
    diskutera det här nu.
  • 19:04 - 19:07
    Jag vet att ganska ofta
    när jag berättar om det här,
  • 19:07 - 19:09
    kan folk vara ganska avfärdande.
  • 19:09 - 19:10
    Datorer kan inte tänka på riktigt,
  • 19:10 - 19:13
    de har inga känslor,
    de förstår inte poesi,
  • 19:13 - 19:16
    vi förstår inte riktigt hur de fungerar.
  • 19:16 - 19:17
    Så vadå?
  • 19:17 - 19:19
    Just nu kan datorer göra det
  • 19:19 - 19:22
    som människor ägnar det mesta
    av sin tid åt att göra för att få betalt,
  • 19:22 - 19:24
    så det är hög tid att börja tänka
  • 19:24 - 19:28
    på hur vi ska anpassa
    våra sociala och ekonomiska strukturer
  • 19:28 - 19:30
    för att klara av den nya verkligheten.
  • 19:30 - 19:31
    Tack.
  • 19:31 - 19:32
    (Applåder)
Title:
De underbara och skrämmande konsekvenserna av datorer som kan lära sig
Speaker:
Jeremy Howard
Description:

Vad händer när vi lär en dator att lära sig? Teknologen Jeremy Howard delar med sig av ny, överraskande utveckling på det snabbt föränderliga djupinlärningsområdet. En teknik som kan ge datorer förmågan att lära sig kinesiska, eller känna igen objekt i bilder, eller hjälpa till med en noggrann medicinsk diagnos. (Ett djupinlärningsverktyg förstod på egen hand konceptet "katter" efter att ha tittat på YouTube i timtal.) Låt dig fångas av ett område som kommer att ändra hur datorerna omkring dig fungerar... fortare än du sannolikt tror.

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
19:45

Swedish subtitles

Revisions