< Return to Video

Miten ihmiset ja tekoäly voivat yhdessä luoda parempia bisnesmalleja

  • 0:01 - 0:03
    Kerron teille paradoksista.
  • 0:04 - 0:06
    Viimeisen kymmenen vuoden ajan
  • 0:06 - 0:10
    monet yhtiöt ovat yrittäneet
    vähentää byrokratiaa,
  • 0:10 - 0:13
    luopua monista säännöistä
    ja ohjeista
  • 0:13 - 0:16
    ja antaa tiimeille mahdollisuuksia
    vapaasti päättää toiminnastaan.
  • 0:16 - 0:21
    Nyt ne haluavat hyödyntää tekoälyä
  • 0:21 - 0:23
    ymmärtämättä, että teknologia
  • 0:23 - 0:27
    voi tehdä niistä entistä
    byrokraattisempia.
  • 0:27 - 0:29
    Miksi?
  • 0:29 - 0:32
    Tekoäly toimii aivan kuten
    byrokraattinen systeemi.
  • 0:32 - 0:35
    Byrokratian ytimessä on
  • 0:35 - 0:39
    noudattaa sääntöjä ja proseduureja
    eikä tehdä inhimillisiä ratkaisuja.
  • 0:40 - 0:44
    Tekoäly nojaa yksinomaan sääntöihin.
  • 0:44 - 0:47
    Monet säännöt johdetaan
    aiemmasta tiedosta,
  • 0:47 - 0:49
    mutta ne ovat edelleen sääntöjä.
  • 0:49 - 0:53
    Jos ihmisen päätöksenteko ei ole
    mukana prosessissa,
  • 0:53 - 0:58
    tekoäly tuo mukanaan
    karmean uuden byrokratian muodon,
  • 0:58 - 1:01
    jota kutsun algokratiaksi;
  • 1:01 - 1:05
    siinä tekoäly tekee sääntöjen
    ohjaamana päätöksiä
  • 1:05 - 1:07
    ihmisen kontrolloimatta tulosta.
  • 1:08 - 1:10
    Onko tämä riski?
  • 1:11 - 1:12
    Kyllä.
  • 1:12 - 1:15
    Johdan 800 tekoälyammattilaisen tiimiä.
  • 1:15 - 1:19
    Olemme kehittäneet yli 100
    tekoälyratkaisua asiakkaillemme,
  • 1:19 - 1:21
    jotka ovat suuryrityksiä eri puolilla
    maailmaa.
  • 1:21 - 1:27
    Monet yritysjohtajat näyttävät toimivan
    kuin menneisyyden byrokraatit.
  • 1:28 - 1:33
    He haluavat irrottaa kalliit,
    vanhanaikaiset ihmiset prosessista
  • 1:33 - 1:37
    ja luottaa pelkästään tekoälyyn
    päätöksissä.
  • 1:37 - 1:41
    Kutsun tätä ihmisnolla-ajatteluksi.
  • 1:42 - 1:44
    Miksi se on niin houkuttavaa?
  • 1:45 - 1:50
    Koska toinen tie,
    ihminen + tekoäly, on pitkä,
  • 1:50 - 1:53
    kallis ja vaikea.
  • 1:53 - 1:56
    Bisnestiimit, tekniset tiimit,
    ja datatiimit
  • 1:56 - 1:58
    joutuvat kuukausien töihin
  • 1:58 - 2:04
    saadakseen ihmiset ja tekoälyn toimimaan
    hyvin yhdessä.
  • 2:04 - 2:08
    Pitkää, kallista, vaikeaa.
  • 2:08 - 2:10
    Mutta palkkio on huikea.
  • 2:10 - 2:14
    Tuore BCG:n ja MIT:n tutkimus
  • 2:14 - 2:18
    osoittaa, että vain 18 prosenttia niistä
    yrityksistä maailmassa,
  • 2:18 - 2:20
    jotka käyttävät tekoälyä,
  • 2:20 - 2:23
    rikastuu sillä.
  • 2:23 - 2:29
    Nämä yritykset keskittävät
    80 % tekoälyaloitteistaan
  • 2:29 - 2:31
    tehokkuuteen ja kasvuun,
  • 2:31 - 2:33
    tekevät parempia päätöksiä --
  • 2:33 - 2:36
    eivätkä korvaa ihmisiä
    tekoälyllä säästääkseen.
  • 2:38 - 2:41
    Miksi ihmiset ovat tärkeä osa
    päätöksentekoa?
  • 2:42 - 2:47
    Yksinkertaisesti siksi, että
    tekoäly on omillaan hyvin tyhmä.
  • 2:47 - 2:51
    Joskus sillä ei ole seurauksia,
    kuten tämä tviitti:
  • 2:51 - 2:53
    "Rakas Amazon,
  • 2:53 - 2:54
    ostin vessanistuimen.
  • 2:54 - 2:56
    Välttämättömyydestä, en halusta.
  • 2:56 - 2:57
    En keräile niitä
  • 2:57 - 3:00
    en ole wc-istuinriippuvainen.
  • 3:00 - 3:02
    Kuinka houkuttelevasti markkinoittekaan
    niitä,
  • 3:02 - 3:04
    en tule ajattelemaan: ok, olkoon,
  • 3:04 - 3:06
    vielä yksi wc-istuin, ansaitsen sen."
  • 3:06 - 3:08
    (naurua)
  • 3:08 - 3:12
    Joskus seurauksia on enemmän, kuten
    tämä tviitti osoittaa.
  • 3:13 - 3:15
    "Minulle tapahtui sama,
  • 3:15 - 3:17
    kun ostin äidilleni tuhkauurnan,"
  • 3:17 - 3:18
    (naurua)
  • 3:18 - 3:20
    "Sain monta kuukautta hänen
  • 3:20 - 3:23
    kuolemansa jälkeen Amazonilta
    viestejä tyyliin jos pidit tästä...' "
  • 3:23 - 3:25
    (naurua)
  • 3:25 - 3:28
    Joskus vieläkin pahempia seurauksia.
  • 3:28 - 3:33
    Kuvittele tekoäly hylkäämässä
    yliopistoon pyrkivää opiskelijaa.
  • 3:33 - 3:34
    Miksi?
  • 3:34 - 3:36
    Koska se on "oppinut" aiemmasta datasta
  • 3:36 - 3:40
    piirteitä, jotka ennustavat, tuleeko
    opiskelija onnistumaan.
  • 3:40 - 3:42
    Opintomenestys on niistä ilmeinen.
  • 3:42 - 3:47
    Mutta jos aiemmin kaikki opiskelijat
    tietyltä alueelta ovat keskeyttäneet,
  • 3:47 - 3:51
    tekoäly laatii säännön, jonka mukaan
  • 3:51 - 3:55
    se hylkää kaikki tältä postinumeroalueelta
    olevat opiskelijat
  • 3:55 - 3:59
    antamatta heille mahdollisuutta
    osoittaa sääntöä vääräksi.
  • 4:00 - 4:02
    Kukaan ei pysty tarkistamaan kaikkia
    sääntöjä,
  • 4:02 - 4:06
    koska kehittynyt tekoäly oppii
    koko ajan uutta.
  • 4:06 - 4:09
    Jos ihmiset pidetään poissa,
  • 4:09 - 4:12
    tuloksena on algokraattinen painajainen.
  • 4:12 - 4:15
    Kuka vastaa opiskelijan
    hylkäämisestä?
  • 4:15 - 4:17
    Ei kukaan, tekoäly teki sen.
  • 4:17 - 4:19
    Onko se reilua? Kyllä.
  • 4:19 - 4:22
    Samat säännöt koskevat kaikkia
    sisäänpyrkijöitä.
  • 4:22 - 4:26
    Voisimmeko harkita uudestaan
    väärältä alueelta tulevaa fiksua nuorta?
  • 4:27 - 4:30
    Emme, sillä algoritmit eivät ajattele.
  • 4:31 - 4:33
    Me teemme päätöksen.
  • 4:34 - 4:36
    Jatkammeko algokratian kanssa
  • 4:36 - 4:39
    vai päätämmekö lisätä ihmisen yhtälöön.
  • 4:39 - 4:41
    Sen tehdäksemme
  • 4:41 - 4:44
    emme voi ajatella tekniikka edellä
  • 4:44 - 4:48
    ja meidän on sovellettava
    salaista kaavaa.
  • 4:49 - 4:51
    Jotta päästään tilaan Ihminen plus tekoäly
  • 4:51 - 4:54
    10 prosenttia työstä menee koodaamiseen,
  • 4:54 - 4:57
    20 prosenttia koodin ympärillä olevaan
    teknologiaan
  • 4:57 - 5:01
    kuten datankeruuseen, käyttöliittymään,
    järjestelmien yhteensopivuuteen.
  • 5:01 - 5:04
    Mutta suurin osa, 70 prosenttia urakasta
  • 5:04 - 5:09
    menee tekoälyn liittämiseen ihmisiin ja
    prosesseihin
  • 5:09 - 5:11
    lopputuloksen maksimoimiseksi.
  • 5:12 - 5:17
    Tekoäly epäonnistuu, kun tämä
    70 prosenttia leikataan pois.
  • 5:17 - 5:20
    Hintalappu tälle voi olla pieni,
  • 5:20 - 5:24
    mutta se voi myös tuhlata miljoonia
    hyödyttömään teknologiaan.
  • 5:24 - 5:25
    Välittääkö kukaan?
  • 5:26 - 5:28
    Se voi johtaa myös tragedioihin.
  • 5:29 - 5:37
    kuten 346 kuolonuhriin kahdessa B-737
    lentokoneen onnettomuudessa,
  • 5:37 - 5:40
    joissa lentäjät eivät voineet vaikuttaa
  • 5:40 - 5:43
    tietokoneohjaukseen.
  • 5:44 - 5:46
    Onnistuneeseen 70 prosenttiin
  • 5:46 - 5:51
    ensiaskel on varmistaa, että
    algoritmejä koodatessa mukana ovat
  • 5:51 - 5:53
    sekä datan että kyseisen alan
    asiantuntijat.
  • 5:53 - 5:56
    Esimerkiksi terveydenhoitoala.
  • 5:56 - 6:00
    Tiimi työskenteli uuden lääkkeen parissa,
    johon liittyi ongelma.
  • 6:01 - 6:02
    Ensimmäisen annoksen yhteydessä
  • 6:02 - 6:06
    jotkut harvat potilaat
    saivat sydänkohtauksen.
  • 6:06 - 6:09
    Siksi kaikkien potilaiden oli
    ensimmäisen annoksen yhteydessä
  • 6:09 - 6:12
    vietettävä yksi päivä sairaalassa
  • 6:12 - 6:14
    varmuuden vuoksi tarkkailtavana.
  • 6:15 - 6:20
    Halusimme tunnistaa potilaat,
    joiden riski saada sydänkohtaus oli nolla,
  • 6:20 - 6:23
    jotta säästyttäisiin sairaalapäiviltä.
  • 6:23 - 6:27
    Käytimme tekoälyä analysoimaan
    kliinisten kokeiden dataa
  • 6:28 - 6:33
    ja yhdistämään EKG-signaalin, verenkuvan
    ja biomarkkerit
  • 6:33 - 6:35
    sydänkohtausriskiin.
  • 6:35 - 6:37
    Kuukaudessa
  • 6:37 - 6:43
    mallimme pystyi merkkaamaan
    62 prosenttia potilaista nollariskisiksi
  • 6:43 - 6:45
    eivätkä he tarvinneet päivää sairaalassa.
  • 6:46 - 6:49
    Tuntisikto olosi turvalliseksi
    kotona ensimmäisen annoksen aikaan,
  • 6:49 - 6:51
    jos algoritmi päättäisi siitä?
  • 6:51 - 6:52
    (naurua)
  • 6:52 - 6:54
    Lääkärit eivät.
  • 6:54 - 6:56
    Mitä jos meillä on vääriä
    negatiivisia,
  • 6:56 - 7:02
    eli tekoäly ohjaa heidät koteihin
    mutta he kuolevat?
  • 7:02 - 7:03
    (naurua)
  • 7:03 - 7:05
    Tästä alkoi meidän 70 prosenttiamme.
  • 7:05 - 7:07
    Lääkäritiimin kanssa
  • 7:07 - 7:11
    tutkimme mallin muuttujia
    ja niiden lääketieteellistä pohjaa
  • 7:12 - 7:16
    Käytimme esimerkiksi maksan entsyymin
    pitoisuutta
  • 7:16 - 7:17
    ennustajana,
  • 7:17 - 7:21
    mutta lääketieteen logiikka
    ei ollut ilmeinen.
  • 7:21 - 7:24
    Tilastollisesti signaali oli vahva.
  • 7:24 - 7:27
    Mutta entä jos otoksemme oli vinoutunut?
  • 7:27 - 7:30
    Tämä muuttuja poistettiin aineistosta.
  • 7:30 - 7:34
    Poistimme myös ennustetietoja,
    joista asiantuntijat kertoivat,
  • 7:34 - 7:38
    että niiden mittaaminen ei
    onnistu tarkkaan oikeassa elämässä.
  • 7:38 - 7:40
    Neljän kuukauden päästä meillä
  • 7:40 - 7:43
    oli malli ja lääketieteellinen protokolla.
  • 7:44 - 7:45
    Ne saivat viranomaisilta
  • 7:45 - 7:48
    hyväksynnän viime keväänä
    Yhdysvalloissa
  • 7:48 - 7:52
    ja puolet potilaista kokee nyt
    vähemmän stressiä
  • 7:52 - 7:54
    ja enemmän elämänlaatua.
  • 7:54 - 7:59
    Odotettu kasvu lääkkeen myynnissä
    ylittää 100 miljoonaa.
  • 8:00 - 8:04
    70 prosenttia tekoälyn, tiimien
    ja prosessien punomiseen yhteen
  • 8:04 - 8:07
    tarkoittaa siis vahvaa liittoa,
  • 8:07 - 8:13
    jossa ihmiset ja tekoäly yhdessä
    ratkovat vaikeita ongelmia.
  • 8:13 - 8:18
    Kerran saimme muodin
    jälleenmyyjältä haasteen.
  • 8:19 - 8:22
    "Meillä on maailman parhaat ostajat.
  • 8:22 - 8:27
    Pystyttekö rakentamaan tekoälyn, joka
    pystyy ennustamaan myyntiä heitä paremmin?
  • 8:27 - 8:31
    Kertomaan, paljonko korkealuokkaisia,
    vaaleanvihreitä miesten XL-paitoja
  • 8:31 - 8:33
    kannattaa hankkia ensi vuodeksi?
  • 8:33 - 8:36
    Ennustamaan mikä myy ja mikä ei
  • 8:36 - 8:38
    paremmin kuin suunnittelijamme."
  • 8:38 - 8:42
    Tiimimme harjoitutti tekoälyllä mallia
    joitakin viikkoja aiemmalla tiedolla
  • 8:42 - 8:46
    ja järjestettiin kilpailu tekoälyn ja
    ihmisammattilaisten välillä.
  • 8:46 - 8:47
    Tulos?
  • 8:48 - 8:53
    Tekoäly voitti vähentäen ennustusvirheitä
    25 prosenttia.
  • 8:54 - 8:59
    Ihmisnollatyypit olisivat ottaneet
    käyttöön tämän alkuperäisen mallin
  • 8:59 - 9:02
    ja kilpailleet ihmisostajia vastaan.
  • 9:02 - 9:03
    Pitäkää hauskaa.
  • 9:03 - 9:08
    Tiesimme kuitenkin, että ihmisostajilla
    oli muotitrendeistä ymmärrystä,
  • 9:08 - 9:11
    jota ei löydy menneestä myyntitiedosta.
  • 9:12 - 9:15
    Alkoi 70 prosentin vaihe.
  • 9:15 - 9:17
    Toisessa testissä
  • 9:17 - 9:20
    ihmisostajat arvioivat
    tekoälyn
  • 9:20 - 9:21
    määrarvioita,
  • 9:21 - 9:24
    ja pystyivät korjaamaan niitä.
  • 9:24 - 9:25
    Tulos?
  • 9:26 - 9:28
    Tekoälyä käyttävät ihmiset...
  • 9:28 - 9:29
    häviävät.
  • 9:30 - 9:34
    75 prosenttia ihmisten tekemistä
    korjauksista
  • 9:34 - 9:36
    vähensi niiden tarkkuutta.
  • 9:37 - 9:40
    Oliko tullut aika päästä ihmisistä alalla?
  • 9:40 - 9:41
    Ei.
  • 9:41 - 9:44
    Oli aika luoda malli,
  • 9:44 - 9:49
    jossa ihmiset eivät yritä arvata
    milloin tekoäly on väärässä,
  • 9:49 - 9:54
    vaan jossa tekoäly saa oikeaa tietoa
    sisäänostajilta.
  • 9:55 - 9:57
    Muotoilimme mallin uusiksi
  • 9:57 - 10:03
    ja luovuimme alkuperäisestä ideasta,
    joka oli enemmän tai vähemmän
  • 10:03 - 10:05
    tyyppiä "Ihminen! Tässä ennustukseni,
  • 10:05 - 10:07
    korjaa mitä ikinä tahdot,"
  • 10:07 - 10:10
    ja siirryimme rikkaampaan, tyyliin
  • 10:10 - 10:12
    "Ihmiset!
  • 10:12 - 10:14
    En tiedä mikä on seuraava trendi,
  • 10:14 - 10:17
    voisitteko jakaa minulle
    luovimmat arvauksenne?"
  • 10:18 - 10:20
    "Ihmiset!
  • 10:20 - 10:22
    Voisitteko auttaa minua
    näiden isojen lukujen kanssa,
  • 10:22 - 10:26
    en löydä menneestä hyvää
    vertailuaineistoa niille."
  • 10:26 - 10:28
    Tulos?
  • 10:28 - 10:30
    Ihmiset plus tekoäly voittaa,
  • 10:30 - 10:34
    virheiden määrä tippui 50 prosentilla,
  • 10:36 - 10:39
    Kesti vuoden saattaa työkalu kuntoon.
  • 10:39 - 10:42
    Pitkä, kallis ja vaikea prosessi.
  • 10:43 - 10:45
    Mutta yrityksen voitot ja hyödyt
  • 10:45 - 10:51
    kasvoivat yhdessä vuosittaisen 100
    miljoonan säästön kanssa.
  • 10:51 - 10:54
    70 prosentin työ hyvin aroilla alueilla
  • 10:54 - 10:58
    tarkoittaa myös, että ihmiset
    tekevät eettiset päätökset
  • 10:58 - 11:02
    ja määrittelevät, mitä tekoäly
    saa ja ei saa tehdä,
  • 11:02 - 11:06
    kuten asettavat hintalukot, jotta
    hinnoittelukoneet
  • 11:06 - 11:10
    eivät aseta järktyttävän korkeita hintoja
    kouluttamattomille asiakkaille,
  • 11:10 - 11:12
    jotka hyväksyisivät ne.
  • 11:13 - 11:15
    Vain ihmiset voivat asettaa näitä rajoja,
  • 11:15 - 11:19
    tekoäly ei löydä niitä
    vanhasta datasta.
  • 11:19 - 11:22
    Jotkut tilanteet ovat
    harmaalla vyöhykkeellä.
  • 11:22 - 11:25
    Eräs asiakkaamme oli terveysvakuuttaja.
  • 11:25 - 11:30
    Hän kehitti tekoälyohjelmaa,
    joka tunnistaisi, ketkä asiakkaista
  • 11:30 - 11:32
    olisivat juuri menossa sairaalaan
  • 11:32 - 11:34
    myydäkseen heille premium-vakuutuksen.
  • 11:35 - 11:36
    Ongelma oli, että
  • 11:36 - 11:39
    myyjätiimi soitti joillekin
    kohderyhmästä,
  • 11:39 - 11:42
    kun he eivät itse edes tienneet,
  • 11:42 - 11:45
    että heitä odotti sairaalakäynti.
  • 11:46 - 11:48
    Tämän fiman toimitusjohtajana
  • 11:48 - 11:50
    lopettaisitko ohjelman?
  • 11:51 - 11:52
    Kysymys on vaikea.
  • 11:53 - 11:56
    Siksi monet yritykset rakentavat
    tiimejä,
  • 11:56 - 12:02
    jotka määrittävät eettisiä sääntöjä
    ja stardardeja muille tiimeille
  • 12:02 - 12:06
    kohdentamisesta ja manipulaatiosta,
  • 12:06 - 12:09
    tarjousten ja syrjinnän kohdentamisesta,
  • 12:09 - 12:11
    mainonnasta ja yksityisyydestä.
  • 12:13 - 12:16
    Uskon, että jokainen yritys,
  • 12:16 - 12:21
    joka soveltaa tekoälyä
    tarkoituksenmukaisesti, hyötyy.
  • 12:21 - 12:24
    Yritysjohdon tulee olla rohkeaa
  • 12:24 - 12:26
    ja valita joitakin alueita,
  • 12:26 - 12:31
    ja niihin kuhunkin saada 10, 20, 30
    ihmistä parhaista tiimeistään --
  • 12:31 - 12:34
    teknikkoja, koodareita, eetikkoja --
  • 12:34 - 12:38
    ja käydä läpi 10, 20 ja 70 prosentin
    sykli
  • 12:38 - 12:40
    yhtälöstä "ihminen ja tekoäly,"
  • 12:40 - 12:44
    jos he haluavat tekoälystä
    tehoa tiimeille ja prosesseille.
  • 12:45 - 12:47
    Muuta tietä ei ole.
  • 12:47 - 12:52
    Kehittyneiden maiden kansalaiset
    pelkäävät jo algokratiaa.
  • 12:52 - 12:56
    7000 ihmisen haastattelututkimuksessa
  • 12:56 - 13:00
    yli 75 prosenttia ilmaisi
    olevansa huolestunut
  • 13:00 - 13:04
    tekoälyn vaikutuksesta
    työvoimaan, yksityisyyteen,
  • 13:04 - 13:07
    dehumanisoidun yhteiskunnan riskistä.
  • 13:07 - 13:13
    Algokratian tavoittelu on todellinen
    riski myös takaiskulle tekoälyn suhteen
  • 13:13 - 13:17
    yrityksissä ja yhteiskunnallisesti.
  • 13:17 - 13:20
    "Ihminen ja tekoäly" on ainoa mahdollisuus
  • 13:20 - 13:23
    tuoda tekoälyn hyödyt oikeaan elämään.
  • 13:24 - 13:25
    Lopulta
  • 13:25 - 13:29
    voittavat organisatiot
    investoivat inhimilliseen tietoon,
  • 13:29 - 13:32
    ei vain tekoälyyn ja dataan.
  • 13:33 - 13:36
    Värväys, koulutus,
    asiantuntijoiden palkitseminen.
  • 13:37 - 13:40
    Vaikka data olisi uutta öljyä,
  • 13:40 - 13:44
    inhimillinen tieto on merkittävä
    kilpailuetu,
  • 13:44 - 13:48
    sillä se on ainoa tapa
  • 13:48 - 13:51
    pumpata esille dataan piilotettu öljy.
  • 13:53 - 13:54
    Kiitos.
  • 13:54 - 13:58
    (aplodeja)
Title:
Miten ihmiset ja tekoäly voivat yhdessä luoda parempia bisnesmalleja
Speaker:
Sylvain Duranton
Description:

Tässä paradoksi: kun yritykset pyrkivät lisäämään kassavirtaa käyttämällä tekoälyä päätöksenteossa, ne saattavat tahtomattaan vähentää tehokkuuttaan. Bisnesteknologi Sylvain Duranton kannattaa "Ihminen ja tekoäly" -lähestymistapaa, jossa tekoälyä käytetään yhdessä ihmisten kanssa eikä heidän sijastaan, ja hän esittelee kaavan, jota soveltamalla yritykset voivat käyttää tekoälyä ja samalla pitää ihmisen mukana päätöksenteossa.

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
14:10
  • Kuvaukseen jäi kirjoitusvirheitä, jotka on syytä korjata.

Finnish subtitles

Revisions