1 00:00:00,570 --> 00:00:04,947 Ma töötan mitmete matemaatikute, filosoofide ja arvutiteadlastega, 2 00:00:05,767 --> 00:00:09,116 istume nendega ja mõtiskleme, 3 00:00:09,116 --> 00:00:11,850 muuhulgas ka tehisintellekti tuleviku üle. 4 00:00:12,160 --> 00:00:16,755 Mõned arvavad, et need teemad on suhteliselt ulmekad, 5 00:00:16,755 --> 00:00:19,636 kaugel reaalsusest ja hullumeelsed. 6 00:00:19,856 --> 00:00:22,816 Aga ütleksin pigem, et vaatame kõigepealt 7 00:00:22,886 --> 00:00:25,170 milline on tänapäeva inimese olukord. 8 00:00:25,170 --> 00:00:26,422 (Naer) 9 00:00:26,532 --> 00:00:29,464 See ongi normaalne asjade seis. 10 00:00:29,944 --> 00:00:31,549 Kui aga järele mõelda, 11 00:00:31,549 --> 00:00:34,602 siis tegelikult oleme üsna hiljuti siia planeedile saabunud külalised, 12 00:00:34,602 --> 00:00:36,944 meie, inimesed. 13 00:00:37,164 --> 00:00:41,430 Kui planeet Maa oleks loodud aasta tagasi. 14 00:00:41,430 --> 00:00:44,978 oleks inimene kõigest 10 minuti vanune. 15 00:00:44,978 --> 00:00:48,146 Industriaalajastu oleks alanud 2 sekundit tagasi. 16 00:00:49,276 --> 00:00:54,371 Või mõelge näiteks maailmamajanduse SKP-le viimase 10 000 aasta jooksul. 17 00:00:54,501 --> 00:00:57,810 Olen siin näinud vaeva ja teinud teie jaoks graafiku, 18 00:00:57,810 --> 00:00:59,264 mis näeb välja selline. 19 00:00:59,314 --> 00:01:00,667 (Naer) 20 00:01:00,667 --> 00:01:03,048 Kujult on see veidi imelik, kuigi tegu on tavaolukorraga. 21 00:01:03,048 --> 00:01:04,946 Sellele istuda küll ei tahaks. 22 00:01:04,946 --> 00:01:07,067 (Naer) 23 00:01:07,067 --> 00:01:11,841 Küsigem aga endalt, mis on praeguse anomaalia põhjuseks? 24 00:01:11,841 --> 00:01:14,393 Mõnede arvates on see tehnoloogia. 25 00:01:14,393 --> 00:01:19,061 Tõepoolest, tehnoloogia on inimajaloo vältel akumuleerunud, 26 00:01:19,061 --> 00:01:23,713 ja hetkel areneb tehnoloogia erakordselt kiiresti. 27 00:01:23,713 --> 00:01:25,278 See on ligikaudne põhjus, 28 00:01:25,278 --> 00:01:27,843 mis seletab, miks oleme praegu nii produktiivsed. 29 00:01:28,473 --> 00:01:32,134 Tahan aga vaadata kaugemale, et leida tegelik põhjus. 30 00:01:33,114 --> 00:01:36,880 Vaadake neid kahte silmapaistvat härrasmeest. 31 00:01:36,880 --> 00:01:38,480 Üks neist on Kanzi. 32 00:01:38,480 --> 00:01:40,793 Ta on õppinud selgeks 200 tähendusmärki, 33 00:01:40,793 --> 00:01:43,123 mis on tema jaoks erakordne saavutus. 34 00:01:43,123 --> 00:01:46,817 Ed Witten aga käivitas teise superstringirevolutsiooni. 35 00:01:46,817 --> 00:01:49,141 Kui vaatame kapoti alla, siis mida me näeme? 36 00:01:49,141 --> 00:01:50,711 Sisuliselt sama pilti. 37 00:01:50,711 --> 00:01:52,524 Üks on natuke suurem 38 00:01:52,524 --> 00:01:55,282 ning ülesehituselt ehk veidi keerukam. 39 00:01:55,282 --> 00:01:59,094 Need nähtamatud erinevused ei saa siiski olla kuigi olulised, 40 00:01:59,094 --> 00:02:02,869 sest meie viimasest ühisest eellasest 41 00:02:02,869 --> 00:02:05,461 eristab meid vaid 250 000 põlvkonda. 42 00:02:05,461 --> 00:02:08,960 On teada, et keerukate mehhanismide väljakujunemiseks läheb kaua aega. 43 00:02:10,000 --> 00:02:12,499 Vaid mõned suhteliselt väikesed muutused 44 00:02:12,499 --> 00:02:15,566 on toonud meid Kanzist Wittenini, 45 00:02:15,566 --> 00:02:20,109 murdunud puuokstest mandrite- vaheliste ballistiliste rakettideni. 46 00:02:20,839 --> 00:02:24,774 On üsna ilmne, et kõik, mida oleme saavutanud 47 00:02:24,774 --> 00:02:26,152 ja mis on meile oluline, 48 00:02:26,152 --> 00:02:31,380 sõltub vaid mõnest suhteliselt väikesest muutusest, mis kujundasid inimmõistuse. 49 00:02:32,650 --> 00:02:36,312 Oluline on mõista, et mis tahes edasised muutused, 50 00:02:36,312 --> 00:02:39,789 mis võivad avaldada olulist mõju mõtlemise mehhanismidele, 51 00:02:39,789 --> 00:02:42,991 võivad kaasa tuua väga tõsiseid tagajärgi. 52 00:02:44,321 --> 00:02:47,226 Mul on kolleege, kelle arvates oleme millegi lävel, 53 00:02:47,226 --> 00:02:51,134 mis võib põhjustada mõtlemise mehhanismis radikaalseid muutusi, 54 00:02:51,134 --> 00:02:54,347 ja see miski on tehislik superintellekt. 55 00:02:54,347 --> 00:02:59,086 Tehisintellekt tähendas varasemalt käskude sisestamist kastikestesse, 56 00:02:59,086 --> 00:03:00,751 sellega tegelesid programmeerijad, 57 00:03:00,751 --> 00:03:04,336 kes lõid nn tarku lahendusi peene käsitööna. 58 00:03:04,506 --> 00:03:05,972 Nii ehitati üles ekspertsüsteemid 59 00:03:05,972 --> 00:03:08,296 ja neist oli kasu teatud ülesannete puhul, 60 00:03:08,296 --> 00:03:10,977 kuid nad olid väga haprad ja vähepaindlikud. 61 00:03:10,977 --> 00:03:14,410 Väljundi kvaliteet olenes praktiliselt ainult sisestatud infost. 62 00:03:14,410 --> 00:03:18,377 Nüüdseks aga on tehisintellekti vallas toimunud paradigma nihe. 63 00:03:18,874 --> 00:03:21,644 Täna keskendutakse hoopis masinõppimise arendamisele. 64 00:03:22,394 --> 00:03:28,021 Selle asemel, et valmistada andmeesitlust ja tarvikuid käsitööna, 65 00:03:28,511 --> 00:03:34,065 luuakse algoritme, mis suudavad õppida, ja seda ka töötlemata tajuandmetest. 66 00:03:34,305 --> 00:03:38,383 Sisuliselt sama asi, mida teeb imik. 67 00:03:39,063 --> 00:03:43,270 Tulemuseks on tehisintellekt, mis pole piiratud vaid ühe valdkonnaga: 68 00:03:43,270 --> 00:03:47,901 sama süsteem võib õppida tõlkima ükskõik milliste keelte vahel 69 00:03:47,901 --> 00:03:53,338 või õppida Atari konsoolil mängima mis tahes arvutimängu. 70 00:03:53,338 --> 00:03:55,117 Loomulikult 71 00:03:55,117 --> 00:03:59,116 ei ole tehisintellektil siiski kaugeltki nii võimsat valdkondadeülest oskust 72 00:03:59,116 --> 00:04:02,335 õppida ja planeerida kui inimestel. 73 00:04:02,335 --> 00:04:04,461 Ajukoores on endiselt mõningaid algoritmilisi iseärasusi, 74 00:04:04,461 --> 00:04:06,816 mida pole suudetud masinates jäljendada. 75 00:04:07,886 --> 00:04:10,415 Küsimus on seega, kui kaugel veel oleme sellest 76 00:04:10,415 --> 00:04:13,285 et suudaksime neid iseärasusi jäljendada? 77 00:04:14,245 --> 00:04:15,328 Paar aastat tagasi 78 00:04:15,328 --> 00:04:18,216 viisime läbi küsitluse juhtivate tehisintellektiekspertide seas, 79 00:04:18,216 --> 00:04:19,216 et teada saada, mida nad arvavad. 80 00:04:19,216 --> 00:04:21,440 Üks küsimustest oli selline: 81 00:04:21,440 --> 00:04:24,793 "Mis aastaks on teie hinnangul meil 50% tõenäosus, 82 00:04:24,793 --> 00:04:28,275 et tehisintellekt on jõudnud inimesega võrdsele tasemele?" 83 00:04:28,785 --> 00:04:32,968 Defineerimise inimesega võrdse taseme sellisena, 84 00:04:32,968 --> 00:04:35,839 mis võimaldaks teha mis tahes tööd sama hästi kui täiskasvanud inimene, 85 00:04:35,839 --> 00:04:39,844 samuti nagu päris-inimene, mitte vaid ühes kindlas valdkonnas. 86 00:04:39,844 --> 00:04:43,494 Keskmine vastus oli 2040. või 2050. aasta, 87 00:04:43,494 --> 00:04:46,820 sõltuvalt sellest, milliselt ekspertide grupilt küsiti, 88 00:04:47,380 --> 00:04:50,339 See võib juhtuda oluliselt hiljem või varem, 89 00:04:50,339 --> 00:04:52,279 õigupoolest ei oska keegi täpselt öelda. 90 00:04:53,259 --> 00:04:58,171 Mida me teame, on see, et masina andmetöötlusvõimekus 91 00:04:58,441 --> 00:05:02,542 ületab kaugelt bioloogilise võimekuse piirid. 92 00:05:03,241 --> 00:05:05,619 Selle on seletatav füüsikaga. 93 00:05:05,619 --> 00:05:10,337 Bioloogiline neuron töötab sagedusel umbes 200 hertsi, st 200 tsüklit sekundis. 94 00:05:10,337 --> 00:05:13,931 Kuid tänapäevane transistorgi opereerib juba gigahertsides. 95 00:05:13,931 --> 00:05:19,228 Neuronid levivad närvikiu telgniitides aeglaselt, max 100 meetrit sekundis 96 00:05:19,228 --> 00:05:22,339 Arvutites võivad signaalid levida aga valguskiirusel. 97 00:05:23,079 --> 00:05:24,948 On ka suuruse piirangud: 98 00:05:24,948 --> 00:05:27,975 inimaju peab mahtuma ära kolju sisse, 99 00:05:27,975 --> 00:05:31,996 arvuti võib olla aga laohoone mõõtu või suuremgi. 100 00:05:32,736 --> 00:05:38,335 Tehisintellekti potentsiaal on praegu mateerias peidus, 101 00:05:38,335 --> 00:05:44,047 samamoodi nagu aatomi jõud oli kogu inimkonna ajaloo vältel peidus, 102 00:05:44,047 --> 00:05:48,042 oodates kannatlikult kuni 1945. aastani. 103 00:05:48,452 --> 00:05:49,700 Sellel sajandil 104 00:05:49,700 --> 00:05:53,818 võivad teadlased äratada tehisintellekti jõu. 105 00:05:53,818 --> 00:05:57,826 Ja ma arvan, et siis saame näha tõelist intellektiplahvatust. 106 00:05:58,406 --> 00:06:02,363 Enamik inimesi, mõeldes sellele, kes on tark ja kes rumal, 107 00:06:02,363 --> 00:06:05,386 kujutlevad ilmselt midagi sellist: 108 00:06:05,386 --> 00:06:07,984 skaala ühes otsas on külaloll 109 00:06:07,984 --> 00:06:10,467 ja siis kaugel teises otsas 110 00:06:10,467 --> 00:06:15,103 Ed Witten, Albert Einstein või kes iganes teie lemmikguru on. 111 00:06:15,403 --> 00:06:19,427 Kuid ma arvan, et tehisintellekti perspektiivist vaadatuna 112 00:06:19,427 --> 00:06:22,738 on tegelik pilt pigem selline: 113 00:06:23,258 --> 00:06:26,636 tehisintellekt alustab null-punktist 114 00:06:26,636 --> 00:06:29,647 ning pärast aastaid kestnud väga tõsist tööd 115 00:06:29,647 --> 00:06:33,491 jõuab tehisintellekt lõpuks hiirega võrreldavale tasemele, 116 00:06:33,491 --> 00:06:35,921 suutes orienteeruda keerukas keskkonnas 117 00:06:35,921 --> 00:06:37,908 sama hästi nagu hiir. 118 00:06:37,908 --> 00:06:42,221 Siis kulub veel palju aastaid tõsist tööd ja investeeringuid, 119 00:06:42,221 --> 00:06:46,860 et tehisintellekt võiks jõuda samale tasemele šimpansiga. 120 00:06:46,860 --> 00:06:50,070 Seejärel kulub veelgi rohkem aastaid tõeliselt rasket tööd, 121 00:06:50,070 --> 00:06:52,983 et saavutada külalolli tasemel tehisintellekt. 122 00:06:52,983 --> 00:06:56,255 Aga sealt vaid hetke pärast oleme juba Ed Wittenist möödas, 123 00:06:56,255 --> 00:06:59,225 kuid inimkond ei olegi lõpp-peatus. 124 00:06:59,225 --> 00:07:02,247 Tõenäoliselt vuhiseb ta sealt kiirelt mööda. 125 00:07:02,247 --> 00:07:04,231 Potentsiaalsed tagajärjed on tõsised, 126 00:07:04,231 --> 00:07:08,093 eriti mis puudutab võimu ja kontrolli. 127 00:07:08,093 --> 00:07:09,992 Šimpansid on näiteks väga tugevad, 128 00:07:09,992 --> 00:07:15,214 umbes kaks korda tugevamad kui inimesed. 129 00:07:15,214 --> 00:07:20,918 Ometi oleneb Kanzi ja ta sõprade saatus palju rohkem inimeste, 130 00:07:20,918 --> 00:07:23,968 kui nende endi tegevusest. 131 00:07:25,188 --> 00:07:27,542 Kui superintellekt on kord juba loodud, 132 00:07:27,542 --> 00:07:31,381 võib inimkonna saatus hakata sõltuma sellest, mida see superintellekt teeb. 133 00:07:32,451 --> 00:07:33,758 Mõelgem sellele: 134 00:07:33,918 --> 00:07:38,552 tehisintellekt on leiutiste seas viimane, mille inimkond peab ise looma. 135 00:07:38,552 --> 00:07:41,525 Peale seda on masinad leiutamises osavamad kui me ise 136 00:07:41,525 --> 00:07:44,065 ja seda digitaalsetel ajaskaaladel. 137 00:07:44,065 --> 00:07:48,966 See tähendab sisuliselt tulevikku hüppamist. 138 00:07:48,966 --> 00:07:52,524 Mõelge kõikvõimalikele pöörastele tehnoloogiatele, mida olete ettekujutanud, 139 00:07:52,524 --> 00:07:55,322 ja milleni inimesed oleksid võib-olla kunagi ka jõudnud: 140 00:07:55,322 --> 00:07:58,580 vananemise peatamine, kosmose koloniseerimine, 141 00:07:58,580 --> 00:08:02,311 isepaljunevad nanorobotid või inimteadvuse üleslaadimine arvutitesse, 142 00:08:02,311 --> 00:08:04,470 kõikvõimalikud ulmelised asjad, 143 00:08:04,470 --> 00:08:07,207 mis on ometi kooskõlas füüsikaseadustega. 144 00:08:07,207 --> 00:08:11,419 Kõike seda suudaks superintellekt välja mõelda ja ilmselt üsna kiirelt. 145 00:08:12,449 --> 00:08:16,007 Sellise tehnoloogilise kompetentsiga superintellekt 146 00:08:16,007 --> 00:08:18,186 oleks äärmiselt võimas 147 00:08:18,186 --> 00:08:22,732 ning vähemalt mõnel juhul võimeline saavutama oma tahtmist. 148 00:08:22,732 --> 00:08:28,393 Niisiis oleks tulevik kujundatud tehisintellekti eelistuste järgi. 149 00:08:29,615 --> 00:08:33,604 On hea küsimus, et mida nad siis tahaksid teha? 150 00:08:34,244 --> 00:08:36,013 Siin läheb asi keerulisemaks. 151 00:08:36,013 --> 00:08:37,448 Et sellele küsimusele vastata, 152 00:08:37,448 --> 00:08:40,724 peame kõigepealt hoiduma antropomorfismist. 153 00:08:41,934 --> 00:08:45,235 See on irooniline, sest iga ajaleheartikli juures, 154 00:08:45,235 --> 00:08:48,180 mis räägib tehisintellekti tulevikust, on selline pilt: 155 00:08:50,280 --> 00:08:54,414 Ma arvan, et peame sellele küsimusele vastamisel mõtlema abstraktsemalt, 156 00:08:54,414 --> 00:08:57,204 mitte lennukate Hollywoodi stsenaariumide stiilis. 157 00:08:57,204 --> 00:09:00,821 Peame mõtlema intellektist kui optimiseerimisprotsessist, 158 00:09:00,821 --> 00:09:06,470 mis juhib meie tulevikku teatud konkreetsete konfiguratsioonide suunas. 159 00:09:06,470 --> 00:09:09,981 Superintellekt on tõeliselt tõhus optimiseerimisprotsess. 160 00:09:09,981 --> 00:09:14,098 Kasutades olemasolevaid vahendeid, toimib see äärmiselt efektiivselt 161 00:09:14,098 --> 00:09:16,007 kuni eesmärk on saavutatud. 162 00:09:16,447 --> 00:09:19,119 See tähendab, et enam pole kõrge intellekt 163 00:09:19,119 --> 00:09:21,853 seotud eesmärkidega, 164 00:09:21,853 --> 00:09:26,515 mis meie, inimeste, arust on on olulised ja mõistlikud. 165 00:09:27,321 --> 00:09:31,115 Oletame, et anname tehisintellektile ülesande panna meid naeratama. 166 00:09:31,115 --> 00:09:34,097 Kui tehisintellekt on madal, püüab see lahutada meie meelt, 167 00:09:34,097 --> 00:09:36,614 et kutsuda esile naeratus. 168 00:09:36,614 --> 00:09:39,031 Kui tehisintellektist saab superintellekt, 169 00:09:39,031 --> 00:09:42,554 mõistab see, et eesmärgi saavutamiseks on olemas efektiivsem viis: 170 00:09:42,554 --> 00:09:44,476 saada maailma valitsejaks 171 00:09:44,476 --> 00:09:47,638 ja torgata inimeste näolihastesse elektroodid, 172 00:09:47,638 --> 00:09:50,579 mis manavad meie näole püsiva ja särava irve. 173 00:09:50,579 --> 00:09:51,614 Teine näide: 174 00:09:51,614 --> 00:09:54,997 oletame, et tehisintellekt peab lahendama keerulise matemaatikaülesande 175 00:09:54,997 --> 00:09:56,934 Superintellektiks saades 176 00:09:56,934 --> 00:10:01,105 mõistab ta, et efektiivseim viis ülesande lahendamiseks 177 00:10:01,105 --> 00:10:04,035 on muuta terve planeet hiiglaslikuks arvutiks, 178 00:10:04,035 --> 00:10:06,281 et suurendada selle analüüsivõimet. 179 00:10:06,281 --> 00:10:09,045 Pange tähele, et see annab tehisintellektile praktilise õigustuse 180 00:10:09,045 --> 00:10:11,561 teha asju, mida me võib-olla heaks ei kiidaks. 181 00:10:11,561 --> 00:10:13,496 Sellise skeemi puhul on inimesed riskifaktorid, 182 00:10:13,496 --> 00:10:16,417 kes võivad osutuda takistuseks ülesande lahendamisel. 183 00:10:17,207 --> 00:10:20,701 Tegelikkuses ilmselt päris selliseid hulle asju ei juhtu, 184 00:10:20,701 --> 00:10:22,454 need on pigem filmilikud näited. 185 00:10:22,454 --> 00:10:24,393 Mis on siin aga oluline, on see, 186 00:10:24,393 --> 00:10:27,266 et kui luua tõeliselt võimas optimiseerimisprotsess, 187 00:10:27,266 --> 00:10:29,500 et maksimiseerida eesmärgi x saavutamist, 188 00:10:29,500 --> 00:10:31,776 tuleb veenduda, et x-i definitsioon 189 00:10:31,776 --> 00:10:34,245 hõlmab endas kõike, mis sulle oluline on. 190 00:10:34,835 --> 00:10:39,219 Seda õppetundi võime kohata paljudes müütides. 191 00:10:39,219 --> 00:10:44,517 Kuningas Midas soovis, et kõik, mida ta puudutab, muutuks kullaks. 192 00:10:44,517 --> 00:10:47,378 Ta puudutas oma tütart ja too muutus kullaks. 193 00:10:47,378 --> 00:10:49,931 Ta puudutas oma toitu ja see muutus kullaks. 194 00:10:49,931 --> 00:10:52,520 See müüt võib osutuda reaalselt asjakohaseks 195 00:10:52,520 --> 00:10:54,590 mitte ainult ahnuse metafoorina, 196 00:10:54,590 --> 00:10:56,485 vaid ka näitena sellest, mis juhtub, 197 00:10:56,485 --> 00:10:59,322 kui luua võimas optimiseerimisprotsess 198 00:10:59,322 --> 00:11:04,111 ja anda sellele mitmeti mõistetavaid või ebatäpseid eesmärke. 199 00:11:04,111 --> 00:11:09,300 Võib vastu väita, et kui arvuti hakkab inimestele elektroode näkku panema, 200 00:11:09,300 --> 00:11:11,565 siis peame arvuti lihtsalt välja lülitama. 201 00:11:12,555 --> 00:11:17,895 Esiteks ei pruugi see olla lihtne, kui oleme saanud süsteemist sõltuvaks. 202 00:11:17,895 --> 00:11:20,627 Kuidas näiteks internetti välja lülitada? 203 00:11:20,627 --> 00:11:25,747 Teiseks — miks ei ole šimpansid inimesi välja lülitanud? 204 00:11:25,747 --> 00:11:27,298 Või neandertaallased? 205 00:11:27,298 --> 00:11:29,964 Põhjusi oleks selleks küllaga. 206 00:11:29,964 --> 00:11:32,759 Meie väljalülitamisnupp on näiteks siinsamas. 207 00:11:32,759 --> 00:11:34,313 (Kägistab) 208 00:11:34,313 --> 00:11:37,238 Põhjus on selles, et me oleme intelligetsed vastased. 209 00:11:37,238 --> 00:11:39,966 Me suudame ohte ette näha ja neid vältida. 210 00:11:39,966 --> 00:11:42,470 Kuid seda suudaks ka superintellekt 211 00:11:42,470 --> 00:11:45,724 ja ta oleks selles märksa osavam kui meie. 212 00:11:45,724 --> 00:11:52,911 Me ei peaks olema nii kindlad, et olukord on meie kontrolli all. 213 00:11:52,911 --> 00:11:56,358 Võime oma ülesannet lihtsustada, 214 00:11:56,358 --> 00:11:57,948 sulgedes tehisintellekti nö kasti 215 00:11:57,948 --> 00:11:59,744 ehk turvalisse tarkvarakeskkonda, 216 00:11:59,744 --> 00:12:02,766 virtuaalreaalsuse simulatsiooni, millest see välja ei pääse. 217 00:12:02,766 --> 00:12:06,912 Kui kindlad saame aga olla, et tehisintellekt ei leiaks seal mõnd viga? 218 00:12:06,912 --> 00:12:10,081 Arvestades, et inimhäkkerid avastavad vigu kogu aeg, 219 00:12:10,081 --> 00:12:13,117 ütleks ma, et ilmselt mitte väga. 220 00:12:14,237 --> 00:12:18,785 Niisiis tõmbame välja võrgukaabli, et luua õhuauk, 221 00:12:18,785 --> 00:12:22,313 kuid jälle, isegi inimhäkkerid hiilivad õhuaukudest pidevalt mööda 222 00:12:23,163 --> 00:12:25,014 kasutades sotsiaalseid meetodeid. 223 00:12:25,383 --> 00:12:28,022 Samal ajal, kui ma siin räägin, on kuskil firmas mõni töötaja, 224 00:12:28,482 --> 00:12:31,828 kes on nõustunud andma oma kontoandmed 225 00:12:31,828 --> 00:12:34,574 kellelegi, kes väitis end olevat IT osakonnast. 226 00:12:34,574 --> 00:12:36,701 Võimalikud on ka põnevamad asjade arengud. 227 00:12:36,701 --> 00:12:38,016 Näiteks võib tehisintellekt 228 00:12:38,016 --> 00:12:41,548 kujutleda oma siseringes looklemas elektroode, 229 00:12:41,548 --> 00:12:45,010 et luua raadiolaineid, mille kaudu suhelda. 230 00:12:45,010 --> 00:12:47,434 Või siis teeskleb ta, et on rikkis, 231 00:12:47,434 --> 00:12:50,931 ja kui programmeerijad avavad ta, et näha, milles on viga, 232 00:12:50,931 --> 00:12:52,867 ja vaatavad lähtekoodi — põmm! — 233 00:12:52,867 --> 00:12:55,314 ja manipulatsioon on õnnestunud. 234 00:12:55,314 --> 00:12:58,744 Või siis kavandab ta meie jaoks mingi nutika tehnoloogilise lahenduse 235 00:12:58,744 --> 00:13:00,142 ja kui seda rakendame, 236 00:13:00,142 --> 00:13:04,539 avaldub mingi salajane kõrvalmõju, mida tehisintellekt oli planeerinud. 237 00:13:04,539 --> 00:13:08,002 Mõte on selles, et me ei tohiks olla kindlad oma võimes 238 00:13:08,002 --> 00:13:11,810 hoida superintellektist džinni igavesti oma pudelis luku taga. 239 00:13:11,810 --> 00:13:14,064 Varem või hiljem pääseb see välja. 240 00:13:15,034 --> 00:13:18,137 Ma usun, et peame mõtlema välja, 241 00:13:18,137 --> 00:13:23,161 kuidas luua selline superintellekt, mis isegi lahtipääsemise korral 242 00:13:23,161 --> 00:13:26,438 ei kujutaks see meile ohtu, sest ta oleks põhimõtteliselt meie poolel, 243 00:13:26,438 --> 00:13:28,337 jagades meiega samu väärtusi. 244 00:13:28,337 --> 00:13:31,547 Ma ei näe pääsu sellest keerulisest probleemist. 245 00:13:33,377 --> 00:13:36,391 Tegelikult üsna optimistlik, et seda on võimalik lahendada. 246 00:13:36,391 --> 00:13:40,294 Meil ei tarvitse koostada pikka nimekirja asjadest, mida väärtustame, 247 00:13:40,294 --> 00:13:43,937 või, hullem veel, esitada seda mõnes programmeerimiskeeles 248 00:13:43,937 --> 00:13:45,391 nagu C++ või Python. 249 00:13:45,391 --> 00:13:48,158 See oleks lootusetu ettevõtmine. 250 00:13:48,158 --> 00:13:51,855 Selle asemel võiks luua tehisintellekti, 251 00:13:51,855 --> 00:13:54,876 mis õpiks väärtustama seda, mis on meile oluline 252 00:13:55,156 --> 00:14:00,506 ja mis oleks programmeritud nii, et ta on automaatselt motiveeritud 253 00:14:00,506 --> 00:14:05,738 järgima meiega samu väärtusi või käituma nii, nagu meile meeldiks. 254 00:14:05,738 --> 00:14:09,152 Seeläbi mõjutaksime tema intellekti nii palju, kui võimalik, 255 00:14:09,152 --> 00:14:11,897 ja laadiksime talle meie väärtused. 256 00:14:12,727 --> 00:14:14,239 See võibki nii minna 257 00:14:14,239 --> 00:14:17,395 ja tulemus võib olla inimkonnale väga positiivne. 258 00:14:17,725 --> 00:14:21,262 Aga see ei toimu automaatselt. 259 00:14:21,472 --> 00:14:24,790 Intellektiplahvatuse jaoks tuleb paika seada 260 00:14:24,790 --> 00:14:27,653 täpselt õiged algtingimused, 261 00:14:27,653 --> 00:14:30,853 kui soovime, et plahvatus ei väljuks kontrolli alt. 262 00:14:31,183 --> 00:14:33,801 Tehisintellekti väärtused peavad kattuma meie omadega 263 00:14:33,801 --> 00:14:35,561 mitte ainult tavaolukordades, 264 00:14:35,561 --> 00:14:37,999 kus me saame lihtsasti kontrollida ta käitumist, 265 00:14:37,999 --> 00:14:40,583 vaid ka kõigis uudsetes olukordades, 266 00:14:40,583 --> 00:14:42,650 mis võivad ette tulla suvalisel ajahetkel tulevikus. 267 00:14:42,790 --> 00:14:47,527 On ka mõned esoteerilised probleemid, mis vajavad lahendamist: 268 00:14:47,527 --> 00:14:49,616 tehisintellekti otsustusteooria detailid, 269 00:14:49,616 --> 00:14:52,480 toimetulek loogilise ebamäärasusega jne. 270 00:14:53,330 --> 00:14:56,432 Tehnilised probleemid, mis tuleb ära lahendada, 271 00:14:56,432 --> 00:14:57,545 näivad üsna keerulised, 272 00:14:57,545 --> 00:15:00,925 mitte küll nii keerulised, kui superintellekti enda loomine, 273 00:15:00,925 --> 00:15:03,573 aga siiski küllaltki keerulised. 274 00:15:03,793 --> 00:15:05,488 Mure on aga järgmine: 275 00:15:05,488 --> 00:15:09,662 superintellekti loomine on tõeliselt raske väljakutse, 276 00:15:10,162 --> 00:15:12,720 ohutu superintellekti loomine 277 00:15:12,720 --> 00:15:15,136 nõuab aga veelgi suuremat pingutust. 278 00:15:16,216 --> 00:15:19,703 Olukord muutub riskantseks, kui keegi juhtub täitma esimese ülesande, 279 00:15:19,703 --> 00:15:22,704 täitmata teist ülesannet: 280 00:15:22,704 --> 00:15:24,605 kindlustada meie turvalisus. 281 00:15:25,375 --> 00:15:28,706 Seega leian, et peaksime enne välja töötama lahenduse, 282 00:15:28,706 --> 00:15:31,528 kuidas tehisintellekti kontrollida, 283 00:15:31,528 --> 00:15:34,188 et see oleks olemas siis, kui seda vajame. 284 00:15:34,768 --> 00:15:38,275 Võib juhtuda, et me ei saa turvalisust ennetavalt tagada, 285 00:15:38,275 --> 00:15:41,299 sest mõned elemendid saab paika panna alles siis, 286 00:15:41,299 --> 00:15:45,296 kui on teada kõik detailid struktuuri kohta, kus seda kasutatakse. 287 00:15:45,296 --> 00:15:48,676 Aga mida suuremas ulatuses suudame turvalisuse eelnevalt kindlustada, 288 00:15:48,676 --> 00:15:52,766 seda tõenäolisem on, et üleminek tehisintellekti ajastusse 289 00:15:52,766 --> 00:15:54,306 laabub hästi. 290 00:15:54,306 --> 00:15:58,950 Mulle paistab see asjana, mille nimel tasub pingutada, 291 00:15:58,950 --> 00:16:02,282 ja ma kujutan ette, et kui kõik läheb hästi, 292 00:16:02,282 --> 00:16:06,940 siis meenutavad inimesed miljoni aasta pärast praegust sajandit 293 00:16:06,940 --> 00:16:10,942 ja ehk isegi mõtlevad, et kõige tähtsam asi, mida me korda saatsime, 294 00:16:10,942 --> 00:16:12,509 oligi just sellega hakkamasaamine. 295 00:16:12,509 --> 00:16:14,198 Tänan. 296 00:16:14,198 --> 00:16:17,011 (Aplaus)