0:00:00.570,0:00:04.947 Ma töötan mitmete matemaatikute, [br]filosoofide ja arvutiteadlastega, 0:00:05.767,0:00:09.116 istume nendega ja mõtiskleme, 0:00:09.116,0:00:11.850 muuhulgas ka tehisintellekti tuleviku üle. 0:00:12.160,0:00:16.755 Mõned arvavad, et need teemad[br]on suhteliselt ulmekad, 0:00:16.755,0:00:19.636 kaugel reaalsusest ja hullumeelsed. 0:00:19.856,0:00:22.816 Aga ütleksin pigem, et vaatame kõigepealt 0:00:22.886,0:00:25.170 milline on tänapäeva inimese olukord. 0:00:25.170,0:00:26.422 (Naer) 0:00:26.532,0:00:29.464 See ongi normaalne asjade seis. 0:00:29.944,0:00:31.549 Kui aga järele mõelda, 0:00:31.549,0:00:34.602 siis tegelikult oleme üsna hiljuti [br]siia planeedile saabunud külalised, 0:00:34.602,0:00:36.944 meie, inimesed. 0:00:37.164,0:00:41.430 Kui planeet Maa oleks loodud aasta tagasi. 0:00:41.430,0:00:44.978 oleks inimene kõigest 10 minuti vanune. 0:00:44.978,0:00:48.146 Industriaalajastu oleks alanud [br]2 sekundit tagasi. 0:00:49.276,0:00:54.371 Või mõelge näiteks maailmamajanduse [br]SKP-le viimase 10 000 aasta jooksul. 0:00:54.501,0:00:57.810 Olen siin näinud vaeva [br]ja teinud teie jaoks graafiku, 0:00:57.810,0:00:59.264 mis näeb välja selline. 0:00:59.314,0:01:00.667 (Naer) 0:01:00.667,0:01:03.048 Kujult on see veidi imelik, [br]kuigi tegu on tavaolukorraga. 0:01:03.048,0:01:04.946 Sellele istuda küll ei tahaks. 0:01:04.946,0:01:07.067 (Naer) 0:01:07.067,0:01:11.841 Küsigem aga endalt, mis on [br]praeguse anomaalia põhjuseks? 0:01:11.841,0:01:14.393 Mõnede arvates on see tehnoloogia. 0:01:14.393,0:01:19.061 Tõepoolest, tehnoloogia on [br]inimajaloo vältel akumuleerunud, 0:01:19.061,0:01:23.713 ja hetkel areneb tehnoloogia [br]erakordselt kiiresti. 0:01:23.713,0:01:25.278 See on ligikaudne põhjus, 0:01:25.278,0:01:27.843 mis seletab, miks oleme [br]praegu nii produktiivsed. 0:01:28.473,0:01:32.134 Tahan aga vaadata kaugemale, [br]et leida tegelik põhjus. 0:01:33.114,0:01:36.880 Vaadake neid kahte [br]silmapaistvat härrasmeest. 0:01:36.880,0:01:38.480 Üks neist on Kanzi. 0:01:38.480,0:01:40.793 Ta on õppinud selgeks 200 tähendusmärki, 0:01:40.793,0:01:43.123 mis on tema jaoks erakordne saavutus. 0:01:43.123,0:01:46.817 Ed Witten aga käivitas [br]teise superstringirevolutsiooni. 0:01:46.817,0:01:49.141 Kui vaatame kapoti alla, [br]siis mida me näeme? 0:01:49.141,0:01:50.711 Sisuliselt sama pilti. 0:01:50.711,0:01:52.524 Üks on natuke suurem 0:01:52.524,0:01:55.282 ning ülesehituselt ehk veidi keerukam. 0:01:55.282,0:01:59.094 Need nähtamatud erinevused ei saa [br]siiski olla kuigi olulised, 0:01:59.094,0:02:02.869 sest meie viimasest ühisest eellasest 0:02:02.869,0:02:05.461 eristab meid vaid 250 000 põlvkonda. 0:02:05.461,0:02:08.960 On teada, et keerukate mehhanismide[br]väljakujunemiseks läheb kaua aega. 0:02:10.000,0:02:12.499 Vaid mõned suhteliselt väikesed muutused 0:02:12.499,0:02:15.566 on toonud meid Kanzist Wittenini, 0:02:15.566,0:02:20.109 murdunud puuokstest mandrite-[br]vaheliste ballistiliste rakettideni. 0:02:20.839,0:02:24.774 On üsna ilmne, et kõik, [br]mida oleme saavutanud 0:02:24.774,0:02:26.152 ja mis on meile oluline, 0:02:26.152,0:02:31.380 sõltub vaid mõnest suhteliselt väikesest[br]muutusest, mis kujundasid inimmõistuse. 0:02:32.650,0:02:36.312 Oluline on mõista,[br]et mis tahes edasised muutused, 0:02:36.312,0:02:39.789 mis võivad avaldada olulist mõju [br]mõtlemise mehhanismidele, 0:02:39.789,0:02:42.991 võivad kaasa tuua väga tõsiseid tagajärgi. 0:02:44.321,0:02:47.226 Mul on kolleege, kelle arvates [br]oleme millegi lävel, 0:02:47.226,0:02:51.134 mis võib põhjustada mõtlemise[br]mehhanismis radikaalseid muutusi, 0:02:51.134,0:02:54.347 ja see miski on tehislik superintellekt. 0:02:54.347,0:02:59.086 Tehisintellekt tähendas varasemalt[br]käskude sisestamist kastikestesse, 0:02:59.086,0:03:00.751 sellega tegelesid programmeerijad, 0:03:00.751,0:03:04.336 kes lõid nn tarku lahendusi [br]peene käsitööna. 0:03:04.506,0:03:05.972 Nii ehitati üles ekspertsüsteemid 0:03:05.972,0:03:08.296 ja neist oli kasu teatud ülesannete puhul, 0:03:08.296,0:03:10.977 kuid nad olid väga haprad [br]ja vähepaindlikud. 0:03:10.977,0:03:14.410 Väljundi kvaliteet olenes praktiliselt[br]ainult sisestatud infost. 0:03:14.410,0:03:18.377 Nüüdseks aga on tehisintellekti vallas[br]toimunud paradigma nihe. 0:03:18.874,0:03:21.644 Täna keskendutakse hoopis [br]masinõppimise arendamisele. 0:03:22.394,0:03:28.021 Selle asemel, et valmistada andmeesitlust [br]ja tarvikuid käsitööna, 0:03:28.511,0:03:34.065 luuakse algoritme, mis suudavad õppida, [br]ja seda ka töötlemata tajuandmetest. 0:03:34.305,0:03:38.383 Sisuliselt sama asi, mida teeb imik. 0:03:39.063,0:03:43.270 Tulemuseks on tehisintellekt, mis pole [br]piiratud vaid ühe valdkonnaga: 0:03:43.270,0:03:47.901 sama süsteem võib õppida tõlkima [br]ükskõik milliste keelte vahel 0:03:47.901,0:03:53.338 või õppida Atari konsoolil mängima [br]mis tahes arvutimängu. 0:03:53.338,0:03:55.117 Loomulikult 0:03:55.117,0:03:59.116 ei ole tehisintellektil siiski kaugeltki [br]nii võimsat valdkondadeülest oskust 0:03:59.116,0:04:02.335 õppida ja planeerida kui inimestel. 0:04:02.335,0:04:04.461 Ajukoores on endiselt mõningaid [br]algoritmilisi iseärasusi, 0:04:04.461,0:04:06.816 mida pole suudetud [br]masinates jäljendada. 0:04:07.886,0:04:10.415 Küsimus on seega, [br]kui kaugel veel oleme sellest 0:04:10.415,0:04:13.285 et suudaksime neid iseärasusi jäljendada? 0:04:14.245,0:04:15.328 Paar aastat tagasi 0:04:15.328,0:04:18.216 viisime läbi küsitluse juhtivate [br]tehisintellektiekspertide seas, 0:04:18.216,0:04:19.216 et teada saada, mida nad arvavad. 0:04:19.216,0:04:21.440 Üks küsimustest oli selline: 0:04:21.440,0:04:24.793 "Mis aastaks on teie hinnangul [br]meil 50% tõenäosus, 0:04:24.793,0:04:28.275 et tehisintellekt on jõudnud [br]inimesega võrdsele tasemele?" 0:04:28.785,0:04:32.968 Defineerimise inimesega võrdse taseme sellisena, 0:04:32.968,0:04:35.839 mis võimaldaks teha mis tahes tööd [br]sama hästi kui täiskasvanud inimene, 0:04:35.839,0:04:39.844 samuti nagu päris-inimene, [br]mitte vaid ühes kindlas valdkonnas. 0:04:39.844,0:04:43.494 Keskmine vastus oli 2040. või 2050. aasta, 0:04:43.494,0:04:46.820 sõltuvalt sellest, milliselt[br]ekspertide grupilt küsiti, 0:04:47.380,0:04:50.339 See võib juhtuda oluliselt [br]hiljem või varem, 0:04:50.339,0:04:52.279 õigupoolest ei oska keegi täpselt öelda. 0:04:53.259,0:04:58.171 Mida me teame, on see, [br]et masina andmetöötlusvõimekus 0:04:58.441,0:05:02.542 ületab kaugelt bioloogilise [br]võimekuse piirid. 0:05:03.241,0:05:05.619 Selle on seletatav füüsikaga. 0:05:05.619,0:05:10.337 Bioloogiline neuron töötab sagedusel [br]umbes 200 hertsi, st 200 tsüklit sekundis. 0:05:10.337,0:05:13.931 Kuid tänapäevane transistorgi [br]opereerib juba gigahertsides. 0:05:13.931,0:05:19.228 Neuronid levivad närvikiu telgniitides [br]aeglaselt, max 100 meetrit sekundis 0:05:19.228,0:05:22.339 Arvutites võivad signaalid [br]levida aga valguskiirusel. 0:05:23.079,0:05:24.948 On ka suuruse piirangud: 0:05:24.948,0:05:27.975 inimaju peab mahtuma ära kolju sisse, 0:05:27.975,0:05:31.996 arvuti võib olla aga laohoone [br]mõõtu või suuremgi. 0:05:32.736,0:05:38.335 Tehisintellekti potentsiaal [br]on praegu mateerias peidus, 0:05:38.335,0:05:44.047 samamoodi nagu aatomi jõud oli [br]kogu inimkonna ajaloo vältel peidus, 0:05:44.047,0:05:48.042 oodates kannatlikult kuni 1945. aastani. 0:05:48.452,0:05:49.700 Sellel sajandil 0:05:49.700,0:05:53.818 võivad teadlased äratada [br]tehisintellekti jõu. 0:05:53.818,0:05:57.826 Ja ma arvan, et siis saame näha [br]tõelist intellektiplahvatust. 0:05:58.406,0:06:02.363 Enamik inimesi, mõeldes sellele, [br]kes on tark ja kes rumal, 0:06:02.363,0:06:05.386 kujutlevad ilmselt midagi sellist: 0:06:05.386,0:06:07.984 skaala ühes otsas on külaloll 0:06:07.984,0:06:10.467 ja siis kaugel teises otsas 0:06:10.467,0:06:15.103 Ed Witten, Albert Einstein või [br]kes iganes teie lemmikguru on. 0:06:15.403,0:06:19.427 Kuid ma arvan, et tehisintellekti[br]perspektiivist vaadatuna 0:06:19.427,0:06:22.738 on tegelik pilt pigem selline: 0:06:23.258,0:06:26.636 tehisintellekt alustab null-punktist 0:06:26.636,0:06:29.647 ning pärast aastaid kestnud[br]väga tõsist tööd 0:06:29.647,0:06:33.491 jõuab tehisintellekt lõpuks [br]hiirega võrreldavale tasemele, 0:06:33.491,0:06:35.921 suutes orienteeruda [br]keerukas keskkonnas 0:06:35.921,0:06:37.908 sama hästi nagu hiir. 0:06:37.908,0:06:42.221 Siis kulub veel palju aastaid [br]tõsist tööd ja investeeringuid, 0:06:42.221,0:06:46.860 et tehisintellekt võiks jõuda[br]samale tasemele šimpansiga. 0:06:46.860,0:06:50.070 Seejärel kulub veelgi rohkem aastaid [br]tõeliselt rasket tööd, 0:06:50.070,0:06:52.983 et saavutada külalolli [br]tasemel tehisintellekt. 0:06:52.983,0:06:56.255 Aga sealt vaid hetke pärast oleme [br]juba Ed Wittenist möödas, 0:06:56.255,0:06:59.225 kuid inimkond ei olegi lõpp-peatus. 0:06:59.225,0:07:02.247 Tõenäoliselt vuhiseb [br]ta sealt kiirelt mööda. 0:07:02.247,0:07:04.231 Potentsiaalsed tagajärjed on tõsised, 0:07:04.231,0:07:08.093 eriti mis puudutab võimu ja kontrolli. 0:07:08.093,0:07:09.992 Šimpansid on näiteks väga tugevad, 0:07:09.992,0:07:15.214 umbes kaks korda tugevamad kui inimesed. 0:07:15.214,0:07:20.918 Ometi oleneb Kanzi ja ta sõprade[br]saatus palju rohkem inimeste, 0:07:20.918,0:07:23.968 kui nende endi tegevusest. 0:07:25.188,0:07:27.542 Kui superintellekt on kord juba loodud, 0:07:27.542,0:07:31.381 võib inimkonna saatus hakata sõltuma [br]sellest, mida see superintellekt teeb. 0:07:32.451,0:07:33.758 Mõelgem sellele: 0:07:33.918,0:07:38.552 tehisintellekt on leiutiste seas viimane, [br]mille inimkond peab ise looma. 0:07:38.552,0:07:41.525 Peale seda on masinad leiutamises [br]osavamad kui me ise 0:07:41.525,0:07:44.065 ja seda digitaalsetel ajaskaaladel. 0:07:44.065,0:07:48.966 See tähendab sisuliselt [br]tulevikku hüppamist. 0:07:48.966,0:07:52.524 Mõelge kõikvõimalikele pöörastele [br]tehnoloogiatele, mida olete ettekujutanud, 0:07:52.524,0:07:55.322 ja milleni inimesed oleksid [br]võib-olla kunagi ka jõudnud: 0:07:55.322,0:07:58.580 vananemise peatamine, [br]kosmose koloniseerimine, 0:07:58.580,0:08:02.311 isepaljunevad nanorobotid või [br]inimteadvuse üleslaadimine arvutitesse, 0:08:02.311,0:08:04.470 kõikvõimalikud ulmelised asjad, 0:08:04.470,0:08:07.207 mis on ometi kooskõlas füüsikaseadustega. 0:08:07.207,0:08:11.419 Kõike seda suudaks superintellekt [br]välja mõelda ja ilmselt üsna kiirelt. 0:08:12.449,0:08:16.007 Sellise tehnoloogilise [br]kompetentsiga superintellekt 0:08:16.007,0:08:18.186 oleks äärmiselt võimas 0:08:18.186,0:08:22.732 ning vähemalt mõnel juhul [br]võimeline saavutama oma tahtmist. 0:08:22.732,0:08:28.393 Niisiis oleks tulevik kujundatud [br]tehisintellekti eelistuste järgi. 0:08:29.615,0:08:33.604 On hea küsimus, [br]et mida nad siis tahaksid teha? 0:08:34.244,0:08:36.013 Siin läheb asi keerulisemaks. 0:08:36.013,0:08:37.448 Et sellele küsimusele vastata, 0:08:37.448,0:08:40.724 peame kõigepealt hoiduma [br]antropomorfismist. 0:08:41.934,0:08:45.235 See on irooniline, [br]sest iga ajaleheartikli juures, 0:08:45.235,0:08:48.180 mis räägib tehisintellekti [br]tulevikust, on selline pilt: 0:08:50.280,0:08:54.414 Ma arvan, et peame sellele küsimusele [br]vastamisel mõtlema abstraktsemalt, 0:08:54.414,0:08:57.204 mitte lennukate Hollywoodi [br]stsenaariumide stiilis. 0:08:57.204,0:09:00.821 Peame mõtlema intellektist[br]kui optimiseerimisprotsessist, 0:09:00.821,0:09:06.470 mis juhib meie tulevikku teatud [br]konkreetsete konfiguratsioonide suunas. 0:09:06.470,0:09:09.981 Superintellekt on tõeliselt [br]tõhus optimiseerimisprotsess. 0:09:09.981,0:09:14.098 Kasutades olemasolevaid vahendeid,[br]toimib see äärmiselt efektiivselt 0:09:14.098,0:09:16.007 kuni eesmärk on saavutatud. 0:09:16.447,0:09:19.119 See tähendab, et enam pole kõrge intellekt 0:09:19.119,0:09:21.853 seotud eesmärkidega, 0:09:21.853,0:09:26.515 mis meie, inimeste, arust on[br]on olulised ja mõistlikud. 0:09:27.321,0:09:31.115 Oletame, et anname tehisintellektile [br]ülesande panna meid naeratama. 0:09:31.115,0:09:34.097 Kui tehisintellekt on madal, [br]püüab see lahutada meie meelt, 0:09:34.097,0:09:36.614 et kutsuda esile naeratus. 0:09:36.614,0:09:39.031 Kui tehisintellektist saab superintellekt, 0:09:39.031,0:09:42.554 mõistab see, et eesmärgi saavutamiseks [br]on olemas efektiivsem viis: 0:09:42.554,0:09:44.476 saada maailma valitsejaks 0:09:44.476,0:09:47.638 ja torgata inimeste [br]näolihastesse elektroodid, 0:09:47.638,0:09:50.579 mis manavad meie näole[br]püsiva ja särava irve. 0:09:50.579,0:09:51.614 Teine näide: 0:09:51.614,0:09:54.997 oletame, et tehisintellekt peab [br]lahendama keerulise matemaatikaülesande 0:09:54.997,0:09:56.934 Superintellektiks saades 0:09:56.934,0:10:01.105 mõistab ta, et efektiivseim viis [br]ülesande lahendamiseks 0:10:01.105,0:10:04.035 on muuta terve planeet [br]hiiglaslikuks arvutiks, 0:10:04.035,0:10:06.281 et suurendada selle analüüsivõimet. 0:10:06.281,0:10:09.045 Pange tähele, et see annab [br]tehisintellektile praktilise õigustuse 0:10:09.045,0:10:11.561 teha asju, mida me [br]võib-olla heaks ei kiidaks. 0:10:11.561,0:10:13.496 Sellise skeemi puhul on [br]inimesed riskifaktorid, 0:10:13.496,0:10:16.417 kes võivad osutuda takistuseks [br]ülesande lahendamisel. 0:10:17.207,0:10:20.701 Tegelikkuses ilmselt päris [br]selliseid hulle asju ei juhtu, 0:10:20.701,0:10:22.454 need on pigem filmilikud näited. 0:10:22.454,0:10:24.393 Mis on siin aga oluline, on see, 0:10:24.393,0:10:27.266 et kui luua tõeliselt võimas [br]optimiseerimisprotsess, 0:10:27.266,0:10:29.500 et maksimiseerida eesmärgi x saavutamist, 0:10:29.500,0:10:31.776 tuleb veenduda, et x-i definitsioon 0:10:31.776,0:10:34.245 hõlmab endas kõike, mis sulle oluline on. 0:10:34.835,0:10:39.219 Seda õppetundi võime [br]kohata paljudes müütides. 0:10:39.219,0:10:44.517 Kuningas Midas soovis, et kõik, [br]mida ta puudutab, muutuks kullaks. 0:10:44.517,0:10:47.378 Ta puudutas oma tütart [br]ja too muutus kullaks. 0:10:47.378,0:10:49.931 Ta puudutas oma toitu [br]ja see muutus kullaks. 0:10:49.931,0:10:52.520 See müüt võib osutuda[br]reaalselt asjakohaseks 0:10:52.520,0:10:54.590 mitte ainult ahnuse metafoorina, 0:10:54.590,0:10:56.485 vaid ka näitena sellest, mis juhtub, 0:10:56.485,0:10:59.322 kui luua võimas optimiseerimisprotsess 0:10:59.322,0:11:04.111 ja anda sellele mitmeti mõistetavaid [br]või ebatäpseid eesmärke. 0:11:04.111,0:11:09.300 Võib vastu väita, et kui arvuti hakkab[br]inimestele elektroode näkku panema, 0:11:09.300,0:11:11.565 siis peame arvuti lihtsalt välja lülitama. 0:11:12.555,0:11:17.895 Esiteks ei pruugi see olla lihtne, [br]kui oleme saanud süsteemist sõltuvaks. 0:11:17.895,0:11:20.627 Kuidas näiteks internetti välja lülitada? 0:11:20.627,0:11:25.747 Teiseks — miks ei ole šimpansid [br]inimesi välja lülitanud? 0:11:25.747,0:11:27.298 Või neandertaallased? 0:11:27.298,0:11:29.964 Põhjusi oleks selleks küllaga. 0:11:29.964,0:11:32.759 Meie väljalülitamisnupp on näiteks siinsamas. 0:11:32.759,0:11:34.313 (Kägistab) 0:11:34.313,0:11:37.238 Põhjus on selles, et me oleme [br]intelligetsed vastased. 0:11:37.238,0:11:39.966 Me suudame ohte ette näha ja neid vältida. 0:11:39.966,0:11:42.470 Kuid seda suudaks ka superintellekt 0:11:42.470,0:11:45.724 ja ta oleks selles [br]märksa osavam kui meie. 0:11:45.724,0:11:52.911 Me ei peaks olema nii kindlad, [br]et olukord on meie kontrolli all. 0:11:52.911,0:11:56.358 Võime oma ülesannet lihtsustada, 0:11:56.358,0:11:57.948 sulgedes tehisintellekti nö kasti 0:11:57.948,0:11:59.744 ehk turvalisse tarkvarakeskkonda, 0:11:59.744,0:12:02.766 virtuaalreaalsuse simulatsiooni, [br]millest see välja ei pääse. 0:12:02.766,0:12:06.912 Kui kindlad saame aga olla, et [br]tehisintellekt ei leiaks seal mõnd viga? 0:12:06.912,0:12:10.081 Arvestades, et inimhäkkerid [br]avastavad vigu kogu aeg, 0:12:10.081,0:12:13.117 ütleks ma, et ilmselt mitte väga. 0:12:14.237,0:12:18.785 Niisiis tõmbame välja [br]võrgukaabli, et luua õhuauk, 0:12:18.785,0:12:22.313 kuid jälle, isegi inimhäkkerid hiilivad[br]õhuaukudest pidevalt mööda 0:12:23.163,0:12:25.014 kasutades sotsiaalseid meetodeid. 0:12:25.383,0:12:28.022 Samal ajal, kui ma siin räägin, [br]on kuskil firmas mõni töötaja, 0:12:28.482,0:12:31.828 kes on nõustunud andma oma kontoandmed 0:12:31.828,0:12:34.574 kellelegi, kes väitis end[br]olevat IT osakonnast. 0:12:34.574,0:12:36.701 Võimalikud on ka põnevamad asjade arengud. 0:12:36.701,0:12:38.016 Näiteks võib tehisintellekt 0:12:38.016,0:12:41.548 kujutleda oma siseringes [br]looklemas elektroode, 0:12:41.548,0:12:45.010 et luua raadiolaineid, [br]mille kaudu suhelda. 0:12:45.010,0:12:47.434 Või siis teeskleb ta, et on rikkis, 0:12:47.434,0:12:50.931 ja kui programmeerijad avavad ta, [br]et näha, milles on viga, 0:12:50.931,0:12:52.867 ja vaatavad lähtekoodi — põmm! — 0:12:52.867,0:12:55.314 ja manipulatsioon on õnnestunud. 0:12:55.314,0:12:58.744 Või siis kavandab ta meie jaoks [br]mingi nutika tehnoloogilise lahenduse 0:12:58.744,0:13:00.142 ja kui seda rakendame, 0:13:00.142,0:13:04.539 avaldub mingi salajane kõrvalmõju, [br]mida tehisintellekt oli planeerinud. 0:13:04.539,0:13:08.002 Mõte on selles, et me ei tohiks [br]olla kindlad oma võimes 0:13:08.002,0:13:11.810 hoida superintellektist džinni [br]igavesti oma pudelis luku taga. 0:13:11.810,0:13:14.064 Varem või hiljem pääseb see välja. 0:13:15.034,0:13:18.137 Ma usun, et peame mõtlema välja, 0:13:18.137,0:13:23.161 kuidas luua selline superintellekt, [br]mis isegi lahtipääsemise korral 0:13:23.161,0:13:26.438 ei kujutaks see meile ohtu, sest ta [br]oleks põhimõtteliselt meie poolel, 0:13:26.438,0:13:28.337 jagades meiega samu väärtusi. 0:13:28.337,0:13:31.547 Ma ei näe pääsu sellest [br]keerulisest probleemist. 0:13:33.377,0:13:36.391 Tegelikult üsna optimistlik, [br]et seda on võimalik lahendada. 0:13:36.391,0:13:40.294 Meil ei tarvitse koostada pikka nimekirja [br]asjadest, mida väärtustame, 0:13:40.294,0:13:43.937 või, hullem veel, esitada seda [br]mõnes programmeerimiskeeles 0:13:43.937,0:13:45.391 nagu C++ või Python. 0:13:45.391,0:13:48.158 See oleks lootusetu ettevõtmine. 0:13:48.158,0:13:51.855 Selle asemel võiks luua tehisintellekti, 0:13:51.855,0:13:54.876 mis õpiks väärtustama seda, [br]mis on meile oluline 0:13:55.156,0:14:00.506 ja mis oleks programmeritud nii,[br]et ta on automaatselt motiveeritud 0:14:00.506,0:14:05.738 järgima meiega samu väärtusi või [br]käituma nii, nagu meile meeldiks. 0:14:05.738,0:14:09.152 Seeläbi mõjutaksime tema [br]intellekti nii palju, kui võimalik, 0:14:09.152,0:14:11.897 ja laadiksime talle meie väärtused. 0:14:12.727,0:14:14.239 See võibki nii minna 0:14:14.239,0:14:17.395 ja tulemus võib olla [br]inimkonnale väga positiivne. 0:14:17.725,0:14:21.262 Aga see ei toimu automaatselt. 0:14:21.472,0:14:24.790 Intellektiplahvatuse [br]jaoks tuleb paika seada 0:14:24.790,0:14:27.653 täpselt õiged algtingimused, 0:14:27.653,0:14:30.853 kui soovime, et plahvatus [br]ei väljuks kontrolli alt. 0:14:31.183,0:14:33.801 Tehisintellekti väärtused peavad [br]kattuma meie omadega 0:14:33.801,0:14:35.561 mitte ainult tavaolukordades, 0:14:35.561,0:14:37.999 kus me saame lihtsasti [br]kontrollida ta käitumist, 0:14:37.999,0:14:40.583 vaid ka kõigis uudsetes olukordades, 0:14:40.583,0:14:42.650 mis võivad ette tulla[br]suvalisel ajahetkel tulevikus. 0:14:42.790,0:14:47.527 On ka mõned esoteerilised probleemid, [br]mis vajavad lahendamist: 0:14:47.527,0:14:49.616 tehisintellekti otsustusteooria detailid, 0:14:49.616,0:14:52.480 toimetulek loogilise ebamäärasusega jne. 0:14:53.330,0:14:56.432 Tehnilised probleemid, [br]mis tuleb ära lahendada, 0:14:56.432,0:14:57.545 näivad üsna keerulised, 0:14:57.545,0:15:00.925 mitte küll nii keerulised, [br]kui superintellekti enda loomine, 0:15:00.925,0:15:03.573 aga siiski küllaltki keerulised. 0:15:03.793,0:15:05.488 Mure on aga järgmine: 0:15:05.488,0:15:09.662 superintellekti loomine on [br]tõeliselt raske väljakutse, 0:15:10.162,0:15:12.720 ohutu superintellekti loomine 0:15:12.720,0:15:15.136 nõuab aga veelgi suuremat pingutust. 0:15:16.216,0:15:19.703 Olukord muutub riskantseks, [br]kui keegi juhtub täitma esimese ülesande, 0:15:19.703,0:15:22.704 täitmata teist ülesannet: 0:15:22.704,0:15:24.605 kindlustada meie turvalisus. 0:15:25.375,0:15:28.706 Seega leian, et peaksime [br]enne välja töötama lahenduse, 0:15:28.706,0:15:31.528 kuidas tehisintellekti kontrollida, 0:15:31.528,0:15:34.188 et see oleks olemas siis, [br]kui seda vajame. 0:15:34.768,0:15:38.275 Võib juhtuda, et me ei saa [br]turvalisust ennetavalt tagada, 0:15:38.275,0:15:41.299 sest mõned elemendid [br]saab paika panna alles siis, 0:15:41.299,0:15:45.296 kui on teada kõik detailid struktuuri [br]kohta, kus seda kasutatakse. 0:15:45.296,0:15:48.676 Aga mida suuremas ulatuses suudame [br]turvalisuse eelnevalt kindlustada, 0:15:48.676,0:15:52.766 seda tõenäolisem on, et [br]üleminek tehisintellekti ajastusse 0:15:52.766,0:15:54.306 laabub hästi. 0:15:54.306,0:15:58.950 Mulle paistab see asjana, [br]mille nimel tasub pingutada, 0:15:58.950,0:16:02.282 ja ma kujutan ette, [br]et kui kõik läheb hästi, 0:16:02.282,0:16:06.940 siis meenutavad inimesed[br]miljoni aasta pärast praegust sajandit 0:16:06.940,0:16:10.942 ja ehk isegi mõtlevad, et kõige tähtsam [br]asi, mida me korda saatsime, 0:16:10.942,0:16:12.509 oligi just sellega hakkamasaamine. 0:16:12.509,0:16:14.198 Tänan. 0:16:14.198,0:16:17.011 (Aplaus)