1 00:00:00,960 --> 00:00:03,936 Прича почиње 1985. године, 2 00:00:03,960 --> 00:00:05,936 када сам са 22 године 3 00:00:05,960 --> 00:00:08,336 постао светски првак у шаху 4 00:00:08,360 --> 00:00:11,560 након што сам победио Анатолија Карпова. 5 00:00:12,480 --> 00:00:13,736 Раније те године, 6 00:00:13,760 --> 00:00:17,376 играо сам нешто под називом симултанка 7 00:00:17,400 --> 00:00:21,696 против 32 најбоље машине на свету које играју шах 8 00:00:21,720 --> 00:00:23,080 у Хамбургу, у Немачкој. 9 00:00:24,160 --> 00:00:25,600 Победио сам у свим партијама, 10 00:00:26,560 --> 00:00:29,736 а тада се није сматрало великим изненађењем 11 00:00:29,760 --> 00:00:33,800 то што сам успео да победим 32 компјутера у исто време. 12 00:00:34,480 --> 00:00:37,056 За мене је то било златно доба. 13 00:00:37,080 --> 00:00:39,176 (Смех) 14 00:00:39,200 --> 00:00:40,720 Машине су биле слабе, 15 00:00:41,680 --> 00:00:43,016 а моја коса јака. 16 00:00:43,040 --> 00:00:45,240 (Смех) 17 00:00:46,720 --> 00:00:48,776 Само 12 година касније, 18 00:00:48,800 --> 00:00:53,416 борио сам се за живот против само једног компјутера 19 00:00:53,440 --> 00:00:54,640 у партији 20 00:00:55,360 --> 00:00:57,416 која је према наслову из „Њузвика“ 21 00:00:57,440 --> 00:00:59,216 названа „Последње упориште мозга“. 22 00:00:59,240 --> 00:01:00,456 Без притиска. 23 00:01:00,480 --> 00:01:02,000 (Смех) 24 00:01:03,040 --> 00:01:05,616 Од митологије до научне фантастике, 25 00:01:05,640 --> 00:01:08,376 борба човека и машине 26 00:01:08,400 --> 00:01:11,160 приказивана је често као питање живота и смрти. 27 00:01:11,960 --> 00:01:13,526 Џон Хенри, 28 00:01:13,540 --> 00:01:15,256 називан човеком који управља челиком 29 00:01:15,280 --> 00:01:19,056 у афроамеричкој народној легенди из деветнаестог века, 30 00:01:19,080 --> 00:01:20,456 бачен је у трку 31 00:01:20,480 --> 00:01:23,216 против чекића који покреће пара 32 00:01:23,240 --> 00:01:25,600 док су пробијали тунел кроз стену. 33 00:01:26,800 --> 00:01:31,000 Легенда о Џону Хенрију је део дугог историјског наратива 34 00:01:31,680 --> 00:01:34,760 који човечанство супротставља технологији. 35 00:01:36,200 --> 00:01:39,080 Ова такмичарска реторика је сада стандард. 36 00:01:39,560 --> 00:01:41,520 У трци смо против машина, 37 00:01:42,360 --> 00:01:44,440 у борби, па чак и у рату. 38 00:01:45,880 --> 00:01:47,496 Послови нестају. 39 00:01:47,520 --> 00:01:51,080 Људи се смењују као да су нестали са лица земље. 40 00:01:52,210 --> 00:01:55,736 То је довољно је да помислимо да филмови попут „Терминатора“ или „Матрикса“ 41 00:01:55,760 --> 00:01:56,960 нису фикција. 42 00:01:59,640 --> 00:02:03,960 Постоји само неколико подручја у арени 43 00:02:05,360 --> 00:02:09,616 где се људско тело и ум могу такмичити под истим условима 44 00:02:09,639 --> 00:02:11,480 са компјутером или роботом. 45 00:02:12,280 --> 00:02:14,138 Заправо, волео бих да их има више. 46 00:02:15,760 --> 00:02:16,960 Уместо тога, 47 00:02:17,840 --> 00:02:22,496 мој благослов и проклетство 48 00:02:22,520 --> 00:02:25,216 били су да сам буквално постао човек из пословице 49 00:02:25,240 --> 00:02:28,336 у такмичењу човека и машине 50 00:02:28,360 --> 00:02:30,240 о ком сви још увек причају. 51 00:02:33,120 --> 00:02:38,136 У најпознатијем такмичењу између човека и машине од Џона Хенрија, 52 00:02:38,160 --> 00:02:40,736 играо сам две партије 53 00:02:40,760 --> 00:02:44,200 против Ај-Би-Емовог суперкоmпјутера, Дип Блуа. 54 00:02:46,990 --> 00:02:49,216 Нико се не сећа да сам победио у првој партији. 55 00:02:49,240 --> 00:02:51,576 (Смех) 56 00:02:51,600 --> 00:02:54,530 (Аплауз) 57 00:02:55,920 --> 00:03:00,896 У Филаделфији, пре него што сам изгубио реванш наредне године у Њујорку. 58 00:03:00,920 --> 00:03:02,680 Али, ваљда је то поштено. 59 00:03:04,320 --> 00:03:09,416 Не постоји дан у историји, специјални дан у календару 60 00:03:09,440 --> 00:03:12,936 за све људе који нису успели да се попну на Монт Еверест 61 00:03:12,960 --> 00:03:15,696 пре него што су Сер Едмунд Хилари и Тензинг Норгеј 62 00:03:15,720 --> 00:03:16,920 успели у томе. 63 00:03:17,960 --> 00:03:21,720 А 1997. године, и даље сам био светски првак 64 00:03:24,520 --> 00:03:28,720 када су се компјутери за шах коначно усавршили. 65 00:03:29,520 --> 00:03:31,496 Био сам Монт Еверест, 66 00:03:31,520 --> 00:03:33,120 а Дип Блу је достигао врхунац. 67 00:03:34,600 --> 00:03:38,656 Требало би да кажем, наравно, не да је Дип Блу то урадио, 68 00:03:38,680 --> 00:03:40,816 већ људи који су га створили - 69 00:03:40,840 --> 00:03:44,176 Анантараман, Кемпбел, Хоан, Хсу. 70 00:03:44,200 --> 00:03:45,400 Скидам им капу. 71 00:03:46,840 --> 00:03:51,256 Као и увек, успех машине био је људски успех, 72 00:03:51,280 --> 00:03:56,040 а то је нешто што обично заборавимо када људе престигну сопствене творевине. 73 00:03:58,360 --> 00:03:59,800 Дип Блу је био односио победе, 74 00:04:01,400 --> 00:04:02,910 али да ли је био интелигентан? 75 00:04:03,360 --> 00:04:05,120 Не, није, 76 00:04:06,200 --> 00:04:12,116 бар не онако како су надали Алан Тјуринг и други оснивачи рачунарства. 77 00:04:13,240 --> 00:04:18,016 Испоставило се да шах може да се прорачуна сировом снагом, 78 00:04:18,040 --> 00:04:22,296 када је хардвер постао довољно брз, 79 00:04:22,320 --> 00:04:25,280 а алгоритми довољно паметни. 80 00:04:26,760 --> 00:04:30,456 Иако је према дефиницији резултата 81 00:04:30,480 --> 00:04:33,696 шаха на велемајсторском нивоу 82 00:04:33,720 --> 00:04:35,200 Деп Блу био интелигентан. 83 00:04:37,320 --> 00:04:39,720 Међутим, чак и поред невероватне брзине, 84 00:04:40,560 --> 00:04:43,760 200 милиона позиција у секунди, 85 00:04:45,360 --> 00:04:46,560 метод Дип Блуа 86 00:04:47,360 --> 00:04:54,190 није давао довољно жељеног увида у мистерију људске интелигенције. 87 00:04:56,960 --> 00:04:58,776 Ускоро, 88 00:04:58,800 --> 00:05:01,376 машине ће бити таксисти, 89 00:05:01,400 --> 00:05:03,816 доктори и професори, 90 00:05:03,840 --> 00:05:06,440 али да ли ће бити „интелигентне“? 91 00:05:07,840 --> 00:05:10,336 Радије бих препустио ове дефиниције 92 00:05:10,360 --> 00:05:13,920 филозофима и речнику. 93 00:05:15,440 --> 00:05:19,320 Оно што је заиста важно је шта ми људи 94 00:05:20,320 --> 00:05:23,920 осећамо везано за живот и рад са овим машинама. 95 00:05:26,160 --> 00:05:31,416 Када сам се први пут сусрео са Дип Блуом фебруара 1996. године, 96 00:05:31,440 --> 00:05:34,040 био сам светски шампион више од 10 година 97 00:05:36,080 --> 00:05:40,096 и одиграо сам 182 партије за светско првенство 98 00:05:40,120 --> 00:05:42,860 и хиљаде партија против других врхунских играча 99 00:05:42,890 --> 00:05:45,210 у другим такмичењима. 100 00:05:45,240 --> 00:05:50,296 Знао сам шта да очекујем од својих противника 101 00:05:50,320 --> 00:05:52,000 и од себе. 102 00:05:52,680 --> 00:05:57,856 Навикао сам на то да им одмеравам потезе 103 00:05:57,880 --> 00:06:01,496 и одређујем емотивно стање 104 00:06:01,520 --> 00:06:05,360 кроз посматрање говора тела и погледа. 105 00:06:05,880 --> 00:06:09,880 Затим сам сео са друге стране шаховске табле, насупрот Дип Блуу. 106 00:06:12,960 --> 00:06:15,816 Одмах сам осетио нешто ново, 107 00:06:15,840 --> 00:06:17,160 нешто узнемирујуће. 108 00:06:19,440 --> 00:06:22,240 Можда ћете се осетити слично 109 00:06:23,320 --> 00:06:25,856 први пут када се возите у аутомобилу без возача 110 00:06:25,880 --> 00:06:30,720 или први пут када вам компјутерски менаџер изда наређење на послу. 111 00:06:33,800 --> 00:06:36,920 Али, када сам сео да одиграм ту прву партију, 112 00:06:38,080 --> 00:06:40,216 нисам био сигуран у то 113 00:06:40,240 --> 00:06:43,920 шта ова ствар може да уради. 114 00:06:44,920 --> 00:06:48,280 Технологија може веома брзо да напредује, а Ај-Би-Ем је много уложио. 115 00:06:48,680 --> 00:06:49,880 Изгубио сам партију. 116 00:06:52,320 --> 00:06:54,096 Нисам могао а да се не запитам 117 00:06:54,120 --> 00:06:55,680 да ли је можда непобедив. 118 00:06:56,600 --> 00:06:59,140 Да ли је моја вољена игра, шах, стигла до краја? 119 00:07:00,800 --> 00:07:04,936 Биле су ово људске сумње, људски страхови, 120 00:07:04,960 --> 00:07:06,860 а једина ствар коју сам знао засигурно 121 00:07:07,400 --> 00:07:10,296 била је да мој противник, Дип Блу, уопште нема таквих брига. 122 00:07:10,320 --> 00:07:12,080 (Смех) 123 00:07:13,920 --> 00:07:15,320 Узвратио сам 124 00:07:16,400 --> 00:07:18,080 након овог разарајућег удара 125 00:07:19,000 --> 00:07:20,590 тако што сам добио прву партију, 126 00:07:20,960 --> 00:07:22,600 али је натпис стајао на зиду. 127 00:07:24,400 --> 00:07:26,536 На крају ме је машина победила, 128 00:07:26,560 --> 00:07:29,616 али нисам доживео судбину Џона Хенрија 129 00:07:29,640 --> 00:07:32,680 који је победио, али умро са чекићем у руци. 130 00:07:37,720 --> 00:07:40,256 Испоставило се да свет шаха 131 00:07:40,280 --> 00:07:43,520 и даље жели шаховског првака који је човек. 132 00:07:44,920 --> 00:07:46,600 Чак и данас, 133 00:07:48,080 --> 00:07:51,536 када је бесплатна апликација за шах на најновијем мобилном телефону 134 00:07:51,560 --> 00:07:53,576 јача од Дип Блуа, 135 00:07:53,600 --> 00:07:55,080 људи и даље играју шах, 136 00:07:56,680 --> 00:07:58,920 чак и више него раније. 137 00:07:59,720 --> 00:08:03,136 Они који су причали о судњем дану предвидели су да нико неће играти игру 138 00:08:03,136 --> 00:08:05,296 у којој их може победити машина 139 00:08:05,320 --> 00:08:07,646 и нису били у праву; доказано је да су погрешили, 140 00:08:07,646 --> 00:08:11,016 али прорицање судњег дана је увек била популарна разбибрига 141 00:08:11,040 --> 00:08:12,400 када се ради о технологији. 142 00:08:14,360 --> 00:08:17,096 Из сопственог искуства сам научио 143 00:08:17,120 --> 00:08:21,776 да се морамо суочити са својим страховима 144 00:08:21,800 --> 00:08:25,520 ако желимо да добијемо што је више могуће од наше технологије, 145 00:08:26,360 --> 00:08:28,736 и морамо савладати ове страхове 146 00:08:28,760 --> 00:08:34,000 ако желимо да добијемо што је више могуће из своје човечности. 147 00:08:36,120 --> 00:08:37,895 Док сам видао своје ране, 148 00:08:37,919 --> 00:08:39,880 добио сам велику инспирацију 149 00:08:41,080 --> 00:08:43,775 из својих битака против Дип Блуа. 150 00:08:43,799 --> 00:08:45,480 Као што стара руска пословица каже: 151 00:08:45,510 --> 00:08:47,710 „Ако не можеш да их победиш, придружи им се.“ 152 00:08:48,880 --> 00:08:50,256 Онда сам помислио: 153 00:08:50,280 --> 00:08:52,616 „Шта ако бих могао играти са компјутером?“, 154 00:08:52,640 --> 00:08:55,800 са компјутером на мојој страни, уз удружене снаге, 155 00:08:57,160 --> 00:09:00,936 људска интуиција уз машинско рачунање, 156 00:09:00,960 --> 00:09:03,656 људска стратегија, машинска тактика, 157 00:09:03,680 --> 00:09:06,096 људско искуство, машинска меморија. 158 00:09:06,120 --> 00:09:08,320 Да ли би то била савршена игра свих времена? 159 00:09:10,000 --> 00:09:14,480 Моја идеја је оживела 1998. године 160 00:09:14,500 --> 00:09:16,296 под именом „Напредни шах“, 161 00:09:16,320 --> 00:09:21,930 када сам одиграо партију човека и машине против другог елитног играча. 162 00:09:23,280 --> 00:09:25,176 Али, у овом првом експерименту, 163 00:09:25,200 --> 00:09:31,560 није нам успело да ефикасно укомбинујемо способности људи и машина. 164 00:09:34,920 --> 00:09:37,160 „Напредни шах“ је нашао себи место на интернету, 165 00:09:38,160 --> 00:09:43,016 а 2005. године је такозвани шаховски турнир слободног стила 166 00:09:43,040 --> 00:09:44,400 довео до откровења. 167 00:09:47,240 --> 00:09:50,776 Учествовао је тим велемајстора и суперкомпјутера, 168 00:09:50,800 --> 00:09:53,536 али победници нису били велемајстори, 169 00:09:53,560 --> 00:09:54,920 нити суперкомпјутери. 170 00:09:55,680 --> 00:10:00,016 Победио је пар америчких шаховских аматера 171 00:10:00,040 --> 00:10:03,200 радећи уз три обична рачунара истовремено. 172 00:10:05,560 --> 00:10:08,576 Њихове вештине у навођењу њихових машина 173 00:10:08,600 --> 00:10:14,376 ефикасно су се супротставиле напредном шаховском знању 174 00:10:14,400 --> 00:10:15,976 њихових противника велемајстора 175 00:10:16,000 --> 00:10:20,160 и много већој снази туђих компјутера. 176 00:10:21,600 --> 00:10:23,560 И дошао сам до овог закључка. 177 00:10:24,560 --> 00:10:27,936 Слаб људски играч уз машину 178 00:10:27,960 --> 00:10:31,216 и бољи процес је супериорнији 179 00:10:31,240 --> 00:10:33,656 од веома снажне машине, 180 00:10:33,680 --> 00:10:37,576 али, што је још интересантније, супериорнији је од доброг људског играча 181 00:10:37,600 --> 00:10:39,560 уз машину 182 00:10:41,120 --> 00:10:43,520 и инфериорнији процес. 183 00:10:46,360 --> 00:10:48,480 Ово ме је убедило да нам требају 184 00:10:50,000 --> 00:10:53,680 бољи интерфејси да нам помогну да научимо машине 185 00:10:54,520 --> 00:10:56,240 да користе кориснију интелигенцију. 186 00:10:58,320 --> 00:11:01,616 Људи уз машине нису будућност, 187 00:11:01,640 --> 00:11:02,676 већ садашњост. 188 00:11:02,700 --> 00:11:07,016 Сви су користили онлајн превођење 189 00:11:07,040 --> 00:11:11,336 да би стекли представу о чланку из страних новина, 190 00:11:11,360 --> 00:11:13,000 знајући да је далеко од савршеног. 191 00:11:13,680 --> 00:11:15,776 Затим користимо људско искуство 192 00:11:15,800 --> 00:11:17,896 да бисмо то смисаоно уобличили, 193 00:11:17,920 --> 00:11:20,696 а онда машина учи из наших исправки. 194 00:11:20,720 --> 00:11:23,040 Овај модел се шири и улаже 195 00:11:23,070 --> 00:11:25,550 у медицинске дијагнозе, безбедносне анализе. 196 00:11:26,440 --> 00:11:28,560 Машина обрађује гомилу података, 197 00:11:29,320 --> 00:11:31,056 прорачунава вероватноћу, 198 00:11:31,080 --> 00:11:34,736 дође до 80 или 90 посто пута, 199 00:11:34,760 --> 00:11:39,136 што олакшава анализу 200 00:11:39,160 --> 00:11:41,760 и доношење одлуке од стране људи. 201 00:11:42,280 --> 00:11:47,120 Али, нећете послати своју децу 202 00:11:48,000 --> 00:11:51,560 у школу у аутомобилу без возача уз прецизност од 90 посто, 203 00:11:52,600 --> 00:11:54,200 чак ни 99 посто. 204 00:11:55,560 --> 00:11:58,416 Зато треба да корачамо напред 205 00:11:58,440 --> 00:12:04,600 да бисмо додали још неколико кључних децимала. 206 00:12:07,160 --> 00:12:11,200 Двадесет година након партије са Дип Блуом, 207 00:12:12,200 --> 00:12:13,816 друге по реду партије, 208 00:12:13,840 --> 00:12:20,136 сензационални наслов „Последње упориште мозга“ 209 00:12:20,160 --> 00:12:21,736 постао је уобичајен 210 00:12:21,760 --> 00:12:24,296 док интелигентне машине 211 00:12:24,320 --> 00:12:25,520 напредују 212 00:12:26,560 --> 00:12:28,760 у сваком подручју, наизглед сваког дана. 213 00:12:30,160 --> 00:12:33,256 Међутим, за разлику од прошлости, 214 00:12:33,280 --> 00:12:34,920 када су машине замењивале 215 00:12:36,480 --> 00:12:38,856 животиње на фарми, физички рад, 216 00:12:38,880 --> 00:12:41,376 сада су дошле по факултетски образоване људе 217 00:12:41,400 --> 00:12:42,680 и политички утицај. 218 00:12:44,120 --> 00:12:46,216 Као неко ко се борио против машина и изгубио, 219 00:12:46,240 --> 00:12:48,880 овде сам да бих вам рекао да су ово сјајне новости. 220 00:12:51,000 --> 00:12:53,216 На крају ће свака професија 221 00:12:53,240 --> 00:12:55,336 морати да осети овај притисак 222 00:12:55,360 --> 00:13:00,960 или ће у супротном то значити да је човечанство престало да напредује. 223 00:13:02,760 --> 00:13:03,960 Ми не можемо 224 00:13:05,440 --> 00:13:07,160 да бирамо 225 00:13:08,480 --> 00:13:11,200 када и где престаје технолошки напредак. 226 00:13:13,160 --> 00:13:14,520 Не можемо 227 00:13:15,960 --> 00:13:17,456 да успоримо. 228 00:13:17,480 --> 00:13:19,296 У ствари, 229 00:13:19,320 --> 00:13:21,240 морамо да убрзамо. 230 00:13:24,600 --> 00:13:27,240 Наша технологија сјајно отклања 231 00:13:29,200 --> 00:13:32,560 потешкоће и неизвесност из наших живота, 232 00:13:35,000 --> 00:13:37,816 па и ми морамо да трагамо 233 00:13:37,840 --> 00:13:39,696 за још тежим, 234 00:13:39,720 --> 00:13:43,800 још неизвеснијим изазовима. 235 00:13:48,200 --> 00:13:49,400 Машине имају 236 00:13:51,880 --> 00:13:53,696 прорачуне. 237 00:13:53,720 --> 00:13:55,296 Ми имамо разумевање. 238 00:13:55,320 --> 00:13:57,360 Машине имају инструкције. 239 00:13:58,840 --> 00:14:00,696 Ми имамо сврху. 240 00:14:00,720 --> 00:14:03,000 Машине имају 241 00:14:05,080 --> 00:14:06,296 објективност. 242 00:14:06,320 --> 00:14:07,520 Ми имамо страст. 243 00:14:08,600 --> 00:14:14,576 Не треба да бринемо о томе шта наше машине могу да ураде данас. 244 00:14:14,600 --> 00:14:19,176 Уместо тога, треба да нас брине то шта не могу да ураде данас, 245 00:14:19,200 --> 00:14:24,696 јер ће нам требати помоћ нових, интелигентних машина 246 00:14:24,720 --> 00:14:28,800 да своје највеће снове претворимо у стварност. 247 00:14:30,000 --> 00:14:31,320 А ако не успемо, 248 00:14:32,240 --> 00:14:36,896 ако не успемо, то није због тога што су машине сувише интелигентне 249 00:14:36,920 --> 00:14:38,440 или нису довољно интелигентне. 250 00:14:39,200 --> 00:14:42,280 Ако не успемо, то је зато што смо постали немарни 251 00:14:43,680 --> 00:14:45,240 и ограничили своје амбиције. 252 00:14:46,520 --> 00:14:49,560 Наше човечанство не дефинише нека вештина, 253 00:14:51,280 --> 00:14:53,960 као што је замахивање чекићем или чак и играње шаха. 254 00:14:54,560 --> 00:14:57,576 Постоји једна ствар коју само људи могу да раде. 255 00:14:57,600 --> 00:14:58,800 То је сањање. 256 00:15:00,120 --> 00:15:02,656 Сањајмо велике снове. 257 00:15:02,680 --> 00:15:03,896 Хвала вам. 258 00:15:03,920 --> 00:15:06,197 (Аплауз)