1 00:00:01,000 --> 00:00:03,216 Tot seguit parlaré sobre una manca d'intuïció 2 00:00:03,240 --> 00:00:04,840 que molts de nosaltres patim. 3 00:00:05,480 --> 00:00:08,520 És una dificultat per detectar un tipus de perill específic. 4 00:00:09,360 --> 00:00:11,096 Imagineu-vos el següent escenari, 5 00:00:11,120 --> 00:00:14,376 que jo crec que és esgarrifós 6 00:00:14,400 --> 00:00:16,160 i alhora ben probable. 7 00:00:16,840 --> 00:00:18,496 Això no és pas una bona combinació 8 00:00:18,520 --> 00:00:20,056 pel que sembla. 9 00:00:20,080 --> 00:00:22,536 I enlloc d'espantar-vos, molts creureu 10 00:00:22,560 --> 00:00:24,640 que allò del que parlo és divertit. 11 00:00:25,200 --> 00:00:28,176 M'agradaria explicar que els avenços que fem 12 00:00:28,200 --> 00:00:29,976 en intel·ligència artificial 13 00:00:30,000 --> 00:00:31,776 poden acabar destruint-nos. 14 00:00:31,800 --> 00:00:35,256 I de fet, crec que és ben difícil no veure com no ens poden destruir 15 00:00:35,280 --> 00:00:36,980 o fer que ens autodestruïm. 16 00:00:37,400 --> 00:00:39,256 Tot i així, si penseu com jo, 17 00:00:39,280 --> 00:00:41,936 veureu que és distret pensar en aquestes coses. 18 00:00:41,960 --> 00:00:45,336 I aquesta és la resposta que és part del problema. 19 00:00:45,360 --> 00:00:47,080 És la que hauria d'amoïnar-vos. 20 00:00:47,920 --> 00:00:50,576 I si us hagués de convèncer amb aquesta xerrada 21 00:00:50,600 --> 00:00:54,016 de que és ben possible que arribem a patir una fam mundial, 22 00:00:54,040 --> 00:00:57,096 ja sigui pel canvi climàtic o per qualsevol altra catàstrofe, 23 00:00:57,120 --> 00:01:00,536 i que els vostres néts, o els seus néts, 24 00:01:00,560 --> 00:01:02,360 probablement viuran així, 25 00:01:03,200 --> 00:01:04,400 no pensaríeu: 26 00:01:05,440 --> 00:01:06,776 "Interessant. 27 00:01:06,800 --> 00:01:08,580 M'agrada aquesta xerrada TED." 28 00:01:09,200 --> 00:01:10,720 La fam no és divertida. 29 00:01:11,800 --> 00:01:15,176 La mort en la ciència ficció, en canvi, sí que ho és, 30 00:01:15,200 --> 00:01:19,176 i el que més em preocupa sobre el progrés de la IA ara mateix 31 00:01:19,200 --> 00:01:23,296 és que no sembla que siguem capaços de respondre com cal a nivell emocional 32 00:01:23,320 --> 00:01:25,136 als perills que ens esperen. 33 00:01:25,160 --> 00:01:28,360 No sóc capaç de respondre-hi i ara em trobo donant aquesta xerrada. 34 00:01:30,120 --> 00:01:32,816 És com si ens trobéssim davant dues portes. 35 00:01:32,840 --> 00:01:34,096 Rera la porta número u, 36 00:01:34,120 --> 00:01:37,416 deixem de progressar i de construir màquines intel·ligents. 37 00:01:37,440 --> 00:01:41,456 El nostre maquinari i programari deixa de millorar per alguna raó. 38 00:01:41,480 --> 00:01:44,480 Penseu durant uns instants per què podria passar això. 39 00:01:45,080 --> 00:01:48,736 Vull dir, ja que la intel·ligència i la automatització són tan valuoses, 40 00:01:48,760 --> 00:01:52,280 seguirem millorant la tecnologia sempre que siguem sent capaços. 41 00:01:53,200 --> 00:01:54,867 Què podria impedir-nos-ho? 42 00:01:55,800 --> 00:01:57,810 Potser una guerra nuclear mundial? 43 00:01:59,000 --> 00:02:00,720 O una gran epidèmia? 44 00:02:02,320 --> 00:02:03,770 L'impacte d'un asteroide? 45 00:02:05,640 --> 00:02:08,216 Justin Bieber com president dels Estats Units? 46 00:02:08,240 --> 00:02:10,520 (Riures) 47 00:02:12,760 --> 00:02:16,680 Alguna cosa hauria de destruir la civilització tal i com la coneixem. 48 00:02:17,360 --> 00:02:21,656 Imagineu-vos com de greu hauria de ser 49 00:02:21,680 --> 00:02:25,016 per impedir-nos seguir millorant la tecnologia 50 00:02:25,040 --> 00:02:26,256 de forma permanent, 51 00:02:26,280 --> 00:02:28,296 generació rera generació. 52 00:02:28,320 --> 00:02:30,456 Quasi per definició, es tracta del pitjor 53 00:02:30,480 --> 00:02:32,496 que podria arribar a patir la humanitat. 54 00:02:32,520 --> 00:02:33,816 Però l'única alternativa, 55 00:02:33,840 --> 00:02:36,176 que es troba darrera la porta número dos, 56 00:02:36,200 --> 00:02:39,336 és seguir millorant la intel·ligència de les màquines 57 00:02:39,360 --> 00:02:40,960 any rere any. 58 00:02:41,720 --> 00:02:45,360 En algun moment, construirem màquines més intel·ligents que nosaltres, 59 00:02:46,080 --> 00:02:48,696 i un cop les màquines ens superin, 60 00:02:48,720 --> 00:02:50,696 es milloraran a elles mateixes. 61 00:02:50,720 --> 00:02:53,456 I el que el matemàtic IJ Good anomenava com 62 00:02:53,480 --> 00:02:55,256 "l'explosió de la intel·ligència", 63 00:02:55,280 --> 00:02:58,090 pot succeir fent que les màquines ens superin amb escreix. 64 00:02:58,120 --> 00:03:00,936 Aquest fet sovint es representa com jo ho he fet aquí, 65 00:03:00,960 --> 00:03:04,176 imaginant que exèrcits de robots malèvols 66 00:03:04,200 --> 00:03:05,456 ens ataquen. 67 00:03:05,480 --> 00:03:08,176 Però aquest no és l'escenari més probable. 68 00:03:08,200 --> 00:03:13,056 No crec que les màquines de cop i volta es tornin malèfiques. 69 00:03:13,080 --> 00:03:15,696 Em preocupa més que arribem a construir màquines 70 00:03:15,720 --> 00:03:17,776 que són molt més competents que nosaltres 71 00:03:17,800 --> 00:03:21,576 i que la més subtil de les divergències entre els seus objectius i els nostres 72 00:03:21,600 --> 00:03:23,390 puguin arribar a destruir-nos. 73 00:03:23,960 --> 00:03:26,310 Penseu només en com tractem a les formigues. 74 00:03:26,600 --> 00:03:28,256 No les odiem pas. 75 00:03:28,280 --> 00:03:30,336 No sortim del camí per fer-les-hi mal. 76 00:03:30,360 --> 00:03:32,736 Fins i tot patim mals de cap per no esclafar-les 77 00:03:32,760 --> 00:03:34,776 i les saltem quan caminem per la vorera. 78 00:03:34,800 --> 00:03:36,936 Però quan la seva presència 79 00:03:36,960 --> 00:03:39,456 entra en conflicte amb els nostres objectius, 80 00:03:39,480 --> 00:03:41,957 per exemple si volem construir un edifici, 81 00:03:41,981 --> 00:03:43,941 les exterminem sense cap prejudici. 82 00:03:44,480 --> 00:03:47,416 El que em preocupa és que un dia construirem màquines 83 00:03:47,440 --> 00:03:50,176 que tant si són conscients com si no ho són, 84 00:03:50,200 --> 00:03:52,200 podrien arribar a menysprear-nos així. 85 00:03:53,760 --> 00:03:56,520 Crec que això queda molt lluny per molts de vosaltres. 86 00:03:57,360 --> 00:04:03,696 Inclús crec que molts de vosaltres dubteu que la superintel·ligència sigui possible, 87 00:04:03,720 --> 00:04:05,376 i menys encara inevitable. 88 00:04:05,400 --> 00:04:09,300 Però en aquest cas heu de trobar quelcom erroni en una d'aquestes suposicions: 89 00:04:09,330 --> 00:04:10,966 I només n'hi ha tres: 90 00:04:11,800 --> 00:04:16,519 La intel·ligència consisteix en processar informació en sistemes físics. 91 00:04:17,320 --> 00:04:19,935 De fet, això és quelcom més que una suposició. 92 00:04:19,959 --> 00:04:23,416 Ja hem incorporat petites intel·ligències en les nostres màquines, 93 00:04:23,440 --> 00:04:25,716 i moltes d'elles tenen un rendiment superior 94 00:04:25,716 --> 00:04:28,310 a un nivell d'intel·ligència suprahumana. 95 00:04:28,840 --> 00:04:31,416 I ja sabem que la mera matèria 96 00:04:31,440 --> 00:04:34,056 pot donar lloc a la "intel·ligència general", 97 00:04:34,080 --> 00:04:37,736 és a dir l'habilitat de pensar amb flexibilitat en diversos camps. 98 00:04:37,760 --> 00:04:40,896 Al cap i a la fi els nostres cervells ho han aconseguit, cert? 99 00:04:40,920 --> 00:04:44,856 És a dir, només hi ha àtoms aquí, 100 00:04:44,880 --> 00:04:49,376 i sempre i quan seguim construint sistemes a base d'àtoms 101 00:04:49,400 --> 00:04:52,096 que es comporten de forma cada cop més intel·ligent, 102 00:04:52,120 --> 00:04:54,656 en algun moment, si res no ho impedeix, 103 00:04:54,680 --> 00:04:58,056 en algun moment construirem intel·ligència artificial 104 00:04:58,080 --> 00:04:59,376 en les nostres màquines. 105 00:04:59,400 --> 00:05:03,056 És de vital importància adonar-se'n que el ritme de progrés no importa, 106 00:05:03,080 --> 00:05:06,256 perquè qualsevol progrés ens acabarà portant a l'altre extrem. 107 00:05:06,280 --> 00:05:10,056 No ens cal la llei de Moore per continuar. No ens cal un progrés exponencial. 108 00:05:10,080 --> 00:05:11,680 Només ens cal seguir avançant. 109 00:05:13,480 --> 00:05:16,400 La segona suposició és que seguirem avançant. 110 00:05:17,000 --> 00:05:19,760 Seguirem millorant les màquines intel·ligents. 111 00:05:21,000 --> 00:05:25,376 I donat el valor que té la intel·ligència, 112 00:05:25,400 --> 00:05:28,936 és a dir, ja que la intel·ligència és la font de tot el que valorem 113 00:05:28,960 --> 00:05:31,736 i la necessitem per salvaguardar tot el que ens importa. 114 00:05:31,760 --> 00:05:34,016 És el recurs més valuós de que disposem. 115 00:05:34,040 --> 00:05:35,576 Així doncs, volem que avanci. 116 00:05:35,600 --> 00:05:38,936 Tenim problemes que hem de solucionar desesperadament. 117 00:05:38,960 --> 00:05:42,160 Volem guarir malalties com l'Alzheimer i el càncer. 118 00:05:42,960 --> 00:05:46,896 Volem entendre sistemes econòmics. Volem millorar la ciència del clima. 119 00:05:46,920 --> 00:05:49,176 Així doncs ho farem si podem. 120 00:05:49,200 --> 00:05:52,486 El tren ja ha sortit de l'estació i no hi ha manera de que pari. 121 00:05:53,880 --> 00:05:59,336 I per últim, no ens trobem al cim de la nostra intel·ligència, 122 00:05:59,360 --> 00:06:01,160 o en qualsevol punt que s'hi acosti. 123 00:06:01,640 --> 00:06:03,536 I això és la clau de la qüestió. 124 00:06:03,560 --> 00:06:06,346 És el que fa que la nostra situació sigui tan precària, 125 00:06:06,346 --> 00:06:10,520 i és el que fa que les nostres intuïcions sobre aquest risc siguin tan poc fiables. 126 00:06:11,120 --> 00:06:14,320 Penseu en la persona més intel·ligent que mai ha viscut. 127 00:06:14,640 --> 00:06:18,056 Molts de vosaltres haureu considerat a en John von Neumann. 128 00:06:18,080 --> 00:06:21,416 La impressió que va causar en von Neumann al seu voltant, 129 00:06:21,440 --> 00:06:25,496 i això inclou als més grans matemàtics i físics de la seva època, 130 00:06:25,520 --> 00:06:27,456 està ben documentada. 131 00:06:27,480 --> 00:06:31,256 Si només la meitat de les històries sobre ell són certes, 132 00:06:31,280 --> 00:06:32,496 no hi ha cap dubte 133 00:06:32,520 --> 00:06:34,976 que és una de les persones més brillants. 134 00:06:35,000 --> 00:06:37,520 Considerem l'espectre d'intel·ligència. 135 00:06:38,320 --> 00:06:39,749 Tenim en John von Neumann. 136 00:06:41,560 --> 00:06:42,894 I aquí estem nosaltres. 137 00:06:44,120 --> 00:06:45,416 I aquí un pollastre. 138 00:06:45,440 --> 00:06:47,376 (Riures) 139 00:06:47,400 --> 00:06:48,616 Perdó, un pollastre. 140 00:06:48,640 --> 00:06:49,896 (Riures) 141 00:06:49,920 --> 00:06:53,896 No hi ha cap necessitat de fer aquesta xerrada més depriment del que pot ser. 142 00:06:53,896 --> 00:06:55,280 (Riures) 143 00:06:56,339 --> 00:06:59,816 Sembla que està ben clar que l'espectre de la intel·ligència 144 00:06:59,840 --> 00:07:02,960 s'estén molt més enllà del que considerem actualment, 145 00:07:03,880 --> 00:07:07,096 i si construïm màquines que són més intel·ligents que nosaltres, 146 00:07:07,120 --> 00:07:09,416 molt probablement exploraran aquest espectre 147 00:07:09,440 --> 00:07:11,296 de maneres que no podem imaginar, 148 00:07:11,320 --> 00:07:13,840 i ens superaran de maneres que tampoc podem imaginar. 149 00:07:15,000 --> 00:07:19,336 I hem de reconèixer que això és així només en base a la velocitat. 150 00:07:19,360 --> 00:07:24,416 D'acord? Doncs imagineu que hem construit una IA superintel·ligent 151 00:07:24,440 --> 00:07:27,896 que no és més brillant que la majoria d'equips de recerca 152 00:07:27,920 --> 00:07:30,216 de Stanford o del MIT. 153 00:07:30,240 --> 00:07:33,216 Els circuits electrònics són un milió de vegades més ràpids 154 00:07:33,240 --> 00:07:34,496 que les ones bioquímiques, 155 00:07:34,520 --> 00:07:37,656 així, aquesta màquina pensaria un milió de cops més depressa 156 00:07:37,680 --> 00:07:39,496 que les ments que l'han dissenyat. 157 00:07:39,520 --> 00:07:41,176 Si la deixem encesa una setmana 158 00:07:41,200 --> 00:07:45,760 haurà complert 20.000 anys de feina intel·lectual a nivell humà, 159 00:07:46,400 --> 00:07:48,360 setmana rere setmana rere setmana. 160 00:07:49,640 --> 00:07:52,736 Com podem arribar a comprendre, i menys encara limitar, 161 00:07:52,760 --> 00:07:55,040 una ment que progressa així? 162 00:07:56,840 --> 00:07:58,976 L'altra cosa que em preocupa, sent honestos, 163 00:07:59,000 --> 00:08:03,976 es que... imagineu-vos el millor escenari possible. 164 00:08:04,000 --> 00:08:08,176 Imagineu que tombem amb un disseny de IA superintel·ligent 165 00:08:08,200 --> 00:08:09,826 sense problemes de seguretat. 166 00:08:09,826 --> 00:08:12,856 És el primer cop que aconseguim el disseny perfecte. 167 00:08:12,880 --> 00:08:15,096 És com si ens hagués arribat un oracle 168 00:08:15,120 --> 00:08:17,136 que es comporta tal i com preteníem. 169 00:08:17,160 --> 00:08:20,880 Doncs bé, aquesta màquina seria l'eina perfecta per reduir-nos feina. 170 00:08:21,530 --> 00:08:24,309 Podria dissenyar màquines que podrien construir màquines 171 00:08:24,309 --> 00:08:25,896 per fer qualsevol feina física, 172 00:08:25,920 --> 00:08:27,376 alimentades per energia solar, 173 00:08:27,400 --> 00:08:30,096 i més o menys pel que costa la matèria prima. 174 00:08:30,120 --> 00:08:33,376 Estem parlant de la fi de les feines feixugues. 175 00:08:33,400 --> 00:08:36,200 També seria la fi de la majoria de feines intel·lectuals. 176 00:08:37,200 --> 00:08:40,256 Què farien uns simis com nosaltres en aquestes circumstàncies? 177 00:08:40,280 --> 00:08:44,830 Tindríem temps per jugar al disc volador i de fer-nos massatges els uns als altres. 178 00:08:45,840 --> 00:08:48,696 Afegiu una mica de LSD i un vestuari de gust qüestionable 179 00:08:48,720 --> 00:08:50,896 i el món sencer podria ser com el Burning Man. 180 00:08:50,920 --> 00:08:52,560 (Riures) 181 00:08:54,320 --> 00:08:56,320 Tot això pot sonar força atractiu, 182 00:08:57,280 --> 00:08:59,656 però penseu que passaria 183 00:08:59,680 --> 00:09:02,416 si succeís sota l'ordre econòmic i polític actual? 184 00:09:02,440 --> 00:09:04,856 És ben probable que experimentéssim 185 00:09:04,880 --> 00:09:09,016 una desigualtat econòmica i un nivell d'atur 186 00:09:09,040 --> 00:09:10,536 que mai havíem experimentat. 187 00:09:10,560 --> 00:09:13,176 I si no hi ha la voluntat de posar tota aquesta riquesa 188 00:09:13,200 --> 00:09:14,680 al servei de la humanitat, 189 00:09:15,640 --> 00:09:19,256 uns quants bilionaris arribarien a les portades de les revistes 190 00:09:19,280 --> 00:09:21,720 mentre la resta ens moriríem de gana. 191 00:09:22,320 --> 00:09:24,616 I què farien els russos o els xinesos 192 00:09:24,640 --> 00:09:27,256 si sapiguessin que una empresa de Silicon Valley 193 00:09:27,280 --> 00:09:30,016 estigués a punt d'aconseguir una IA superintel·ligent? 194 00:09:30,040 --> 00:09:32,896 Aquesta màquina estaria preparada per entrar en guerra, 195 00:09:32,920 --> 00:09:35,136 ja sigui per terra o cibernètica, 196 00:09:35,160 --> 00:09:36,840 amb un poder sense precedents. 197 00:09:38,120 --> 00:09:39,976 I aquí el guanyador s'ho emporta tot. 198 00:09:40,000 --> 00:09:43,136 Aquí, trobar-se sis mesos al capdavant de la competició 199 00:09:43,160 --> 00:09:45,936 vol dir trobar-se 500.000 anys al davant 200 00:09:45,960 --> 00:09:47,456 com a mínim. 201 00:09:47,480 --> 00:09:52,216 Només que hi hagi un rumor sobre algun descobriment d'aquest tipus 202 00:09:52,240 --> 00:09:54,616 pot fer que la nostra espècie embogeixi. 203 00:09:54,640 --> 00:09:57,536 Ara bé, una de les coses més paoroses, 204 00:09:57,560 --> 00:10:00,336 segons el meu punt de vista, ara per ara, 205 00:10:00,360 --> 00:10:04,656 són el tipus de coses que els investigadors en IA diuen 206 00:10:04,680 --> 00:10:06,240 quan volen tranquil·litzar-nos. 207 00:10:07,000 --> 00:10:10,456 I la principal raó que ens donen per no preocupar-no és el temps. 208 00:10:10,480 --> 00:10:12,536 "Això encara està lluny, no ho sabíeu?" 209 00:10:12,560 --> 00:10:15,000 "Probablement encara queden uns 50 o 100 anys." 210 00:10:15,720 --> 00:10:16,976 Un investigador va dir: 211 00:10:17,000 --> 00:10:18,576 "Preocuparse per una IA insegura 212 00:10:18,600 --> 00:10:21,440 és com preocupar-se per la sobre-població a Mart." 213 00:10:22,116 --> 00:10:23,736 Això és la versió de Silicon Valley 214 00:10:23,760 --> 00:10:26,136 de "no et preocupis, nena!" 215 00:10:26,160 --> 00:10:27,496 (Riures) 216 00:10:27,520 --> 00:10:29,416 Ningú sembla adonar-se'n 217 00:10:29,440 --> 00:10:32,056 que basar-se en un horitzó cronològic 218 00:10:32,080 --> 00:10:34,656 és un 'non sequitur' absolut. 219 00:10:34,680 --> 00:10:37,936 Si la intel·ligència consisteix simplement en processar informació, 220 00:10:37,960 --> 00:10:40,616 i seguim perfeccionant les màquines, 221 00:10:40,640 --> 00:10:43,520 acabarem per generar alguna forma de superintel·ligència. 222 00:10:44,320 --> 00:10:47,976 I no tenim ni idea de quant de temps ens portarà 223 00:10:48,000 --> 00:10:50,400 crear les condicions per fer-ho de forma segura. 224 00:10:52,200 --> 00:10:53,496 Deixeu-me que ho repeteixi. 225 00:10:53,520 --> 00:10:57,336 No tenim ni idea de quant de temps ens portarà 226 00:10:57,360 --> 00:10:59,600 crear les condicions per fer-ho de forma segura. 227 00:11:00,920 --> 00:11:04,376 I per si no us n'heu adonat, 50 anys no són el que eren abans. 228 00:11:04,400 --> 00:11:06,856 Això són 50 anys en mesos. 229 00:11:06,880 --> 00:11:09,350 Això són els mesos que hem tingut l'iPhone. 230 00:11:09,440 --> 00:11:12,640 Això són els mesos que "Els Simpsons" han estat en pantalla. 231 00:11:12,680 --> 00:11:15,056 Cinquanta anys no és gaire temps 232 00:11:15,080 --> 00:11:18,240 per assolir un dels grans reptes de la nostra espècie. 233 00:11:19,640 --> 00:11:23,656 Torno a dir, sembla que no estem reaccionant com cal a nivell emocional 234 00:11:23,680 --> 00:11:26,376 envers allò que cada cop n'estem més segurs que arribarà. 235 00:11:26,400 --> 00:11:30,376 El científic informàtic Stuart Russell fa una bonica analogia. 236 00:11:30,400 --> 00:11:35,296 Va dir que imaginéssim que havíem rebut un missatge d'una civilització alienígena, 237 00:11:35,320 --> 00:11:37,016 que deia: 238 00:11:37,040 --> 00:11:38,576 "Gent de la Terra, 239 00:11:38,600 --> 00:11:40,960 arribarem al vostre planeta d'aquí 50 anys. 240 00:11:41,800 --> 00:11:43,376 Prepareu-vos." 241 00:11:43,400 --> 00:11:47,656 I llavors comencem a comptar els mesos que queden abans que arribin. 242 00:11:47,680 --> 00:11:50,680 Segurament sentiríem una mica més de pressió que ara. 243 00:11:52,480 --> 00:11:54,666 Una altra raó que donen per no preocupar-nos 244 00:11:54,666 --> 00:11:57,576 és que les màquines només podran compartir els nostres valors 245 00:11:57,600 --> 00:12:00,216 perquè seran literalment extensions de nosaltres. 246 00:12:00,240 --> 00:12:02,256 Seran uns empelts en els nostres cervells, 247 00:12:02,256 --> 00:12:04,710 i esdevindrem els seus sistemes límbics. 248 00:12:05,120 --> 00:12:06,536 Considereu per un moment 249 00:12:06,560 --> 00:12:09,736 que la forma més segura i més prudent de seguir avançant, 250 00:12:09,760 --> 00:12:11,096 la forma més recomanada, 251 00:12:11,120 --> 00:12:13,920 és implantar-los en els nostres cervells directament. 252 00:12:14,600 --> 00:12:17,976 És possible que sigui l'única manera segura i prudent de continuar, 253 00:12:18,000 --> 00:12:21,056 tot i que normalment si una tecnologia ens preocupa una micona 254 00:12:21,080 --> 00:12:25,236 primer cal que estigui lliure d'errors si després ens la volem enganxar al cap. 255 00:12:25,236 --> 00:12:26,776 (Riures) 256 00:12:26,800 --> 00:12:32,136 El problema de fons és que desenvolupar una IA superintel·ligent per si mateixa 257 00:12:32,160 --> 00:12:33,896 sembla ser més fàcil 258 00:12:33,920 --> 00:12:35,776 que construir una IA superintel·ligent 259 00:12:35,800 --> 00:12:37,576 i tenir alhora la neurociència llesta 260 00:12:37,600 --> 00:12:40,280 per permetre'ns connectar-hi la ment sense interrupcions. 261 00:12:40,800 --> 00:12:43,976 I donat que les empreses i els governs que estan fent aquesta feina 262 00:12:44,000 --> 00:12:47,656 és probable que es considerin en una cursa contra la resta, 263 00:12:47,680 --> 00:12:50,936 i donat que guanyar la cursa és guanyar el món, 264 00:12:50,960 --> 00:12:53,416 sempre i quan no se'l destrueixi tot seguit, 265 00:12:53,440 --> 00:12:56,256 aleshores és probable que allò que sembli més fàcil de fer 266 00:12:56,286 --> 00:12:57,620 sigui el que primer es faci. 267 00:12:58,560 --> 00:13:01,416 Malauradament, no tinc cap solució a aquest problema, 268 00:13:01,440 --> 00:13:04,056 apart de recomanar que tots hauríem de pensar-hi més. 269 00:13:04,080 --> 00:13:06,456 Crec que necessitem una mena de projecte Manhattan 270 00:13:06,480 --> 00:13:08,496 però per la intel·ligència artificial. 271 00:13:08,520 --> 00:13:11,256 No per desenvolupar-la, ja que és inevitable, 272 00:13:11,280 --> 00:13:14,616 sinó per comprendre com podem evitar una cursa armementística 273 00:13:14,640 --> 00:13:18,136 i per desenvolupar-la de manera que vagi de la mà dels nostres interessos. 274 00:13:18,160 --> 00:13:20,296 Quan parlem d'una IA superintel·ligent 275 00:13:20,320 --> 00:13:22,576 que es pot canviar a si mateixa, 276 00:13:22,600 --> 00:13:27,216 sembla que només tenim una oportunitat per crear les bones condicions inicials, 277 00:13:27,240 --> 00:13:29,296 però inclús així haurem d'absorbir 278 00:13:29,320 --> 00:13:33,200 les conseqüències econòmiques i polítiques d'haver-les establert correctament. 279 00:13:33,760 --> 00:13:35,816 Però en el moment que admetem 280 00:13:35,840 --> 00:13:39,840 que el processat d'informació és l'origen de la intel·ligència, 281 00:13:40,720 --> 00:13:45,520 que un sistema de computació apropiat és la base de tota intel·ligència, 282 00:13:46,360 --> 00:13:50,120 i que seguirem millorant aquests sistemes indefinidament, 283 00:13:51,280 --> 00:13:55,736 i admetem que l'horitzó de la cognició molt probablement excedeix 284 00:13:55,760 --> 00:13:56,960 el que sabem fins ara, 285 00:13:58,120 --> 00:13:59,336 aleshores podrem admetre 286 00:13:59,360 --> 00:14:02,000 que estem en un procés de crear una mena de déu. 287 00:14:03,400 --> 00:14:04,976 Ara és el moment 288 00:14:05,000 --> 00:14:07,623 d'assegurar-nos que és un déu amb qui podem viure. 289 00:14:08,120 --> 00:14:09,656 Moltes gràcies. 290 00:14:09,680 --> 00:14:11,303 (Aplaudiments) 291 00:14:11,333 --> 00:14:13,773 Traduït per Marcos Morales Pallarés