Podem desenvolupar una IA sense perdre'n el control?
-
0:01 - 0:03Tot seguit parlaré
sobre una manca d'intuïció -
0:03 - 0:05que molts de nosaltres patim.
-
0:05 - 0:09És una dificultat per detectar
un tipus de perill específic. -
0:09 - 0:11Imagineu-vos el següent escenari,
-
0:11 - 0:14que jo crec que és esgarrifós
-
0:14 - 0:16i alhora ben probable.
-
0:17 - 0:18Això no és pas una bona combinació
-
0:19 - 0:20pel que sembla.
-
0:20 - 0:23I enlloc d'espantar-vos,
molts creureu -
0:23 - 0:25que allò del que parlo
és divertit. -
0:25 - 0:28M'agradaria explicar
que els avenços que fem -
0:28 - 0:30en intel·ligència artificial
-
0:30 - 0:32poden acabar destruint-nos.
-
0:32 - 0:35I de fet, crec que és ben difícil
no veure com no ens poden destruir -
0:35 - 0:37o fer que ens autodestruïm.
-
0:37 - 0:39Tot i així, si penseu com jo,
-
0:39 - 0:42veureu que és distret
pensar en aquestes coses. -
0:42 - 0:45I aquesta és la resposta
que és part del problema. -
0:45 - 0:47És la que hauria d'amoïnar-vos.
-
0:48 - 0:51I si us hagués de convèncer
amb aquesta xerrada -
0:51 - 0:54de que és ben possible
que arribem a patir una fam mundial, -
0:54 - 0:57ja sigui pel canvi climàtic
o per qualsevol altra catàstrofe, -
0:57 - 1:01i que els vostres néts,
o els seus néts, -
1:01 - 1:02probablement viuran així,
-
1:03 - 1:04no pensaríeu:
-
1:05 - 1:07"Interessant.
-
1:07 - 1:09M'agrada aquesta xerrada TED."
-
1:09 - 1:11La fam no és divertida.
-
1:12 - 1:15La mort en la ciència ficció,
en canvi, sí que ho és, -
1:15 - 1:19i el que més em preocupa
sobre el progrés de la IA ara mateix -
1:19 - 1:23és que no sembla que siguem capaços
de respondre com cal a nivell emocional -
1:23 - 1:25als perills que ens esperen.
-
1:25 - 1:28No sóc capaç de respondre-hi
i ara em trobo donant aquesta xerrada. -
1:30 - 1:33És com si ens trobéssim
davant dues portes. -
1:33 - 1:34Rera la porta número u,
-
1:34 - 1:37deixem de progressar
i de construir màquines intel·ligents. -
1:37 - 1:41El nostre maquinari i programari
deixa de millorar per alguna raó. -
1:41 - 1:44Penseu durant uns instants
per què podria passar això. -
1:45 - 1:49Vull dir, ja que la intel·ligència
i la automatització són tan valuoses, -
1:49 - 1:52seguirem millorant la tecnologia
sempre que siguem sent capaços. -
1:53 - 1:55Què podria impedir-nos-ho?
-
1:56 - 1:58Potser una guerra nuclear mundial?
-
1:59 - 2:01O una gran epidèmia?
-
2:02 - 2:04L'impacte d'un asteroide?
-
2:06 - 2:08Justin Bieber com
president dels Estats Units? -
2:08 - 2:11(Riures)
-
2:13 - 2:17Alguna cosa hauria de destruir
la civilització tal i com la coneixem. -
2:17 - 2:22Imagineu-vos com de greu hauria de ser
-
2:22 - 2:25per impedir-nos seguir
millorant la tecnologia -
2:25 - 2:26de forma permanent,
-
2:26 - 2:28generació rera generació.
-
2:28 - 2:30Quasi per definició,
es tracta del pitjor -
2:30 - 2:32que podria arribar a patir la humanitat.
-
2:33 - 2:34Però l'única alternativa,
-
2:34 - 2:36que es troba darrera la porta número dos,
-
2:36 - 2:39és seguir millorant
la intel·ligència de les màquines -
2:39 - 2:41any rere any.
-
2:42 - 2:45En algun moment, construirem màquines
més intel·ligents que nosaltres, -
2:46 - 2:49i un cop les màquines ens superin,
-
2:49 - 2:51es milloraran a elles mateixes.
-
2:51 - 2:53I el que el matemàtic
IJ Good anomenava com -
2:53 - 2:55"l'explosió de la intel·ligència",
-
2:55 - 2:58pot succeir fent que les màquines
ens superin amb escreix. -
2:58 - 3:01Aquest fet sovint es representa
com jo ho he fet aquí, -
3:01 - 3:04imaginant que exèrcits de robots malèvols
-
3:04 - 3:05ens ataquen.
-
3:05 - 3:08Però aquest no és l'escenari més probable.
-
3:08 - 3:13No crec que les màquines
de cop i volta es tornin malèfiques. -
3:13 - 3:16Em preocupa més que arribem
a construir màquines -
3:16 - 3:18que són molt més
competents que nosaltres -
3:18 - 3:22i que la més subtil de les divergències
entre els seus objectius i els nostres -
3:22 - 3:23puguin arribar a destruir-nos.
-
3:24 - 3:26Penseu només en com
tractem a les formigues. -
3:27 - 3:28No les odiem pas.
-
3:28 - 3:30No sortim del camí per fer-les-hi mal.
-
3:30 - 3:33Fins i tot patim mals de cap
per no esclafar-les -
3:33 - 3:35i les saltem quan caminem per la vorera.
-
3:35 - 3:37Però quan la seva presència
-
3:37 - 3:39entra en conflicte
amb els nostres objectius, -
3:39 - 3:42per exemple si volem construir un edifici,
-
3:42 - 3:44les exterminem sense cap prejudici.
-
3:44 - 3:47El que em preocupa és que un dia
construirem màquines -
3:47 - 3:50que tant si són conscients
com si no ho són, -
3:50 - 3:52podrien arribar a menysprear-nos així.
-
3:54 - 3:57Crec que això queda molt lluny
per molts de vosaltres. -
3:57 - 4:04Inclús crec que molts de vosaltres dubteu
que la superintel·ligència sigui possible, -
4:04 - 4:05i menys encara inevitable.
-
4:05 - 4:09Però en aquest cas heu de trobar quelcom
erroni en una d'aquestes suposicions: -
4:09 - 4:11I només n'hi ha tres:
-
4:12 - 4:17La intel·ligència consisteix en processar
informació en sistemes físics. -
4:17 - 4:20De fet, això és quelcom
més que una suposició. -
4:20 - 4:23Ja hem incorporat petites intel·ligències
en les nostres màquines, -
4:23 - 4:26i moltes d'elles tenen
un rendiment superior -
4:26 - 4:28a un nivell d'intel·ligència suprahumana.
-
4:29 - 4:31I ja sabem que la mera matèria
-
4:31 - 4:34pot donar lloc
a la "intel·ligència general", -
4:34 - 4:38és a dir l'habilitat de pensar
amb flexibilitat en diversos camps. -
4:38 - 4:41Al cap i a la fi els nostres cervells
ho han aconseguit, cert? -
4:41 - 4:45És a dir, només hi ha àtoms aquí,
-
4:45 - 4:49i sempre i quan seguim construint
sistemes a base d'àtoms -
4:49 - 4:52que es comporten de forma
cada cop més intel·ligent, -
4:52 - 4:55en algun moment, si res no ho impedeix,
-
4:55 - 4:58en algun moment construirem
intel·ligència artificial -
4:58 - 4:59en les nostres màquines.
-
4:59 - 5:03És de vital importància adonar-se'n
que el ritme de progrés no importa, -
5:03 - 5:06perquè qualsevol progrés ens acabarà
portant a l'altre extrem. -
5:06 - 5:10No ens cal la llei de Moore per continuar.
No ens cal un progrés exponencial. -
5:10 - 5:12Només ens cal seguir avançant.
-
5:13 - 5:16La segona suposició
és que seguirem avançant. -
5:17 - 5:20Seguirem millorant
les màquines intel·ligents. -
5:21 - 5:25I donat el valor que té la intel·ligència,
-
5:25 - 5:29és a dir, ja que la intel·ligència
és la font de tot el que valorem -
5:29 - 5:32i la necessitem per salvaguardar
tot el que ens importa. -
5:32 - 5:34És el recurs més valuós de que disposem.
-
5:34 - 5:36Així doncs, volem que avanci.
-
5:36 - 5:39Tenim problemes que
hem de solucionar desesperadament. -
5:39 - 5:42Volem guarir malalties
com l'Alzheimer i el càncer. -
5:43 - 5:47Volem entendre sistemes econòmics.
Volem millorar la ciència del clima. -
5:47 - 5:49Així doncs ho farem si podem.
-
5:49 - 5:52El tren ja ha sortit de l'estació
i no hi ha manera de que pari. -
5:54 - 5:59I per últim, no ens trobem
al cim de la nostra intel·ligència, -
5:59 - 6:01o en qualsevol punt que s'hi acosti.
-
6:02 - 6:04I això és la clau de la qüestió.
-
6:04 - 6:06És el que fa que la nostra
situació sigui tan precària, -
6:06 - 6:11i és el que fa que les nostres intuïcions
sobre aquest risc siguin tan poc fiables. -
6:11 - 6:14Penseu en la persona
més intel·ligent que mai ha viscut. -
6:15 - 6:18Molts de vosaltres haureu considerat
a en John von Neumann. -
6:18 - 6:21La impressió que va causar
en von Neumann al seu voltant, -
6:21 - 6:25i això inclou als més grans matemàtics
i físics de la seva època, -
6:26 - 6:27està ben documentada.
-
6:27 - 6:31Si només la meitat de
les històries sobre ell són certes, -
6:31 - 6:32no hi ha cap dubte
-
6:33 - 6:35que és una de les persones més brillants.
-
6:35 - 6:38Considerem l'espectre d'intel·ligència.
-
6:38 - 6:40Tenim en John von Neumann.
-
6:42 - 6:43I aquí estem nosaltres.
-
6:44 - 6:45I aquí un pollastre.
-
6:45 - 6:47(Riures)
-
6:47 - 6:49Perdó, un pollastre.
-
6:49 - 6:50(Riures)
-
6:50 - 6:54No hi ha cap necessitat de fer aquesta
xerrada més depriment del que pot ser. -
6:54 - 6:55(Riures)
-
6:56 - 7:00Sembla que està ben clar
que l'espectre de la intel·ligència -
7:00 - 7:03s'estén molt més enllà
del que considerem actualment, -
7:04 - 7:07i si construïm màquines que
són més intel·ligents que nosaltres, -
7:07 - 7:09molt probablement exploraran
aquest espectre -
7:09 - 7:11de maneres que no podem imaginar,
-
7:11 - 7:14i ens superaran de maneres
que tampoc podem imaginar. -
7:15 - 7:19I hem de reconèixer que això és així
només en base a la velocitat. -
7:19 - 7:24D'acord? Doncs imagineu que
hem construit una IA superintel·ligent -
7:24 - 7:28que no és més brillant que
la majoria d'equips de recerca -
7:28 - 7:30de Stanford o del MIT.
-
7:30 - 7:33Els circuits electrònics són
un milió de vegades més ràpids -
7:33 - 7:34que les ones bioquímiques,
-
7:35 - 7:38així, aquesta màquina pensaria
un milió de cops més depressa -
7:38 - 7:39que les ments que l'han dissenyat.
-
7:40 - 7:41Si la deixem encesa una setmana
-
7:41 - 7:46haurà complert 20.000 anys de
feina intel·lectual a nivell humà, -
7:46 - 7:48setmana rere setmana rere setmana.
-
7:50 - 7:53Com podem arribar a comprendre,
i menys encara limitar, -
7:53 - 7:55una ment que progressa així?
-
7:57 - 7:59L'altra cosa que em preocupa,
sent honestos, -
7:59 - 8:04es que... imagineu-vos
el millor escenari possible. -
8:04 - 8:08Imagineu que tombem amb un disseny
de IA superintel·ligent -
8:08 - 8:10sense problemes de seguretat.
-
8:10 - 8:13És el primer cop que
aconseguim el disseny perfecte. -
8:13 - 8:15És com si ens hagués arribat un oracle
-
8:15 - 8:17que es comporta tal i com preteníem.
-
8:17 - 8:21Doncs bé, aquesta màquina seria
l'eina perfecta per reduir-nos feina. -
8:22 - 8:24Podria dissenyar màquines
que podrien construir màquines -
8:24 - 8:26per fer qualsevol feina física,
-
8:26 - 8:27alimentades per energia solar,
-
8:27 - 8:30i més o menys pel que
costa la matèria prima. -
8:30 - 8:33Estem parlant de la fi
de les feines feixugues. -
8:33 - 8:36També seria la fi de la majoria
de feines intel·lectuals. -
8:37 - 8:40Què farien uns simis com nosaltres
en aquestes circumstàncies? -
8:40 - 8:45Tindríem temps per jugar al disc volador
i de fer-nos massatges els uns als altres. -
8:46 - 8:49Afegiu una mica de LSD
i un vestuari de gust qüestionable -
8:49 - 8:51i el món sencer podria
ser com el Burning Man. -
8:51 - 8:53(Riures)
-
8:54 - 8:56Tot això pot sonar força atractiu,
-
8:57 - 9:00però penseu que passaria
-
9:00 - 9:02si succeís sota
l'ordre econòmic i polític actual? -
9:02 - 9:05És ben probable que experimentéssim
-
9:05 - 9:09una desigualtat econòmica
i un nivell d'atur -
9:09 - 9:11que mai havíem experimentat.
-
9:11 - 9:13I si no hi ha la voluntat
de posar tota aquesta riquesa -
9:13 - 9:15al servei de la humanitat,
-
9:16 - 9:19uns quants bilionaris arribarien
a les portades de les revistes -
9:19 - 9:22mentre la resta
ens moriríem de gana. -
9:22 - 9:25I què farien els russos o els xinesos
-
9:25 - 9:27si sapiguessin que
una empresa de Silicon Valley -
9:27 - 9:30estigués a punt d'aconseguir
una IA superintel·ligent? -
9:30 - 9:33Aquesta màquina estaria
preparada per entrar en guerra, -
9:33 - 9:35ja sigui per terra o cibernètica,
-
9:35 - 9:37amb un poder sense precedents.
-
9:38 - 9:40I aquí el guanyador s'ho emporta tot.
-
9:40 - 9:43Aquí, trobar-se sis mesos
al capdavant de la competició -
9:43 - 9:46vol dir trobar-se
500.000 anys al davant -
9:46 - 9:47com a mínim.
-
9:47 - 9:52Només que hi hagi un rumor
sobre algun descobriment d'aquest tipus -
9:52 - 9:55pot fer que la nostra espècie embogeixi.
-
9:55 - 9:58Ara bé, una de les coses més paoroses,
-
9:58 - 10:00segons el meu punt de vista, ara per ara,
-
10:00 - 10:05són el tipus de coses
que els investigadors en IA diuen -
10:05 - 10:06quan volen tranquil·litzar-nos.
-
10:07 - 10:10I la principal raó que ens donen
per no preocupar-no és el temps. -
10:10 - 10:13"Això encara està lluny,
no ho sabíeu?" -
10:13 - 10:15"Probablement encara queden
uns 50 o 100 anys." -
10:16 - 10:17Un investigador va dir:
-
10:17 - 10:19"Preocuparse per una IA insegura
-
10:19 - 10:21és com preocupar-se per la
sobre-població a Mart." -
10:22 - 10:24Això és la versió
de Silicon Valley -
10:24 - 10:26de "no et preocupis, nena!"
-
10:26 - 10:27(Riures)
-
10:28 - 10:29Ningú sembla adonar-se'n
-
10:29 - 10:32que basar-se en un horitzó cronològic
-
10:32 - 10:35és un 'non sequitur' absolut.
-
10:35 - 10:38Si la intel·ligència consisteix
simplement en processar informació, -
10:38 - 10:41i seguim perfeccionant les màquines,
-
10:41 - 10:44acabarem per generar alguna
forma de superintel·ligència. -
10:44 - 10:48I no tenim ni idea de quant
de temps ens portarà -
10:48 - 10:50crear les condicions
per fer-ho de forma segura. -
10:52 - 10:53Deixeu-me que ho repeteixi.
-
10:54 - 10:57No tenim ni idea de quant
de temps ens portarà -
10:57 - 11:00crear les condicions per
fer-ho de forma segura. -
11:01 - 11:04I per si no us n'heu adonat,
50 anys no són el que eren abans. -
11:04 - 11:07Això són 50 anys en mesos.
-
11:07 - 11:09Això són els mesos
que hem tingut l'iPhone. -
11:09 - 11:13Això són els mesos que
"Els Simpsons" han estat en pantalla. -
11:13 - 11:15Cinquanta anys no és gaire temps
-
11:15 - 11:18per assolir un dels grans reptes
de la nostra espècie. -
11:20 - 11:24Torno a dir, sembla que no estem
reaccionant com cal a nivell emocional -
11:24 - 11:26envers allò que cada cop n'estem
més segurs que arribarà. -
11:26 - 11:30El científic informàtic Stuart Russell
fa una bonica analogia. -
11:30 - 11:35Va dir que imaginéssim que havíem rebut
un missatge d'una civilització alienígena, -
11:35 - 11:37que deia:
-
11:37 - 11:39"Gent de la Terra,
-
11:39 - 11:41arribarem al vostre planeta
d'aquí 50 anys. -
11:42 - 11:43Prepareu-vos."
-
11:43 - 11:48I llavors comencem a comptar
els mesos que queden abans que arribin. -
11:48 - 11:51Segurament sentiríem
una mica més de pressió que ara. -
11:52 - 11:55Una altra raó que donen
per no preocupar-nos -
11:55 - 11:58és que les màquines només podran
compartir els nostres valors -
11:58 - 12:00perquè seran literalment
extensions de nosaltres. -
12:00 - 12:02Seran uns empelts
en els nostres cervells, -
12:02 - 12:05i esdevindrem els seus sistemes límbics.
-
12:05 - 12:07Considereu per un moment
-
12:07 - 12:10que la forma més segura
i més prudent de seguir avançant, -
12:10 - 12:11la forma més recomanada,
-
12:11 - 12:14és implantar-los en els nostres
cervells directament. -
12:15 - 12:18És possible que sigui l'única manera
segura i prudent de continuar, -
12:18 - 12:21tot i que normalment si una tecnologia
ens preocupa una micona -
12:21 - 12:25primer cal que estigui lliure d'errors
si després ens la volem enganxar al cap. -
12:25 - 12:27(Riures)
-
12:27 - 12:32El problema de fons és que desenvolupar
una IA superintel·ligent per si mateixa -
12:32 - 12:34sembla ser més fàcil
-
12:34 - 12:36que construir una IA superintel·ligent
-
12:36 - 12:38i tenir alhora la neurociència llesta
-
12:38 - 12:40per permetre'ns connectar-hi
la ment sense interrupcions. -
12:41 - 12:44I donat que les empreses i els governs
que estan fent aquesta feina -
12:44 - 12:48és probable que es considerin
en una cursa contra la resta, -
12:48 - 12:51i donat que guanyar la cursa
és guanyar el món, -
12:51 - 12:53sempre i quan no
se'l destrueixi tot seguit, -
12:53 - 12:56aleshores és probable que allò
que sembli més fàcil de fer -
12:56 - 12:58sigui el que primer es faci.
-
12:59 - 13:01Malauradament, no tinc cap
solució a aquest problema, -
13:01 - 13:04apart de recomanar que
tots hauríem de pensar-hi més. -
13:04 - 13:06Crec que necessitem
una mena de projecte Manhattan -
13:06 - 13:08però per la intel·ligència artificial.
-
13:09 - 13:11No per desenvolupar-la,
ja que és inevitable, -
13:11 - 13:15sinó per comprendre com podem
evitar una cursa armementística -
13:15 - 13:18i per desenvolupar-la de manera
que vagi de la mà dels nostres interessos. -
13:18 - 13:20Quan parlem d'una IA superintel·ligent
-
13:20 - 13:23que es pot canviar a si mateixa,
-
13:23 - 13:27sembla que només tenim una oportunitat
per crear les bones condicions inicials, -
13:27 - 13:29però inclús així haurem d'absorbir
-
13:29 - 13:33les conseqüències econòmiques i polítiques
d'haver-les establert correctament. -
13:34 - 13:36Però en el moment que admetem
-
13:36 - 13:40que el processat d'informació
és l'origen de la intel·ligència, -
13:41 - 13:46que un sistema de computació apropiat
és la base de tota intel·ligència, -
13:46 - 13:50i que seguirem millorant
aquests sistemes indefinidament, -
13:51 - 13:56i admetem que l'horitzó de la cognició
molt probablement excedeix -
13:56 - 13:57el que sabem fins ara,
-
13:58 - 13:59aleshores podrem admetre
-
13:59 - 14:02que estem en un procés
de crear una mena de déu. -
14:03 - 14:05Ara és el moment
-
14:05 - 14:08d'assegurar-nos que és un déu
amb qui podem viure. -
14:08 - 14:10Moltes gràcies.
-
14:10 - 14:11(Aplaudiments)
-
14:11 - 14:14Traduït per Marcos Morales Pallarés
- Title:
- Podem desenvolupar una IA sense perdre'n el control?
- Speaker:
- Sam Harris
- Description:
-
Us fa por la IA superintel·ligent? "Us n'hauria de fer" és el que diu el neurocientífic i filòsof Sam Harris, i no només de forma teòrica. Estem en camí de construir màquines suprahumanes, diu en Harris, però en canvi encara no hem pensat en els problemes associats a crear quelcom que podria tractar-nos de la mateixa manera que nosaltres tractem a les formigues.
- Video Language:
- English
- Team:
closed TED
- Project:
- TEDTalks
- Duration:
- 14:27
![]() |
TED Translators admin approved Catalan subtitles for Can we build AI without losing control over it? | |
![]() |
Elena Pérez Gómez accepted Catalan subtitles for Can we build AI without losing control over it? | |
![]() |
Elena Pérez Gómez edited Catalan subtitles for Can we build AI without losing control over it? | |
![]() |
Elena Pérez Gómez edited Catalan subtitles for Can we build AI without losing control over it? | |
![]() |
Elena Pérez Gómez edited Catalan subtitles for Can we build AI without losing control over it? | |
![]() |
Elena Pérez Gómez edited Catalan subtitles for Can we build AI without losing control over it? | |
![]() |
Elena Pérez Gómez edited Catalan subtitles for Can we build AI without losing control over it? | |
![]() |
Elena Pérez Gómez edited Catalan subtitles for Can we build AI without losing control over it? |