Dokážeme vybudovať umelú inteligenciu bez toho, aby sme nad ňou stratili kontrolu?
-
0:01 - 0:03Budem hovoriť o zlyhaní intuície,
-
0:03 - 0:05ktorým trpí mnoho z nás.
-
0:05 - 0:09Vlastne ide o zlyhanie odhalenia
určitého druhu nebezpečia. -
0:09 - 0:11Popíšem vám situáciu,
-
0:11 - 0:14o ktorej si myslím, že je desivá
-
0:14 - 0:16a zároveň pravdepodobná,
-
0:17 - 0:18čo, ako vieme,
-
0:19 - 0:20nie je dobrá kombinácia.
-
0:20 - 0:23A aj tak, mnohí z vás nebudú
vystrašení, ale budú -
0:23 - 0:25si myslieť, že to,
o čom hovorím, je cool. -
0:25 - 0:28Budem hovoriť o tom, ako nás pokrok,
-
0:28 - 0:30ktorý dosahujeme
v umelej inteligencii, -
0:30 - 0:32môže nakoniec úplne zničiť.
-
0:32 - 0:35A vskutku si myslím, že je ťažké
nevidieť, že nás zničí, alebo nás -
0:35 - 0:37inšpiruje, aby sme sa zničili sami.
-
0:37 - 0:39A pokiaľ ste ako ja,
-
0:39 - 0:42je pre vás zábavou zamýšľať sa nad tým.
-
0:42 - 0:45Naše reakcie sú súčasťou toho problému.
-
0:45 - 0:47Tieto reakcie by vás mali trápiť.
-
0:48 - 0:51Ak by som vás teraz presvedčoval,
-
0:51 - 0:54že ľudstvo pravdepodobne
zasiahne globálny hladomor, -
0:54 - 0:57buď kvôli klimatickým zmenám,
alebo z dôvodu inej katastrofy, -
0:57 - 1:01a že vaše vnúčatá a ich vnúčatá
-
1:01 - 1:02budú pravdepodobne žiť takto,
-
1:03 - 1:04určite si nepomyslíte,
-
1:05 - 1:07"Zaujímavé.
-
1:07 - 1:08To je pekná prednáška."
-
1:09 - 1:11Hladomor nie je zábava.
-
1:12 - 1:15Na druhú stranu, smrť v sci-fi zábavná je,
-
1:15 - 1:19jedna z vecí, ktorá ma na vývoji umelej
inteligencie trápi najviac, je, že nie sme -
1:19 - 1:23schopní primerane emocionálne reagovať
-
1:23 - 1:25na nebezpečie, ktoré leží pred nami.
-
1:25 - 1:28Ja sám nie som toho schopný
a sám o tom teraz prednášam. -
1:30 - 1:33Pomyslite si, že stojíme
pred dvoma dvermi. -
1:33 - 1:34Za dvermi číslo jedna
-
1:34 - 1:37zastavíme vývoj a budovanie
inteligentných strojov. -
1:37 - 1:41Počítačový software a hardware sa prosto
z nejakého dôvodu prestane vylepšovať. -
1:41 - 1:44Zastavme sa na chvíľu a premýšľajme,
prečo by toto mohlo nastať. -
1:45 - 1:49S ohľadom nato, akým prínosom
inteligencia a automatizácia pre nás je, -
1:49 - 1:52budeme technológie stále zlepšovať,
pokiaľ toho budeme vôbec schopní. -
1:53 - 1:55Čo by nás mohlo v tomto zastaviť?
-
1:56 - 1:58Celosvetová nukleárna vojna?
-
1:59 - 2:01Globálna pandémia?
-
2:02 - 2:04Dopad asteroidu?
-
2:06 - 2:08Justin Bieber prezidentom USA?
-
2:08 - 2:11(smiech)
-
2:13 - 2:17Ide o to, že by našu súčasnú civilizáciu,
tak ako ju poznáme, muselo niečo zničiť. -
2:17 - 2:22Predstavte si, ako zlé
by to muselo byť, -
2:22 - 2:25aby sme neboli schopní ďalej
vylepšovať naše technológie, -
2:25 - 2:26neustále,
-
2:26 - 2:28generáciu za generáciou.
-
2:28 - 2:30V zásade je to tá najhoršia vec,
-
2:30 - 2:32aká by mohla v ľudských dejinách nastať.
-
2:33 - 2:34Takže jedinou alternatívou,
-
2:34 - 2:36ktorá je za dvermi číslo dva,
-
2:36 - 2:39je pokračovať v zdokonaľovaní
našich inteligentných strojov, -
2:39 - 2:41postupne rok za rokom.
-
2:42 - 2:45A v určitom okamžiku postavíme stroje,
ktoré budú chytrejšie než my sami, -
2:46 - 2:49a keď budeme mať stroje, ktoré
budú chytrejšie od nás, -
2:49 - 2:51tak sa začnú zdokonaľovať samy.
-
2:51 - 2:53A v tom okamihu hrozí situácia,
ktorú matematik I.J.Good -
2:53 - 2:55nazval "inteligenčná explózia,"
-
2:55 - 2:57a vtedy by sa to mohlo vymknúť z rúk.
-
2:58 - 3:01Ako vidíte napríklad tu,
táto téma sa často karikuje, -
3:01 - 3:04ako obava z armád zlých robotov,
-
3:04 - 3:05ktoré na nás zaútočia.
-
3:05 - 3:08Ale toto nie je
najpravdepodobnejší scenár. -
3:08 - 3:13Nie je to tak,
že by stroje zrazu začali byť zlé. -
3:13 - 3:16Problém je v tom, že vytvoríme stroje,
-
3:16 - 3:18ktoré budú oveľa schopnejšie než sme my,
-
3:18 - 3:22takže aj tá najjemnejšia odchýlka
medzi ich a našimi cieľmi, -
3:22 - 3:23by nás mohla zničiť.
-
3:24 - 3:26Zamyslite sa, ako sa
chováme k mravcom. -
3:27 - 3:28Nemáme nič proti nim.
-
3:28 - 3:30Neubližujeme im cielene.
-
3:30 - 3:33Dokonca občas znesieme bolesť
a neubližujeme im. -
3:33 - 3:35Prekračujeme ich na chodníku.
-
3:35 - 3:37Ale kedykoľvek je ich prítomnosť
-
3:37 - 3:39vo vážnom konflikte s našimi cieľmi,
-
3:39 - 3:42povedzme, keď staviame budovu ako táto,
-
3:42 - 3:44tak ich bez mihnutia oka zničíme.
-
3:44 - 3:47Obávam sa, že jedného dňa
vytvoríme stroje, -
3:47 - 3:50ktoré, vedome alebo nevedome,
budú s nami -
3:50 - 3:52zachádzať s podobnou ľahostajnosťou.
-
3:54 - 3:57Mnohím z vás to príde
pritiahnuté za vlasy. -
3:57 - 4:04Vsadím sa, že mnohí z vás pochybujú,
že super inteligentné stroje sú možné, -
4:04 - 4:05tobôž, že by to nevyhnutne nastalo.
-
4:05 - 4:09Potom však musíte nájsť niečo nesprávne
v nasledujúcich predpokladoch. -
4:09 - 4:11A v podstate sú len tri.
-
4:12 - 4:17Inteligencia je výsledkom spracovania
informácie v hmotných systémoch. -
4:17 - 4:20Vlastne, toto je trochu viac
než len predpoklad. -
4:20 - 4:23Do strojov sme už obmedzenú
inteligenciu zabudovali -
4:23 - 4:25a veľa z týchto strojov už pracuje
-
4:25 - 4:28na úrovni super inteligentných ľudí.
-
4:29 - 4:31A vieme, že bežná hmota
-
4:31 - 4:34môže byť vznikom takzvanej
"všeobecnej inteligencie", -
4:34 - 4:38teda schopnosti flexibilne myslieť
naprieč rôznymi oblasťami, -
4:38 - 4:41pretože naše mozgy to už dokázali, však?
-
4:41 - 4:45Mám na mysli, že naše mozgy
sa skladajú len z atómov, -
4:45 - 4:49a pokiaľ budeme pokračovať
v budovaní systémov z atómov, -
4:49 - 4:52ktoré vykazujú čoraz
inteligentnejšie správanie, -
4:52 - 4:55tak nakoniec, pokiaľ nás niečo nezastaví,
-
4:55 - 4:58zabudujeme všeobecnú inteligenciu
-
4:58 - 4:59do našich strojov.
-
4:59 - 5:03Kľúčové je si uvedomiť,
že na rýchlosti pokroku nezáleží, -
5:03 - 5:06pretože k dosiahnutiu cieľa
stačí akékoľvek tempo. -
5:06 - 5:10Nepotrebujeme Mooreov zákon,
nie je nutný exponenciálny vývoj. -
5:10 - 5:12Jednoducho stačí pokračovať.
-
5:13 - 5:16Druhým predpokladom je,
že budeme pokračovať. -
5:17 - 5:20Budeme naďalej zlepšovať naše
inteligentné stroje. -
5:21 - 5:25A keďže inteligencia je pre nás dôležitá -
-
5:25 - 5:29mám na mysli, že inteligencia je
buď zdrojom všetkého, čo si ceníme, -
5:29 - 5:32alebo ju potrebujeme
na ochranu všetkého, čo si ceníme. -
5:32 - 5:34Je to náš najhodnotnejší zdroj.
-
5:34 - 5:36Takže v tom chceme pokračovať.
-
5:36 - 5:39Máme problémy,
ktoré zúfalo musíme vyriešiť. -
5:39 - 5:42Chceme liečiť choroby
ako Alzheimer a rakovina. -
5:43 - 5:47Chceme porozumieť ekonomickým systémom.
Chceme zlepšiť náš klimatický výskum. -
5:47 - 5:49Takže, pokiaľ to pôjde, budeme pokračovať.
-
5:49 - 5:52Tento vlak je už rozbehnutý
a nejde ho zastaviť. -
5:54 - 5:59A, nakoniec, my nestojíme na vrchole
inteligencie a pravdepodobne -
5:59 - 6:01ani niekde blízko vrcholu.
-
6:02 - 6:04Toto je skutočne kľúčový pohľad.
-
6:04 - 6:06To je dôvod, prečo je naša situácia
taká prekérna, -
6:06 - 6:10a dôvod, prečo je naša intuícia
taká nespoľahlivá pri posudzovaní rizík. -
6:11 - 6:14Vezmite si trebárs najmúdrejšiu osobu,
ktorá kedy žila. -
6:15 - 6:18Takmer každý by do najužšieho výberu
zaradil Johna von Neumanna. -
6:18 - 6:21To, akým dojmom pôsobil van Neumann
na ľudí okolo seba, -
6:21 - 6:25medzi ktorých patrili najlepší matematici
a fyzici tej doby, -
6:26 - 6:27je veľmi dobre zdokumentované.
-
6:27 - 6:31Ak by len polovica historiek o ňom
bola aspoň z polovice pravdivá, -
6:31 - 6:32tak nie je pochýb,
-
6:33 - 6:35že patril medzi najmúdrejších ľudí
v histórii. -
6:35 - 6:38Takže zvážme spektrum inteligencie.
-
6:38 - 6:40Tu máme John von Neumanna.
-
6:42 - 6:43A tu ste vy a ja.
-
6:44 - 6:45A tu máme kura.
-
6:45 - 6:47(smiech)
-
6:47 - 6:49Pardon, kura.
-
6:49 - 6:50(smiech)
-
6:50 - 6:54Nie je dôvod, aby bola táto prednáška
depresívnejšia, než je nutné. -
6:54 - 6:55(smiech)
-
6:56 - 7:00Zdá sa nanajvýš pravdepodobné,
že rozsah inteligencie -
7:00 - 7:03je oveľa širší, než ako ho
v súčasnosti vnímame, -
7:04 - 7:07a keď postavíme stroje,
ktoré budú inteligentnejšie než sme my, -
7:07 - 7:09tak budú veľmi pravdepodobne
skúmať to spektrum -
7:09 - 7:11spôsobom, ktorý si nevieme predstaviť,
-
7:11 - 7:14a presiahnu nás spôsobom,
ktorý si nevieme predstaviť. -
7:15 - 7:19A je dôležité rozoznať, že je tomu tak
už vďaka samotnej rýchlosti. -
7:19 - 7:24Predstavte si, že sme vytvorili super
inteligentnú umelú inteligenciu (AI), -
7:24 - 7:28ktorá je rovnako chytrá ako
priemerný tím vedcov -
7:28 - 7:30na Stanforde alebo MIT.
-
7:30 - 7:33Lenže elektronické obvody fungujú asi
miliónkrát rýchlejšie -
7:33 - 7:34než biochemické,
-
7:35 - 7:38takže, takýto stroj by mohol myslieť
asi miliónkrát rýchlejšie -
7:38 - 7:39ako myseľ, ktorá ho zostrojila.
-
7:40 - 7:41Takže, keď ho spustíte na týždeň,
-
7:41 - 7:46tak vykoná rovnakú intelektuálnu prácu,
ktorá by ľuďom trvala 20 000 rokov, -
7:46 - 7:48týždeň za týždňom.
-
7:50 - 7:53Ako by sme vôbec mohli pochopiť,
či snáď nejako obmedziť -
7:53 - 7:55myseľ schopnú takéhoto pokroku?
-
7:57 - 7:59Úprimne, je tu ďalšia znepokojivá vec -
-
7:59 - 8:04predstavte si najlepší možný scenár.
-
8:04 - 8:08Predstavte si, že sa nám podarí navrhnúť
super inteligentnú AI, ktorá nebude mať -
8:08 - 8:10žiadne bezpečnostné hrozby.
-
8:10 - 8:13Budeme mať perfektnú verziu
hneď na prvý pokus. -
8:13 - 8:15Ako keby sa naplnila veštba a všetko
-
8:15 - 8:17by fungovalo, tak ako bolo zamýšľané.
-
8:17 - 8:21Takýto stroj by ľuďom perfektne
uľahčoval prácu. -
8:22 - 8:24Dokázal by navrhnúť stroj,
ktorý by zostrojil stroje, -
8:24 - 8:26čo vykonajú akúkoľvek fyzickú prácu,
-
8:26 - 8:27napájané slnečným žiarením,
-
8:27 - 8:30viac-menej za cenu vstupných materiálov.
-
8:30 - 8:33Takže, hovoríme o konci ľudskej driny.
-
8:33 - 8:36Hovoríme taktiež o konci väčšiny
intelektuálnej práce. -
8:37 - 8:40Ale čo by také opice ako sme my
robili za takýchto okolností? -
8:40 - 8:44No, mali by sme čas hrať Frisbee a
vzájomne sa masírovať. -
8:46 - 8:49Pridali by sme nejaké to LSD
a pochybné oblečenie -
8:49 - 8:51a celý svet by mohol byť
ako "Burning Man". -
8:51 - 8:53(smiech)
-
8:54 - 8:56Teraz, aj keď to znie lákavo,
-
8:57 - 9:00ale spýtajte sa sami seba,
čo by mohlo nastať, -
9:00 - 9:02keby ekonomika a politika fungovali
tak ako dnes? -
9:02 - 9:05Zdá sa pravdepodobné,
že by sme boli svedkami -
9:05 - 9:09takej sociálnej nerovnosti
a nezamestnanosti, -
9:09 - 9:11ako nikdy predtým.
-
9:11 - 9:13Absencia ochoty poskytnúť
toto nové bohatstvo -
9:13 - 9:15do služieb celého ľudstva.
-
9:16 - 9:19Niekoľko miliardárov by zdobilo
titulky obchodných magazínov, -
9:19 - 9:22zatiaľčo zbytok sveta by pokojne hladoval.
-
9:22 - 9:25A čo by urobili Rusi a Číňania, ak by sa
-
9:25 - 9:27dozvedeli, že nejaká spoločnosť
v Silicon Valley -
9:27 - 9:30sa chystá nasadiť super inteligentnú AI?
-
9:30 - 9:33Takýto stroj by bol schopný viesť vojnu,
-
9:33 - 9:35či už pozemnú alebo kybernetickú
-
9:35 - 9:37s nebývalou silou.
-
9:38 - 9:40To je scenár, kde víťaz berie všetko.
-
9:40 - 9:43Šesťmesačný náskok pred konkurenciou
-
9:43 - 9:46by znamenal minimálne náskok
-
9:46 - 9:47500 000 rokov.
-
9:47 - 9:52Zdá sa, že číre fámy o prelome
v tejto oblasti -
9:52 - 9:55by nás mohli priviesť k nepríčetnosti.
-
9:55 - 9:58Jedna z najdesivejších vecí
-
9:58 - 10:00v tejto chvíli z môjho pohľadu
-
10:00 - 10:05je to, čo hovoria vedci, ktorí vyvíjajú
umelú inteligenciu, -
10:05 - 10:06keď nás chcú upokojiť.
-
10:07 - 10:10Najčastejším dôvodom, prečo sa vraj nemáme
obávať, je čas. -
10:10 - 10:13Toto všetko je ešte ďaleko, všakže.
-
10:13 - 10:15Ešte to potrvá pravdepodobne
50 alebo 100 rokov. -
10:16 - 10:17Jeden výskumník povedal:
-
10:17 - 10:19"Obávať sa bezpečnosti AI
-
10:19 - 10:21je ako báť sa preľudnenia Marsu."
-
10:22 - 10:24Toto je je verzia Silicon Valley:
-
10:24 - 10:26"Nechaj to koňovi, ten má väčšiu hlavu."
-
10:26 - 10:27(smiech)
-
10:28 - 10:29Zdá sa, že nikto nezaznamenal,
-
10:29 - 10:32že odvolávať sa na časový horizont
-
10:32 - 10:35je totálne nelogické.
-
10:35 - 10:38Ak je inteligencia len spôsob
spracovania informácií -
10:38 - 10:41a my budeme pokračovať v zlepšovaní
našich strojov, -
10:41 - 10:44tak vytvoríme nejakú formu
super inteligencie. -
10:44 - 10:48A nemáme poňatia,
ako dlho nám bude trvať, -
10:48 - 10:50než ju vytvoríme za bezpečných podmienok.
-
10:52 - 10:53Poviem to ešte raz.
-
10:54 - 10:57Nemáme poňatia,
ako dlho nám bude trvať, -
10:57 - 11:00než ju vytvoríme za bezpečných podmienok.
-
11:01 - 11:04A možno ste si nevšimli,
že 50 rokov už nie je to, čo bývalo. -
11:04 - 11:07Toto je 50 rokov v mesiacoch.
-
11:07 - 11:09Takto dlho máme iPhone.
-
11:09 - 11:12Takto dlho sa vysielajú Simpsonovci.
-
11:13 - 11:1550 rokov nie je tak veľa času,
-
11:15 - 11:18aby si náš druh poradil s najväčšou
výzvou, pred ktorou kedy stál. -
11:20 - 11:24Ešte raz - zdá sa, že nemáme primeranú
emocionálnu odpoveď -
11:24 - 11:26na niečo, čo podľa všetkého nastane.
-
11:26 - 11:30Počítačový vedec Stuart Russell má nato
peknú analógiu. -
11:30 - 11:35Povedal, predstavte si, že dostaneme
správu od mimozemskej civilizácie, -
11:35 - 11:37v ktorej bude:
-
11:37 - 11:39"Pozemšťania,
-
11:39 - 11:41za 50 rokov dorazíme na vašu planétu.
-
11:42 - 11:43Pripravte sa."
-
11:43 - 11:48A teraz budeme len počítať mesiace
do pristátia mimozemskej lode? -
11:48 - 11:51Asi by sme cítili trochu viac
naliehavosti ako teraz. -
11:53 - 11:55Ďalší dôvod, prečo sa
nemáme obávať, je, -
11:55 - 11:58že týmto strojom nezostane nič iné,
len zdieľať naše hodnoty, -
11:58 - 12:00pretože budú doslovne naším
vlastným rozšírením. -
12:00 - 12:02Budú zabudované do našich mozgov
-
12:02 - 12:04a my budeme v podstate ich
limbickým systémom. -
12:05 - 12:07Zamyslite sa a zvážte,
-
12:07 - 12:10že tou najbezpečnejšou a
jedinou rozvážnou cestou, -
12:10 - 12:11ktorá sa odporúča,
-
12:11 - 12:14je nasadiť tieto technológie
priamo do našich mozgov. -
12:15 - 12:18Fakticky, ona to môže byť najbezpečnejšia
a jediná rozvážna cesta vpred, -
12:18 - 12:21ale zvyčajne je dobré obávať sa
bezpečnosti technológií, -
12:21 - 12:25pretože by to malo byť celkom dobre
vyladené, než si to vložíte do hlavy. -
12:25 - 12:27(smiech)
-
12:27 - 12:32Hlbším problémom je, že budovanie
samotnej super inteligentnej AI sa zdá byť -
12:32 - 12:34pravdepodobne jednoduchšie,
-
12:34 - 12:36než budovanie super inteligentnej AI
-
12:36 - 12:38a mať vyriešenú neurovedu, ktorá nám
-
12:38 - 12:40dovolí bezproblémovú integráciu
našich myslí s ňou. -
12:41 - 12:44A keďže firmy a vlády,
ktoré sa na tom podieľajú, -
12:44 - 12:48to pravdepodobne vnímajú
ako závod so všetkými ostatnými, -
12:48 - 12:51pretože vyhrať tento závod
znamená dobyť svet, -
12:51 - 12:53za predpokladu, že ho hneď
vzápätí nezničíte, -
12:53 - 12:56tak potom je pravdepodobné,
že to, čo bude jednoduchšie, -
12:56 - 12:57sa urobí ako prvé.
-
12:59 - 13:01Bohužiaľ, teraz nemám riešenie
tohto problému, -
13:01 - 13:04okrem odporúčania, že by sme o tom
mali viac premýšľať. -
13:04 - 13:06Myslím, že je nutné niečo ako
"Manhattan Projekt" -
13:06 - 13:08na tému umelej inteligencie.
-
13:09 - 13:11Nie ako ju vytvoriť, pretože si
myslím, že to nevyhnutne -
13:11 - 13:15nastane, ale v pochopení ako sa
vyhnúť závodom v zbrojení -
13:15 - 13:18a ako ju vytvoriť spôsobom, ktorý je
v súlade s našimi záujmami. -
13:18 - 13:20Keď hovoríme o super inteligentnej AI,
-
13:20 - 13:23ktorá dokáže meniť samu seba,
-
13:23 - 13:27tak sa zdá, že máme len jednu šancu, ako
nastaviť východiskové podmienky správne, -
13:27 - 13:29a aj vtedy budeme musieť tlmiť
-
13:29 - 13:32ekonomické a politické následky.
-
13:34 - 13:36Ale vo chvíli, keď pripustíme,
-
13:36 - 13:40že spracovanie informácií
je zdrojom inteligencie, -
13:41 - 13:46že nejaký vhodný počítačový systém
je to, čo môže byť základom inteligencie, -
13:46 - 13:50a keď pripustíme, že budeme tieto
systémy neustále zdokonaľovať, -
13:51 - 13:56a keď pripustíme, že horizont poznania
veľmi pravdepodobne prekročí to, -
13:56 - 13:57čo v súčasnosti vieme,
-
13:58 - 13:59tak si musíme pripustiť,
-
13:59 - 14:02že sme v procese budovania
istého druhu boha. -
14:03 - 14:05Teraz by bolo dobré sa uistiť,
-
14:05 - 14:07že to bude boh, s ktorým budeme môcť žiť.
-
14:08 - 14:10Ďakujem veľmi pekne.
-
14:10 - 14:15(potlesk)
- Title:
- Dokážeme vybudovať umelú inteligenciu bez toho, aby sme nad ňou stratili kontrolu?
- Speaker:
- Sam Harris
- Description:
-
Máte strach zo super inteligentnej umelej inteligencie? Mali by ste, hovorí vedec a filozof Sam Harris – a nielen v teoretickej rovine. Vytvoríme stroje na úrovni superľudí, hovorí Harris, ale zatiaľ sme sa nepopasovali s problémami súvisiacimi s vytvorením niečoho, čo sa k nám môže správať tak, ako sa my správame k mravcom.
- Video Language:
- English
- Team:
closed TED
- Project:
- TEDTalks
- Duration:
- 14:27
![]() |
TED Translators admin approved Slovak subtitles for Can we build AI without losing control over it? | |
![]() |
Linda Magáthová accepted Slovak subtitles for Can we build AI without losing control over it? | |
![]() |
Linda Magáthová edited Slovak subtitles for Can we build AI without losing control over it? | |
![]() |
Linda Magáthová edited Slovak subtitles for Can we build AI without losing control over it? | |
![]() |
Marek Bednárik edited Slovak subtitles for Can we build AI without losing control over it? | |
![]() |
Marek Bednárik edited Slovak subtitles for Can we build AI without losing control over it? | |
![]() |
Marek Bednárik edited Slovak subtitles for Can we build AI without losing control over it? | |
![]() |
Marek Bednárik edited Slovak subtitles for Can we build AI without losing control over it? |