Létrehozhatunk olyan mesterséges intelligenciát [MI], amely felett nem veszítjük el az irányítást?
-
0:01 - 0:03A hibás előérzetekről fogok beszélni,
-
0:03 - 0:05amitől oly sokan szenvedünk.
-
0:05 - 0:09Valóban hibás egy bizonyos fajta
veszély felismerése. -
0:09 - 0:11Felvázolok egy forgatókönyvet,
-
0:11 - 0:14amelyről úgy gondolom egyszerre ijesztő,
-
0:14 - 0:16és bekövetkezése egyben valószínűsíthető,
-
0:17 - 0:19és ez a kettő együtt nem jó kombináció,
-
0:19 - 0:20ahogy az bebizonyosodik majd.
-
0:20 - 0:23Ennek ellenére a többségetek
az ijedtség helyett úgy érzi majd, -
0:23 - 0:25hogy amiről beszélek, egy menő dolog.
-
0:25 - 0:28El fogom magyarázni,
-
0:28 - 0:30hogy a mesterséges intelligencia fejlődése
-
0:30 - 0:32miként semmisíthet meg bennünket.
-
0:32 - 0:35Úgy vélem, nehezebb felismerni,
hogyan nem pusztítanak el minket, -
0:35 - 0:38vagy buzdítanak minket
önmagunk elpusztítására. -
0:38 - 0:39De ha kicsit is hasonlítasz rám,
-
0:39 - 0:42rájössz majd, mennyire vicces dolog
ezeken elmélkedni. -
0:42 - 0:45És ez a fajta reakció
szintén a probléma része. -
0:45 - 0:48Értitek ugye? A reakció miatt
aggódnotok kellene. -
0:48 - 0:51Ha az előadással meg tudlak
győzni benneteket, -
0:51 - 0:54hogy a globális éhínség várhatóan
bekövetkezik majd, -
0:54 - 0:57klímaváltozás vagy
más katasztrófa hatására, -
0:57 - 1:01és hogy az unokátokra, vagy az ő unokáikra
-
1:01 - 1:03nagy valószínűséggel hasonló élet vár,
-
1:03 - 1:05magatokban nem gondolnátok:
-
1:05 - 1:07"Érdekes.
-
1:07 - 1:08Tetszik ez a TED előadás."
-
1:09 - 1:11Az éhínség nem vicc.
-
1:12 - 1:15A tudományos-fantasztikum általi halál
ezzel ellentétben vicces, -
1:15 - 1:19de ami engem aggaszt leginkább,
a MI jelenlegi állapotát illetően, -
1:19 - 1:23hogy képtelenek vagyunk
az előttünk álló veszélyekhez -
1:23 - 1:25megfelelő érzelmi reakciót párosítani.
-
1:25 - 1:28Képtelen vagyok irányítani a reakciót,
pedig én tartom az előadást. -
1:30 - 1:33Olyan, mintha két ajtó előtt állnánk.
-
1:33 - 1:34Az egyes számú ajtó mögött
-
1:34 - 1:36leállunk az intelligens gépek
fejlesztésével. -
1:37 - 1:41Valamilyen okból a hardverek és
szoftverek fejlesztése leáll. -
1:41 - 1:44Egy percre kérlek, gondoljatok bele,
miért történne ilyesmi. -
1:45 - 1:49Tudván, mekkora érték rejlik
az intelligenciában és automatizálásban, -
1:49 - 1:52ha mód van rá, folytatni fogjuk
a technológiai fejlesztéseket. -
1:53 - 1:55Mi állhatna az utunkba?
-
1:56 - 1:58Egy mindent elsöprő nukleáris háború?
-
1:59 - 2:01Egy globális járvány?
-
2:02 - 2:04Egy aszteroida becsapódása?
-
2:06 - 2:08Justin Biebert megválasztják elnöknek?
-
2:08 - 2:11(Nevetés)
-
2:13 - 2:17Bármi legyen is, az általunk ismert
civilizációt kellene megsemmisítse. -
2:17 - 2:22Képzeld el, mennyire borzasztónak
kellene lennie ahhoz, -
2:22 - 2:25hogy leálljunk a technológiai
fejlesztésekkel, -
2:25 - 2:26egyik nemzedék a másik után,
-
2:26 - 2:28mindörökre.
-
2:28 - 2:31Fogalmazhatnánk úgy is,
hogy ez a legrosszabb, -
2:31 - 2:33ami valaha történhet
az emberiség történelmében. -
2:33 - 2:34Így az egyetlen alternatíva,
-
2:34 - 2:36és ez rejlik a kettes számú ajtó mögött,
-
2:36 - 2:39hogy folytatjuk
az intelligens gépek fejlesztését, -
2:39 - 2:41egyik évről a másikra.
-
2:42 - 2:45És elérkezünk a ponthoz, amikor nálunk
okosabb gépeket hozunk létre. -
2:46 - 2:49És amint létrehoztuk
a minket meghaladó okos gépeket, -
2:49 - 2:51megkezdik majd önmaguk fejlesztését.
-
2:51 - 2:53És ezzel megkockáztatjuk azt,
amit IJ Good matematikus -
2:53 - 2:55úgy hívott: "intelligencia-robbanás".
-
2:55 - 2:58Amikor a fejlődésük
kicsúszik a kezünk közül. -
2:58 - 3:01Sokszor kifigurázzák, mint én is itt,
-
3:01 - 3:04miként rettegünk a rosszindulatú robotok
-
3:04 - 3:05támadásától.
-
3:05 - 3:08De nem ez a legvalószínűbb forgatókönyv.
-
3:08 - 3:13A gépek nem fognak egyik pillanatról
a másikra gonosszá válni. -
3:13 - 3:16A valós aggály abban rejlik,
hogy olyan gépeket hozunk létre, -
3:16 - 3:18melyek meghaladják a mi képességeinket,
-
3:18 - 3:22és a legapróbb összeférhetetlenség
az ő és saját céljaink között -
3:22 - 3:23a végünket jelentheti.
-
3:24 - 3:27Csak gondoljatok bele, mi hogyan
viszonyulunk a hangyákhoz. -
3:27 - 3:28Nem utáljuk őket.
-
3:28 - 3:30Nem akarjuk szándékosan bántalmazni őket.
-
3:30 - 3:33Sőt, néha megóvásukra
áldozatokat is hozunk értük. -
3:33 - 3:35Kikerüljük őket a járdán.
-
3:35 - 3:37De amint összeütközik a jelenlétük
-
3:37 - 3:39a céljaink megvalósításával,
-
3:39 - 3:42mint például egy ilyen
épület felhúzásakor, -
3:42 - 3:44szemrebbenés nélkül kiírtjuk valamennyit.
-
3:44 - 3:47A gond az, hogy egy napon
olyan gépeket hozunk létre, -
3:47 - 3:50amelyek, akár tudatosak akár nem,
-
3:50 - 3:52hasonlóképpen viszonyulnak majd hozzánk.
-
3:54 - 3:57Gondolom, ez sokatok számára,
elképzelhetetlennek tűnik. -
3:57 - 4:04Fogadni mernék, hogy egyesek a MI
lehetőségét is megkérdőjelezik, -
4:04 - 4:05mintsem elkerülhetetlennek véljék.
-
4:05 - 4:09De akkor valami mégsem stimmel
a következő feltevésekkel. -
4:09 - 4:11Amiből mindössze csak három van.
-
4:12 - 4:17Az intelligencia a fizikai rendszerekben
feldolgozott információból származik. -
4:17 - 4:20Tulajdonképpen, ez kicsivel
több puszta feltevésnél. -
4:20 - 4:23A közvetlen intelligenciát
már beépítettük a gépeinkbe, -
4:23 - 4:25mely gépek többsége már most
-
4:25 - 4:28emberfeletti teljesítményekre képes.
-
4:29 - 4:31Azt is tudjuk, hogy az anyag önmagában
-
4:31 - 4:34életre tudja hívni az úgynevezett
"alap intelligenciát," -
4:34 - 4:38a különböző tartományokon belüli
rugalmas gondolkodás képességét, -
4:38 - 4:41hiszen saját agyunk is
képes volt rá, nem igaz? -
4:41 - 4:45Mivel itt legbelül csak atomok vannak,
-
4:45 - 4:49és amíg atomokból álló
rendszereket építünk, -
4:49 - 4:52melyek egyre intelligensebb
viselkedést mutatnak, -
4:52 - 4:55akkor egyszer, hacsak nem lépünk közbe,
-
4:55 - 4:58akkor egyszer megépítjük
az alap intelligenciával -
4:58 - 4:59rendelkező gépeket.
-
4:59 - 5:03Mindennél fontosabb azonban felismerni,
hogy a fejlődés üteme lényegtelen, -
5:03 - 5:06mert a fejlődés önmagában
elegendő ahhoz, hogy célba érjünk. -
5:06 - 5:10Nincs szükségünk Moore-törvényre,
sem exponenciális növekedésre. -
5:10 - 5:12Csak haladnunk kell tovább.
-
5:13 - 5:16A második feltevés, hogy haladunk tovább.
-
5:17 - 5:20Egyre intelligensebb gépeket hozunk létre.
-
5:21 - 5:25És ami az intelligencia értékét illeti --
-
5:25 - 5:29az intelligencia, vagy a forrása
a számunkra értékesnek, -
5:29 - 5:32vagy megóvja számunkra mindazt,
amit értékesnek tartunk. -
5:32 - 5:34Az egyik legértékesebb erőforrásunk.
-
5:34 - 5:36Szóval megakarjuk alkotni.
-
5:36 - 5:39Vannak problémák, melyeket
haladéktalanul meg kell oldanunk. -
5:39 - 5:42Meg akarjuk gyógyítani az Alzheimert,
a rákot és hasonló betegségeket. -
5:43 - 5:47Érteni akarjuk a gazdasági rendszereket.
Javítani akarjuk a klímaismereteinket. -
5:47 - 5:49Amint mód van rá, megtesszük ezeket.
-
5:49 - 5:52A vonat már elhagyta az állomást,
és nincs fék, amit behúzhatnánk. -
5:54 - 5:59Végül is nem vagyunk
az intelligencia tetőfokán, -
5:59 - 6:01de még csak a közelében sem járunk.
-
6:02 - 6:04És ez itt a lényeges momentum.
-
6:04 - 6:06Ez teszi a helyzetünket
különösen bizonytalanná, -
6:06 - 6:10és pont ezért megbízhatatlanok
a veszélyhez fűződő előérzeteink. -
6:11 - 6:14Képzeljük el a valaha élt
legokosabb embert. -
6:15 - 6:18Minden bizonnyal Neumann János
szerepel mindenki listáján. -
6:18 - 6:21Ahogy Neumann hatni tudott
a körülötte lévő emberekre, -
6:21 - 6:25többek között minden idők legjobb
matematikusaira és fizikusaira, -
6:26 - 6:27annak bárki utánajárhat.
-
6:27 - 6:31Ha a róla szóló történeteknek
csak a fele is igaz, -
6:31 - 6:32akkor kétségkívül
-
6:33 - 6:35ő a világon valaha élt legokosabb ember.
-
6:35 - 6:38Képzeljük el az intelligencia tartományát.
-
6:38 - 6:40Itt van Neumann János.
-
6:42 - 6:43És itt vagytok ti és én.
-
6:44 - 6:45Itt pedig egy csirke.
-
6:45 - 6:47(Nevetés)
-
6:47 - 6:49Elnézést, egy kiscsirke.
-
6:49 - 6:50(Nevetés)
-
6:50 - 6:54Nem akarom ezt a beszédet
még lesújtóbbá tenni. -
6:54 - 6:55(Nevetés)
-
6:56 - 7:00Valószínűsíthető,
hogy az intelligencia tartománya -
7:00 - 7:03sokkalta tágabb,
mint ahogy azt gondolnánk, -
7:04 - 7:07és ha magunknál intelligensebb
gépeket építünk, -
7:07 - 7:10akkor azok valószínűleg olyan
területeket tárnak fel, -
7:10 - 7:11melyeket elképzelni sem tudunk,
-
7:11 - 7:14és ott múlnak felül minket,
ahol nem is sejtjük. -
7:15 - 7:19Fontos belátni, hogy ez pusztán
a sebességet tekintve már igaz. -
7:19 - 7:24Ugye? Mi lenne, ha olyan
szuperintelligens MI-t hoznánk létre, -
7:24 - 7:28ami semmivel sem okosabb
egy hétköznapi kutatócsoportnál -
7:28 - 7:30az MIT-n vagy a Stanford Egyetemen.
-
7:30 - 7:33Az elektronikus áramkörök
milliószor gyorsabban működnek, -
7:33 - 7:34mint a biokémiaiak,
-
7:35 - 7:38ezért ez a gép milliószor gyorsabb
gondolkodásra lesz képes, -
7:38 - 7:40mind azok az elmék, akik ezt létrehozták.
-
7:40 - 7:42Szóval életre kelted,
és alig egy hét alatt -
7:42 - 7:4620 000 évnyi emberi
szellemi munkát végez el. -
7:46 - 7:48És ezt hétről hétre megismétli.
-
7:50 - 7:53Képtelenség felfogni,
nemhogy kordában tartani -
7:53 - 7:55egy elmét, ami ilyen mértékű
fejlődésre képes. -
7:57 - 7:59A másik, ami aggodalomra ad okot,
őszintén szólva, -
7:59 - 8:04ez a legjobb, ami megtörténhet velünk.
-
8:04 - 8:08Képzeljük el, hogy olyan
szuperintelligens MI-t alkotunk, -
8:08 - 8:10ami nem rejt biztonsági kockázatokat.
-
8:10 - 8:13Rögtön, elsőre létrehozzuk
a legtökéletesebb változatát. -
8:13 - 8:15Mintha kezünkbe kapnánk a mindentudást,
-
8:15 - 8:17ami pont úgy működik, ahogy kell.
-
8:17 - 8:21Ez a gép lenne a leghatékonyabb
munkaerő-helyettesítő berendezés. -
8:21 - 8:24Létrehozná a gépet,
amely létrehozná azt a gépet, -
8:24 - 8:26amely bármilyen fizikai munkát elvégez,
-
8:26 - 8:27napenergia hajtja,
-
8:27 - 8:30és költségét csak az anyagköltség okozza.
-
8:30 - 8:33Az emberi robotolás végéről beszélünk.
-
8:33 - 8:36De ez egyben a szellemi
munka végét is jelenti. -
8:37 - 8:40Vajon ilyen esetben mit tennének
a hozzánk hasonló emberszabásúak? -
8:40 - 8:44Nos, bármikor frizbizhetnénk,
vagy masszírozhatnánk egymást. -
8:46 - 8:49Jöhet egy kis LSD,
pár extravagáns ruhadarab, -
8:49 - 8:51és az egész világ
Burning Manné változhatna. -
8:51 - 8:53(Nevetés)
-
8:54 - 8:56Ez tényleg jó mókának hangzik,
-
8:57 - 9:00de tegyétek fel magatoknak a kérdést,
-
9:00 - 9:03hogy mi történne a jelenlegi
gazdasági és politika rendszerekkel. -
9:03 - 9:05Azt hiszem, szemtanúi lehetnénk
-
9:05 - 9:08egy soha nem látott mértékű
-
9:08 - 9:11jóléti aránytalanságnak
és munkanélküliségnek. -
9:11 - 9:13Hacsak nem állítanánk
ezt az újfajta jólétet -
9:13 - 9:15az emberiség szolgálatába,
-
9:16 - 9:19akkor pár milliárdos villogna
az üzleti magazinok címlapján, -
9:19 - 9:22miközben a világ többi
része éhen pusztulna. -
9:22 - 9:25Vajon mit tennének
az oroszok vagy a kínaiak, -
9:25 - 9:27ha megtudnák, hogy az egyik
Szilícium-völgyben lévő cég -
9:27 - 9:30bevetni készül a szuperintelligens MI-t?
-
9:30 - 9:33Ez a gép a hadviselésre is képes lenne,
-
9:33 - 9:35akár földön, akár a kibertérben,
-
9:35 - 9:37soha nem tapasztalt erőfölénnyel.
-
9:38 - 9:40Ez a győztes-mindent-visz forgatókönyv.
-
9:40 - 9:43Ezt a versenyt hat hónappal beelőzni,
-
9:43 - 9:46minimum
-
9:46 - 9:47500 000 év szükséges.
-
9:47 - 9:52Ezért már az ilyen áttörésről
szóló leghalványabb pletyka is -
9:52 - 9:55fajunk totális megvadulásába torkollhat.
-
9:55 - 9:58A legijesztőbb dolog azonban
-
9:58 - 10:00- az én meglátásom szerint -
jelen pillanatban az, -
10:00 - 10:05amit az MI-kutatók mondogatnak,
-
10:05 - 10:06amikor meg akarnak nyugtatni minket.
-
10:07 - 10:10Az aggodalmakra adott
leggyakoribb válaszuk az idő. -
10:10 - 10:13Annyira messze van még,
hát nem tudjátok. -
10:13 - 10:1550 vagy 100 év is eltelik addig.
-
10:16 - 10:17Az egyik kutató szerint:
-
10:17 - 10:19"A MI biztonsága miatt aggódni olyan,
-
10:19 - 10:21mintha a túlnépesedés
miatt aggódnánk a Marson." -
10:22 - 10:24Ez a szilícium-völgyi változata annak,
-
10:24 - 10:26hogy "ne törd ezen a szép kis buksidat".
-
10:26 - 10:27(Nevetés)
-
10:28 - 10:29Senkinek nem tűnik fel,
-
10:29 - 10:32hogy az időhorizontra való hivatkozás,
-
10:32 - 10:35totál nem passzol a képbe.
-
10:35 - 10:38Ha az intelligencia csupán
az információ feldolgozásából áll, -
10:38 - 10:41és mi folytatjuk a gépek fejlesztését,
-
10:41 - 10:44akkor létre fogunk hozni
valamiféle szuperintelligenciát. -
10:44 - 10:48És fogalmunk sincs mennyi
időbe telik majd megteremteni -
10:48 - 10:50a biztonságos kivitelezés feltételeit.
-
10:52 - 10:53Hadd ismételjem meg:
-
10:54 - 10:57Fogalmunk sincs mennyi
időbe telik majd megteremteni -
10:57 - 11:00a biztonságos kivitelezés feltételeit.
-
11:01 - 11:04Ha nem tűnt volna fel, az elmúlt
50 év sem olyan, mint az előzőek. -
11:04 - 11:07Ez az 50 év hónapokra bontva.
-
11:07 - 11:09Ilyen régóta létezik az iPhone.
-
11:09 - 11:12Ilyen régóta megy a tévében a
"Simpson család". -
11:13 - 11:1550 év nem egy hosszú idő,
-
11:15 - 11:18hogy elérkezzünk fajunk egyik
legnagyobb kihívásához. -
11:20 - 11:24Ismétlem: képtelenek vagyunk
megfelelő érzelmi reakcióval kezelni, -
11:24 - 11:26ami minden kétséget kizáróan előttünk áll.
-
11:26 - 11:30Stuart Russell számítógéptudósnak
van egy szép analógiája. -
11:30 - 11:35Azt mondta: Képzeljük el, hogy kapunk
egy üzenetet egy idegen civilizációtól, -
11:35 - 11:37amiben ez áll:
-
11:37 - 11:39"Földi népség,
-
11:39 - 11:4150 év múlva érkezünk.
-
11:42 - 11:43Készüljetek fel!"
-
11:43 - 11:48Elkezdenénk visszaszámlálni,
amíg meg nem érkezik az anyahajó? -
11:48 - 11:51Sokkal sürgetőbbnek éreznénk, mint most.
-
11:53 - 11:55Az aggodalmakra adott másik válasz,
-
11:55 - 11:58hogy ezek a gépek
osztják a mi nézeteinket, -
11:58 - 12:00mivel ők a mi saját kiterjesztéseink.
-
12:00 - 12:02Az agyunkba lesznek ültetve,
-
12:02 - 12:04aminek folytán limbikus
rendszerükké válunk. -
12:05 - 12:07Egyetlen pillanatra gondoljunk csak bele,
-
12:07 - 12:10azt javasolják,
-
12:10 - 12:12hogy az egyetlen biztonságos
és megbízható módszer az, -
12:12 - 12:15ha ezt a technológiát közvetlenül
az agyunkba ültetjük be. -
12:15 - 12:19Nos, lehet, hogy az egyetlen
biztonságos és megbízható módszer, -
12:19 - 12:21de a technológiák biztonsági kockázatait
-
12:21 - 12:25alaposan tesztelni kéne,
mielőtt bármit bárki fejébe ültetnék. -
12:25 - 12:27(Nevetés)
-
12:27 - 12:32A mélyebb probléma az, hogy egy
szuperintelligens MI létrehozása, -
12:32 - 12:34már önmagában is egyszerűbbnek bizonyul,
-
12:34 - 12:36mint létrehozni a szuperintelligens MI-t,
-
12:36 - 12:38és megalkotni hozzá
a szükséges idegtudományt, -
12:38 - 12:42amely lehetővé teszi a saját elménkkel
való gond nélküli összekapcsolását. -
12:42 - 12:44És mivel az ezen dolgozó
vállalatok és kormányok -
12:44 - 12:48vetélytársként tekintenek egymásra,
-
12:48 - 12:51mondván, hogy a verseny győzelme
egyben a világ feletti győzelem is, -
12:51 - 12:53hacsak nem rombolják le
a következő pillanatban, -
12:53 - 12:56akkor valószínűleg a könnyebb megoldás
-
12:56 - 12:57fog előbb megvalósulni.
-
12:59 - 13:01Nos, sajnos a problémára
nem tudom a megoldást. -
13:01 - 13:04Csak javasolni tudom, hogy minél
többen gondolkodjunk el ezen. -
13:04 - 13:07Úgy vélem, szükségünk lenne
a mesterséges intelligencia -
13:07 - 13:09Manhattan-projektjére.
-
13:09 - 13:13Nem a megépítéséhez, mert azt hiszem,
ez elkerülhetetlen, -
13:13 - 13:16hanem hogy megértsük, hogyan kerüljük el
a fegyverkezési versenyt, -
13:16 - 13:19és hozzuk létre úgy, hogy összhangban
legyen az érdekeinkkel. -
13:19 - 13:21Ha szuperintelligens MI-ról beszélünk,
-
13:21 - 13:23amely önmaga megváltoztatására is képes,
-
13:23 - 13:27akkor egyetlen esélyünk van a kezdeti
feltételek helyes meghatározására, -
13:27 - 13:29és még akkor is szükség lesz az ezzel járó
-
13:29 - 13:32gazdasági és politikai
következmények elfogadására. -
13:34 - 13:36És amint elfogadjuk,
-
13:36 - 13:40hogy az intelligencia forrása az
információ feldolgozásában rejlik, -
13:41 - 13:46és hogy az intelligencia alapja
egy megfelelő számítógépes rendszer, -
13:46 - 13:50és elfogadjuk, hogy ezeket a rendszereket
folyamatosan fejleszteni fogjuk, -
13:51 - 13:56és hogy a megismerés horizontja
messze meghaladja -
13:56 - 13:57jelenlegi tudásunkat,
-
13:58 - 14:00akkor be kell majd látnunk,
-
14:00 - 14:03hogy valamiféle isten
megalkotása felé haladunk. -
14:03 - 14:05Most van itt a pillanat,
-
14:05 - 14:08hogy olyan istent alkossunk,
amellyel együtt is tudunk élni. -
14:08 - 14:10Nagyon köszönöm.
-
14:10 - 14:15(Taps)
- Title:
- Létrehozhatunk olyan mesterséges intelligenciát [MI], amely felett nem veszítjük el az irányítást?
- Speaker:
- Sam Harris
- Description:
-
Rettegsz a szuperintelligens MI-tól? Jól teszed, állítja Sam Harris neurológus és filozófus -- és nem csupán elméleti síkon gondolja. Harris szerint olyan emberfeletti képességekkel rendelkező gépeket fogunk létrehozni, amik úgy bánnak majd velünk, ahogy mi bánunk a hangyákkal, az ebből fakadó aggályokra azonban még nem találtunk megoldást.
- Video Language:
- English
- Team:
closed TED
- Project:
- TEDTalks
- Duration:
- 14:27
![]() |
Csaba Lóki approved Hungarian subtitles for Can we build AI without losing control over it? | |
![]() |
Csaba Lóki edited Hungarian subtitles for Can we build AI without losing control over it? | |
![]() |
Csaba Lóki edited Hungarian subtitles for Can we build AI without losing control over it? | |
![]() |
Csaba Lóki edited Hungarian subtitles for Can we build AI without losing control over it? | |
![]() |
Csaba Lóki edited Hungarian subtitles for Can we build AI without losing control over it? | |
![]() |
Csaba Lóki edited Hungarian subtitles for Can we build AI without losing control over it? | |
![]() |
Csaba Lóki edited Hungarian subtitles for Can we build AI without losing control over it? | |
![]() |
Csaba Lóki edited Hungarian subtitles for Can we build AI without losing control over it? |
Csaba Lóki
Sziasztok!
5:59-ig átnéztem és javíottab benne dolgokat. A fordítás alapvetően jó, de vannak benne elírások, hiányzó vagy fölösleges központozások stb. Kérem, hogy nézzétek át újra az első 5 perc változtatásai alapján.
Nilván ha valamivel, nem értetek egyet, szóljatok. :)
Két tartalmi példa:
"legvalószínűtlenebb" nem azonos a "nem a legvalószínűbb"-bel
"feltevés" <> "felvetés"
Retired user
Köszönjük Csaba! Nekem sajnos nem engedélyezi az átírást, van rá mód, hogy visszakerüljön hozzám?
Csaba Lóki
Szia, Rita!
Rékánál van a feladat, ő tudja módosítani, vagy visszaküldi Neked.