0:00:01.040,0:00:04.791 Azért vagyok itt, hogy új látásmódot[br]kínáljak szakterületemről, 0:00:04.815,0:00:06.583 a mesterséges intelligenciáról. 0:00:06.607,0:00:08.621 Azt gondolom, az MI célja az, 0:00:08.645,0:00:12.079 hogy felvértezze az embereket[br]gépi intelligenciával. 0:00:13.286,0:00:15.736 Ahogy a gépek okosodnak, 0:00:15.760,0:00:17.013 okosabbak leszünk mi is. 0:00:17.907,0:00:20.419 Ezt nevezem „emberies[br]mesterséges intelligenciának”, 0:00:20.443,0:00:24.114 olyan mesterséges intelligenciának,[br]amelyet emberi igényekre terveztek, 0:00:24.138,0:00:27.069 hogy együttműködjenek[br]és kiegészítsék az embert. 0:00:28.149,0:00:30.059 Manapság örömmel látom, 0:00:30.083,0:00:32.260 hogy az intelligens segéd ötlete 0:00:32.284,0:00:33.753 megszokottá vált. 0:00:33.777,0:00:38.837 Elfogadott leképezése az ember[br]és az MI közötti illesztésnek. 0:00:39.556,0:00:42.253 A Siri létrehozásában segédkeztem. 0:00:42.957,0:00:44.109 Ismerik a Sirit. 0:00:44.133,0:00:46.778 Siri az a dolog,[br]amely ismeri szándékainkat, 0:00:46.802,0:00:48.844 és segít megvalósítani őket, 0:00:48.868,0:00:50.369 segít ügyeket intézni. 0:00:50.393,0:00:52.867 De tán nem tudják, hogy a Sirit 0:00:53.645,0:00:55.611 emberies MI-nek terveztük, 0:00:55.635,0:00:58.806 hogy az embert beszélő[br]csatlakozással egészítse ki, 0:00:58.830,0:01:02.283 amely lehetővé tette mobil[br]számítástechnika használatát, 0:01:02.307,0:01:05.591 függetlenül attól, hogy ki[br]és milyen képességű használja. 0:01:06.814,0:01:08.391 Legtöbbünk számára 0:01:08.415,0:01:11.196 e technológia kihatása, 0:01:11.220,0:01:13.503 hogy kissé megkönnyíti[br]az eszközök használatát. 0:01:13.916,0:01:16.095 De Daniel barátom életét megváltoztatta 0:01:17.352,0:01:20.523 az MI kihatása e rendszerekre. 0:01:21.217,0:01:26.050 Daniel igazi társasági ember 0:01:26.074,0:01:27.833 ám vak és négy végtagjára béna, 0:01:28.614,0:01:32.323 ami megnehezíti számára a nekünk[br]megszokott eszközök használatát. 0:01:32.497,0:01:34.813 Legutóbbi látogatásomkor öccse megkért: 0:01:34.833,0:01:36.821 „Várj egy kicsit, Daniel most nem ér rá, 0:01:36.845,0:01:39.187 telefonál egy interneten megismert nővel.” 0:01:40.250,0:01:42.260 Mire én: „Ez nagyszerű, hogyan csinálta?” 0:01:42.284,0:01:45.778 Daniel a Sirit használja[br]társasági életéhez: 0:01:46.731,0:01:48.671 ímélt, SMS-t ír, és telefonál; 0:01:48.695,0:01:51.171 és nem függ az ápolóitól. 0:01:52.501,0:01:54.239 Elég érdekes, ugye? 0:01:54.263,0:01:55.580 A sors fintora. 0:01:55.604,0:01:58.500 Itt egy ember, akinek az MI-hez[br]fűződő kapcsolata 0:01:58.524,0:02:01.701 segít neki kapcsolatot teremteni[br]valódi emberi lényekkel. 0:02:02.805,0:02:05.935 Ez az emberies mesterséges intelligencia. 0:02:07.404,0:02:09.802 Másik példa, amelynek életbevágó[br]kihatásai vannak: 0:02:09.826,0:02:11.083 a rák diagnosztizálása. 0:02:12.795,0:02:14.950 Amikor egy orvos rákot gyanít, 0:02:14.974,0:02:17.677 mintát vesz,[br]és elküldi egy patológusnak, 0:02:17.701,0:02:19.653 aki mikroszkóppal megnézi. 0:02:20.145,0:02:22.670 A patológusok minden nap[br]több száz metszetet, 0:02:22.694,0:02:25.018 milliónyi sejtet néznek meg. 0:02:25.630,0:02:27.017 A feladat támogatására 0:02:27.041,0:02:30.483 néhány kutató MI-alapú[br]osztályozót készített . 0:02:31.548,0:02:36.101 Az osztályozó válaszol :[br]az „Ez rák vagy nem rák?” kérdésre, 0:02:36.125,0:02:37.430 miután megnézte a képeket. 0:02:38.355,0:02:39.919 Az osztályozó elég jó volt, 0:02:40.967,0:02:42.652 de nem olyan jó, mint az ember, 0:02:43.945,0:02:45.713 aki a legtöbbször eltalálta. 0:02:46.427,0:02:52.607 Amikor azonban összeadták[br]a gép és az ember képességeit, 0:02:52.631,0:02:55.626 a pontosság 99,5%-ot ért el. 0:02:57.150,0:03:02.151 Az MI bevonása a partnerségbe[br]kiküszöbölte azon hibák 85%-át, 0:03:02.175,0:03:05.861 amelyeket az egyedül dolgozó[br]patológus elkövetett volna. 0:03:06.820,0:03:09.979 Ez rengeteg rákos eset,[br]amelyet máskülönben nem kezeltek volna. 0:03:11.097,0:03:13.027 A kíváncsiak kedvéért: kiderült, 0:03:13.051,0:03:16.525 hogy az ember jobb volt[br]hamis pozitív esetek kiszűrésében, 0:03:16.549,0:03:20.121 a gép pedig jobb volt a nehezen[br]azonosítható esetek felismerésében. 0:03:20.145,0:03:23.382 De nem az a tanulság ebből,[br]hogy melyik kezelő jobb 0:03:23.406,0:03:25.484 erre a képosztályozási feladatra. 0:03:25.888,0:03:27.727 A dolgok naponta változnak. 0:03:27.751,0:03:29.319 Az a tanulság, 0:03:29.343,0:03:32.703 hogy emberi és gépi[br]képességek ötvözésével 0:03:32.727,0:03:37.678 partnerséget hoztak létre,[br]amelynek emberfeletti képességei vannak. 0:03:38.543,0:03:41.483 Ez az emberies mesterséges intelligencia. 0:03:42.787,0:03:44.773 Nézzünk még egy példát 0:03:44.797,0:03:47.084 a teljesítmény felturbózására! 0:03:47.108,0:03:48.511 Tervezésről van szó. 0:03:48.535,0:03:50.576 Tegyük fel, hogy mérnökként 0:03:50.600,0:03:52.717 drónhoz új keretet szeretnénk tervezni. 0:03:52.741,0:03:55.805 Előkapjuk kedvenc[br]szoftverünket, CAD-eszközünket, 0:03:55.829,0:04:00.044 bevisszük a formát s az anyagokat,[br]majd elemezzük a teljesítményt. 0:04:00.068,0:04:01.412 Ebből lesz egy terv. 0:04:02.162,0:04:05.839 Ha ugyanazokat az eszközöket MI-nek adjuk, 0:04:05.863,0:04:08.987 tervek ezreit tudja kidolgozni. 0:04:10.193,0:04:12.127 Ez az Autodesk-videó lenyűgöző. 0:04:12.151,0:04:13.451 Ez valódi. 0:04:14.092,0:04:17.163 Átalakítja a tervezés módját. 0:04:17.187,0:04:18.615 Most a mérnökember megadja, 0:04:18.639,0:04:21.954 mit kell elérnie a tervnek, 0:04:21.978,0:04:23.134 a gép pedig azt mondja: 0:04:23.158,0:04:24.528 „Itt vannak a lehetőségek.” 0:04:25.758,0:04:28.698 A mérnök dolga kiválasztani azt, 0:04:28.722,0:04:31.822 amelyik a leginkább[br]megfelel a terv céljaira, 0:04:31.846,0:04:35.185 amelyet a mérnök emberként, emberi[br]ítélőképességével és tapasztalatával 0:04:35.209,0:04:37.003 mindenkinél jobban ismer. 0:04:37.414,0:04:38.994 Ebben az esetben a nyerő forma 0:04:39.018,0:04:41.729 olyasminek tűnik, mint valami,[br]amit a természet alkotott, 0:04:41.753,0:04:43.868 leszámítva néhány millió évnyi evolúciót 0:04:43.892,0:04:46.273 és azokat a szükségtelen szőrmerétegeket. 0:04:48.424,0:04:53.096 Lássuk, hová vezethet bennünket[br]az emberies MI ötlete, 0:04:53.120,0:04:55.513 ha eljátszunk a feltevésekkel? 0:04:56.118,0:04:59.122 Mifajta kiegészítést szeretnénk? 0:04:59.529,0:05:02.435 Mit szólnának egy kognitív kiegészítőhöz? 0:05:03.904,0:05:05.383 Ahelyett, hogy azt kérdeznénk: 0:05:05.407,0:05:07.468 „Mennyire okosíthatjuk föl gépeinket?” 0:05:07.492,0:05:08.665 kérdezzük ezt: 0:05:08.689,0:05:11.394 „Bennünket mennyire [br]okosíthatnak föl gépeink?” 0:05:13.105,0:05:14.885 Vegyük például a memóriát. 0:05:15.511,0:05:18.457 A memória az emberi intelligencia alapja. 0:05:19.767,0:05:22.738 De az emberi memória közismerten hibás. 0:05:23.541,0:05:25.615 Jók vagyunk történetek mesélésében, 0:05:25.639,0:05:27.590 de a részleteket eltévesztjük. 0:05:27.614,0:05:30.820 Idővel pedig memóriánk romlik. 0:05:30.844,0:05:34.076 Úgy értem: hová tűntek a 60-as évek,[br]és visszatérhetek-e én is oda? 0:05:34.100,0:05:35.567 (Nevetés) 0:05:36.648,0:05:40.952 De mi lenne, ha olyan memóriánk lehetne,[br]amely ugyanolyan jó, mint a számítógépeké, 0:05:42.158,0:05:45.017 és életünket fedné le? 0:05:45.714,0:05:48.503 Ha mindenkire emlékezni tudnánk,[br]akivel valaha találkoztunk: 0:05:48.527,0:05:50.473 nevük helyes kiejtésére, 0:05:50.497,0:05:52.589 családi adataikra, kedvenc sportágukra 0:05:52.613,0:05:54.576 és legutóbbi beszélgetésünkre velük. 0:05:54.600,0:05:57.255 Ha e memóriánk egész életünkben meglenne, 0:05:57.279,0:06:00.577 aZ MI-vel megnézethetnénk az idők során 0:06:00.601,0:06:02.018 másokkal végbement összes interakciónkat, 0:06:02.042,0:06:05.835 és ez segítene elgondolkodni[br]kapcsolataink hosszú ívén. 0:06:06.530,0:06:11.596 Mi lenne, ha az MI-vel elolvastathatnánk[br]mindent, amit valaha olvastunk, 0:06:11.620,0:06:14.134 és meghallgattathatnánk[br]a valaha hallott minden dalt? 0:06:15.344,0:06:19.083 A legkisebb támpont alapján[br]segíthetne visszakeresni 0:06:19.107,0:06:21.220 minden, valaha olvasottat és hallottat. 0:06:21.931,0:06:25.181 Képzeljék el, hogyan hatna ez[br]kapcsolatteremtő képességünkre 0:06:25.205,0:06:26.785 és ötletalkotásunkra. 0:06:26.809,0:06:28.797 És mi van a testünkkel? 0:06:29.732,0:06:34.010 Mi lenne, ha emlékezni tudnánk[br]minden megevett étel, 0:06:34.034,0:06:35.535 minden bevett tabletta, 0:06:36.485,0:06:38.320 átvirrasztott éjszaka következményére? 0:06:39.048,0:06:41.758 Tanulmányozhatnánk[br]adatainkat, hogy kiderítsük, 0:06:41.782,0:06:45.642 mitől érezzük magunkat jól,[br]és mitől maradunk egészségesek. 0:06:45.666,0:06:48.142 Képzeljék el, hogyan forradalmasítaná ez 0:06:48.166,0:06:50.856 az allergiák és a krónikus betegségek[br]kezelését! 0:06:52.909,0:06:57.883 Hiszem, hogy az MI valóra fogja [br]váltani memóriánk tökéletesítését. 0:06:59.122,0:07:01.946 Nem tudom megmondani, mikor[br]vagy milyen formai tényezőkkel, 0:07:02.627,0:07:04.590 de azt gondolom, hogy elkerülhetetlenül, 0:07:05.923,0:07:10.750 mert pontosan azokat a dolgokat,[br]amelyek ma az MI-t sikeressé teszik – 0:07:10.774,0:07:13.267 a széleskörű adatok rendelkezésre állása 0:07:13.291,0:07:16.839 és a gépek képessége,[br]hogy az adatokat értelmezzék – 0:07:16.863,0:07:19.922 lehet életünk adataira is alkalmazni. 0:07:20.505,0:07:23.992 Ezek az adatok itt vannak ma is,[br]elérhetők mindannyiunk számára, 0:07:24.016,0:07:27.884 mert digitális közvetítéssel élünk, 0:07:28.570,0:07:30.705 mobil és internetes felületeken. 0:07:31.833,0:07:35.723 A személyes memória privát memória. 0:07:35.747,0:07:39.684 Kiválaszthatjuk, mit idézzünk föl,[br]és mit őrizzünk meg, és mit ne. 0:07:40.517,0:07:44.181 Okvetlenül lényeges,[br]hogy nagyon biztonságosan tárolják. 0:07:45.294,0:07:46.756 Legtöbbünk számára 0:07:46.780,0:07:49.673 a kibővített személyes memória kihatása 0:07:49.697,0:07:52.432 a javuló mentális teljesítőképesség lesz, 0:07:52.456,0:07:54.911 és remélhetőleg kicsit több[br]társadalmi megbecsülés. 0:07:56.658,0:08:01.305 Ám az Alzheimer-kórban[br]vagy demenciában szenvedő millióknak 0:08:03.209,0:08:05.412 a kibővített memória kínálta különbség 0:08:05.436,0:08:07.897 az elszigetelt élet 0:08:08.466,0:08:11.165 s a méltóságteljes érintkezés[br]közti különbséget jelenti. 0:08:12.166,0:08:17.813 Jelenleg a mesterséges intelligencia[br]reneszánszának közepén vagyunk. 0:08:18.652,0:08:20.623 Arra gondolok, hogy az utóbbi években 0:08:20.647,0:08:24.278 olyan MI-gondok megoldását kezdjük látni, 0:08:24.302,0:08:28.272 amelyekkel évtizedekig küzdöttünk: 0:08:29.226,0:08:31.893 beszédfelismerés, szövegfelismerés, 0:08:31.917,0:08:33.237 képfelismerés. 0:08:34.177,0:08:38.252 Eldönthetjük, hogyan használjuk[br]e nagy hatású technológiát. 0:08:39.268,0:08:44.132 Dönthetünk úgy, hogy az MI-t[br]automatizálásra s versenyzésre használjuk, 0:08:44.156,0:08:48.133 vagy arra is, hogy kibővítsen minket[br]és együttműködjön velünk, 0:08:48.157,0:08:51.228 hogy leküzdje ismeretszerzésünk korlátait, 0:08:51.252,0:08:54.414 és segítsen megtenni azt, 0:08:54.438,0:08:55.729 amit amúgy is akartunk, csak jobban. 0:08:56.339,0:09:02.843 Amikor új módszereket találunk rá,[br]hogyan adjunk gépeknek intelligenciát, 0:09:02.867,0:09:05.936 elterjeszthetjük ezt az intelligenciát 0:09:05.960,0:09:08.341 a világ összes MI-segédje körében, 0:09:08.365,0:09:11.899 így eljut minden emberhez,[br]a körülményektől függetlenül. 0:09:13.189,0:09:14.718 Ezért van az, hogy mindig, 0:09:14.742,0:09:17.903 amikor egy gép okosabb lesz, 0:09:18.628,0:09:20.032 okosabbak leszünk mi is. 0:09:21.028,0:09:24.761 Ez olyan MI, amelyet érdemes terjeszteni. 0:09:24.785,0:09:25.967 Köszönöm. 0:09:25.991,0:09:28.094 (Taps)