0:00:00.800,0:00:03.924 Conduc o echipă Google care [br]se ocupa de inteligenţa artificială; 0:00:03.948,0:00:08.598 adică disciplina inginerească[br]a creării de computere şi dispozitive 0:00:08.622,0:00:11.041 ce pot face câteva[br]din lucrurile făcute de creier. 0:00:11.439,0:00:15.568 Asta ne face să fim interesaţi[br]de creierele reale şi de neurostiinţă, 0:00:15.875,0:00:20.047 dar mai ales de lucrurile [br]pe care creierele noastre le fac 0:00:20.071,0:00:24.113 la niveluri mult superioare[br]performanţelor computerelor. 0:00:25.209,0:00:28.818 Cronologic, unul din aceste domenii[br]a fost percepţia: 0:00:28.842,0:00:31.881 procesul prin care[br]lucruri din lumea reală 0:00:31.905,0:00:33.489 – sunete şi imagini – 0:00:33.513,0:00:35.691 se pot transforma în concepte ale minţii. 0:00:36.235,0:00:38.752 Asta e esenţial pentru creierul nostru 0:00:38.776,0:00:41.240 şi e destul de util şi pentru un computer. 0:00:41.636,0:00:44.986 De exemplu, algoritmii[br]de percepţie artificială creaţi de noi, 0:00:45.010,0:00:48.884 sunt cei ce permit ca fotografiile voastre[br]din Google Photos să poată fi căutate, 0:00:48.908,0:00:50.305 în funcţie de ce conţin. 0:00:51.594,0:00:55.087 Reversul percepţiei e creativitatea: 0:00:55.111,0:00:58.149 transformarea unui concept[br]în ceva real, concret. 0:00:58.173,0:01:01.728 În ultimul an, munca noastră[br]în domeniul percepţiei artificiale 0:01:01.752,0:01:06.611 s-a conectat în mod surprinzător[br]şi cu lumea creativităţii artificiale 0:01:06.635,0:01:08.025 şi a artei artificiale. 0:01:08.556,0:01:11.840 Cred că Michelangelo[br]a avut o intuiţie profundă 0:01:11.864,0:01:15.520 privind această relaţie duală[br]dintre percepţie şi creativitate. 0:01:16.023,0:01:18.029 Iată un citat faimos al lui: 0:01:18.053,0:01:21.376 „Fiecare bucată de piatră[br]are o statuie în interiorul său, 0:01:22.036,0:01:25.038 iar rolul sculptorului [br]e să o descopere”. 0:01:26.029,0:01:29.245 Cred că ce intuia Michelangelo 0:01:29.269,0:01:32.449 e că noi creăm prin percepţie 0:01:32.473,0:01:35.496 şi că percepţia însăşi [br]e un act de imaginaţie 0:01:35.520,0:01:37.981 şi ţine de creativitate. 0:01:38.691,0:01:44.116 Organul ce se ocupă de gândire, percepţie[br]şi imaginaţie e, desigur, creierul. 0:01:45.089,0:01:47.634 Aş vrea să încep cu puţină istorie 0:01:47.658,0:01:49.960 despre ce ştim despre creier. 0:01:50.496,0:01:52.942 Spre deosebire de inimă sau intestine 0:01:52.966,0:01:56.110 nu poţi spune prea multe [br]despre un creier doar uitându-te la el, 0:01:56.134,0:01:57.546 cel puţin nu cu ochiul liber. 0:01:57.983,0:02:00.399 Primii anatomişti [br]care se uitau la creierul uman 0:02:00.423,0:02:04.230 au dat structurilor superficiale[br]ale acestuia tot felul de nume fanteziste, 0:02:04.254,0:02:06.687 ca hipocamp, care înseamnă „crevete mic”. 0:02:06.711,0:02:09.475 Lucruri de genul ăsta[br]nu ne spun mare lucru 0:02:09.499,0:02:11.817 despre ce se petrece de fapt în interior. 0:02:12.780,0:02:16.393 Prima persoană care[br]cred că a înţeles oarecum 0:02:16.417,0:02:18.347 ce se petrece în creier, 0:02:18.371,0:02:23.421 a fost marele neuroanatonomist spaniol[br]din secolul 19, Santiago Ramón y Cajal, 0:02:23.883,0:02:27.638 care a folosit microscopia[br]şi coloraţii speciale 0:02:27.662,0:02:31.832 ce puteau umple selectiv,[br]să redea în contrast foarte înalt 0:02:31.856,0:02:33.864 celulele individuale ale creierului, 0:02:33.888,0:02:37.042 ca să poată începe[br]să le înţeleagă morfologia. 0:02:37.972,0:02:41.893 Iată desenele neuronilor[br]făcute de el în secolul 19. 0:02:42.120,0:02:44.004 Ăsta e de la creierul unei păsări. 0:02:44.028,0:02:47.085 Vedeţi aceasta varietate incredibilă[br]de diverse tipuri de celule, 0:02:47.109,0:02:50.544 chiar şi teoria celulară era[br]destul de nouă la acel moment. 0:02:50.568,0:02:51.846 Iar aceste structuri, 0:02:51.870,0:02:54.129 aceste celule ce au aceste ramificaţii, 0:02:54.153,0:02:56.761 aceste ramuri ce pot ajunge[br]la distanţe foarte mari... 0:02:56.785,0:02:58.401 asta era o mare noutate atunci. 0:02:58.779,0:03:01.682 Seamănă, desigur, cu firele. 0:03:01.706,0:03:05.163 E posibil ca asta să fi fost evident[br]pentru unii din secolul 19; 0:03:05.187,0:03:09.501 revoluţia tehnologică a cablurilor[br]şi electricităţii tocmai începea. 0:03:09.964,0:03:11.142 Dar în multe sensuri, 0:03:11.166,0:03:14.479 desenele de microanatomie ale lui[br]Ramón y Cajal, precum acesta, 0:03:14.503,0:03:16.835 sunt încă, într-un fel, inegalabile. 0:03:16.859,0:03:18.713 După mai mult de un secol, 0:03:18.737,0:03:21.562 încă încercăm să terminăm opera[br]începută de Ramón y Cajal. 0:03:21.586,0:03:24.720 Astea sunt datele brute[br]de la colaboratorii noştri 0:03:24.744,0:03:27.625 de la Institutul [br]de Neuroştiintă Max Planck. 0:03:27.649,0:03:29.439 Colaboratorii noştri 0:03:29.463,0:03:34.464 au scanat mici părţi de ţesut cerebral. 0:03:34.488,0:03:37.814 Întreaga mostră de aici[br]are cam un milimetru cub, 0:03:37.838,0:03:40.459 iar eu vă arăt aici [br]doar o foarte mică parte din ea. 0:03:40.483,0:03:42.829 Acea linie din stânga[br]are aproape un micron. 0:03:42.853,0:03:45.262 Structurile pe care le vedeţi [br]sunt mitocondrii, 0:03:45.286,0:03:47.330 ce au dimensiunile unei bacterii. 0:03:47.354,0:03:48.905 Astea sunt secţiuni consecutive 0:03:48.929,0:03:52.077 prin aceasta foarte mică bucată de ţesut. 0:03:52.101,0:03:54.504 Doar de dragul comparaţiei, 0:03:54.528,0:03:58.320 diametrul mediu al unui fir de păr [br]e de aproximativ 100 de microni. 0:03:58.344,0:04:00.618 Deci ne uităm la ceva mult, mult mai mic 0:04:00.642,0:04:02.040 decât un singur fir de par. 0:04:02.064,0:04:06.095 Din aceste tipuri de felii consecutive[br]de microscopie electronică, 0:04:06.119,0:04:11.127 se pot face reconstrucţii 3D [br]ale neuronilor care arată aşa. 0:04:11.151,0:04:14.308 Sunt cam în acelaşi stil ca cele[br]ale lui Ramón y Cajal. 0:04:14.332,0:04:15.824 Doar caţiva neuroni se aprind, 0:04:15.848,0:04:18.629 deoarece altfel nu am putea[br]distinge nimic aici. 0:04:18.653,0:04:19.965 Ar fi atât de aglomerat, 0:04:19.989,0:04:21.319 atât de plin de structuri, 0:04:21.343,0:04:24.067 de fire care conectează un[br]neuron de celălalt. 0:04:25.293,0:04:28.097 Ramón y Cajal a fost[br]cu un pas înaintea epocii sale, 0:04:28.121,0:04:30.676 iar dezvoltarea înţelegerii creierului 0:04:30.700,0:04:32.971 a continuat încet în următoarele decenii. 0:04:33.455,0:04:36.308 Dar ştiam că neuronii[br]folosesc electricitate 0:04:36.312,0:04:39.428 şi prin 1940, tehnologia[br]era destul de avansată 0:04:39.432,0:04:42.098 ca să facem experimente[br]electrice pe neuroni vii 0:04:42.122,0:04:44.228 pentru a înţelege mai bine [br]cum funcţionează. 0:04:44.631,0:04:48.987 În exact aceeaşi perioadă[br]erau inventate computerele, 0:04:49.011,0:04:52.111 care se bazau pe ideea [br]modelării creierului 0:04:52.135,0:04:55.220 – a „maşinăriei inteligente”, [br]cum a numit-o Alan Turing, 0:04:55.244,0:04:57.235 unul dintre părinţii informaticii. 0:04:57.923,0:05:02.555 Warren McCulloch şi Walter Pitts[br]s-au uitat la desenul lui Ramón y Cajal 0:05:02.579,0:05:05.266 cu cortexul vizual[br]– pe care îl vedeţi aici. 0:05:05.506,0:05:09.948 Acesta este cortexul care procesează[br]imaginile venite de la ochi. 0:05:10.424,0:05:13.932 Pentru ei, asta arată[br]ca diagrama unui circuit electric. 0:05:14.353,0:05:18.188 Sunt multe detalii din diagrama[br]lui McCulloch şi Pitts 0:05:18.212,0:05:19.564 care nu sunt tocmai corecte. 0:05:19.588,0:05:20.823 Dar ideea de bază, 0:05:20.847,0:05:24.839 că acest cortex vizual funcţionează[br]ca o serie de elemente computaţionale 0:05:24.863,0:05:27.609 care transmit informaţia[br]unul către altul în cascadă, 0:05:27.633,0:05:29.235 e în esenţă corectă. 0:05:29.259,0:05:31.609 Hai să vorbim puţin 0:05:31.633,0:05:35.665 despre ce ar trebui să facă un model[br]al procesării informaţiei vizuale. 0:05:36.228,0:05:38.969 Sarcina principală a percepţiei 0:05:38.993,0:05:43.187 e să ia o imagine ca aceasta şi să zică, 0:05:43.211,0:05:44.387 „Aia e o pasăre”, 0:05:44.411,0:05:47.285 un lucru simplu [br]pentru creierul nostru. 0:05:47.309,0:05:50.730 Trebuie să înţelegeţi[br]că pentru un computer, 0:05:50.754,0:05:53.841 asta era imposibil acum câţiva ani. 0:05:53.865,0:05:55.781 Paradigma computaţională clasică, 0:05:55.805,0:05:58.312 nu e una în care sarcina asta[br]e uşor de îndeplinit. 0:05:59.366,0:06:01.918 Deci ce se întâmplă între pixeli, 0:06:01.942,0:06:05.970 între imaginea păsării[br]şi cuvântul „pasăre”, 0:06:05.994,0:06:09.938 e de fapt un set de neuroni interconectaţi[br]într-o reţea neuronală, 0:06:10.011,0:06:11.234 ca în această diagramă. 0:06:11.258,0:06:14.530 Această reţea neuronală [br]poate fi biologică, în cortexul vizual, 0:06:14.530,0:06:16.902 sau, acum începem să avem[br]capacitatea să modelăm 0:06:16.916,0:06:19.364 astfel de reţele neuronale[br]pe calculator. 0:06:19.834,0:06:22.187 Iată cum arată asta de fapt. 0:06:22.211,0:06:25.627 Vă puteţi imagina pixelii [br]ca primul strat de neuroni, 0:06:25.651,0:06:27.890 de fapt, aşa funcţionează ochiul 0:06:27.914,0:06:29.577 – sunt neuronii din retină. 0:06:29.601,0:06:31.101 Ei transmit semnalul[br]mai departe 0:06:31.125,0:06:34.528 prin straturi de neuroni consecutive, 0:06:34.552,0:06:37.585 conectate prin sinapse[br]de diferite dimensiuni. 0:06:37.609,0:06:38.944 Comportarea acestei reţele 0:06:38.968,0:06:42.252 e caracterizată de puterile[br]tuturor sinapselor. 0:06:42.276,0:06:45.564 Ele caracterizează trăsăturile[br]computaţionale ale acestei reţele. 0:06:45.588,0:06:47.058 Iar la final 0:06:47.082,0:06:49.529 veţi avea un neuron[br]sau un grup mic de neuroni 0:06:49.553,0:06:51.200 care se aprind zicând „pasăre”. 0:06:51.824,0:06:54.956 Voi reprezenta acum acele trei lucruri: 0:06:54.980,0:06:59.676 pixelii de intrare şi sinapsele [br]din reţeaua neuronală, 0:06:59.700,0:07:01.285 şi pasărea – rezultatul – 0:07:01.309,0:07:04.366 prin trei variabile: x, w, şi y. 0:07:04.853,0:07:06.664 Pot fi aproximativ un milion de x, 0:07:06.688,0:07:08.641 un milion de pixeli în acea imagine. 0:07:08.665,0:07:11.111 Sunt miliarde sau un trilioane de w, 0:07:11.135,0:07:14.556 care reprezintă puterea tuturor[br]sinapselor din reţeaua neuronală. 0:07:14.580,0:07:16.455 Mai exista un număr foarte mic de y, 0:07:16.479,0:07:18.337 de rezultate ale reţelei. 0:07:18.361,0:07:20.110 „Pasăre” are doar 6 litere, corect? 0:07:21.088,0:07:24.514 Să spunem că asta e doar o formulă simplă 0:07:24.538,0:07:26.701 x "x" w = y. 0:07:26.725,0:07:28.761 Pun înmulţirea între ghilimele 0:07:28.785,0:07:31.065 pentru că acolo se petrece, de fapt, 0:07:31.089,0:07:34.135 o serie foarte complicată[br]de operaţii matematice, 0:07:35.172,0:07:36.393 avem o ecuaţie. 0:07:36.417,0:07:38.089 Avem trei variabile. 0:07:38.113,0:07:40.839 Cu toţii ştim că dacă ai o ecuaţie 0:07:40.863,0:07:44.505 poţi afla o variabilă[br]dacă le ştii pe celelalte două. 0:07:45.158,0:07:48.538 Deci problema deducţiei, 0:07:48.562,0:07:51.435 adică să descoperi[br]că imaginea unei păsări e o pasăre 0:07:51.459,0:07:52.733 e aceasta: 0:07:52.757,0:07:56.216 y e necunoscut în timp ce [br]w şi x sunt cunoscute. 0:07:56.240,0:07:58.699 Cunoaştem reţeaua neuronală,[br]cunoaştem pixelii. 0:07:58.723,0:08:02.050 Cum puteţi vedea,[br]e o problemă relativ simplă. 0:08:02.074,0:08:04.260 Înmulţim 2 ori 3 şi am rezolvat. 0:08:04.862,0:08:06.985 Vă voi arăta o reţea[br]neuronală artificială 0:08:07.009,0:08:09.305 pe care am creat-o recent. 0:08:09.634,0:08:12.494 Aceasta rulează în timp real[br]pe un telefon mobil, 0:08:12.518,0:08:15.831 şi deja acest lucru e uimitor, 0:08:15.855,0:08:20.563 că telefoanele pot face aşa multe[br]miliarde şi trilioane de operaţii/secundă. 0:08:20.619,0:08:22.234 Acesta e un telefon 0:08:22.258,0:08:25.805 care se uită la o serie de imagini[br]ale unei păsări, 0:08:25.829,0:08:28.544 şi nu zice doar „da, e o pasăre”, 0:08:28.568,0:08:31.979 dar identifică şi specia păsării,[br]folosind o reţea de acest tip. 0:08:32.890,0:08:34.716 Deci în acea poză, 0:08:34.740,0:08:38.542 x şi w sunt cunoscute [br]iar y e necunoscut. 0:08:38.566,0:08:41.074 Sar peste partea foarte dificilă, 0:08:41.098,0:08:44.959 anume, cum reuşim să-l descoperim w, 0:08:44.983,0:08:47.170 care e creierul care poate face asta? 0:08:47.194,0:08:49.028 Cum am putea găsi un astfel de model? 0:08:49.418,0:08:52.651 Acest proces al învăţării, [br]al aflării lui w, 0:08:52.675,0:08:55.322 dacă am face asta cu ecuaţia simplă 0:08:55.346,0:08:57.346 în care gândim variabilele ca numere, 0:08:57.370,0:09:00.057 ştim exact cum s-o rezolvăm: 6 = 2 x w, 0:09:00.081,0:09:03.393 împărţim la 2 şi am terminat. 0:09:04.001,0:09:06.221 Problema e cu acest operator. 0:09:06.823,0:09:07.974 Împărţirea 0:09:07.998,0:09:11.119 – folosim împărţirea deoarece[br]e inversul înmulţirii, 0:09:11.143,0:09:12.583 dar, aşa cum am spus, 0:09:12.607,0:09:15.056 înmulţirea e o mică minciună aici – 0:09:15.080,0:09:18.406 e o operaţie foarte complicată, [br]foarte non-lineară, 0:09:18.430,0:09:20.134 nu are un invers. 0:09:20.158,0:09:23.308 Deci trebuie să găsim un mod [br]de a rezolva ecuaţia 0:09:23.332,0:09:25.356 fără a folosi împărţirea. 0:09:25.380,0:09:27.723 Iar soluţia e destul de simplă. 0:09:27.747,0:09:30.418 Să zicem că facem un truc aritmetic 0:09:30.442,0:09:33.348 şi mutăm cifra 6[br]în partea dreapta a ecuaţiei. 0:09:33.372,0:09:35.198 Astfel încă folosim înmulţirea. 0:09:35.675,0:09:39.255 Iar acel zero, să-l privim[br]ca pe o eroare. 0:09:39.279,0:09:41.794 Altfel spus, dacă am aflat w[br]în modul corect, 0:09:41.818,0:09:43.474 atunci eroarea va fi zero. 0:09:43.498,0:09:45.436 Dacă am greşit, 0:09:45.460,0:09:47.209 eroarea va fi mai mare decât zero. 0:09:47.233,0:09:50.599 Acum putem încerca să ghicim, [br]pentru a reduce eroarea. 0:09:50.623,0:09:53.310 Ăsta e unul din lucrurile[br]la care computerele excelează. 0:09:53.334,0:09:54.927 Deci iniţial am presupus: 0:09:54.951,0:09:57.257 dacă w = 0? Eroarea ar fi 6. 0:09:57.395,0:09:58.841 Dacă w = 1? Eroarea e 4. 0:09:58.865,0:10:01.232 Atunci computerul [br]ar putea să o ia pe bâjbâite, 0:10:01.256,0:10:03.623 şi ar reduce eroarea până aproape de zero. 0:10:03.647,0:10:07.021 Pe măsură ce face asta,[br]obţine aproximări succesive ale lui w. 0:10:07.045,0:10:10.701 Normal, nu ajunge la rezultatul exact,[br]dar cam după o duzină de paşi, 0:10:10.725,0:10:15.349 ajungem la w = 2,999, [br]ceea ce e destul de aproape. 0:10:16.302,0:10:18.116 Acesta e procesul de învăţare. 0:10:18.140,0:10:20.870 Recapitulând, ce facem aici 0:10:20.894,0:10:25.272 e să luăm o groază[br]de x şi y cunoscuţi 0:10:25.296,0:10:28.750 ca să-l descoperim w [br]printr-un proces iterativ. 0:10:28.774,0:10:32.330 E exact aşa cum facem noi când învăţăm. 0:10:32.354,0:10:34.584 Ca bebeluşi vedem multe, multe imagini 0:10:34.608,0:10:37.241 şi ni se spune „asta e o pasăre,[br]asta nu e o pasăre”. 0:10:37.714,0:10:39.812 Cu timpul, prin repetiţie, 0:10:39.836,0:10:42.764 îl aflăm pe w, descoperim[br]conexiunile neuronale. 0:10:43.460,0:10:47.546 Acum am păstrat constante x şi w[br]pentru a-l afla pe y; 0:10:47.570,0:10:49.417 asta e percepţia rapidă, de zi cu zi. 0:10:49.441,0:10:51.204 Ne dăm seama cum putem descoperi w, 0:10:51.228,0:10:53.131 asta e învăţarea, care e mult mai grea, 0:10:53.155,0:10:56.690 deoarece trebuie să minimizăm eroarea[br]prin multe încercări de învăţare. 0:10:56.875,0:11:00.062 Cam acum un an, Alex Mordvintsev[br]din echipa noastră, 0:11:00.086,0:11:03.636 a hotărât să vadă ce se întâmplă[br]dacă încercăm să descoperim x, 0:11:03.660,0:11:05.697 când sunt date w şi y. 0:11:06.124,0:11:07.275 Cu alte cuvinte, 0:11:07.299,0:11:08.651 ştiţi că e o pasăre 0:11:08.675,0:11:11.978 şi aveţi deja reţeaua neuronală[br]care a fost pregătită pe păsări, 0:11:12.002,0:11:14.346 dar ce este imaginea unei păsări? 0:11:15.034,0:11:20.058 Folosind aceeaşi procedură[br]de minimizare a erorii, 0:11:20.082,0:11:23.512 se poate face asta cu reţeaua pregătită[br]să recunoască păsări, 0:11:23.536,0:11:26.924 iar rezultatul va fi... 0:11:30.400,0:11:31.705 o imagine cu păsări. 0:11:32.814,0:11:36.551 Asta e o imagine cu păsări[br]generată integral de o reţea neuronală 0:11:36.575,0:11:38.401 pregătită să recunoască păsări, 0:11:38.425,0:11:41.963 doar cerându-i să-l afle pe x[br]în loc să-l afle pe y 0:11:41.987,0:11:43.275 şi făcând asta iterativ. 0:11:43.732,0:11:45.579 Iată un alt exemplu distractiv. 0:11:45.603,0:11:49.040 E o lucrare făcută de Mike Tyka[br]în grupul nostru, 0:11:49.064,0:11:51.372 intitulată „Parada animalelor”. 0:11:51.396,0:11:54.272 Seamănă puţin cu operele de artă [br]ale lui William Kentridge, 0:11:54.296,0:11:56.785 în care face schiţe, le şterge, 0:11:56.809,0:11:58.269 face schiţe, le sterge, 0:11:58.293,0:11:59.691 şi aşa face un film. 0:11:59.715,0:12:00.866 În acest caz, 0:12:00.890,0:12:04.167 Mike îl modifică pe y[br]în funcţie de diferite animale, 0:12:04.191,0:12:08.343 într-o reţea creată să recunoască[br]şi să distingă diferite animale, 0:12:08.431,0:12:12.182 iar rezultatul e o metamorfoză ciudată[br]de tip Escher, de la un animal la altul. 0:12:14.221,0:12:19.505 Aici el şi Alex[br]au încercat să-l reducă pe y 0:12:19.505,0:12:21.618 la un spaţiu cu două dimensiuni, 0:12:21.642,0:12:25.080 făcând astfel o hartă[br]din spaţiul tuturor lucrurilor 0:12:25.104,0:12:26.823 recunoscute de această reţea.. 0:12:26.847,0:12:28.870 Făcând acest tip de sinteză 0:12:28.894,0:12:31.276 sau generare a imaginilor[br]pe întreaga suprafaţă, 0:12:31.300,0:12:34.146 schimbându-l pe y pe suprafaţă,[br]faci un fel de hartă, 0:12:34.170,0:12:37.311 o hartă vizuală a tuturor lucrurilor[br]pe care reţeaua le recunoaşte. 0:12:37.335,0:12:40.200 Animalele sunt aici;[br]Tatuul (armadillo) e în punctul ăla. 0:12:40.919,0:12:43.398 Se poate face asta [br]şi cu alte tipuri de reţele. 0:12:43.422,0:12:46.296 Asta e o reţea creată să recunoască feţe, 0:12:46.320,0:12:48.320 sa distingă un chip de altul. 0:12:48.344,0:12:51.593 Aici introducem un y numit „eu”, 0:12:51.617,0:12:53.192 parametrii chipului meu. 0:12:53.216,0:12:54.922 Iar când îl află pe x, 0:12:54.946,0:12:57.564 generează această imagine a mea 0:12:57.588,0:13:02.016 nebuneasca, cubista,[br]suprarealista, psihedelică 0:13:02.040,0:13:03.846 combinând mai multe puncte de vedere. 0:13:03.870,0:13:06.604 Pare că sunt mai multe[br]puncte de vedere simultan 0:13:06.628,0:13:10.315 pentru că reţeaua e creată[br]ca să elimine ambiguitatea 0:13:10.339,0:13:12.815 unui chip pus într-o postură sau alta, 0:13:12.839,0:13:16.215 văzut într-o lumină sau alta. 0:13:16.239,0:13:18.324 Când faci acest tip de reconstrucţie, 0:13:18.348,0:13:20.652 dacă nu foloseşti o imagine de control 0:13:20.666,0:13:21.907 sau statistici de control, 0:13:21.917,0:13:25.676 atunci vei avea un fel de confuzie [br]a mai multor puncte de vedere 0:13:25.700,0:13:27.068 deoarece e ambiguu. 0:13:27.786,0:13:32.009 Asta se întâmplă dacă Alex foloseşte[br]chipul său ca imagine de control 0:13:32.033,0:13:35.354 în timpul procesului de optimizare [br]pentru reconstrucţia feţei mele. 0:13:36.284,0:13:38.612 Puteţi vedea că nu e perfect. 0:13:38.636,0:13:40.510 E încă destul de multă muncă 0:13:40.534,0:13:42.987 pentru optimizarea[br]acestui proces de optimizare, 0:13:43.011,0:13:45.838 dar începem să obţinem[br]ceva ce aduce mai mult cu o faţă, 0:13:45.862,0:13:47.876 Când folosim ca referinţă chipul meu. 0:13:48.892,0:13:51.393 Nu trebuie început cu o pânză goală 0:13:51.417,0:13:52.573 sau cu zgomot alb. 0:13:52.597,0:13:53.901 Când vrei să-l afli pe x, 0:13:53.925,0:13:57.814 poţi începe cu un x care deja[br]e el însuşi o altă imagine. 0:13:57.838,0:14:00.394 Asta reprezintă aceasta mică demonstraţie. 0:14:00.418,0:14:04.540 Asta e o reţea creată să clasifice 0:14:04.564,0:14:07.683 tot felul de obiecte diferite –[br]structuri create de om, animale... 0:14:07.707,0:14:10.300 Aici începem cu imaginea unor nori, 0:14:10.324,0:14:11.995 şi pe măsură ce optimizăm, 0:14:12.019,0:14:16.505 această reţea îşi imaginează[br]ce vede în nori. 0:14:16.931,0:14:19.251 Cu cât priviţi asta mai mult, 0:14:19.275,0:14:22.028 cu atât mai multe lucruri[br]veţi vedea şi voi în nori. 0:14:23.004,0:14:26.379 Am putea folosi şi reţeaua chipurilor[br]pentru a halucina astfel, 0:14:26.403,0:14:28.215 şi obţii lucruri destul de nebuneşti. 0:14:28.239,0:14:29.389 (Râsete) 0:14:30.401,0:14:33.145 Mike a făcut şi alte experimente 0:14:33.169,0:14:37.074 în care ia acea imagine a norilor, 0:14:37.098,0:14:40.605 halucinează, măreşte, halucinează,[br]măreşte, halucinează, măreşte. 0:14:40.629,0:14:41.780 Şi în felul ăsta, 0:14:41.804,0:14:45.479 poţi obţine un fel de fugă disociativă[br]a reţelei, presupun, 0:14:45.503,0:14:49.183 sau un fel de asociere liberă, 0:14:49.207,0:14:51.434 în care reţeaua îşi mănâncă propria coada. 0:14:51.458,0:14:54.879 Deci acum fiecare imagine e baza pentru: 0:14:54.903,0:14:56.324 „Ce cred că văd acum? 0:14:56.348,0:14:59.151 Ce cred că văd acum?[br]Ce cred că văd acum?” 0:14:59.487,0:15:02.423 Prima dată, am prezentat[br]asta în public 0:15:02.447,0:15:07.884 unui grup la un curs din Seattle,[br]intitulat „Educaţia Superioară”. 0:15:07.908,0:15:10.345 Asta se petrecea chiar[br]după legalizarea marijuanei. 0:15:10.369,0:15:12.784 (Râsete) 0:15:14.627,0:15:16.731 Vreau să închei repede 0:15:16.755,0:15:21.010 menţionând că această tehnologie[br]nu e restricţionată. 0:15:21.034,0:15:24.699 V-am arătat doar exemple vizuale [br]deoarece sunt distractive. 0:15:24.723,0:15:27.174 Nu e doar tehnologie vizuală. 0:15:27.198,0:15:29.221 Colaboratorul nostru,[br]artistul Ross Godwin, 0:15:29.221,0:15:32.886 a făcut experimente cu o cameră[br]care face o fotografie 0:15:32.910,0:15:37.144 şi apoi un computer din rucsacul lui scrie[br]o poezie folosind reţelele neuronale, 0:15:37.168,0:15:39.112 pornind de la conţinutul imaginii. 0:15:39.136,0:15:42.083 Acea reţea neuronală de poezie[br]a fost antrenată 0:15:42.107,0:15:44.341 cu o colecţie mare [br]de poezii al secolului 20. 0:15:44.365,0:15:47.464 Iar poezia nu e deloc rea[br]după părerea mea. 0:15:47.826,0:15:49.210 (Râsete). 0:15:49.234,0:15:50.393 În încheiere, 0:15:50.417,0:15:52.549 în privinţa lui Michelangelo 0:15:52.573,0:15:53.807 cred că avea dreptate; 0:15:53.831,0:15:57.267 percepţia şi creativitatea [br]sunt puternic conectate. 0:15:57.611,0:16:02.435 Tocmai am văzut reţele neuronale[br]pregătite să distingă 0:16:02.596,0:16:04.838 sau să recunoască[br]diferite lucruri din lume, 0:16:04.862,0:16:08.023 ce pot fi rulate în sens invers,[br]ca să genereze. 0:16:08.047,0:16:09.830 Unul din lucrurile sugerate de asta 0:16:09.854,0:16:12.252 e nu numai că Michelangelo chiar a văzut 0:16:12.276,0:16:14.728 sculptura din interiorul[br]blocului de piatră, 0:16:14.752,0:16:18.390 dar că orice creatură, orice fiinţă,[br]orice extraterestru 0:16:18.414,0:16:22.071 care e capabil[br]de acte perceptive de acel gen 0:16:22.095,0:16:23.470 e capabil şi să creeze 0:16:23.494,0:16:26.718 deoarece acelaşi mecanism [br]e folosit în ambele cazuri. 0:16:26.742,0:16:32.494 Cred de asemenea că percepţia şi[br]creativitatea nu sunt exclusiv umane. 0:16:32.532,0:16:36.240 Începem să avem modele informatice[br]care fac exact genul ăsta de lucruri. 0:16:36.264,0:16:39.592 Asta nu ar trebui să ne surprindă:[br]creierul e computaţional. 0:16:39.616,0:16:41.273 Şi în sfârşit, 0:16:41.297,0:16:45.965 informatica început ca un exerciţiu[br]de creare a inteligenţei artificiale. 0:16:45.989,0:16:48.451 A fost modelată după ideea 0:16:48.475,0:16:51.488 „cum putem face maşinăriile inteligente”. 0:16:51.512,0:16:53.674 Acum începem să împlinim 0:16:53.698,0:16:56.104 câteva dintre promisiunile[br]primilor pioneri, 0:16:56.128,0:16:57.841 ale lui Turing şi von Neumann 0:16:57.865,0:17:00.130 şi McCulloch şi Pitts. 0:17:00.154,0:17:04.252 Cred că informatica[br]nu mai însemnă doar contabilitate, 0:17:04.276,0:17:06.423 sau să joci Candy Crush sau altceva. 0:17:06.447,0:17:09.025 Încă de la început, le-am creat[br]după minţile noastre. 0:17:09.049,0:17:12.318 Şi ne-au dat capacitatea să ne înţelegem[br]mai bine propriile minţi 0:17:12.342,0:17:13.871 şi să le extindem. 0:17:14.627,0:17:15.894 Vă mulţumesc foarte mult. 0:17:15.894,0:17:21.757 (Aplauze)