0:00:07.063,0:00:09.943 Kimsenin ölmediği bir gelecek düşünün— 0:00:09.943,0:00:13.943 ölmek yerine aklımızın[br]dijital dünyaya aktarıldığı bir gelecek. 0:00:13.943,0:00:16.484 Akıllarımız gerçekçi, [br]simulasyon bir dünyada 0:00:16.484,0:00:18.464 avatar boyutunda yaşayabilirler 0:00:18.464,0:00:22.758 ve bu halde bile biyolojik dünyaya[br]katkıda bulunabilirler. 0:00:23.153,0:00:26.244 Zihin aktarımı kulağa çok çekici geliyor 0:00:26.244,0:00:31.674 ama bir insanın beynini tarayıp[br]zihnini aktarmak için neler gerekiyor? 0:00:31.674,0:00:36.226 Asıl sorun beyni, zihni ele geçirecek[br]kadar detaylı tarayabilmek 0:00:36.226,0:00:40.634 ve o detayları yapay olarak[br]eksiksizce tekrar yaratabilmek. 0:00:40.634,0:00:43.314 Fakat önce neyi taramamız [br]gerektiğini bilmeliyiz. 0:00:43.314,0:00:46.684 İnsan beyni yaklaşık olarak[br]86 milyar nörondan oluşur. 0:00:46.684,0:00:50.314 Bunlar en az yüz trilyon[br]sinapsle bağlılardır. 0:00:50.314,0:00:53.384 Beyin nöronlarının bağlantı biçimine 0:00:53.384,0:00:57.504 yani nöronlar ve onların bağlantısına 0:00:57.504,0:00:59.703 konnektom denir. 0:00:59.703,0:01:01.913 Konnektomun şemasını daha çıkaramadık 0:01:01.913,0:01:04.933 ve sinirsel sinyaller hakkında da [br]öğrenecek çok şey var. 0:01:04.933,0:01:10.263 Yüzlerce, belki de binlerce çeşit [br]bağlantı türü ya da sinaps mevcut. 0:01:10.263,0:01:12.903 Her birinin görevi nispeten farklı. 0:01:12.903,0:01:14.943 Kimisi hızlı, kimisi yavaş işliyor. 0:01:14.943,0:01:18.713 Kimisi öğrenme sürecinde[br]küçülüyor ya da büyüyor. 0:01:18.713,0:01:20.903 Kimisi zaman geçse de değişmiyor. 0:01:20.903,0:01:25.593 Nöronlar arasındaki trilyonlarca [br]1'e 1 bağlantıların yanı sıra 0:01:25.593,0:01:28.956 bazı nöronlar nörotransmiter yayıyor. 0:01:28.956,0:01:31.726 Bunlar biren fazla nöronu[br]aynı anda etkiliyor. 0:01:31.726,0:01:33.966 Bu farklı etkileşim türlerinin hepsinin 0:01:33.966,0:01:37.876 şemasını çıkartmak lazım ki[br]insan zihni kopyalanabilsin. 0:01:37.876,0:01:40.866 Ayrıca sinirsel sinyalleri de etkileyen 0:01:40.866,0:01:44.206 ve daha tam anlaşılmamış [br]ya da keşfedilmemiş birçok şey var. 0:01:44.206,0:01:45.776 Mesela, 0:01:45.776,0:01:48.086 nöronların hareket etme biçimi 0:01:48.086,0:01:52.156 gliya diye bir hücreden etkilenir. 0:01:52.156,0:01:55.853 Gliya, nöronları çevreler [br]ve bazı bilim adamlarına göre 0:01:55.853,0:01:59.503 nöronlardan 1'e 10 oranında[br]daha fazla olabilirler. 0:01:59.503,0:02:03.133 Gliya önceden sadece yapısal[br]destek için var sanılıyordu 0:02:03.133,0:02:05.983 ve işlevleri hâlâ tam bilinmiyor 0:02:05.983,0:02:09.133 ama bazıları kendi[br]sinyallerini üretebiliyorlar. 0:02:09.133,0:02:11.753 Bu sinyaller bilgi işlenmesini etkilerler. 0:02:11.753,0:02:14.893 Beyin hakkındaki bilgilerimiz[br]zihnimizi kopyalamak için 0:02:14.893,0:02:17.933 tarmamız gerekenleri[br]belirlemeye yeterli değil. 0:02:17.933,0:02:20.943 Diyelim ki bilgimiz o seviyeye çıktı, 0:02:20.943,0:02:22.373 taramayı nasıl yapacağız? 0:02:22.373,0:02:25.863 Günümüzde canlı bir insan beynini 0:02:25.863,0:02:28.423 yarım milimetre çözünürlüğünde[br]tarayabiliyoruz. 0:02:28.423,0:02:32.243 Bu da noninvazif tarama olan[br]MRI ile yapılıyor. 0:02:32.243,0:02:37.733 Bir sinapsı algılamak için bir mikron [br]çözünürlüğünde tarama yapmalıyız. 0:02:37.733,0:02:39.693 Bu da milimetrenin binde biri eder. 0:02:39.693,0:02:44.693 Sinapsin çeşidini ve gücünü saptamak için 0:02:44.693,0:02:47.074 daha iyi bir çözünürlüğe ihtiyacımız var. 0:02:47.074,0:02:50.044 MRI güçlü bir manyetik alana bağlıdır. 0:02:50.044,0:02:55.144 Her sinapsin detaylarına inecek[br]çözünürlükte tarama yapmak için 0:02:55.144,0:02:59.734 insan dokularını pişirebilecek güçte[br]bir alan direnci gereklidir. 0:02:59.734,0:03:01.766 Çözünürlükte böyle bir adım atmak 0:03:01.766,0:03:05.056 yeni bir tarama teknolojisi [br]gerektirmektedir. 0:03:05.056,0:03:09.636 Ölü bir beyni elektron mikroskopuyla[br]taramak daha mantıklı olurdu 0:03:09.636,0:03:13.236 ama o teknoloji bile çok yetersiz 0:03:13.236,0:03:16.526 ve önce deneği öldürmeyi gerektiriyor. 0:03:16.526,0:03:20.676 Beyni, neyi tarayacağımızı [br]bilecek kadar iyi anlasak 0:03:20.676,0:03:24.126 ve o çözünürlükte tarama yapabilecek[br]güvenli teknolojiyi üretsek bile 0:03:24.126,0:03:28.536 o bilgiyi dijital olarak yeniden [br]yaratmak da ayrı bir sorun. 0:03:28.536,0:03:33.282 Bunun önündeki en büyük engeller[br]programlama gücü ve depolama alanı. 0:03:33.282,0:03:35.764 İkisi de her sene daha da gelişiyor. 0:03:35.764,0:03:39.524 Aslında bu teknolojik kapasiteye ulaşmaya, 0:03:39.524,0:03:43.794 zihnimizi anlamak [br]ya da taramaktan daha yakınız. 0:03:43.794,0:03:47.834 Yapay sinir ağları çoktan[br]internet arama motorlarımızı, 0:03:47.834,0:03:52.278 dijital aistanları, sürücüsüz arabaları[br]Wall Street ticaret algoritmalarını 0:03:52.278,0:03:53.812 ve akıllı telefonları işletiyor. 0:03:53.812,0:03:57.902 Kimse 86 milyar nöron içeren [br]bir yapay ağ icat etmedi 0:03:57.902,0:04:00.332 ama programlama teknolojisi ilerledikçe 0:04:00.332,0:04:04.712 o kadar büyük veri setlerini[br]kaydetmek mümkün olabilir. 0:04:04.712,0:04:08.170 Tarama ve yükleme sürecinin[br]her aşamasında 0:04:08.170,0:04:12.840 gerekli bilgileri doğru [br]kaydettiğimizden emin olmalıyız. 0:04:12.840,0:04:18.297 Yoksa bozuk bir zihin versiyonunun[br]neye dönüşeceğini bilemeyiz. 0:04:18.297,0:04:21.083 Zihin aktarımı teorik olarak mümkün 0:04:21.083,0:04:23.153 ama o teknolojiye ve bilgiye ulaşıp 0:04:23.153,0:04:25.703 bu fikri gerçekleştirene kadar 0:04:25.703,0:04:27.273 önümüzde daha yüzlerce yıl var. 0:04:27.273,0:04:31.523 Bundan önce ahlaki ve felsefik[br]açıdan düşünülmesi gerekenler var. 0:04:31.523,0:04:34.333 Aktarılmış zihinlere kim erişebilir? 0:04:34.333,0:04:37.213 Bu zihinlerin nasıl hakları olacak? 0:04:37.213,0:04:39.973 Bu teknoloji nasıl kötüye kullanılabilir? 0:04:39.636,0:04:42.436 Zihinlerimizi aktarsak bile 0:04:42.436,0:04:45.546 geriye "gerçek biz" kalmalı mı?