Decizia de a ucide nu trebuie să aparțină unui robot
-
0:01 - 0:04Scriu romane științifico-fantastice.
-
0:04 - 0:06Dacă spun „roboți ucigași"
-
0:06 - 0:08probabil vă gândiți la ceva de genul ăsta.
-
0:08 - 0:11Dar nu sunt aici să vorbesc despre ficțiune.
-
0:11 - 0:14Vreau să vă vorbesc despre roboți ucigași adevărați,
-
0:14 - 0:17dronele de luptă autonome.
-
0:17 - 0:21Nu drone precum Predator sau Reaper,
-
0:21 - 0:24unde oamenii iau deciziile.
-
0:24 - 0:27E vorba de arme robotice complet autonome
-
0:27 - 0:30care iau decizii letale pentru ființele umane
-
0:30 - 0:32de unele singure.
-
0:32 - 0:36Există un termen tehnic pentru asta:
autonomie letală. -
0:36 - 0:39Roboții ucigași autonomi
-
0:39 - 0:42pot avea multe forme -- pot zbura, conduce,
-
0:42 - 0:45sau doar rămâne în așteptare.
-
0:45 - 0:48De fapt, încep să devină realitate.
-
0:48 - 0:50Astea sunt două stații-lunetist automate
-
0:50 - 0:55trimise în zona demilitarizată dintre Coreea de Nord și de Sud.
-
0:55 - 0:57Ambele pot identifica automat
-
0:57 - 1:00și trage în ținte umane,
-
1:00 - 1:05cea din stânga până la un kilometru distanță.
-
1:05 - 1:08În ambele cazuri mai avem un om în ecuație,
-
1:08 - 1:10care ia decizia deschiderii focului,
-
1:10 - 1:16dar nu e o constrângere tehnologică.
E o opțiune. -
1:16 - 1:19Despre această opțiune vreau să discut,
-
1:19 - 1:22pentru că prin transferarea deciziei letale
-
1:22 - 1:25de la oameni la software,
-
1:25 - 1:28nu riscăm doar dispariția oricărei umanități din război,
-
1:28 - 1:32ci și modificarea integrală a peisajului social,
-
1:32 - 1:34departe de câmpul de luptă.
-
1:34 - 1:38Felul în care oamenii rezolvă conflictele
-
1:38 - 1:40dă formă peisajului social.
-
1:40 - 1:43Așa a fost întotdeauna în istorie.
-
1:43 - 1:46De ex., acestea erau sisteme de arme ultramoderne
-
1:46 - 1:48în 1400 d.H.
-
1:48 - 1:51Construirea și întreținerea lor erau foarte scumpe,
-
1:51 - 1:54dar prin ele puteai domina mulțimile,
-
1:54 - 1:58și distribuirea puterii politice în societatea feudală.
-
1:58 - 2:01Puterea era concentrată la vârf.
-
2:01 - 2:04Ce s-a schimbat? Inovația tehnologică.
-
2:04 - 2:06Praf de pușcă, tunuri.
-
2:06 - 2:10Armurile și castelele au devenit inutile,
-
2:10 - 2:12iar pe cine aduceai pe câmpul de luptă conta mai puțin
-
2:12 - 2:16decât câți oameni aduceai.
-
2:16 - 2:20În timp ce armatele creșteau, a apărut statul național,
-
2:20 - 2:23ca cerință politică și logistică a apărării.
-
2:23 - 2:26Pentru că liderii se bazau din ce în ce mai mult pe populație,
-
2:26 - 2:28au început să împartă puterea.
-
2:28 - 2:30A început formarea guvernului reprezentativ.
-
2:30 - 2:33Armele folosite în rezolvarea conflictelor
-
2:33 - 2:37dau formă peisajului social.
-
2:37 - 2:41Armele robotice autonome sunt o astfel de unealtă,
-
2:41 - 2:46dar, incluzând puțini oameni în război,
-
2:46 - 2:51prezintă riscul recentralizării puterii în mâna câtorva,
-
2:51 - 2:57punând capăt unei tendințe de cinci secole spre democrație.
-
2:57 - 2:59Știind asta, putem lua pași decisivi
-
2:59 - 3:03pentru a ne păstra instituțiile democratice,
-
3:03 - 3:07prin ceea ce oamenii fac cel mai bine, adaptându-se.
-
3:07 - 3:09Dar timpul e un factor.
-
3:09 - 3:12Șaptezeci de țări construiesc
-
3:12 - 3:14drone de război autonome,
-
3:14 - 3:17iar dronele pilotate de la distanță, veți vedea,
-
3:17 - 3:22sunt precursorii armelor robotice indepedente.
-
3:22 - 3:24Odată ce ai trimis în luptă drone pilotate de la distanță,
-
3:24 - 3:28există trei factori ce transmit luarea de decizii
-
3:28 - 3:32de la oameni către platforma armată însăși.
-
3:32 - 3:38Primul este mulțimea de video înregistrări colectate.
-
3:38 - 3:41În 2004, flota de drone a SUA a capturat pentru analiză
-
3:41 - 3:4771 de ore de material video de supraveghere.
-
3:47 - 3:51Până în 2011, ajunsese la 300,000 de ore,
-
3:51 - 3:54depășind capacitatea omului de a le urmări,
-
3:54 - 3:58dar și acest număr e pe cale să crească alarmant.
-
3:58 - 4:01Programele Gorgon Stare și Argus ale Pentagonului
-
4:01 - 4:04vor monta 65 de camere independente
-
4:04 - 4:06pe fiecare platformă de drone,
-
4:06 - 4:09ceea ce ar depăși cu mult capacitatea umană de a le analiza.
-
4:09 - 4:11Va fi nevoie, deci, de software de urmărire vizuală
-
4:11 - 4:15pentru a scana obiectele de interes.
-
4:15 - 4:17În curând,
-
4:17 - 4:19dronele le vor spune oamenilor ce să privească,
-
4:19 - 4:22nu invers.
-
4:22 - 4:24Mai există un motiv
-
4:24 - 4:28pentru cedarea deciziei către mașini,
-
4:28 - 4:31și anume blocajul electromagnetic,
-
4:31 - 4:33ce distruge legătura dintre dronă
-
4:33 - 4:36și operatorul ei.
-
4:36 - 4:38Avem un astfel de exemplu din 2011
-
4:38 - 4:41când o dronă American RQ-170 Sentinel
-
4:41 - 4:46a fost derutată din cauza unui atac GPS în Iran,
-
4:46 - 4:51dar orice dronă pilotată teleghidat e susceptibilă,
-
4:51 - 4:53ceea ce face necesar ca dronele
-
4:53 - 4:56să aibă mai multă putere de a lua decizii.
-
4:56 - 4:59Vor ști obiectivul misiunii
-
4:59 - 5:04și vor reacționa la împrejurări noi fără ajutor uman.
-
5:04 - 5:07Vor ignora semnalele radio externe
-
5:07 - 5:09și vor trimite puține semnale, la rândul lor.
-
5:09 - 5:11Asta ne aduce la al treilea
-
5:11 - 5:15și cel mai puternic motiv de transferare
-
5:15 - 5:18a deciziei către arme:
-
5:18 - 5:22posibilitatea de a nega plauzibil.
-
5:22 - 5:25Trăim într-o economie globală.
-
5:25 - 5:29Fabricarea de înaltă tehnologie are loc pe mai toate continentele.
-
5:29 - 5:32Spionajul cibernetic duce designuri avansate
-
5:32 - 5:34în locuri necunoscute,
-
5:34 - 5:36iar în acest cadru, e foarte probabil
-
5:36 - 5:40ca un design de succes pentru o dronă să fie furat dintr-o fabrică
-
5:40 - 5:43și să fie larg folosit pe piața neagră.
-
5:43 - 5:45Astfel, analizând rămășițele unui atac
-
5:45 - 5:48sinucigaș cu dronă, va fi greu
-
5:48 - 5:52să determini cine a trimis arma.
-
5:52 - 5:55Devine astfel realitate posibilitatea
-
5:55 - 5:58războiului anonim.
-
5:58 - 6:01Asta ar putea da peste cap echilibrul geopolitic,
-
6:01 - 6:04ar putea crea greutăți unei națiuni
în cazul unui răspuns armat -
6:04 - 6:07împotriva unui atacator, înclinând balanța
-
6:07 - 6:11către ofensivă și nu defensivă în secolul XXI.
-
6:11 - 6:14Ar putea transforma acțiunea militară într-o opțiune viabilă
-
6:14 - 6:16nu doar pentru micile state,
-
6:16 - 6:19dar și pentru organizații criminale, afaceri private,
-
6:19 - 6:21chiar pentru indivizi puternici.
-
6:21 - 6:25Ar putea crea o lume a dictatorilor militari rivali,
-
6:25 - 6:28subminând statul de drept și societatea civilă.
-
6:28 - 6:32Dacă responsabilitatea și transparența
-
6:32 - 6:34sunt baza guvernului reprezentativ,
-
6:34 - 6:39armele robotice autonome le-ar putea submina.
-
6:39 - 6:40Puteți crede
-
6:40 - 6:42că cetățenii națiunilor cu înaltă tehnologie
-
6:42 - 6:45ar deține avantajul în orice război robotic,
-
6:45 - 6:49că cetățenii acestor state ar fi mai puțin vulnerabili,
-
6:49 - 6:53în special împotriva țărilor în curs de dezvoltare.
-
6:53 - 6:57Este exact invers, însă.
-
6:57 - 6:59Cred că cetățenii societăților cu înaltă tehnologie
-
6:59 - 7:03sunt mai vulnerabili armelor robotice
-
7:03 - 7:07pentru un singur motiv: informația.
-
7:07 - 7:11Informația stă la baza societățlor de înaltă tehnologie.
-
7:11 - 7:14Geolocația telefoanelor mobile, metadata din telecomunicații,
-
7:14 - 7:17social media, email, SMS, date ale tranzacțiilor financiare,
-
7:17 - 7:21date despre transport, o grămadă de informații în timp real
-
7:21 - 7:24despre mișcările și interacțiunile sociale ale oamenilor.
-
7:24 - 7:28Pe scurt, suntem mai vizibili pentru mașini
-
7:28 - 7:30decât orice alți oameni din istorie,
-
7:30 - 7:36ceea ce se potrivește perfect stabilirii țintei armelor independente.
-
7:36 - 7:37Ceea ce vedeți
-
7:37 - 7:41e o hartă a legăturilor dintr-un grup social.
-
7:41 - 7:44Liniile reprezintă conexiunea dintre indivizi.
-
7:44 - 7:47Astfel de hărți pot fi generate automat
-
7:47 - 7:52pe baza amprentelor informaționale lăsate de omul modern.
-
7:52 - 7:54Se folosește, de obicei, pentru a vinde bunuri și servicii
-
7:54 - 7:59către grupuri-țintă, dar e o tehnologie cu dublă folosință,
-
7:59 - 8:02pentru că stabilirea de ținte se face în alt context.
-
8:02 - 8:05Observați că anumiți oameni sunt marcați.
-
8:05 - 8:08Aceștia sunt portaluri ale rețelelor de socializare.
-
8:08 - 8:12Sunt organizatori, formatori de opinie, lideri
-
8:12 - 8:14și pot fi identificați automat
-
8:14 - 8:17prin modelul lor de comunicare.
-
8:17 - 8:19Dacă lucrezi în marketing, le-ai putea oferi mostre
-
8:19 - 8:21pentru a lărgi renumele firmei
-
8:21 - 8:24în grupul lor social.
-
8:24 - 8:26Dar, dacă ești un guvern represiv ce caută
-
8:26 - 8:31inamici politici, ai putea încerca să îi elimini.
-
8:31 - 8:34Elimină-i pe ei, distruge-le grupul social,
-
8:34 - 8:37iar cei ce rămân își pierd coeziunea socială
-
8:37 - 8:39și organizarea.
-
8:39 - 8:43Într-o lume în care armele robotice ieftine se înmulțesc,
-
8:43 - 8:45granițele oferă foarte puțină protecție
-
8:45 - 8:47criticilor guvernelor din străinătate
-
8:47 - 8:51sau organizațiilor criminale transnaționale.
-
8:51 - 8:55Mișcările populare pentru schimbare
-
8:55 - 8:58ar fi identificate rapide, iar liderul lor eliminat,
-
8:58 - 9:01înainte ca ideile lor să devină cunoscute larg.
-
9:01 - 9:04Iar un public larg pentru idei
-
9:04 - 9:08e elementul central al activismului politic în guvernul popular.
-
9:08 - 9:12Armele letale anonime ar putea face ca acțiuni letale
-
9:12 - 9:15să devină o alegere ușoară în orice conflict de interese.
-
9:15 - 9:19Iar asta ar îngheța libertatea de exprimare
-
9:19 - 9:24și acțiunea politică populară, însăși inima democrației.
-
9:24 - 9:27De aceea e nevoie de un tratat internațional
-
9:27 - 9:31asupra armelor robotice și, mai ales, o interdicție globală
-
9:31 - 9:35asupra dezvoltării și folosirii roboților ucigași.
-
9:35 - 9:38Avem deja tratate internaționale despre
-
9:38 - 9:41arme nucleare și biologice care, deși imperfecte,
-
9:41 - 9:44funcționează, în mare parte.
-
9:44 - 9:47Armele robotice pot fi la fel de periculoase,
-
9:47 - 9:51pentru că folosirea lor e aproape certă
-
9:51 - 9:56și ar fi dăunătoare instituțiilor noastre democratice.
-
9:56 - 9:59În noiembrie 2012, Departamentul de Apărare SUA
-
9:59 - 10:02a lansat o directivă care cere
-
10:02 - 10:06prezența unui om la luarea oricărei decizii letale.
-
10:06 - 10:11Asta a dus la blocarea temporară a armelor autonome în armata SUA,
-
10:11 - 10:15dar directiva trebuie să devină permanentă.
-
10:15 - 10:19În plus, ar putea să dea startul unei acțiuni globale.
-
10:19 - 10:23Pentru că avem nevoie de un cadru legal internațional
-
10:23 - 10:25pentru arme robotice.
-
10:25 - 10:28E nevoie de el acum, înaintea unui atac devastator
-
10:28 - 10:31sau a unui incident terorist care să facă întreaga lume
-
10:31 - 10:33să adopte rapid aceste arme
-
10:33 - 10:37înainte de a se gândi la consecințe.
-
10:37 - 10:40Armele robotice autonome concentrează prea multă putere
-
10:40 - 10:46în mâinile a prea puținor oameni,
periclitând democrația. -
10:46 - 10:49Nu mă înțelegeți greșit, cred că-s o groază
-
10:49 - 10:51de utilizări minunate pentru dronele civile neînarmate:
-
10:51 - 10:55monitorizarea mediului, căutări și operațiuni de salvare, logistică.
-
10:55 - 10:58Cu un tratat internațional asupra armelor robotice,
-
10:58 - 11:02cum exploatăm beneficiile dronelor și a vehiculelor
-
11:02 - 11:04autonome, protejându-ne în același timp
-
11:04 - 11:08de armele robotice ilegale?
-
11:08 - 11:13Cred că secretul e transparența.
-
11:13 - 11:16Niciun robot nu ar trebui să fie privat
-
11:16 - 11:20într-un loc public.
-
11:20 - 11:25(Aplauze)
-
11:25 - 11:27Fiecare robot și fiecare dronă ar trebui să aibă
-
11:27 - 11:30o identificare semnată criptografic încă din fabrică,
-
11:30 - 11:33folosită pentru a-i urmări mișcările în spațiul public.
-
11:33 - 11:36Avem plăcuțe de înmatriculare pe mașini, pe avioane.
-
11:36 - 11:38Nu e nicio diferență.
-
11:38 - 11:40Fiecare cetățean ar trebui să poată descărca o aplicație
-
11:40 - 11:43care să îi arate populația de drone și vehicule autonome
-
11:43 - 11:45deplasându-se în spații publice în jurul lor,
-
11:45 - 11:48acum și în viitor.
-
11:48 - 11:52Iar liderii municipali ar trebui să trimită senzori și drone civice
-
11:52 - 11:54pentru detectarea dronelor ilegale,
-
11:54 - 11:57dar nu să trimită drone ucigașe să le distrugă,
-
11:57 - 12:00ci să anunțe oamenii despre prezența lor.
-
12:00 - 12:03Iar în zone de înaltă securitate,
-
12:03 - 12:05poate că dronele civile le-ar prinde
-
12:05 - 12:07și le-ar duce către o locație de dezactivare a bombelor.
-
12:07 - 12:11Observați, e mai mult un sistem de imunitate,
-
12:11 - 12:12decât unul armat.
-
12:12 - 12:14Ne-ar permite să ne folosim de
-
12:14 - 12:16vehiculele și dronele autonome,
-
12:16 - 12:21fără a ne pierde societatea civilă transparentă.
-
12:21 - 12:24Trebuie interzisă folosirea și crearea
-
12:24 - 12:26de roboți ucigași.
-
12:26 - 12:30Să nu cedăm tentației de a automatiza războiul.
-
12:30 - 12:33Guvernele autocrate și organizațiile criminale
-
12:33 - 12:36o vor face, dar noi să nu ne alăturăm.
-
12:36 - 12:38Armele robotice autonome
-
12:38 - 12:40ar concentra prea multă putere
-
12:40 - 12:43în mâinile a prea puțini oameni,
-
12:43 - 12:46iar asta ar degrada guvernul reprezentativ.
-
12:46 - 12:49Să ne asigurăm, măcar de dragul democrației,
-
12:49 - 12:51că roboții ucigași vor rămâne ficțiune.
-
12:51 - 12:52Mulțumesc.
-
12:52 - 12:57(Aplauze)
-
12:57 - 13:02Mulțumesc. (Aplauze)
- Title:
- Decizia de a ucide nu trebuie să aparțină unui robot
- Speaker:
- Daniel Suarez
- Description:
-
Fiind romancier, Daniel Suarez creează povestiri distopice despre viitor. Dar, pe scena TEDGlobal ne vorbește despre un scenariu real, despre care ar trebui să știm cu toții mai multe: apariția armelor robotice autonome. Dronele și armele automate și uneltele de spionaj cu inteligență artificială, ar putea răpi decizia de a crea un război din mâinile oamenilor.
- Video Language:
- English
- Team:
closed TED
- Project:
- TEDTalks
- Duration:
- 13:20
![]() |
Ariana Bleau Lugo approved Romanian subtitles for The kill decision shouldn't belong to a robot | |
![]() |
Ariana Bleau Lugo edited Romanian subtitles for The kill decision shouldn't belong to a robot | |
![]() |
Ariana Bleau Lugo edited Romanian subtitles for The kill decision shouldn't belong to a robot | |
![]() |
Ariana Bleau Lugo accepted Romanian subtitles for The kill decision shouldn't belong to a robot | |
![]() |
Ariana Bleau Lugo edited Romanian subtitles for The kill decision shouldn't belong to a robot | |
![]() |
Andra Zamosteanu edited Romanian subtitles for The kill decision shouldn't belong to a robot | |
![]() |
Andra Zamosteanu edited Romanian subtitles for The kill decision shouldn't belong to a robot | |
![]() |
Andra Zamosteanu edited Romanian subtitles for The kill decision shouldn't belong to a robot |