Η απόφαση θανάτωσης δεν θα πρέπει να ανήκει σε ρομπότ
-
0:01 - 0:04Γράφω θρίλερ επιστημονικής φαντασίας,
-
0:04 - 0:06οπότε εάν πω «ρομπότ δολοφόνοι»,
-
0:06 - 0:08πιθανότατα θα σκεφτείτε κάτι σαν αυτό.
-
0:08 - 0:11Αλλά, δεν είμαι εδώ για να μιλήσω
για επιστημονική φαντασία. -
0:11 - 0:14Είμαι εδώ για να μιλήσω για πολύ πραγματικά ρομπότ δολοφόνους,
-
0:14 - 0:17αυτόνομα μη επανδρωμένα μέσα μάχης.
-
0:17 - 0:21Τώρα, δεν αναφέρομαι στα μη επανδρωμένα
αεροσκάφη Predator και Reaper, -
0:21 - 0:24στα οποία κάποιος άνθρωπος παίρνει
αποφάσεις στοχοποίησης. -
0:24 - 0:27Μιλάω για πλήρως αυτόνομα ρομποτικά όπλα
-
0:27 - 0:30που παίρνουν θανατηφόρες αποφάσεις
σχετικές με τον άνθρωπο -
0:30 - 0:32τελείως μόνα τους.
-
0:32 - 0:36Για την ακρίβεια υπάρχει ένας τεχνικός όρος
γι' αυτό: θανατηφόρα αυτονομία. -
0:36 - 0:39Τώρα, τα θανατηφόρα αυτόνομα ρομπότ δολοφόνοι
-
0:39 - 0:42θα μπορούσαν να πάρουν πολλές μορφές
-ιπτάμενα, εποχούμενα -
0:42 - 0:45ή απλά ευρισκόμενα σε αναμονή.
-
0:45 - 0:48Και μάλιστα, γίνονται πολύ γρήγορα πραγματικότητα.
-
0:48 - 0:50Αυτοί είναι δύο αυτόματοι σταθμοί ελεύθερου σκοπευτή
-
0:50 - 0:55που τώρα παρατάσσονται στην αποστρατικοποιημένη ζώνη μεταξύ Β. & Ν. Κορέας.
-
0:55 - 0:57Και τα δύο αυτά μηχανήματα είναι σε θέση
ν' αναγνωρίσουν -
0:57 - 1:00αυτόματα έναν ανθρώπινο στόχο και
να ρίξουν σε αυτόν, -
1:00 - 1:05αυτό στα αριστερά σε απόσταση
μεγαλύτερη του ενός χιλιομέτρου. -
1:05 - 1:08Τώρα, και στις δύο περιπτώσεις, υπάρχει ακόμη κάποιος άνθρωπος στη διαδικασία
-
1:08 - 1:10για να παρθεί αυτή η απόφαση θανάσιμης βολής,
-
1:10 - 1:16αλλά δεν είναι μια τεχνολογική απαίτηση.
Είναι μια επιλογή. -
1:16 - 1:19Και είναι αυτή η επιλογή στην οποία
θα ήθελα να εστιάσω, -
1:19 - 1:22γιατί καθώς μεταφέρουμε
τη λήψη θανατηφόρων αποφάσεων -
1:22 - 1:25από τους ανθρώπους στο λογισμικό,
-
1:25 - 1:28κινδυνεύουμε όχι μόνο να θέσουμε
την ανθρωπιά εκτός πολέμου, -
1:28 - 1:32αλλά, ν' αλλάξουμε επίσης
το κοινωνικό μας τοπίο εξ' ολοκλήρου, -
1:32 - 1:34μακριά από το πεδίο της μάχης.
-
1:34 - 1:38Αυτό γιατί ο τρόπος με τον οποίο
οι άνθρωποι επιλύουν τις διαφορές τους -
1:38 - 1:40διαμορφώνει το κοινωνικό μας τοπίο.
-
1:40 - 1:43Και πάντα αυτό ήταν το ζήτημα, σε όλη την Ιστορία.
-
1:43 - 1:46Για παράδειγμα, αυτά ήταν
τα τελευταίας τεχνολογίας οπλικά συστήματα -
1:46 - 1:48το 1400 μ.Χ..
-
1:48 - 1:51Ήταν και τα δύο πολύ ακριβά να κατασκευαστούν
και να διατηρηθούν, -
1:51 - 1:54αλλά με αυτά θα μπορούσατε
να εξουσιάσετε τον λαό -
1:54 - 1:58κι αυτό αντικατοπτρίστηκε στην κατανομή
της πολιτικής εξουσίας στην φεουδαρχική κοινωνία. -
1:58 - 2:01Η εξουσία ήταν συγκεντρωμένη στην κορυφή.
-
2:01 - 2:04Και τι άλλαξε; Η τεχνολογική καινοτομία.
-
2:04 - 2:06Μπαρούτι, κανόνι.
-
2:06 - 2:10Κι αρκετά σύντομα, πανοπλίες και κάστρα απαρχαιώθηκαν
-
2:10 - 2:12και είχε λιγότερη σημασία ποιον φέρνατε
στο πεδίο της μάχης -
2:12 - 2:16σε αντίθεση με τον αριθμό των ατόμων
που φέρνατε στο πεδίο της μάχης. -
2:16 - 2:20Και καθώς οι στρατοί μεγάλωναν σε μέγεθος, προέκυψε το έθνος-κράτος
-
2:20 - 2:23ως μια πολιτική και υλικοτεχνική
απαίτηση της άμυνας. -
2:23 - 2:26Και καθώς οι ηγέτες έπρεπε να βασίζονται περισσότερο στον λαό τους,
-
2:26 - 2:28άρχισαν να μοιράζουν την εξουσία.
-
2:28 - 2:30Άρχισε να δημιουργείται η αντιπροσωπευτική κυβέρνηση.
-
2:30 - 2:33Έτσι και πάλι, τα εργαλεία που χρησιμοποιούμε
για την επίλυση διαφορών -
2:33 - 2:37διαμορφώνουν το κοινωνικό μας τοπίο.
-
2:37 - 2:41Τα αυτόνομα ρομποτικά όπλα
είναι ένα τέτοιο εργαλείο, -
2:41 - 2:46εκτός απ' το ότι, απαιτώντας
πολύ λίγους ανθρώπους να πάνε στον πόλεμο, -
2:46 - 2:51ρισκάρουν την επανακεντρικοποίηση της εξουσίας
σε ελάχιστα χέρια, -
2:51 - 2:57αντιστρέφοντας ενδεχομένως μια τάση πέντε αιώνων
προς τη δημοκρατία. -
2:57 - 2:59Τώρα, πιστεύω ότι, γνωρίζοντας αυτό,
-
2:59 - 3:03μπορούμε να λάβουμε αποφασιστικά μέτρα για να διατηρήσουμε τους δημοκρατικούς μας θεσμούς,
-
3:03 - 3:07να κάνουμε αυτό που ο άνθρωπος κάνει καλύτερα, που είναι η προσαρμογή.
-
3:07 - 3:09Αλλά ο χρόνος είναι ένας παράγοντας.
-
3:09 - 3:12Εβδομήντα χώρες αναπτύσσουν δικά τους τηλεκατευθυνόμενα
-
3:12 - 3:14μη επανδρωμένα μέσα μάχης
-
3:14 - 3:17κι όπως θα δείτε, τα τηλεκατευθυνόμενα μη επανδρωμένα μέσα
-
3:17 - 3:22είναι ο πρόδρομος των αυτόματων ρομποτικών όπλων.
-
3:22 - 3:24Αυτό συμβαίνει γιατί άπαξ κι αναπτυχθούν τηλεκατευθυνόμενα μη επανδρωμένα μέσα,
-
3:24 - 3:28υπάρχουν τρεις ισχυροί παράγοντες
που σπρώχνουν τη λήψη αποφάσεων -
3:28 - 3:32μακριά από τον άνθρωπο και
προς την ίδια την οπλική πλατφόρμα. -
3:32 - 3:38Ο πρώτος από αυτούς είναι ο κατακλυσμός
από βίντεο που παράγουν τα μη επανδρωμένα μέσα. -
3:38 - 3:41Για παράδειγμα, το 2004, ο στόλος των μη επανδρωμένων μέσων των ΗΠΑ παρήγαγε
-
3:41 - 3:47ένα γενικό σύνολο 71 ωρών βιντεοεπιτήρησης
για ανάλυση. -
3:47 - 3:51Μέχρι το 2011, αυτό είχε ανέβει στις 300.000 ώρες,
-
3:51 - 3:54ξεπερνώντας την ανθρώπινη ικανότητα
για την ολική του αξιολόγηση, -
3:54 - 3:58αλλά ακόμη κι αυτός ο αριθμός
είναι έτοιμος ν' αυξηθεί δραστικά. -
3:58 - 4:01Τα προγράμματα Gorgon Stare και Argus
του Πενταγώνου -
4:01 - 4:04θα θέσουν μέχρι 65 λειτουργικώς ανεξάρτητα
μάτια καμερών -
4:04 - 4:06σε κάθε πλατφόρμα μη επανδρωμένου μέσου
-
4:06 - 4:09κι αυτό θα ξεπερνούσε κατά πολύ
την ανθρώπινη ικανότητα για αξιολόγηση. -
4:09 - 4:11Αυτό σημαίνει ότι το λογισμικό οπτικής νοημοσύνης
θα πρέπει -
4:11 - 4:15να το εξετάζει για στοιχεία
που παρουσιάζουν ενδιαφέρον. -
4:15 - 4:17Κι αυτό σημαίνει ότι πολύ σύντομα
-
4:17 - 4:19τα μη επανδρωμένα μέσα
θα λένε στους ανθρώπους τι να κοιτάξουν, -
4:19 - 4:22όχι το αντίστροφο.
-
4:22 - 4:24Αλλά υπάρχει ένα δεύτερο ισχυρό κίνητρο που ωθεί
-
4:24 - 4:28τη λήψη αποφάσεων μακριά από τους ανθρώπους και προς τις μηχανές
-
4:28 - 4:31κι αυτό είναι οι ηλεκτρομαγνητικές παρεμβολές
-
4:31 - 4:33που διακόπτουν τη σύνδεση μεταξύ
του μη επανδρωμένου μέσου -
4:33 - 4:36και του χειριστή του.
-
4:36 - 4:38Είδαμε ένα τέτοιο παράδειγμα το 2011
-
4:38 - 4:41όταν ένα αμερικανικό μη επανδρωμένο αεροσκάφος RQ-170 Sentinel
-
4:41 - 4:46μπερδεύτηκε λίγο πάνω από το Ιράν, λόγω μιας επίθεσης εξαπάτησης του GPS, αλλά
-
4:46 - 4:51οποιοδήποτε τηλεκατευθυνόμενο μη επανδρωμένο μέσο είναι ευπαθές σε αυτού του είδους την επίθεση
-
4:51 - 4:53κι αυτό σημαίνει ότι τα μη επανδρωμένα μέσα
-
4:53 - 4:56θα πρέπει να αναλάβουν περισσότερες
λήψεις αποφάσεων. -
4:56 - 4:59Θα γνωρίζουν τον αντικειμενικό σκοπό της αποστολής τους
-
4:59 - 5:04και θα αντιδρούν στα νέα δεδομένα
χωρίς ανθρώπινη καθοδήγηση. -
5:04 - 5:07Θα αγνοούν εξωτερικά ραδιοσήματα
-
5:07 - 5:09και θα στέλνουν ελάχιστα δικά τους.
-
5:09 - 5:11Αυτό μας φέρνει, πραγματικά, στο τρίτο
-
5:11 - 5:15και πιο ισχυρό κίνητρο πίεσης της λήψης αποφάσεων
-
5:15 - 5:18μακριά από τον άνθρωπο και προς τα όπλα:
-
5:18 - 5:22την εύλογη δυνατότητα άρνησης.
-
5:22 - 5:25Ζούμε σε μια παγκόσμια οικονομία.
-
5:25 - 5:29Κατασκευές υψηλής τεχνολογίας πραγματοποιούνται
στις περισσότερες ηπείρους. -
5:29 - 5:32Η κυβερνοκατασκοπεία διακτινίζει
προηγμένα σχέδια μακριά -
5:32 - 5:34σε άγνωστα μέρη
-
5:34 - 5:36και σε αυτό το περιβάλλον, είναι πολύ πιθανό
-
5:36 - 5:40ότι ένας επιτυχής σχεδιασμός μη επανδρωμένου μέσου θα ξεφύγει από τα εργοστάσια της σύμβασης,
-
5:40 - 5:43θα εξαπλωθεί στην γκρίζα αγορά.
-
5:43 - 5:45Και σε αυτή την περίπτωση, σε μια προσεκτική εξέταση των συντριμμιών
-
5:45 - 5:48μιας επίθεσης αυτοκτονίας μη επανδρωμένου μέσου, πολύ δύσκολα θα μπορεί να ειπωθεί
-
5:48 - 5:52ποιος έστειλε το εν λόγω όπλο.
-
5:52 - 5:55Αυτό εγείρει την πολύ πραγματική πιθανότητα
-
5:55 - 5:58του ανώνυμου πολέμου.
-
5:58 - 6:01Αυτό θα μπορούσε να ταρακουνήσει
τις γεωπολιτικές ισορροπίες κατακέφαλα, -
6:01 - 6:04να καταστήσει πολύ δύσκολο σε ένα έθνος
να στρέψει τη δύναμη πυρός του -
6:04 - 6:07εναντίον ενός εισβολέα και αυτό θα μπορούσε
να μετατοπίσει την ισορροπία -
6:07 - 6:11του 21ου αιώνα, μακριά από την άμυνα
και προς την επίθεση. -
6:11 - 6:14Θα μπορούσε να κάνει τη στρατιωτική δράση μία βιώσιμη επιλογή
-
6:14 - 6:16όχι μόνο για τα μικρά έθνη,
-
6:16 - 6:19αλλά για εγκληματικές οργανώσεις,
ιδιωτικές επιχειρήσεις, -
6:19 - 6:21ακόμη και ισχυρών ατόμων.
-
6:21 - 6:25Αυτό θα μπορούσε να δημιουργήσει ένα πεδίο
από αντίπαλους πολέμαρχους -
6:25 - 6:28υπονομεύοντας το κράτος δικαίου
και την κοινωνία των πολιτών. -
6:28 - 6:32Εάν η υπευθυνότητα και η διαφάνεια
-
6:32 - 6:34είναι δύο από τους ακρογωνιαίους λίθους
της αντιπροσωπευτικής κυβέρνησης, -
6:34 - 6:39τα αυτόνομα ρομποτικά όπλα θα μπορούσαν
να υποσκάψουν και τα δύο. -
6:39 - 6:40Μπορεί να σκέφτεστε ότι
-
6:40 - 6:42οι πολίτες των εθνών υψηλής τεχνολογίας
-
6:42 - 6:45θα είχαν το πλεονέκτημα σε κάθε ρομποτικό πόλεμο,
-
6:45 - 6:49ότι οι πολίτες αυτών των εθνών θα ήταν
λιγότερο ευάλωτοι, -
6:49 - 6:53ιδιαίτερα ενάντια στις αναπτυσσόμενες χώρες.
-
6:53 - 6:57Αλλά νομίζω ότι η αλήθεια είναι το ακριβώς αντίθετο.
-
6:57 - 6:59Νομίζω ότι οι πολίτες των κοινωνιών
υψηλής τεχνολογίας -
6:59 - 7:03είναι πιο ευάλωτοι στα ρομποτικά όπλα
-
7:03 - 7:07και η αιτία μπορεί να συνοψιστεί σε μία λέξη: Δεδομένα.
-
7:07 - 7:11Τα δεδομένα κινούν τις κοινωνίες
υψηλής τεχνολογίας. -
7:11 - 7:14Γεωτοποθεσία κινητού τηλεφώνου,
μεταδεδομένα τηλεπικοινωνιών, -
7:14 - 7:17κοινωνικά μέσα, ηλεκτρονικό ταχυδρομείο, κείμενα,
δεδομένα οικονομικών συναλλαγών, -
7:17 - 7:21μεταφορά δεδομένων,
είναι μία πληθώρα δεδομένων πραγματικού χρόνου -
7:21 - 7:24σχετικά με τις κινήσεις και
τις κοινωνικές αλληλεπιδράσεις των ατόμων. -
7:24 - 7:28Εν ολίγοις, είμαστε πιο ορατοί στις μηχανές
-
7:28 - 7:30από οποιαδήποτε πληθυσμιακή ομάδα στην ιστορία
-
7:30 - 7:36κι αυτό ταιριάζει απόλυτα στις ανάγκες στόχευσης
των αυτόνομων όπλων. -
7:36 - 7:37Αυτό που βλέπετε εδώ
-
7:37 - 7:41είναι ένας χάρτης ανάλυσης συνδέσμων
μιας κοινωνικής ομάδας. -
7:41 - 7:44Οι γραμμές υποδηλώνουν κοινωνική συνεκτικότητα μεταξύ των ατόμων.
-
7:44 - 7:47Κι αυτοί οι τύποι των χαρτών
μπορούν να δημιουργηθούν αυτόματα -
7:47 - 7:52με βάση τα ίχνη δεδομένων
που οι σύγχρονοι άνθρωποι αφήνουν πίσω τους. -
7:52 - 7:54Συνήθως χρησιμοποιούνται για την προώθηση
αγαθών και υπηρεσιών -
7:54 - 7:59με δημογραφική στόχευση, αλλά
είναι μια τεχνολογία διττής χρήσης, -
7:59 - 8:02επειδή η στόχευση χρησιμοποιείται
σ' ένα άλλο πλαίσιο. -
8:02 - 8:05Παρατηρήστε ότι ορισμένα άτομα
είναι επισημασμένα. -
8:05 - 8:08Είναι οι κόμβοι των κοινωνικών δικτύων.
-
8:08 - 8:12Πρόκειται για διοργανωτές, διαμορφωτές
της κοινής γνώμης, ηγέτες -
8:12 - 8:14κι αυτοί οι άνθρωποι επίσης μπορούν
ν' αναγνωριστούν αυτόματα -
8:14 - 8:17από τα μοτίβα επικοινωνίας τους.
-
8:17 - 8:19Τώρα, εάν είστε έμποροι, ίσως μετά
να τους στοχοποιούσατε -
8:19 - 8:21με δείγματα προϊόντων, ίσως επιχειρούσατε
να προωθήσετε τη μάρκα σας -
8:21 - 8:24μέσω των κοινωνικών τους ομάδων.
-
8:24 - 8:26Αλλά, αν είστε μια τυραννική κυβέρνηση
-
8:26 - 8:31που αναζητά πολιτικούς εχθρούς,
αντί αυτού μπορείτε ίσως να τους απομακρύνετε, -
8:31 - 8:34να τους εξαλείψετε, να διαταράξετε
την κοινωνική ομάδα τους -
8:34 - 8:37κι εκείνοι που παραμείνουν πίσω
χάνουν την κοινωνική συνοχή -
8:37 - 8:39και οργάνωση.
-
8:39 - 8:43Τώρα σε έναν κόσμο από φτηνά, πολλαπλασιαζόμενα ρομποτικά όπλα,
-
8:43 - 8:45τα σύνορα θα προσέφεραν πολύ μικρή προστασία
-
8:45 - 8:47στους επικριτές απόμακρων κυβερνήσεων
-
8:47 - 8:51ή διακρατικών εγκληματικών οργανώσεων.
-
8:51 - 8:55Λαϊκά κινήματα διψασμένα για αλλαγή
-
8:55 - 8:58θα μπορούσαν να εντοπιστούν νωρίς
και οι ηγέτες τους να εξαλειφθούν -
8:58 - 9:01πριν οι ιδέες τους επιτύχουν την κρίσιμη μάζα.
-
9:01 - 9:04Και οι ιδέες που επιτυγχάνουν την κρίσιμη μάζα
-
9:04 - 9:08αφορούν τον πολιτικό ακτιβισμό στη λαϊκή κυβέρνηση.
-
9:08 - 9:12Ανώνυμα θανατηφόρα όπλα θα μπορούσαν
να κάνουν τη θανατηφόρο δράση -
9:12 - 9:15μια εύκολη επιλογή για όλα τα είδη των ανταγωνιστικών συμφερόντων.
-
9:15 - 9:19Κι αυτό θα πάγωνε την ελευθερία του λόγου
-
9:19 - 9:24και την λαϊκή πολιτική δράση,
την ίδια την καρδιά της Δημοκρατίας. -
9:24 - 9:27Γι' αυτό χρειαζόμαστε μια διεθνή συνθήκη
-
9:27 - 9:31για τα ρομποτικά όπλα και ειδικότερα
μια καθολική απαγόρευση -
9:31 - 9:35στη δημιουργία και ανάπτυξη
των ρομπότ δολοφόνων. -
9:35 - 9:38Ήδη έχουμε διεθνείς συνθήκες
-
9:38 - 9:41για πυρηνικά και βιολογικά όπλα και, παρότι ελλιπείς,
-
9:41 - 9:44αυτές έχουν λειτουργήσει σε μεγάλο βαθμό.
-
9:44 - 9:47Αλλά τα ρομποτικά όπλα μπορεί να είναι
εξίσου επικίνδυνα, -
9:47 - 9:51επειδή σχεδόν σίγουρα θα χρησιμοποιηθούν
-
9:51 - 9:56κι επίσης θα διάβρωναν
τους δημοκρατικούς μας θεσμούς. -
9:56 - 9:59Το Νοέμβριο του 2012,
το Υπουργείο Άμυνας των ΗΠΑ -
9:59 - 10:02εξέδωσε μια οδηγία που απαιτούσε
-
10:02 - 10:06την παρουσία ανθρώπου σε όλες τις θανατηφόρες αποφάσεις.
-
10:06 - 10:11Αυτό προσωρινά απαγόρευσε αποτελεσματικά
τα αυτόνομα όπλα του αμερικάνικου στρατού, -
10:11 - 10:15αλλά, η εν λόγω οδηγία χρειάζεται να γίνει μόνιμη.
-
10:15 - 10:19Και θα μπορούσε να θέσει τη βάση
για παγκόσμια δράση. -
10:19 - 10:23Διότι χρειαζόμαστε ένα διεθνές νομικό πλαίσιο
-
10:23 - 10:25για τα ρομποτικά όπλα.
-
10:25 - 10:28Και το χρειαζόμαστε τώρα, προτού να υπάρξει
μια καταστροφική επίθεση -
10:28 - 10:31ή ένα τρομοκρατικό περιστατικό
που θα προκαλέσει στα έθνη του κόσμου -
10:31 - 10:33να βιαστούν να υιοθετήσουν αυτά τα όπλα
-
10:33 - 10:37πριν σκεφτούν τις συνέπειες.
-
10:37 - 10:40Τα αυτόνομα ρομποτικά όπλα επικεντρώνουν
πάρα πολύ δύναμη -
10:40 - 10:46σε λιγοστά χέρια κι αυτά θα έθεταν σε κίνδυνο
την ίδια τη δημοκρατία. -
10:46 - 10:49Μην με παρεξηγείτε, πιστεύω ότι υπάρχουν πάμπολες
-
10:49 - 10:51σπουδαίες χρήσεις των αμάχων
μη επανδρωμένων μέσων: -
10:51 - 10:55περιβαλλοντική παρακολούθηση,
έρευνα και διάσωση, μεταφορά προμηθειών. -
10:55 - 10:58Αν έχουμε μια διεθνή συνθήκη
για τα ρομποτικά όπλα, -
10:58 - 11:02πώς κερδίζουμε τα οφέλη των αυτόνομων
μη επανδρωμένων μέσων -
11:02 - 11:04και οχημάτων ενόσω προστατεύουμε παράλληλα
τους εαυτούς μας -
11:04 - 11:08από τα παράνομα ρομποτικά όπλα;
-
11:08 - 11:13Νομίζω ότι το μυστικό θα είναι η διαφάνεια.
-
11:13 - 11:16Κανένα ρομπότ δεν θα πρέπει να έχει την προσδοκία
της ιδιωτικότητας -
11:16 - 11:20σε δημόσιο χώρο.
-
11:20 - 11:25(Χειροκρότημα)
-
11:25 - 11:27Κάθε ρομπότ και μη επανδρωμένο μέσο
θα πρέπει να έχει -
11:27 - 11:30μια ψηφιακά κρυπτογραφημένη ταυτότητα
που να δημιουργείται στο εργοστάσιο και -
11:30 - 11:33να μπορεί να χρησιμοποιηθεί για να παρακολουθείται η κίνησή του σε δημόσιους χώρους.
-
11:33 - 11:36Έχουμε πινακίδες στα αυτοκίνητα,
αριθμούς σειράς στα αεροσκάφη. -
11:36 - 11:38Αυτό δεν είναι κάτι διαφορετικό.
-
11:38 - 11:40Κάθε πολίτης θα πρέπει να είναι σε θέση
να κατεβάσει μια εφαρμογή -
11:40 - 11:43που θα δείχνει τον πληθυσμό των μη επανδρωμένων μέσων και αυτόνομων οχημάτων
-
11:43 - 11:45που κινούνται μέσα σε δημόσιους χώρους γύρω του,
-
11:45 - 11:48τόσο αυτή τη στιγμή όσο και ιστορικά.
-
11:48 - 11:52Και οι πολιτικοί ηγέτες θα πρέπει να αναπτύξουν αισθητήρες και πολιτικά μη επανδρωμένα μέσα
-
11:52 - 11:54για τον εντοπισμό έκνομων
μη επανδρωμένων μέσων, -
11:54 - 11:57κι αντί της αποστολής δικών τους φονικών μη επανδρωμένων μέσων για να τα καταστρέψουν,
-
11:57 - 12:00θα πρέπει να ενημερώνουν τους ανθρώπους
για την παρουσία τους. -
12:00 - 12:03Και σε ορισμένες περιοχές πολύ υψηλής ασφάλειας,
-
12:03 - 12:05ίσως τα πολιτικά μη επανδρωμένα μέσα να τα παγιδεύουν
-
12:05 - 12:07και να τα παρασέρνουν σε μια εγκατάσταση εξουδετέρωσης βομβών.
-
12:07 - 12:11Αλλά προσέξτε, αυτό είναι περισσότερο
ένα ανοσοποιητικό σύστημα -
12:11 - 12:12από ένα σύστημα όπλων.
-
12:12 - 12:14Θα μας επέτρεπε να επωφεληθούμε οι ίδιοι τη χρήση
-
12:14 - 12:16αυτόνομων οχημάτων και μη επανδρωμένων μέσων,
-
12:16 - 12:21διατηρώντας ακόμα την ανοικτή μας
κοινωνία των πολιτών. -
12:21 - 12:24Πρέπει να απαγορεύσουμε την ανάπτυξη
και δημιουργία -
12:24 - 12:26ρομπότ δολοφόνων
-
12:26 - 12:30Ας μην υποκύψουμε στον πειρασμό
να αυτοματοποιήσουμε τον πόλεμο. -
12:30 - 12:33Αυταρχικές κυβερνήσεις
κι εγκληματικές οργανώσεις -
12:33 - 12:36αναμφίβολα θα το κάνουν, αλλά
ας μην τους συμμεριστούμε. -
12:36 - 12:38Τα αυτόνομα ρομποτικά όπλα
-
12:38 - 12:40θα συγκέντρωναν υπερβολική εξουσία
-
12:40 - 12:43σε ελάχιστα αθέατα χέρια
-
12:43 - 12:46κι αυτό θα ήταν διαβρωτικό
για την αντιπροσωπευτική κυβέρνηση. -
12:46 - 12:49Ας σιγουρευτούμε ότι,
τουλάχιστον στις δημοκρατίες, -
12:49 - 12:51τα ρομπότ δολοφόνοι
θα παραμείνουν επιστημονική φαντασία. -
12:51 - 12:52Ευχαριστώ.
-
12:52 - 12:57(Χειροκρότημα)
-
12:57 - 13:02Σας ευχαριστώ.
(Χειροκρότημα)
- Title:
- Η απόφαση θανάτωσης δεν θα πρέπει να ανήκει σε ρομπότ
- Speaker:
- Ντάνιελ Σουάρεζ
- Description:
-
Ως συγγραφέας, ο Ντάνιελ Σουάρεζ γνέθει δυστοπικές ιστορίες του μέλλοντος. Αλλά, στη σκηνή του TEDGlobal, μας εξηγεί ένα ρεαλιστικό σενάριο για το οποίο όλοι μας χρειάζεται να γνωρίζουμε περισσότερα: η άνοδος των αυτόνομων ρομποτικών όπλων πολέμου. Εισηγείται ότι προηγμένα μη επανδρωμένα μέσα, αυτοματοποιημένα όπλα κι εργαλεία συλλογής πληροφοριών με τη χρήση τεχνητής νοημοσύνης θα μπορούσαν να πάρουν την απόφαση κήρυξης πολέμου μέσα από τα χέρια των ανθρώπων.
- Video Language:
- English
- Team:
- closed TED
- Project:
- TEDTalks
- Duration:
- 13:20
Dimitra Papageorgiou approved Greek subtitles for The kill decision shouldn't belong to a robot | ||
Dimitra Papageorgiou approved Greek subtitles for The kill decision shouldn't belong to a robot | ||
Helena Galani accepted Greek subtitles for The kill decision shouldn't belong to a robot | ||
Helena Galani accepted Greek subtitles for The kill decision shouldn't belong to a robot | ||
Helena Galani edited Greek subtitles for The kill decision shouldn't belong to a robot | ||
Helena Galani edited Greek subtitles for The kill decision shouldn't belong to a robot | ||
Helena Galani edited Greek subtitles for The kill decision shouldn't belong to a robot | ||
Helena Galani edited Greek subtitles for The kill decision shouldn't belong to a robot |