< Return to Video

Η απόφαση θανάτωσης δεν θα πρέπει να ανήκει σε ρομπότ

  • 0:01 - 0:04
    Γράφω θρίλερ επιστημονικής φαντασίας,
  • 0:04 - 0:06
    οπότε εάν πω «ρομπότ δολοφόνοι»,
  • 0:06 - 0:08
    πιθανότατα θα σκεφτείτε κάτι σαν αυτό.
  • 0:08 - 0:11
    Αλλά, δεν είμαι εδώ για να μιλήσω
    για επιστημονική φαντασία.
  • 0:11 - 0:14
    Είμαι εδώ για να μιλήσω για πολύ πραγματικά ρομπότ δολοφόνους,
  • 0:14 - 0:17
    αυτόνομα μη επανδρωμένα μέσα μάχης.
  • 0:17 - 0:21
    Τώρα, δεν αναφέρομαι στα μη επανδρωμένα
    αεροσκάφη Predator και Reaper,
  • 0:21 - 0:24
    στα οποία κάποιος άνθρωπος παίρνει
    αποφάσεις στοχοποίησης.
  • 0:24 - 0:27
    Μιλάω για πλήρως αυτόνομα ρομποτικά όπλα
  • 0:27 - 0:30
    που παίρνουν θανατηφόρες αποφάσεις
    σχετικές με τον άνθρωπο
  • 0:30 - 0:32
    τελείως μόνα τους.
  • 0:32 - 0:36
    Για την ακρίβεια υπάρχει ένας τεχνικός όρος
    γι' αυτό: θανατηφόρα αυτονομία.
  • 0:36 - 0:39
    Τώρα, τα θανατηφόρα αυτόνομα ρομπότ δολοφόνοι
  • 0:39 - 0:42
    θα μπορούσαν να πάρουν πολλές μορφές
    -ιπτάμενα, εποχούμενα
  • 0:42 - 0:45
    ή απλά ευρισκόμενα σε αναμονή.
  • 0:45 - 0:48
    Και μάλιστα, γίνονται πολύ γρήγορα πραγματικότητα.
  • 0:48 - 0:50
    Αυτοί είναι δύο αυτόματοι σταθμοί ελεύθερου σκοπευτή
  • 0:50 - 0:55
    που τώρα παρατάσσονται στην αποστρατικοποιημένη ζώνη μεταξύ Β. & Ν. Κορέας.
  • 0:55 - 0:57
    Και τα δύο αυτά μηχανήματα είναι σε θέση
    ν' αναγνωρίσουν
  • 0:57 - 1:00
    αυτόματα έναν ανθρώπινο στόχο και
    να ρίξουν σε αυτόν,
  • 1:00 - 1:05
    αυτό στα αριστερά σε απόσταση
    μεγαλύτερη του ενός χιλιομέτρου.
  • 1:05 - 1:08
    Τώρα, και στις δύο περιπτώσεις, υπάρχει ακόμη κάποιος άνθρωπος στη διαδικασία
  • 1:08 - 1:10
    για να παρθεί αυτή η απόφαση θανάσιμης βολής,
  • 1:10 - 1:16
    αλλά δεν είναι μια τεχνολογική απαίτηση.
    Είναι μια επιλογή.
  • 1:16 - 1:19
    Και είναι αυτή η επιλογή στην οποία
    θα ήθελα να εστιάσω,
  • 1:19 - 1:22
    γιατί καθώς μεταφέρουμε
    τη λήψη θανατηφόρων αποφάσεων
  • 1:22 - 1:25
    από τους ανθρώπους στο λογισμικό,
  • 1:25 - 1:28
    κινδυνεύουμε όχι μόνο να θέσουμε
    την ανθρωπιά εκτός πολέμου,
  • 1:28 - 1:32
    αλλά, ν' αλλάξουμε επίσης
    το κοινωνικό μας τοπίο εξ' ολοκλήρου,
  • 1:32 - 1:34
    μακριά από το πεδίο της μάχης.
  • 1:34 - 1:38
    Αυτό γιατί ο τρόπος με τον οποίο
    οι άνθρωποι επιλύουν τις διαφορές τους
  • 1:38 - 1:40
    διαμορφώνει το κοινωνικό μας τοπίο.
  • 1:40 - 1:43
    Και πάντα αυτό ήταν το ζήτημα, σε όλη την Ιστορία.
  • 1:43 - 1:46
    Για παράδειγμα, αυτά ήταν
    τα τελευταίας τεχνολογίας οπλικά συστήματα
  • 1:46 - 1:48
    το 1400 μ.Χ..
  • 1:48 - 1:51
    Ήταν και τα δύο πολύ ακριβά να κατασκευαστούν
    και να διατηρηθούν,
  • 1:51 - 1:54
    αλλά με αυτά θα μπορούσατε
    να εξουσιάσετε τον λαό
  • 1:54 - 1:58
    κι αυτό αντικατοπτρίστηκε στην κατανομή
    της πολιτικής εξουσίας στην φεουδαρχική κοινωνία.
  • 1:58 - 2:01
    Η εξουσία ήταν συγκεντρωμένη στην κορυφή.
  • 2:01 - 2:04
    Και τι άλλαξε; Η τεχνολογική καινοτομία.
  • 2:04 - 2:06
    Μπαρούτι, κανόνι.
  • 2:06 - 2:10
    Κι αρκετά σύντομα, πανοπλίες και κάστρα απαρχαιώθηκαν
  • 2:10 - 2:12
    και είχε λιγότερη σημασία ποιον φέρνατε
    στο πεδίο της μάχης
  • 2:12 - 2:16
    σε αντίθεση με τον αριθμό των ατόμων
    που φέρνατε στο πεδίο της μάχης.
  • 2:16 - 2:20
    Και καθώς οι στρατοί μεγάλωναν σε μέγεθος, προέκυψε το έθνος-κράτος
  • 2:20 - 2:23
    ως μια πολιτική και υλικοτεχνική
    απαίτηση της άμυνας.
  • 2:23 - 2:26
    Και καθώς οι ηγέτες έπρεπε να βασίζονται περισσότερο στον λαό τους,
  • 2:26 - 2:28
    άρχισαν να μοιράζουν την εξουσία.
  • 2:28 - 2:30
    Άρχισε να δημιουργείται η αντιπροσωπευτική κυβέρνηση.
  • 2:30 - 2:33
    Έτσι και πάλι, τα εργαλεία που χρησιμοποιούμε
    για την επίλυση διαφορών
  • 2:33 - 2:37
    διαμορφώνουν το κοινωνικό μας τοπίο.
  • 2:37 - 2:41
    Τα αυτόνομα ρομποτικά όπλα
    είναι ένα τέτοιο εργαλείο,
  • 2:41 - 2:46
    εκτός απ' το ότι, απαιτώντας
    πολύ λίγους ανθρώπους να πάνε στον πόλεμο,
  • 2:46 - 2:51
    ρισκάρουν την επανακεντρικοποίηση της εξουσίας
    σε ελάχιστα χέρια,
  • 2:51 - 2:57
    αντιστρέφοντας ενδεχομένως μια τάση πέντε αιώνων
    προς τη δημοκρατία.
  • 2:57 - 2:59
    Τώρα, πιστεύω ότι, γνωρίζοντας αυτό,
  • 2:59 - 3:03
    μπορούμε να λάβουμε αποφασιστικά μέτρα για να διατηρήσουμε τους δημοκρατικούς μας θεσμούς,
  • 3:03 - 3:07
    να κάνουμε αυτό που ο άνθρωπος κάνει καλύτερα, που είναι η προσαρμογή.
  • 3:07 - 3:09
    Αλλά ο χρόνος είναι ένας παράγοντας.
  • 3:09 - 3:12
    Εβδομήντα χώρες αναπτύσσουν δικά τους τηλεκατευθυνόμενα
  • 3:12 - 3:14
    μη επανδρωμένα μέσα μάχης
  • 3:14 - 3:17
    κι όπως θα δείτε, τα τηλεκατευθυνόμενα μη επανδρωμένα μέσα
  • 3:17 - 3:22
    είναι ο πρόδρομος των αυτόματων ρομποτικών όπλων.
  • 3:22 - 3:24
    Αυτό συμβαίνει γιατί άπαξ κι αναπτυχθούν τηλεκατευθυνόμενα μη επανδρωμένα μέσα,
  • 3:24 - 3:28
    υπάρχουν τρεις ισχυροί παράγοντες
    που σπρώχνουν τη λήψη αποφάσεων
  • 3:28 - 3:32
    μακριά από τον άνθρωπο και
    προς την ίδια την οπλική πλατφόρμα.
  • 3:32 - 3:38
    Ο πρώτος από αυτούς είναι ο κατακλυσμός
    από βίντεο που παράγουν τα μη επανδρωμένα μέσα.
  • 3:38 - 3:41
    Για παράδειγμα, το 2004, ο στόλος των μη επανδρωμένων μέσων των ΗΠΑ παρήγαγε
  • 3:41 - 3:47
    ένα γενικό σύνολο 71 ωρών βιντεοεπιτήρησης
    για ανάλυση.
  • 3:47 - 3:51
    Μέχρι το 2011, αυτό είχε ανέβει στις 300.000 ώρες,
  • 3:51 - 3:54
    ξεπερνώντας την ανθρώπινη ικανότητα
    για την ολική του αξιολόγηση,
  • 3:54 - 3:58
    αλλά ακόμη κι αυτός ο αριθμός
    είναι έτοιμος ν' αυξηθεί δραστικά.
  • 3:58 - 4:01
    Τα προγράμματα Gorgon Stare και Argus
    του Πενταγώνου
  • 4:01 - 4:04
    θα θέσουν μέχρι 65 λειτουργικώς ανεξάρτητα
    μάτια καμερών
  • 4:04 - 4:06
    σε κάθε πλατφόρμα μη επανδρωμένου μέσου
  • 4:06 - 4:09
    κι αυτό θα ξεπερνούσε κατά πολύ
    την ανθρώπινη ικανότητα για αξιολόγηση.
  • 4:09 - 4:11
    Αυτό σημαίνει ότι το λογισμικό οπτικής νοημοσύνης
    θα πρέπει
  • 4:11 - 4:15
    να το εξετάζει για στοιχεία
    που παρουσιάζουν ενδιαφέρον.
  • 4:15 - 4:17
    Κι αυτό σημαίνει ότι πολύ σύντομα
  • 4:17 - 4:19
    τα μη επανδρωμένα μέσα
    θα λένε στους ανθρώπους τι να κοιτάξουν,
  • 4:19 - 4:22
    όχι το αντίστροφο.
  • 4:22 - 4:24
    Αλλά υπάρχει ένα δεύτερο ισχυρό κίνητρο που ωθεί
  • 4:24 - 4:28
    τη λήψη αποφάσεων μακριά από τους ανθρώπους και προς τις μηχανές
  • 4:28 - 4:31
    κι αυτό είναι οι ηλεκτρομαγνητικές παρεμβολές
  • 4:31 - 4:33
    που διακόπτουν τη σύνδεση μεταξύ
    του μη επανδρωμένου μέσου
  • 4:33 - 4:36
    και του χειριστή του.
  • 4:36 - 4:38
    Είδαμε ένα τέτοιο παράδειγμα το 2011
  • 4:38 - 4:41
    όταν ένα αμερικανικό μη επανδρωμένο αεροσκάφος RQ-170 Sentinel
  • 4:41 - 4:46
    μπερδεύτηκε λίγο πάνω από το Ιράν, λόγω μιας επίθεσης εξαπάτησης του GPS, αλλά
  • 4:46 - 4:51
    οποιοδήποτε τηλεκατευθυνόμενο μη επανδρωμένο μέσο είναι ευπαθές σε αυτού του είδους την επίθεση
  • 4:51 - 4:53
    κι αυτό σημαίνει ότι τα μη επανδρωμένα μέσα
  • 4:53 - 4:56
    θα πρέπει να αναλάβουν περισσότερες
    λήψεις αποφάσεων.
  • 4:56 - 4:59
    Θα γνωρίζουν τον αντικειμενικό σκοπό της αποστολής τους
  • 4:59 - 5:04
    και θα αντιδρούν στα νέα δεδομένα
    χωρίς ανθρώπινη καθοδήγηση.
  • 5:04 - 5:07
    Θα αγνοούν εξωτερικά ραδιοσήματα
  • 5:07 - 5:09
    και θα στέλνουν ελάχιστα δικά τους.
  • 5:09 - 5:11
    Αυτό μας φέρνει, πραγματικά, στο τρίτο
  • 5:11 - 5:15
    και πιο ισχυρό κίνητρο πίεσης της λήψης αποφάσεων
  • 5:15 - 5:18
    μακριά από τον άνθρωπο και προς τα όπλα:
  • 5:18 - 5:22
    την εύλογη δυνατότητα άρνησης.
  • 5:22 - 5:25
    Ζούμε σε μια παγκόσμια οικονομία.
  • 5:25 - 5:29
    Κατασκευές υψηλής τεχνολογίας πραγματοποιούνται
    στις περισσότερες ηπείρους.
  • 5:29 - 5:32
    Η κυβερνοκατασκοπεία διακτινίζει
    προηγμένα σχέδια μακριά
  • 5:32 - 5:34
    σε άγνωστα μέρη
  • 5:34 - 5:36
    και σε αυτό το περιβάλλον, είναι πολύ πιθανό
  • 5:36 - 5:40
    ότι ένας επιτυχής σχεδιασμός μη επανδρωμένου μέσου θα ξεφύγει από τα εργοστάσια της σύμβασης,
  • 5:40 - 5:43
    θα εξαπλωθεί στην γκρίζα αγορά.
  • 5:43 - 5:45
    Και σε αυτή την περίπτωση, σε μια προσεκτική εξέταση των συντριμμιών
  • 5:45 - 5:48
    μιας επίθεσης αυτοκτονίας μη επανδρωμένου μέσου, πολύ δύσκολα θα μπορεί να ειπωθεί
  • 5:48 - 5:52
    ποιος έστειλε το εν λόγω όπλο.
  • 5:52 - 5:55
    Αυτό εγείρει την πολύ πραγματική πιθανότητα
  • 5:55 - 5:58
    του ανώνυμου πολέμου.
  • 5:58 - 6:01
    Αυτό θα μπορούσε να ταρακουνήσει
    τις γεωπολιτικές ισορροπίες κατακέφαλα,
  • 6:01 - 6:04
    να καταστήσει πολύ δύσκολο σε ένα έθνος
    να στρέψει τη δύναμη πυρός του
  • 6:04 - 6:07
    εναντίον ενός εισβολέα και αυτό θα μπορούσε
    να μετατοπίσει την ισορροπία
  • 6:07 - 6:11
    του 21ου αιώνα, μακριά από την άμυνα
    και προς την επίθεση.
  • 6:11 - 6:14
    Θα μπορούσε να κάνει τη στρατιωτική δράση μία βιώσιμη επιλογή
  • 6:14 - 6:16
    όχι μόνο για τα μικρά έθνη,
  • 6:16 - 6:19
    αλλά για εγκληματικές οργανώσεις,
    ιδιωτικές επιχειρήσεις,
  • 6:19 - 6:21
    ακόμη και ισχυρών ατόμων.
  • 6:21 - 6:25
    Αυτό θα μπορούσε να δημιουργήσει ένα πεδίο
    από αντίπαλους πολέμαρχους
  • 6:25 - 6:28
    υπονομεύοντας το κράτος δικαίου
    και την κοινωνία των πολιτών.
  • 6:28 - 6:32
    Εάν η υπευθυνότητα και η διαφάνεια
  • 6:32 - 6:34
    είναι δύο από τους ακρογωνιαίους λίθους
    της αντιπροσωπευτικής κυβέρνησης,
  • 6:34 - 6:39
    τα αυτόνομα ρομποτικά όπλα θα μπορούσαν
    να υποσκάψουν και τα δύο.
  • 6:39 - 6:40
    Μπορεί να σκέφτεστε ότι
  • 6:40 - 6:42
    οι πολίτες των εθνών υψηλής τεχνολογίας
  • 6:42 - 6:45
    θα είχαν το πλεονέκτημα σε κάθε ρομποτικό πόλεμο,
  • 6:45 - 6:49
    ότι οι πολίτες αυτών των εθνών θα ήταν
    λιγότερο ευάλωτοι,
  • 6:49 - 6:53
    ιδιαίτερα ενάντια στις αναπτυσσόμενες χώρες.
  • 6:53 - 6:57
    Αλλά νομίζω ότι η αλήθεια είναι το ακριβώς αντίθετο.
  • 6:57 - 6:59
    Νομίζω ότι οι πολίτες των κοινωνιών
    υψηλής τεχνολογίας
  • 6:59 - 7:03
    είναι πιο ευάλωτοι στα ρομποτικά όπλα
  • 7:03 - 7:07
    και η αιτία μπορεί να συνοψιστεί σε μία λέξη: Δεδομένα.
  • 7:07 - 7:11
    Τα δεδομένα κινούν τις κοινωνίες
    υψηλής τεχνολογίας.
  • 7:11 - 7:14
    Γεωτοποθεσία κινητού τηλεφώνου,
    μεταδεδομένα τηλεπικοινωνιών,
  • 7:14 - 7:17
    κοινωνικά μέσα, ηλεκτρονικό ταχυδρομείο, κείμενα,
    δεδομένα οικονομικών συναλλαγών,
  • 7:17 - 7:21
    μεταφορά δεδομένων,
    είναι μία πληθώρα δεδομένων πραγματικού χρόνου
  • 7:21 - 7:24
    σχετικά με τις κινήσεις και
    τις κοινωνικές αλληλεπιδράσεις των ατόμων.
  • 7:24 - 7:28
    Εν ολίγοις, είμαστε πιο ορατοί στις μηχανές
  • 7:28 - 7:30
    από οποιαδήποτε πληθυσμιακή ομάδα στην ιστορία
  • 7:30 - 7:36
    κι αυτό ταιριάζει απόλυτα στις ανάγκες στόχευσης
    των αυτόνομων όπλων.
  • 7:36 - 7:37
    Αυτό που βλέπετε εδώ
  • 7:37 - 7:41
    είναι ένας χάρτης ανάλυσης συνδέσμων
    μιας κοινωνικής ομάδας.
  • 7:41 - 7:44
    Οι γραμμές υποδηλώνουν κοινωνική συνεκτικότητα μεταξύ των ατόμων.
  • 7:44 - 7:47
    Κι αυτοί οι τύποι των χαρτών
    μπορούν να δημιουργηθούν αυτόματα
  • 7:47 - 7:52
    με βάση τα ίχνη δεδομένων
    που οι σύγχρονοι άνθρωποι αφήνουν πίσω τους.
  • 7:52 - 7:54
    Συνήθως χρησιμοποιούνται για την προώθηση
    αγαθών και υπηρεσιών
  • 7:54 - 7:59
    με δημογραφική στόχευση, αλλά
    είναι μια τεχνολογία διττής χρήσης,
  • 7:59 - 8:02
    επειδή η στόχευση χρησιμοποιείται
    σ' ένα άλλο πλαίσιο.
  • 8:02 - 8:05
    Παρατηρήστε ότι ορισμένα άτομα
    είναι επισημασμένα.
  • 8:05 - 8:08
    Είναι οι κόμβοι των κοινωνικών δικτύων.
  • 8:08 - 8:12
    Πρόκειται για διοργανωτές, διαμορφωτές
    της κοινής γνώμης, ηγέτες
  • 8:12 - 8:14
    κι αυτοί οι άνθρωποι επίσης μπορούν
    ν' αναγνωριστούν αυτόματα
  • 8:14 - 8:17
    από τα μοτίβα επικοινωνίας τους.
  • 8:17 - 8:19
    Τώρα, εάν είστε έμποροι, ίσως μετά
    να τους στοχοποιούσατε
  • 8:19 - 8:21
    με δείγματα προϊόντων, ίσως επιχειρούσατε
    να προωθήσετε τη μάρκα σας
  • 8:21 - 8:24
    μέσω των κοινωνικών τους ομάδων.
  • 8:24 - 8:26
    Αλλά, αν είστε μια τυραννική κυβέρνηση
  • 8:26 - 8:31
    που αναζητά πολιτικούς εχθρούς,
    αντί αυτού μπορείτε ίσως να τους απομακρύνετε,
  • 8:31 - 8:34
    να τους εξαλείψετε, να διαταράξετε
    την κοινωνική ομάδα τους
  • 8:34 - 8:37
    κι εκείνοι που παραμείνουν πίσω
    χάνουν την κοινωνική συνοχή
  • 8:37 - 8:39
    και οργάνωση.
  • 8:39 - 8:43
    Τώρα σε έναν κόσμο από φτηνά, πολλαπλασιαζόμενα ρομποτικά όπλα,
  • 8:43 - 8:45
    τα σύνορα θα προσέφεραν πολύ μικρή προστασία
  • 8:45 - 8:47
    στους επικριτές απόμακρων κυβερνήσεων
  • 8:47 - 8:51
    ή διακρατικών εγκληματικών οργανώσεων.
  • 8:51 - 8:55
    Λαϊκά κινήματα διψασμένα για αλλαγή
  • 8:55 - 8:58
    θα μπορούσαν να εντοπιστούν νωρίς
    και οι ηγέτες τους να εξαλειφθούν
  • 8:58 - 9:01
    πριν οι ιδέες τους επιτύχουν την κρίσιμη μάζα.
  • 9:01 - 9:04
    Και οι ιδέες που επιτυγχάνουν την κρίσιμη μάζα
  • 9:04 - 9:08
    αφορούν τον πολιτικό ακτιβισμό στη λαϊκή κυβέρνηση.
  • 9:08 - 9:12
    Ανώνυμα θανατηφόρα όπλα θα μπορούσαν
    να κάνουν τη θανατηφόρο δράση
  • 9:12 - 9:15
    μια εύκολη επιλογή για όλα τα είδη των ανταγωνιστικών συμφερόντων.
  • 9:15 - 9:19
    Κι αυτό θα πάγωνε την ελευθερία του λόγου
  • 9:19 - 9:24
    και την λαϊκή πολιτική δράση,
    την ίδια την καρδιά της Δημοκρατίας.
  • 9:24 - 9:27
    Γι' αυτό χρειαζόμαστε μια διεθνή συνθήκη
  • 9:27 - 9:31
    για τα ρομποτικά όπλα και ειδικότερα
    μια καθολική απαγόρευση
  • 9:31 - 9:35
    στη δημιουργία και ανάπτυξη
    των ρομπότ δολοφόνων.
  • 9:35 - 9:38
    Ήδη έχουμε διεθνείς συνθήκες
  • 9:38 - 9:41
    για πυρηνικά και βιολογικά όπλα και, παρότι ελλιπείς,
  • 9:41 - 9:44
    αυτές έχουν λειτουργήσει σε μεγάλο βαθμό.
  • 9:44 - 9:47
    Αλλά τα ρομποτικά όπλα μπορεί να είναι
    εξίσου επικίνδυνα,
  • 9:47 - 9:51
    επειδή σχεδόν σίγουρα θα χρησιμοποιηθούν
  • 9:51 - 9:56
    κι επίσης θα διάβρωναν
    τους δημοκρατικούς μας θεσμούς.
  • 9:56 - 9:59
    Το Νοέμβριο του 2012,
    το Υπουργείο Άμυνας των ΗΠΑ
  • 9:59 - 10:02
    εξέδωσε μια οδηγία που απαιτούσε
  • 10:02 - 10:06
    την παρουσία ανθρώπου σε όλες τις θανατηφόρες αποφάσεις.
  • 10:06 - 10:11
    Αυτό προσωρινά απαγόρευσε αποτελεσματικά
    τα αυτόνομα όπλα του αμερικάνικου στρατού,
  • 10:11 - 10:15
    αλλά, η εν λόγω οδηγία χρειάζεται να γίνει μόνιμη.
  • 10:15 - 10:19
    Και θα μπορούσε να θέσει τη βάση
    για παγκόσμια δράση.
  • 10:19 - 10:23
    Διότι χρειαζόμαστε ένα διεθνές νομικό πλαίσιο
  • 10:23 - 10:25
    για τα ρομποτικά όπλα.
  • 10:25 - 10:28
    Και το χρειαζόμαστε τώρα, προτού να υπάρξει
    μια καταστροφική επίθεση
  • 10:28 - 10:31
    ή ένα τρομοκρατικό περιστατικό
    που θα προκαλέσει στα έθνη του κόσμου
  • 10:31 - 10:33
    να βιαστούν να υιοθετήσουν αυτά τα όπλα
  • 10:33 - 10:37
    πριν σκεφτούν τις συνέπειες.
  • 10:37 - 10:40
    Τα αυτόνομα ρομποτικά όπλα επικεντρώνουν
    πάρα πολύ δύναμη
  • 10:40 - 10:46
    σε λιγοστά χέρια κι αυτά θα έθεταν σε κίνδυνο
    την ίδια τη δημοκρατία.
  • 10:46 - 10:49
    Μην με παρεξηγείτε, πιστεύω ότι υπάρχουν πάμπολες
  • 10:49 - 10:51
    σπουδαίες χρήσεις των αμάχων
    μη επανδρωμένων μέσων:
  • 10:51 - 10:55
    περιβαλλοντική παρακολούθηση,
    έρευνα και διάσωση, μεταφορά προμηθειών.
  • 10:55 - 10:58
    Αν έχουμε μια διεθνή συνθήκη
    για τα ρομποτικά όπλα,
  • 10:58 - 11:02
    πώς κερδίζουμε τα οφέλη των αυτόνομων
    μη επανδρωμένων μέσων
  • 11:02 - 11:04
    και οχημάτων ενόσω προστατεύουμε παράλληλα
    τους εαυτούς μας
  • 11:04 - 11:08
    από τα παράνομα ρομποτικά όπλα;
  • 11:08 - 11:13
    Νομίζω ότι το μυστικό θα είναι η διαφάνεια.
  • 11:13 - 11:16
    Κανένα ρομπότ δεν θα πρέπει να έχει την προσδοκία
    της ιδιωτικότητας
  • 11:16 - 11:20
    σε δημόσιο χώρο.
  • 11:20 - 11:25
    (Χειροκρότημα)
  • 11:25 - 11:27
    Κάθε ρομπότ και μη επανδρωμένο μέσο
    θα πρέπει να έχει
  • 11:27 - 11:30
    μια ψηφιακά κρυπτογραφημένη ταυτότητα
    που να δημιουργείται στο εργοστάσιο και
  • 11:30 - 11:33
    να μπορεί να χρησιμοποιηθεί για να παρακολουθείται η κίνησή του σε δημόσιους χώρους.
  • 11:33 - 11:36
    Έχουμε πινακίδες στα αυτοκίνητα,
    αριθμούς σειράς στα αεροσκάφη.
  • 11:36 - 11:38
    Αυτό δεν είναι κάτι διαφορετικό.
  • 11:38 - 11:40
    Κάθε πολίτης θα πρέπει να είναι σε θέση
    να κατεβάσει μια εφαρμογή
  • 11:40 - 11:43
    που θα δείχνει τον πληθυσμό των μη επανδρωμένων μέσων και αυτόνομων οχημάτων
  • 11:43 - 11:45
    που κινούνται μέσα σε δημόσιους χώρους γύρω του,
  • 11:45 - 11:48
    τόσο αυτή τη στιγμή όσο και ιστορικά.
  • 11:48 - 11:52
    Και οι πολιτικοί ηγέτες θα πρέπει να αναπτύξουν αισθητήρες και πολιτικά μη επανδρωμένα μέσα
  • 11:52 - 11:54
    για τον εντοπισμό έκνομων
    μη επανδρωμένων μέσων,
  • 11:54 - 11:57
    κι αντί της αποστολής δικών τους φονικών μη επανδρωμένων μέσων για να τα καταστρέψουν,
  • 11:57 - 12:00
    θα πρέπει να ενημερώνουν τους ανθρώπους
    για την παρουσία τους.
  • 12:00 - 12:03
    Και σε ορισμένες περιοχές πολύ υψηλής ασφάλειας,
  • 12:03 - 12:05
    ίσως τα πολιτικά μη επανδρωμένα μέσα να τα παγιδεύουν
  • 12:05 - 12:07
    και να τα παρασέρνουν σε μια εγκατάσταση εξουδετέρωσης βομβών.
  • 12:07 - 12:11
    Αλλά προσέξτε, αυτό είναι περισσότερο
    ένα ανοσοποιητικό σύστημα
  • 12:11 - 12:12
    από ένα σύστημα όπλων.
  • 12:12 - 12:14
    Θα μας επέτρεπε να επωφεληθούμε οι ίδιοι τη χρήση
  • 12:14 - 12:16
    αυτόνομων οχημάτων και μη επανδρωμένων μέσων,
  • 12:16 - 12:21
    διατηρώντας ακόμα την ανοικτή μας
    κοινωνία των πολιτών.
  • 12:21 - 12:24
    Πρέπει να απαγορεύσουμε την ανάπτυξη
    και δημιουργία
  • 12:24 - 12:26
    ρομπότ δολοφόνων
  • 12:26 - 12:30
    Ας μην υποκύψουμε στον πειρασμό
    να αυτοματοποιήσουμε τον πόλεμο.
  • 12:30 - 12:33
    Αυταρχικές κυβερνήσεις
    κι εγκληματικές οργανώσεις
  • 12:33 - 12:36
    αναμφίβολα θα το κάνουν, αλλά
    ας μην τους συμμεριστούμε.
  • 12:36 - 12:38
    Τα αυτόνομα ρομποτικά όπλα
  • 12:38 - 12:40
    θα συγκέντρωναν υπερβολική εξουσία
  • 12:40 - 12:43
    σε ελάχιστα αθέατα χέρια
  • 12:43 - 12:46
    κι αυτό θα ήταν διαβρωτικό
    για την αντιπροσωπευτική κυβέρνηση.
  • 12:46 - 12:49
    Ας σιγουρευτούμε ότι,
    τουλάχιστον στις δημοκρατίες,
  • 12:49 - 12:51
    τα ρομπότ δολοφόνοι
    θα παραμείνουν επιστημονική φαντασία.
  • 12:51 - 12:52
    Ευχαριστώ.
  • 12:52 - 12:57
    (Χειροκρότημα)
  • 12:57 - 13:02
    Σας ευχαριστώ.
    (Χειροκρότημα)
Title:
Η απόφαση θανάτωσης δεν θα πρέπει να ανήκει σε ρομπότ
Speaker:
Ντάνιελ Σουάρεζ
Description:

Ως συγγραφέας, ο Ντάνιελ Σουάρεζ γνέθει δυστοπικές ιστορίες του μέλλοντος. Αλλά, στη σκηνή του TEDGlobal, μας εξηγεί ένα ρεαλιστικό σενάριο για το οποίο όλοι μας χρειάζεται να γνωρίζουμε περισσότερα: η άνοδος των αυτόνομων ρομποτικών όπλων πολέμου. Εισηγείται ότι προηγμένα μη επανδρωμένα μέσα, αυτοματοποιημένα όπλα κι εργαλεία συλλογής πληροφοριών με τη χρήση τεχνητής νοημοσύνης θα μπορούσαν να πάρουν την απόφαση κήρυξης πολέμου μέσα από τα χέρια των ανθρώπων.

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
13:20

Greek subtitles

Revisions