Μπορούμε να φτιάξουμε τεχνητή νοημοσύνη χωρίς να χάσουμε τον έλεγχό της;
-
0:01 - 0:03Θα σας μιλήσω για ένα σφάλμα στη λογική
-
0:03 - 0:05που έχουν πολλοί από εμάς.
-
0:05 - 0:09Στην ουσία είναι αδυναμία να δούμε
ένα ορισμένο είδος κινδύνου. -
0:09 - 0:11Θα περιγράψω ένα σενάριο
-
0:11 - 0:14που θεωρώ ταυτόχρονα τρομακτικό,
-
0:14 - 0:16αλλά και πιθανό να συμβεί,
-
0:17 - 0:18και δεν είναι καλός συνδυασμός,
-
0:18 - 0:20όπως τελικά αποδεικνύεται.
-
0:20 - 0:23Αλλά αντί να τρομοκρατείστε,
οι περισσότεροι πιστεύετε -
0:23 - 0:25ότι αυτό που σας λέω είναι μάλλον ωραίο.
-
0:25 - 0:27Θα σας περιγράψω
-
0:27 - 0:30πώς τα οφέλη που θα δρέψουμε
από την τεχνητή νοημοσύνη -
0:30 - 0:32μπορούν εν τέλει να μας καταστρέψουν.
-
0:32 - 0:35Και μάλιστα το θεωρώ απίθανο
είτε να μην μας καταστρέψουν -
0:35 - 0:37ή να μας εμπνεύσουν
να καταστραφούμε μόνοι μας. -
0:37 - 0:39Αν όμως σκέφτεστε όπως εγώ,
-
0:39 - 0:42θα το απολαμβάνετε
να σκέφτεστε αυτά τα πράγματα. -
0:42 - 0:45Κι αυτή η αντίδραση
είναι μέρος του προβλήματος. -
0:45 - 0:48Εντάξει; Αυτή η αντίδραση
θα πρέπει να σας ανησυχεί. -
0:48 - 0:51Κι αν επρόκειτο να σας πείσω
με αυτή την ομιλία -
0:51 - 0:54ότι είναι πιθανόν
να αντιμετωπίσουμε παγκόσμιο λιμό, -
0:54 - 0:57είτε λόγω κλιματικής αλλαγής
ή κάποιας άλλης καταστροφής, -
0:57 - 1:00και ότι τα εγγόνια σας,
ή τα δικά τους εγγόνια, -
1:00 - 1:03είναι πολύ πιθανόν να ζήσουν κάπως έτσι,
-
1:03 - 1:04δεν θα σκεφτόσασταν,
-
1:05 - 1:07«Ενδιαφέρον.
-
1:07 - 1:09Μου αρέσει αυτή η ομιλία TED».
-
1:09 - 1:11Ο λιμός δεν είναι κάτι διασκεδαστικό.
-
1:12 - 1:15Από την άλλη, ο θάνατος μέσω επιστημονικής
φαντασίας είναι διασκεδαστικός, -
1:15 - 1:19και κάτι που με ανησυχεί σε αυτό το στάδιο
της εξέλιξης της τεχνητής νοημοσύνης -
1:19 - 1:23είναι ότι αδυνατούμε να επιδείξουμε
μια κατάλληλη συναισθηματική αντίδραση -
1:23 - 1:25στους επικείμενους κινδύνους.
-
1:25 - 1:29Ούτε εγώ μπορώ να έχω αυτή την αντίδραση
και κάνω αυτή την ομιλία. -
1:30 - 1:32Είναι σαν να στεκόμαστε
μπροστά σε δύο πόρτες. -
1:33 - 1:34Πίσω από την πρώτη πόρτα,
-
1:34 - 1:37παύουμε να κάνουμε πρόοδο
στην παραγωγή ευφυών μηχανών. -
1:37 - 1:41Για κάποιον λόγο παύουμε να βελτιώνουμε
υλισμικό και λογισμικό στους υπολογιστές. -
1:41 - 1:45Τώρα σκεφτείτε για λίγο
γιατί μπορεί να συμβεί αυτό. -
1:45 - 1:49Εννοώ ότι, δεδομένης της μεγάλης αξίας
της ευφυίας και των αυτοματισμών, -
1:49 - 1:53εφόσον μπορούμε, θα συνεχίσουμε
να βελτιώνουμε την τεχνολογία μας. -
1:53 - 1:55Τι μπορεί να μας αποτρέψει;
-
1:56 - 1:58Ένας πυρηνικός πόλεμος πλήρους κλίμακας;
-
1:59 - 2:01Μια παγκόσμια πανδημία;
-
2:02 - 2:04Μια σύγκρουση με αστεροειδή;
-
2:06 - 2:08Να γίνει ο Τζάστιν Μπίμπερ
πρόεδρος των ΗΠΑ; -
2:08 - 2:11(Γέλια)
-
2:13 - 2:17Το θέμα είναι ότι κάτι θα πρέπει
να καταστρέψει τον σύγχρονο πολιτισμό. -
2:17 - 2:22Θα πρέπει να φανταστείτε
πόσο οδυνηρό πρέπει να είναι -
2:22 - 2:25για να μας αποτρέψει
από το να βελτιώσουμε την τεχνολογία μας -
2:25 - 2:26σε μόνιμη βάση,
-
2:26 - 2:28στις επόμενες γενεές.
-
2:28 - 2:30Αυτό είναι σχεδόν εξ ορισμού
-
2:30 - 2:32ό,τι χειρότερο έχει ποτέ συμβεί
στην ανθρώπινη ιστορία. -
2:33 - 2:34Έτσι η μόνη εναλλακτική
-
2:34 - 2:36-κι αυτή βρίσκεται
πίσω από τη δεύτερη πόρτα- -
2:36 - 2:39είναι να συνεχίσουμε να βελτιώνουμε
τις έξυπνες μηχανές μας -
2:39 - 2:41χρόνο με τον χρόνο.
-
2:42 - 2:46Σε κάποιο σημείο, θα φτιάξουμε μηχανές
που θα είναι πιο έξυπνες από εμάς, -
2:46 - 2:48κι όταν θα έχουμε μηχανές
εξυπνότερες από εμάς, -
2:48 - 2:50θα αρχίσουν να βελτιώνονται μόνες τους.
-
2:51 - 2:52Τότε διακινδυνεύουμε να έχουμε κάτι
-
2:52 - 2:55που ο μαθηματικός Ι. Τζ. Γκουντ
αποκάλεσε «έκρηξη ευφυίας», -
2:55 - 2:58όπου η διαδικασία μπορεί
να φύγει από τον έλεγχό μας. -
2:58 - 3:01Αυτό συχνά απεικονίζεται,
όπως σας δείχνω εδώ, -
3:01 - 3:04ως ένας φόβος ότι στρατιές
από κακόβουλα ρομπότ -
3:04 - 3:05θα μας επιτεθούν.
-
3:05 - 3:08Αλλά αυτό δεν είναι το πιο πιθανό σενάριο.
-
3:08 - 3:13Δεν είναι ότι οι μηχανές μας
θα γίνουν αυθόρμητα κακόβουλες. -
3:13 - 3:16Η πραγματική ανησυχία είναι
ότι θα φτιάξουμε μηχανές -
3:16 - 3:18που θα είναι τόσο πιο ικανές από εμάς
-
3:18 - 3:22που η ελάχιστη απόκλιση μεταξύ
των δικών τους στόχων και των δικών μας -
3:22 - 3:23θα μπορούσε να μας καταστρέψει.
-
3:24 - 3:26Σκεφτείτε τη σχέση μας με τα μυρμήγκια.
-
3:27 - 3:28Δεν τα μισούμε.
-
3:28 - 3:30Δεν τα βλάπτουμε εκουσίως.
-
3:30 - 3:33Συχνά μάλιστα κάνουμε προσπάθεια
να μην τα βλάψουμε. -
3:33 - 3:35Αποφεύγουμε να τα πατήσουμε
στο πεζοδρόμιο. -
3:35 - 3:37Αλλά όταν η παρουσία τους
-
3:37 - 3:39αντιτίθεται σοβαρά με τους στόχους μας,
-
3:39 - 3:42ας πούμε, όταν φτιάχνουμε
ένα τέτοιο κτήριο, -
3:42 - 3:44τα εκμηδενίζουμε χωρίς δεύτερη σκέψη.
-
3:44 - 3:47Η ανησυχία είναι ότι μια μέρα
θα φτιάξουμε μηχανές που, -
3:47 - 3:50είτε ενσυνείδητα ή όχι,
-
3:50 - 3:53θα μας μεταχειριστούν
με παρόμοια αδιαφορία. -
3:54 - 3:57Υποψιάζομαι ότι οι περισσότεροι
το θεωρείτε παρατραβηγμένο. -
3:57 - 4:02Βάζω στοίχημα ότι κάποιοι αμφιβάλλουν
αν η υπερευφυής τεχνητή νοημοσύνη -
4:02 - 4:05είναι εφικτή,
πολύ δε λιγότερο αναπόφευκτη. -
4:05 - 4:09Τότε όμως πρέπει να βρείτε κάποιο λάθος
στις ακόλουθες υποθέσεις. -
4:09 - 4:11Και είναι μόνο τρεις υποθέσεις.
-
4:12 - 4:17Η ευφυΐα είναι θέμα επεξεργασίας
της πληροφορίας σε υλικά συστήματα. -
4:17 - 4:20Βασικά, αυτό είναι
κάτι παραπάνω από μια υπόθεση. -
4:20 - 4:23Έχουμε ήδη ενσωματώσει
περιορισμένη ευφυΐα στις μηχανές μας, -
4:23 - 4:25και πολλές από αυτές ήδη αποδίδουν
-
4:25 - 4:29σε επίπεδο υπεράνθρωπης ευφυΐας.
-
4:29 - 4:31Και ξέρουμε πως η απλή ύλη
-
4:31 - 4:34μπορεί να δημιουργήσει
αυτό που λέγεται «γενική ευφυΐα», -
4:34 - 4:38μια ικανότητα να σκεφτούμε ευέλικτα
σε πολλαπλά επίπεδα, -
4:38 - 4:41επειδή τα μυαλά μας
τα έχουν καταφέρει, σωστά; -
4:41 - 4:45Εξάλλου μόνο άτομα υπάρχουν εκεί,
-
4:45 - 4:49και όσο συνεχίζουμε να φτιάχνουμε
συστήματα από άτομα -
4:49 - 4:52που επιδεικνύουν όλο και
περισσότερο ευφυή συμπεριφορά, -
4:52 - 4:55αν δεν μας σταματήσει κάποιος,
-
4:55 - 4:58τελικά θα βάλουμε τη γενική ευφυΐα
-
4:58 - 4:59μέσα στις μηχανές μας.
-
4:59 - 5:03Είναι σημαντικό να καταλάβουμε
ότι δεν έχει σημασία ο ρυθμός της προόδου, -
5:03 - 5:06γιατί κάθε πρόοδος είναι αρκετή
για να οδηγήσει σε αυτή την κατάληξη. -
5:06 - 5:10Δεν χρειάζεται ο Νόμος του Μουρ,
ούτε κάποια εκθετική πρόοδος. -
5:10 - 5:12Χρειάζεται απλώς να συνεχίσουμε.
-
5:13 - 5:17Η δεύτερη υπόθεση είναι
ότι θα συνεχίσουμε. -
5:17 - 5:20Θα συνεχίσουμε να βελτιώνουμε
τις έξυπνες μηχανές μας. -
5:21 - 5:25Και σύμφωνα με την αξία της ευφυΐας -
-
5:25 - 5:29εννοώ ότι είτε η ευφυΐα
είναι η πηγή για ό,τι θεωρούμε άξιο, -
5:29 - 5:32ή χρειάζεται να περιφρουρήσουμε
οτιδήποτε θεωρούμε άξιο. -
5:32 - 5:34Είναι ο πιο πολύτιμος πόρος που έχουμε.
-
5:34 - 5:36Έτσι, θέλουμε να το κάνουμε.
-
5:36 - 5:39Έχουμε προβλήματα και πρέπει
να τα λύσουμε επειγόντως. -
5:39 - 5:42Θέλουμε να θεραπεύσουμε νόσους
όπως τον καρκίνο και την Αλτσχάιμερ, -
5:43 - 5:47να καταλάβουμε οικονομικά συστήματα,
να βελτιώσουμε τη γνώση μας για το κλίμα. -
5:47 - 5:49Γι' αυτό θα το κάνουμε, αν μπορούμε.
-
5:49 - 5:53Το τρένο έχει ήδη ξεκινήσει
και δεν έχει φρένο. -
5:54 - 5:59Τέλος, δεν έχουμε φτάσει
στην αποκορύφωση της ευφυΐας, -
5:59 - 6:01μάλλον ούτε που την πλησιάσαμε.
-
6:02 - 6:04Και αυτή είναι η σημαντική διαπίστωση.
-
6:04 - 6:06Αυτό κάνει τόσο επισφαλή
την κατάστασή μας, -
6:06 - 6:10και τόσο αναξιόπιστα
τα προαίσθήματά μας σχετικά με το ρίσκο. -
6:11 - 6:14Απλώς σκεφτείτε το πιο έξυπνο
άτομο που έχει ποτέ ζήσει. -
6:15 - 6:18Κάποιον που όλοι σας θα έχετε κατά νου
είναι ο Τζον φον Νόιμαν. -
6:18 - 6:21Η εντύπωση που έκανε
στους τριγύρω του ο φον Νόιμαν, -
6:21 - 6:25συμπεριλαμβανομένων των πιο λαμπρών
μαθηματικών και φυσικών της εποχής του, -
6:25 - 6:27έχει καταγραφεί επαρκώς.
-
6:27 - 6:31Και μόνο οι μισές ιστορίες
γι' αυτόν να αληθεύουν, -
6:31 - 6:32χωρίς αμφιβολία
-
6:32 - 6:35είναι από τους πιο έξυπνους
ανθρώπους που έχουν ζήσει. -
6:35 - 6:38Σκεφτείτε λοιπόν το φάσμα της ευφυΐας.
-
6:38 - 6:40Εδώ είναι ο Τζον φον Νόιμαν.
-
6:42 - 6:43Κι εδώ είμαστε εσείς κι εγώ.
-
6:44 - 6:46Μετά είναι οι κότες.
-
6:46 - 6:47(Γέλια)
-
6:47 - 6:49Συγνώμη, μια κότα.
-
6:49 - 6:50(Γέλια)
-
6:50 - 6:53Δεν υπάρχει λόγος να κάνω την ομιλία
πιο θλιβερή απ' όσο χρειάζεται. -
6:53 - 6:55(Γέλια)
-
6:56 - 7:00Ωστόσο, φαίνεται εκπληκτικά πιθανόν
ότι το φάσμα της ευφυΐας -
7:00 - 7:03εκτείνεται πολύ πιο πέρα
από όσο τώρα αντιλαμβανόμαστε, -
7:04 - 7:07και αν φτιάξουμε μηχανές
πιο έξυπνες από εμάς, -
7:07 - 7:09είναι πολύ πιθανόν
να εξερευνήσουν αυτό το φάσμα -
7:09 - 7:12με τρόπους που δεν μπορούμε να φανταστούμε
-
7:12 - 7:14και να μας ξεπεράσουν σε αφάνταστο βαθμό.
-
7:15 - 7:19Και είναι σημαντικό να αναγνωρίσουμε
ότι αυτό αληθεύει και μόνο λόγω ταχύτητας. -
7:19 - 7:24Σωστά; Φανταστείτε να φτιάχναμε
μια υπερευφυή τεχνητή νοημοσύνη, -
7:24 - 7:28που δεν θα ήταν εξυπνότερη
από μια μέση ομάδα ερευνητών -
7:28 - 7:30των πανεπιστημίων Στάνφορντ ή ΜΙΤ.
-
7:30 - 7:32Τα ηλεκτρονικά κυκλώματα λειτουργούν
-
7:32 - 7:35ένα εκατομμύριο φορές ταχύτερα
από τα βιοχημικά, -
7:35 - 7:38έτσι αυτή η μηχανή θα σκεφτόταν
ένα εκατομμύριο φορές πιο γρήγορα -
7:38 - 7:39από τους εγκεφάλους που την έφτιαξαν.
-
7:40 - 7:41Με λειτουργία μίας εβδομάδας
-
7:41 - 7:46θα παράξει έργο 20.000 ετών
σε επίπεδο ανθρώπινης διάνοιας, -
7:46 - 7:49και το ίδιο θα κάνει
κάθε επόμενη εβδομάδα. -
7:50 - 7:53Πώς μπορούμε να καταλάβουμε,
πολύ δε περισσότερο να περιορίσουμε, -
7:53 - 7:56έναν εγκέφαλο που κάνει τέτοια πρόοδο;
-
7:57 - 8:00Για να πω την αλήθεια,
είναι επίσης ανησυχητικό -
8:00 - 8:04να φανταστούμε το καλύτερο δυνατό σενάριο.
-
8:04 - 8:08Φανταστείτε να βρούμε ένα σχέδιο
υπερεφυούς τεχνητής νοημοσύνης -
8:08 - 8:10που δεν έχει θέματα ασφάλειας.
-
8:10 - 8:13Θα έχουμε βρει το τέλειο σχέδιο
για πρώτη φορά. -
8:13 - 8:15Θα είναι σαν να μας έχει δοθεί ένα μαντείο
-
8:15 - 8:17που λειτουργεί ακριβώς όπως πρέπει.
-
8:17 - 8:21Αυτή θα ήταν η τέλεια μηχανή
εξοικονόμησης έργου. -
8:22 - 8:24Θα σχεδιάσει τη μηχανή
που θα κατασκευάσει τη μηχανή -
8:24 - 8:26που θα κάνει κάθε σωματική εργασία,
-
8:26 - 8:27τροφοδοτούμενη από τον ήλιο,
-
8:27 - 8:30με μόνο κόστος αυτό των πρώτων υλών.
-
8:30 - 8:33Έτσι μιλάμε για το τέλος
της ανθρώπινης αγγαρείας. -
8:33 - 8:37Επίσης μιλάμε για το τέλος
της περισσότερης διανοητικής εργασίας. -
8:37 - 8:40Τι θα κάνουν οι πίθηκοι όπως εμείς
σε αυτή την περίπτωση; -
8:40 - 8:45Θα έχουμε χρόνο να παίζουμε φρίσμπι
και να κάνουμε μασάζ ο ένας στον άλλον. -
8:46 - 8:49Προσθέστε λίγο LSD και κάποιες
αμφίβολες επιλογές ένδυσης, -
8:49 - 8:51κι όλος ο κόσμος θα μοιάζει
με φεστιβάλ Burning Man. -
8:51 - 8:53(Γέλια)
-
8:54 - 8:57Μπορεί βέβαια να ακούγεται αρκετά καλό,
-
8:57 - 9:00αλλά αναρωτηθείτε τι θα συνέβαινε
-
9:00 - 9:02με την τωρινή οικονομική
και πολιτική κατάσταση; -
9:02 - 9:05Μοιάζει πιθανό ότι θα βιώσουμε
-
9:05 - 9:09ένα επίπεδο ανισότητας
πλούτου και ανεργίας -
9:09 - 9:11που δεν έχουμε ξαναδεί.
-
9:11 - 9:13Αν απουσιάσει η θέληση
να βάλουμε άμεσα αυτόν τον πλούτο -
9:13 - 9:15στην υπηρεσία όλης της ανθρωπότητας,
-
9:15 - 9:19ελάχιστοι πολυεκατομμυριούχοι θα κοσμούν
τα εξώφυλλα των οικονομικών περιοδικών, -
9:19 - 9:22ενώ ο υπόλοιπος κόσμος
θα είναι ελεύθερος να λιμοκτονήσει. -
9:22 - 9:25Και τι θα κάνουν οι Ρώσοι ή οι Κινέζοι
-
9:25 - 9:27αν μάθουν ότι μια εταιρεία
στη Σίλικον Βάλεϊ -
9:27 - 9:30πρόκειται να κυκλοφορήσει
μια υπερευφυή τεχνητή νοημοσύνη; -
9:30 - 9:33Αυτή η μηχανή θα μπορούσε
να κηρύξει πόλεμο, -
9:33 - 9:35είτε συμβατικό
είτε σε επίπεδο υπολογιστών, -
9:35 - 9:37με ισχύ άνευ προηγουμένου.
-
9:38 - 9:40Είναι ένα σενάριο όπου κερδίζει μόνο ένας.
-
9:40 - 9:43Όταν προηγείσαι εδώ
έξι μήνες από τον ανταγωνισμό, -
9:43 - 9:46είναι σαν να είσαι 500.000 χρόνια μπροστά
-
9:46 - 9:47κατά το ελάχιστο.
-
9:47 - 9:52Άρα φαίνεται ότι ακόμη και απλές φήμες
για κάτι τόσο επαναστατικό -
9:52 - 9:54θα έκανε το είδος μας να τρελαθεί.
-
9:55 - 9:58Ένα από τα πιο τρομακτικά πράγματα,
-
9:58 - 10:00κατά την άποψή μου, αυτή τη στιγμή,
-
10:00 - 10:04είναι αυτά που λένε οι ερευνητές
της τεχνητής νοημοσύνης -
10:05 - 10:07όταν θέλουν να μας καθησυχάσουν.
-
10:07 - 10:10Κι ο πιο κοινός λόγος που προβάλλουν
για να μην ανησυχούμε είναι ο χρόνος. -
10:10 - 10:13Αυτό είναι πολύ μακριά, δεν το βλέπετε;
-
10:13 - 10:15Είναι περίπου 50 ή 100 χρόνια μετά.
-
10:16 - 10:17Ένας ερευνητής έχει πει,
-
10:17 - 10:19«Ανησυχώντας για ασφάλεια
στην τεχνητή νοημοσύνη -
10:19 - 10:22είναι σαν να ανησυχούμε
για υπερπληθυσμό στον Άρη». -
10:22 - 10:24Αυτό είναι η έκδοση της Σίλικον Βάλεϊ
-
10:24 - 10:26του «μην ζαλίζεις το όμορφο κεφαλάκι σου».
-
10:26 - 10:27(Γέλια)
-
10:27 - 10:29Κανείς δεν φαίνεται να βλέπει
-
10:29 - 10:32ότι η αναφορά στον χρονικό ορίζοντα
-
10:32 - 10:34είναι τελείως ανακόλουθη.
-
10:35 - 10:38Αν η ευφυΐα είναι απλώς θέμα
επεξεργασίας της πληροφορίας, -
10:38 - 10:40και συνεχίζουμε
να βελτιώνουμε τις μηχανές μας, -
10:41 - 10:44σίγουρα θα δημιουργήσουμε
κάποια μορφή υπερευφυΐας. -
10:44 - 10:48Και δεν ξέρουμε πόσο χρόνο θα μας πάρει
-
10:48 - 10:51να δημιουργήσουμε τις συνθήκες
ώστε να το κάνουμε με ασφάλεια. -
10:52 - 10:53Να το πω πάλι.
-
10:54 - 10:57Δεν έχουμε ιδέα πόσο χρόνο θα μας πάρει
-
10:57 - 11:00να δημιουργήσουμε τις συνθήκες
ώστε να το κάνουμε με ασφάλεια. -
11:01 - 11:04Κι αν δεν το έχετε προσέξει,
τα 50 χρόνια δεν είναι αυτό που ήταν. -
11:04 - 11:07Αυτό είναι 50 χρόνια σε μήνες.
-
11:07 - 11:09Τόσον καιρό έχουμε το iPhone.
-
11:09 - 11:12Τόσον καιρό παίζονται
οι Σίμπσονς στην τηλεόραση. -
11:13 - 11:15Τα 50 χρόνια δεν είναι τόσο πολλά
-
11:15 - 11:19για μια από τις μεγαλύτερες προκλήσεις
που θα αντιμετωπίσει το είδος μας. -
11:20 - 11:24Και πάλι - αδυνατούμε να επιδείξουμε
κατάλληλη συναισθηματική απόκριση -
11:24 - 11:26σε κάτι που έχουμε κάθε λόγο
να πιστεύουμε ότι θα έρθει. -
11:26 - 11:30Ο επιστήμων υπολογιστών Στιούαρτ Ράσελ
έχει μια ωραία αναλογία γι' αυτό. -
11:30 - 11:35Είπε, φανταστείτε ότι λάβαμε μήνυμα
από εξωγήινο πολιτισμό, -
11:35 - 11:36που έλεγε:
-
11:37 - 11:38«Άνθρωποι της Γης,
-
11:39 - 11:41θα φτάσουμε στον πλανήτη σας σε 50 χρόνια.
-
11:42 - 11:43Ετοιμαστείτε».
-
11:43 - 11:47Και τώρα απλώς μετράμε αντίστροφα
τον χρόνο μέχρι να έρθει το διαστημόπλοιο. -
11:48 - 11:51Θα το νιώθαμε ως κάτι λίγο
πιο επιτακτικό από ό,τι τώρα. -
11:52 - 11:54Μας λένε επίσης να μην ανησυχούμε,
-
11:54 - 11:58γιατί οι μηχανές δεν μπορούν
παρά να έχουν τις δικές μας αξίες, -
11:58 - 12:00καθώς κυριολεκτικά
είναι προέκταση των εαυτών μας. -
12:00 - 12:02Θα συνδεθούν στον εγκέφαλό μας
-
12:02 - 12:05και βασικά θα γίνουμε
το μεταιχμιακό τους σύστημα. -
12:05 - 12:07Σκεφτείτε για ένα λεπτό
-
12:07 - 12:10ότι ο ασφαλέστερος και ο μόνος
συνετός δρόμος προς τα εμπρός -
12:10 - 12:11που προτείνεται,
-
12:11 - 12:14είναι να εμφυτεύσουμε αυτή την τεχνολογία
απευθείας στον εγκέφαλό μας. -
12:15 - 12:18Βέβαια, μπορεί να είναι ο ασφαλέστερος
και ο μόνος συνετός δρόμος, -
12:18 - 12:21αλλά συνήθως οι ανησυχίες
για την ασφάλεια μιας τεχνολογίας -
12:21 - 12:25πρέπει να έχουν επιλυθεί
πριν την εμφυτεύσουμε στο κεφάλι μας. -
12:25 - 12:27(Γέλια)
-
12:27 - 12:30Το βαθύτερο πρόβλημα είναι
ότι φαίνεται ευκολότερο -
12:30 - 12:34να φτάξεις ένα μεμονωμένο
σύστημα τεχνητής νοημοσύνης, -
12:34 - 12:36από το να φτιάξεις ένα σύστημα
-
12:36 - 12:38και να έχεις και επαρκή νευροεπιστήμη
-
12:38 - 12:40που να επιτρέπει την εύκολη
ενσωμάτωσή του στον εγκέφαλό μας. -
12:41 - 12:44Και δεδομένου ότι οι κυβερνήσεις
και εταιρείες που θα το κάνουν -
12:44 - 12:48είναι πιθανόν θα θεωρούν
ότι ανταγωνίζονται όλους τους άλλους, -
12:48 - 12:51εφόσον όποιος το κάνει πρώτος
θα κυριαρχήσει στον κόσμο, -
12:51 - 12:53με την προϋπόθεση
ότι δεν θα τον καταστρέψει αμέσως μετά, -
12:53 - 12:55τότε μοιάζει πιθανό
-
12:55 - 12:58ότι θα γίνει πρώτο
οτιδήποτε γίνεται πιο εύκολα. -
12:59 - 13:01Δυστυχώς δεν έχω κάποια λύση
γι' αυτό το πρόβλημα, -
13:01 - 13:04εκτός από το να συστήσω
να το ξανασκεφτούμε οι περισσότεροι. -
13:04 - 13:07Νομίζω ότι χρειαζόμαστε
κάτι σαν το Πρόγραμμα Μανχάταν -
13:07 - 13:09προσαρμοσμένο για την τεχνητή νοημοσύνη.
-
13:09 - 13:11Όχι για να την φτιάξουμε,
γιατί μάλλον είναι αναπόφευκτο, -
13:11 - 13:15αλλά να καταλάβουμε πώς να αποφύγουμε
έναν αγώνα εξοπλισμών -
13:15 - 13:18και να την φτιάξουμε έτσι που
να συμβαδίζει με τα συμφέροντά μας. -
13:18 - 13:20Όταν μιλάτε
για υπερευφυή τεχνητή νοημοσύνη -
13:20 - 13:23που μπορεί να τροποποιήσει τον εαυτό της,
-
13:23 - 13:27φαίνεται ότι έχουμε μόνο μία πιθανότητα
να ορίσουμε τις σωστές προϋποθέσεις, -
13:27 - 13:30και ακόμη και τότε
θα χρειαστεί να απορροφήσουμε -
13:30 - 13:33τις οικονομικές και πολιτικές συνέπειες
της σωστής εφαρμογής. -
13:34 - 13:36Αλλά μόλις παραδεχθούμε
-
13:36 - 13:40ότι η επεξεργασία πληροφοριών
είναι η πηγή της ευφυΐας, -
13:41 - 13:46ότι η βάση της ευφυΐας είναι
κάποιο κατάλληλο υπολογιστικό σύστημα, -
13:46 - 13:51και αποδεχθούμε να βελτιώνουμε
αυτά τα συστήματα συνεχώς, -
13:51 - 13:56και παραδεχθούμε ότι ο γνωστικός ορίζοντας
μάλλον ξεπερνά κατά πολύ -
13:56 - 13:58όσα ήδη γνωρίζουμε,
-
13:58 - 13:59τότε πρέπει να παραδεχθούμε
-
13:59 - 14:03ότι βρισκόμαστε σε διαδικασία κατασκευής
κάποιου είδους θεού. -
14:03 - 14:05Τώρα είναι η σωστή ώρα
-
14:05 - 14:08να εξασφαλίσουμε ότι είναι ένας θεός
με τον οποίον μπορούμε να ζήσουμε. -
14:08 - 14:09Σας ευχαριστώ πολύ.
-
14:09 - 14:11(Χειροκρότημα)
- Title:
- Μπορούμε να φτιάξουμε τεχνητή νοημοσύνη χωρίς να χάσουμε τον έλεγχό της;
- Speaker:
- Σαμ Χάρις
- Description:
-
Φοβάστε την υπερευφυή τεχνητή νοημοσύνη; Έτσι πρέπει, μας λέει ο νευροεπιστήμων και φιλόσοφος Σαμ Χάρις - και όχι μόνο σε θεωρητικό επίπεδο. Πρόκειται να φτιάξουμε υπεράνθρωπες μηχανές, λέει ο Χάρις, αλλά ακόμα δεν έχουμε λύσει τα προβλήματα που σχετίζονται με τη δημιουργία κάποιου πράγματος που μπορεί να μας μεταχειριστεί όπως εμείς μεταχειριζόμαστε τα μυρμήγκια.
- Video Language:
- English
- Team:
closed TED
- Project:
- TEDTalks
- Duration:
- 14:27
![]() |
Chryssa R. Takahashi approved Greek subtitles for Can we build AI without losing control over it? | |
![]() |
Chryssa R. Takahashi edited Greek subtitles for Can we build AI without losing control over it? | |
![]() |
Nikolaos Benias accepted Greek subtitles for Can we build AI without losing control over it? | |
![]() |
Nikolaos Benias edited Greek subtitles for Can we build AI without losing control over it? | |
![]() |
Lucas Kaimaras edited Greek subtitles for Can we build AI without losing control over it? | |
![]() |
Lucas Kaimaras edited Greek subtitles for Can we build AI without losing control over it? | |
![]() |
Lucas Kaimaras edited Greek subtitles for Can we build AI without losing control over it? | |
![]() |
Lucas Kaimaras edited Greek subtitles for Can we build AI without losing control over it? |