1 00:00:00,870 --> 00:00:03,466 Θα σας μιλήσω για ένα σφάλμα στη λογική 2 00:00:03,466 --> 00:00:05,150 που έχουν πολλοί από εμάς. 3 00:00:05,480 --> 00:00:08,840 Στην ουσία είναι αδυναμία να δούμε ένα ορισμένο είδος κινδύνου. 4 00:00:09,384 --> 00:00:11,120 Θα περιγράψω ένα σενάριο 5 00:00:11,120 --> 00:00:14,376 που θεωρώ ταυτόχρονα τρομακτικό, 6 00:00:14,376 --> 00:00:16,336 αλλά και πιθανό να συμβεί, 7 00:00:16,840 --> 00:00:18,496 και δεν είναι καλός συνδυασμός, 8 00:00:18,496 --> 00:00:19,902 όπως τελικά αποδεικνύεται. 9 00:00:20,080 --> 00:00:22,676 Αλλά αντί να τρομοκρατείστε, οι περισσότεροι πιστεύετε 10 00:00:22,676 --> 00:00:24,860 ότι αυτό που σας λέω είναι μάλλον ωραίο. 11 00:00:25,200 --> 00:00:26,580 Θα σας περιγράψω 12 00:00:26,580 --> 00:00:29,976 πώς τα οφέλη που θα δρέψουμε από την τεχνητή νοημοσύνη 13 00:00:29,976 --> 00:00:31,752 μπορούν εν τέλει να μας καταστρέψουν. 14 00:00:31,800 --> 00:00:34,580 Και μάλιστα το θεωρώ απίθανο είτε να μην μας καταστρέψουν 15 00:00:34,580 --> 00:00:36,960 ή να μας εμπνεύσουν να καταστραφούμε μόνοι μας. 16 00:00:37,400 --> 00:00:39,256 Αν όμως σκέφτεστε όπως εγώ, 17 00:00:39,256 --> 00:00:41,782 θα το απολαμβάνετε να σκέφτεστε αυτά τα πράγματα. 18 00:00:41,960 --> 00:00:45,140 Κι αυτή η αντίδραση είναι μέρος του προβλήματος. 19 00:00:45,140 --> 00:00:47,600 Εντάξει; Αυτή η αντίδραση θα πρέπει να σας ανησυχεί. 20 00:00:47,920 --> 00:00:50,576 Κι αν επρόκειτο να σας πείσω με αυτή την ομιλία 21 00:00:50,576 --> 00:00:53,992 ότι είναι πιθανόν να αντιμετωπίσουμε παγκόσμιο λιμό, 22 00:00:53,992 --> 00:00:57,048 είτε λόγω κλιματικής αλλαγής ή κάποιας άλλης καταστροφής, 23 00:00:57,048 --> 00:01:00,464 και ότι τα εγγόνια σας, ή τα δικά τους εγγόνια, 24 00:01:00,464 --> 00:01:02,904 είναι πολύ πιθανόν να ζήσουν κάπως έτσι, 25 00:01:03,200 --> 00:01:04,400 δεν θα σκεφτόσασταν, 26 00:01:05,440 --> 00:01:06,776 «Ενδιαφέρον. 27 00:01:06,776 --> 00:01:08,636 Μου αρέσει αυτή η ομιλία TED». 28 00:01:09,200 --> 00:01:11,180 Ο λιμός δεν είναι κάτι διασκεδαστικό. 29 00:01:11,720 --> 00:01:15,266 Από την άλλη, ο θάνατος μέσω επιστημονικής φαντασίας είναι διασκεδαστικός, 30 00:01:15,266 --> 00:01:19,176 και κάτι που με ανησυχεί σε αυτό το στάδιο της εξέλιξης της τεχνητής νοημοσύνης 31 00:01:19,176 --> 00:01:23,272 είναι ότι αδυνατούμε να επιδείξουμε μια κατάλληλη συναισθηματική αντίδραση 32 00:01:23,272 --> 00:01:25,088 στους επικείμενους κινδύνους. 33 00:01:25,160 --> 00:01:28,660 Ούτε εγώ μπορώ να έχω αυτή την αντίδραση και κάνω αυτή την ομιλία. 34 00:01:30,120 --> 00:01:32,496 Είναι σαν να στεκόμαστε μπροστά σε δύο πόρτες. 35 00:01:32,840 --> 00:01:34,096 Πίσω από την πρώτη πόρτα, 36 00:01:34,096 --> 00:01:37,262 παύουμε να κάνουμε πρόοδο στην παραγωγή ευφυών μηχανών. 37 00:01:37,440 --> 00:01:41,316 Για κάποιον λόγο παύουμε να βελτιώνουμε υλισμικό και λογισμικό στους υπολογιστές. 38 00:01:41,480 --> 00:01:44,620 Τώρα σκεφτείτε για λίγο γιατί μπορεί να συμβεί αυτό. 39 00:01:45,080 --> 00:01:48,736 Εννοώ ότι, δεδομένης της μεγάλης αξίας της ευφυίας και των αυτοματισμών, 40 00:01:48,736 --> 00:01:52,526 εφόσον μπορούμε, θα συνεχίσουμε να βελτιώνουμε την τεχνολογία μας. 41 00:01:53,200 --> 00:01:54,987 Τι μπορεί να μας αποτρέψει; 42 00:01:55,800 --> 00:01:57,910 Ένας πυρηνικός πόλεμος πλήρους κλίμακας; 43 00:01:59,000 --> 00:02:00,920 Μια παγκόσμια πανδημία; 44 00:02:02,320 --> 00:02:04,190 Μια σύγκρουση με αστεροειδή; 45 00:02:05,640 --> 00:02:08,216 Να γίνει ο Τζάστιν Μπίμπερ πρόεδρος των ΗΠΑ; 46 00:02:08,240 --> 00:02:10,520 (Γέλια) 47 00:02:12,760 --> 00:02:17,100 Το θέμα είναι ότι κάτι θα πρέπει να καταστρέψει τον σύγχρονο πολιτισμό. 48 00:02:17,360 --> 00:02:21,576 Θα πρέπει να φανταστείτε πόσο οδυνηρό πρέπει να είναι 49 00:02:21,576 --> 00:02:24,812 για να μας αποτρέψει από το να βελτιώσουμε την τεχνολογία μας 50 00:02:24,812 --> 00:02:26,268 σε μόνιμη βάση, 51 00:02:26,268 --> 00:02:28,174 στις επόμενες γενεές. 52 00:02:28,320 --> 00:02:29,870 Αυτό είναι σχεδόν εξ ορισμού 53 00:02:29,870 --> 00:02:32,496 ό,τι χειρότερο έχει ποτέ συμβεί στην ανθρώπινη ιστορία. 54 00:02:32,520 --> 00:02:33,816 Έτσι η μόνη εναλλακτική 55 00:02:33,816 --> 00:02:36,152 -κι αυτή βρίσκεται πίσω από τη δεύτερη πόρτα- 56 00:02:36,152 --> 00:02:39,288 είναι να συνεχίσουμε να βελτιώνουμε τις έξυπνες μηχανές μας 57 00:02:39,288 --> 00:02:41,208 χρόνο με τον χρόνο. 58 00:02:41,720 --> 00:02:45,590 Σε κάποιο σημείο, θα φτιάξουμε μηχανές που θα είναι πιο έξυπνες από εμάς, 59 00:02:46,080 --> 00:02:48,470 κι όταν θα έχουμε μηχανές εξυπνότερες από εμάς, 60 00:02:48,470 --> 00:02:50,496 θα αρχίσουν να βελτιώνονται μόνες τους. 61 00:02:50,720 --> 00:02:52,420 Τότε διακινδυνεύουμε να έχουμε κάτι 62 00:02:52,420 --> 00:02:55,256 που ο μαθηματικός Ι. Τζ. Γκουντ αποκάλεσε «έκρηξη ευφυίας», 63 00:02:55,256 --> 00:02:57,756 όπου η διαδικασία μπορεί να φύγει από τον έλεγχό μας. 64 00:02:58,144 --> 00:03:00,960 Αυτό συχνά απεικονίζεται, όπως σας δείχνω εδώ, 65 00:03:00,960 --> 00:03:04,176 ως ένας φόβος ότι στρατιές από κακόβουλα ρομπότ 66 00:03:04,176 --> 00:03:05,432 θα μας επιτεθούν. 67 00:03:05,480 --> 00:03:07,996 Αλλά αυτό δεν είναι το πιο πιθανό σενάριο. 68 00:03:08,200 --> 00:03:12,946 Δεν είναι ότι οι μηχανές μας θα γίνουν αυθόρμητα κακόβουλες. 69 00:03:13,090 --> 00:03:15,706 Η πραγματική ανησυχία είναι ότι θα φτιάξουμε μηχανές 70 00:03:15,706 --> 00:03:17,812 που θα είναι τόσο πιο ικανές από εμάς 71 00:03:17,812 --> 00:03:21,576 που η ελάχιστη απόκλιση μεταξύ των δικών τους στόχων και των δικών μας 72 00:03:21,576 --> 00:03:23,256 θα μπορούσε να μας καταστρέψει. 73 00:03:23,960 --> 00:03:26,200 Σκεφτείτε τη σχέση μας με τα μυρμήγκια. 74 00:03:26,600 --> 00:03:27,946 Δεν τα μισούμε. 75 00:03:28,280 --> 00:03:30,176 Δεν τα βλάπτουμε εκουσίως. 76 00:03:30,176 --> 00:03:32,712 Συχνά μάλιστα κάνουμε προσπάθεια να μην τα βλάψουμε. 77 00:03:32,712 --> 00:03:34,836 Αποφεύγουμε να τα πατήσουμε στο πεζοδρόμιο. 78 00:03:34,836 --> 00:03:36,936 Αλλά όταν η παρουσία τους 79 00:03:36,936 --> 00:03:39,432 αντιτίθεται σοβαρά με τους στόχους μας, 80 00:03:39,432 --> 00:03:41,909 ας πούμε, όταν φτιάχνουμε ένα τέτοιο κτήριο, 81 00:03:41,909 --> 00:03:44,189 τα εκμηδενίζουμε χωρίς δεύτερη σκέψη. 82 00:03:44,480 --> 00:03:47,416 Η ανησυχία είναι ότι μια μέρα θα φτιάξουμε μηχανές που, 83 00:03:47,416 --> 00:03:50,152 είτε ενσυνείδητα ή όχι, 84 00:03:50,152 --> 00:03:52,582 θα μας μεταχειριστούν με παρόμοια αδιαφορία. 85 00:03:53,760 --> 00:03:56,520 Υποψιάζομαι ότι οι περισσότεροι το θεωρείτε παρατραβηγμένο. 86 00:03:57,360 --> 00:04:02,190 Βάζω στοίχημα ότι κάποιοι αμφιβάλλουν αν η υπερευφυής τεχνητή νοημοσύνη 87 00:04:02,190 --> 00:04:05,086 είναι εφικτή, πολύ δε λιγότερο αναπόφευκτη. 88 00:04:05,400 --> 00:04:08,860 Τότε όμως πρέπει να βρείτε κάποιο λάθος στις ακόλουθες υποθέσεις. 89 00:04:09,044 --> 00:04:10,616 Και είναι μόνο τρεις υποθέσεις. 90 00:04:11,800 --> 00:04:16,639 Η ευφυΐα είναι θέμα επεξεργασίας της πληροφορίας σε υλικά συστήματα. 91 00:04:17,320 --> 00:04:19,825 Βασικά, αυτό είναι κάτι παραπάνω από μια υπόθεση. 92 00:04:19,825 --> 00:04:23,412 Έχουμε ήδη ενσωματώσει περιορισμένη ευφυΐα στις μηχανές μας, 93 00:04:23,412 --> 00:04:25,428 και πολλές από αυτές ήδη αποδίδουν 94 00:04:25,428 --> 00:04:28,518 σε επίπεδο υπεράνθρωπης ευφυΐας. 95 00:04:28,840 --> 00:04:31,416 Και ξέρουμε πως η απλή ύλη 96 00:04:31,416 --> 00:04:34,032 μπορεί να δημιουργήσει αυτό που λέγεται «γενική ευφυΐα», 97 00:04:34,032 --> 00:04:37,688 μια ικανότητα να σκεφτούμε ευέλικτα σε πολλαπλά επίπεδα, 98 00:04:37,688 --> 00:04:40,604 επειδή τα μυαλά μας τα έχουν καταφέρει, σωστά; 99 00:04:40,920 --> 00:04:44,856 Εξάλλου μόνο άτομα υπάρχουν εκεί, 100 00:04:44,880 --> 00:04:49,376 και όσο συνεχίζουμε να φτιάχνουμε συστήματα από άτομα 101 00:04:49,376 --> 00:04:52,072 που επιδεικνύουν όλο και περισσότερο ευφυή συμπεριφορά, 102 00:04:52,072 --> 00:04:54,608 αν δεν μας σταματήσει κάποιος, 103 00:04:54,608 --> 00:04:57,984 τελικά θα βάλουμε τη γενική ευφυΐα 104 00:04:57,984 --> 00:04:59,280 μέσα στις μηχανές μας. 105 00:04:59,400 --> 00:05:03,006 Είναι σημαντικό να καταλάβουμε ότι δεν έχει σημασία ο ρυθμός της προόδου, 106 00:05:03,006 --> 00:05:06,412 γιατί κάθε πρόοδος είναι αρκετή για να οδηγήσει σε αυτή την κατάληξη. 107 00:05:06,412 --> 00:05:09,956 Δεν χρειάζεται ο Νόμος του Μουρ, ούτε κάποια εκθετική πρόοδος. 108 00:05:09,956 --> 00:05:12,026 Χρειάζεται απλώς να συνεχίσουμε. 109 00:05:13,480 --> 00:05:16,610 Η δεύτερη υπόθεση είναι ότι θα συνεχίσουμε. 110 00:05:17,000 --> 00:05:20,130 Θα συνεχίσουμε να βελτιώνουμε τις έξυπνες μηχανές μας. 111 00:05:21,000 --> 00:05:25,376 Και σύμφωνα με την αξία της ευφυΐας - 112 00:05:25,376 --> 00:05:28,912 εννοώ ότι είτε η ευφυΐα είναι η πηγή για ό,τι θεωρούμε άξιο, 113 00:05:28,912 --> 00:05:31,818 ή χρειάζεται να περιφρουρήσουμε οτιδήποτε θεωρούμε άξιο. 114 00:05:31,818 --> 00:05:34,016 Είναι ο πιο πολύτιμος πόρος που έχουμε. 115 00:05:34,016 --> 00:05:35,552 Έτσι, θέλουμε να το κάνουμε. 116 00:05:35,552 --> 00:05:38,888 Έχουμε προβλήματα και πρέπει να τα λύσουμε επειγόντως. 117 00:05:38,960 --> 00:05:42,310 Θέλουμε να θεραπεύσουμε νόσους όπως τον καρκίνο και την Αλτσχάιμερ, 118 00:05:42,960 --> 00:05:46,836 να καταλάβουμε οικονομικά συστήματα, να βελτιώσουμε τη γνώση μας για το κλίμα. 119 00:05:46,920 --> 00:05:49,176 Γι' αυτό θα το κάνουμε, αν μπορούμε. 120 00:05:49,176 --> 00:05:52,682 Το τρένο έχει ήδη ξεκινήσει και δεν έχει φρένο. 121 00:05:53,880 --> 00:05:59,336 Τέλος, δεν έχουμε φτάσει στην αποκορύφωση της ευφυΐας, 122 00:05:59,336 --> 00:06:01,356 μάλλον ούτε που την πλησιάσαμε. 123 00:06:01,640 --> 00:06:03,536 Και αυτή είναι η σημαντική διαπίστωση. 124 00:06:03,536 --> 00:06:05,952 Αυτό κάνει τόσο επισφαλή την κατάστασή μας, 125 00:06:05,952 --> 00:06:10,132 και τόσο αναξιόπιστα τα προαίσθήματά μας σχετικά με το ρίσκο. 126 00:06:11,120 --> 00:06:14,050 Απλώς σκεφτείτε το πιο έξυπνο άτομο που έχει ποτέ ζήσει. 127 00:06:14,640 --> 00:06:18,056 Κάποιον που όλοι σας θα έχετε κατά νου είναι ο Τζον φον Νόιμαν. 128 00:06:18,080 --> 00:06:21,416 Η εντύπωση που έκανε στους τριγύρω του ο φον Νόιμαν, 129 00:06:21,416 --> 00:06:25,472 συμπεριλαμβανομένων των πιο λαμπρών μαθηματικών και φυσικών της εποχής του, 130 00:06:25,472 --> 00:06:27,408 έχει καταγραφεί επαρκώς. 131 00:06:27,480 --> 00:06:30,880 Και μόνο οι μισές ιστορίες γι' αυτόν να αληθεύουν, 132 00:06:30,880 --> 00:06:32,286 χωρίς αμφιβολία 133 00:06:32,286 --> 00:06:34,952 είναι από τους πιο έξυπνους ανθρώπους που έχουν ζήσει. 134 00:06:35,012 --> 00:06:37,690 Σκεφτείτε λοιπόν το φάσμα της ευφυΐας. 135 00:06:38,320 --> 00:06:40,019 Εδώ είναι ο Τζον φον Νόιμαν. 136 00:06:41,560 --> 00:06:43,404 Κι εδώ είμαστε εσείς κι εγώ. 137 00:06:44,120 --> 00:06:45,576 Μετά είναι οι κότες. 138 00:06:45,576 --> 00:06:47,350 (Γέλια) 139 00:06:47,350 --> 00:06:48,666 Συγνώμη, μια κότα. 140 00:06:48,666 --> 00:06:49,896 (Γέλια) 141 00:06:49,920 --> 00:06:53,360 Δεν υπάρχει λόγος να κάνω την ομιλία πιο θλιβερή απ' όσο χρειάζεται. 142 00:06:53,360 --> 00:06:55,280 (Γέλια) 143 00:06:56,339 --> 00:06:59,816 Ωστόσο, φαίνεται εκπληκτικά πιθανόν ότι το φάσμα της ευφυΐας 144 00:06:59,816 --> 00:07:03,446 εκτείνεται πολύ πιο πέρα από όσο τώρα αντιλαμβανόμαστε, 145 00:07:03,880 --> 00:07:06,816 και αν φτιάξουμε μηχανές πιο έξυπνες από εμάς, 146 00:07:07,120 --> 00:07:09,416 είναι πολύ πιθανόν να εξερευνήσουν αυτό το φάσμα 147 00:07:09,416 --> 00:07:11,592 με τρόπους που δεν μπορούμε να φανταστούμε 148 00:07:11,592 --> 00:07:14,110 και να μας ξεπεράσουν σε αφάνταστο βαθμό. 149 00:07:15,000 --> 00:07:19,266 Και είναι σημαντικό να αναγνωρίσουμε ότι αυτό αληθεύει και μόνο λόγω ταχύτητας. 150 00:07:19,360 --> 00:07:24,116 Σωστά; Φανταστείτε να φτιάχναμε μια υπερευφυή τεχνητή νοημοσύνη, 151 00:07:24,440 --> 00:07:27,896 που δεν θα ήταν εξυπνότερη από μια μέση ομάδα ερευνητών 152 00:07:27,896 --> 00:07:29,982 των πανεπιστημίων Στάνφορντ ή ΜΙΤ. 153 00:07:30,240 --> 00:07:32,070 Τα ηλεκτρονικά κυκλώματα λειτουργούν 154 00:07:32,070 --> 00:07:34,536 ένα εκατομμύριο φορές ταχύτερα από τα βιοχημικά, 155 00:07:34,536 --> 00:07:37,656 έτσι αυτή η μηχανή θα σκεφτόταν ένα εκατομμύριο φορές πιο γρήγορα 156 00:07:37,656 --> 00:07:39,472 από τους εγκεφάλους που την έφτιαξαν. 157 00:07:39,544 --> 00:07:41,200 Με λειτουργία μίας εβδομάδας 158 00:07:41,200 --> 00:07:46,070 θα παράξει έργο 20.000 ετών σε επίπεδο ανθρώπινης διάνοιας, 159 00:07:46,400 --> 00:07:48,820 και το ίδιο θα κάνει κάθε επόμενη εβδομάδα. 160 00:07:49,640 --> 00:07:52,816 Πώς μπορούμε να καταλάβουμε, πολύ δε περισσότερο να περιορίσουμε, 161 00:07:52,816 --> 00:07:55,510 έναν εγκέφαλο που κάνει τέτοια πρόοδο; 162 00:07:56,840 --> 00:08:00,056 Για να πω την αλήθεια, είναι επίσης ανησυχητικό 163 00:08:00,056 --> 00:08:03,976 να φανταστούμε το καλύτερο δυνατό σενάριο. 164 00:08:04,000 --> 00:08:07,800 Φανταστείτε να βρούμε ένα σχέδιο υπερεφυούς τεχνητής νοημοσύνης 165 00:08:07,800 --> 00:08:09,626 που δεν έχει θέματα ασφάλειας. 166 00:08:09,626 --> 00:08:12,666 Θα έχουμε βρει το τέλειο σχέδιο για πρώτη φορά. 167 00:08:12,880 --> 00:08:15,096 Θα είναι σαν να μας έχει δοθεί ένα μαντείο 168 00:08:15,096 --> 00:08:17,112 που λειτουργεί ακριβώς όπως πρέπει. 169 00:08:17,112 --> 00:08:21,122 Αυτή θα ήταν η τέλεια μηχανή εξοικονόμησης έργου. 170 00:08:21,590 --> 00:08:24,109 Θα σχεδιάσει τη μηχανή που θα κατασκευάσει τη μηχανή 171 00:08:24,109 --> 00:08:26,062 που θα κάνει κάθε σωματική εργασία, 172 00:08:26,062 --> 00:08:27,400 τροφοδοτούμενη από τον ήλιο, 173 00:08:27,400 --> 00:08:29,916 με μόνο κόστος αυτό των πρώτων υλών. 174 00:08:30,120 --> 00:08:32,956 Έτσι μιλάμε για το τέλος της ανθρώπινης αγγαρείας. 175 00:08:33,400 --> 00:08:36,520 Επίσης μιλάμε για το τέλος της περισσότερης διανοητικής εργασίας. 176 00:08:37,200 --> 00:08:40,156 Τι θα κάνουν οι πίθηκοι όπως εμείς σε αυτή την περίπτωση; 177 00:08:40,280 --> 00:08:44,810 Θα έχουμε χρόνο να παίζουμε φρίσμπι και να κάνουμε μασάζ ο ένας στον άλλον. 178 00:08:45,840 --> 00:08:48,766 Προσθέστε λίγο LSD και κάποιες αμφίβολες επιλογές ένδυσης, 179 00:08:48,766 --> 00:08:51,426 κι όλος ο κόσμος θα μοιάζει με φεστιβάλ Burning Man. 180 00:08:51,426 --> 00:08:52,910 (Γέλια) 181 00:08:54,320 --> 00:08:56,760 Μπορεί βέβαια να ακούγεται αρκετά καλό, 182 00:08:57,280 --> 00:08:59,656 αλλά αναρωτηθείτε τι θα συνέβαινε 183 00:08:59,656 --> 00:09:02,242 με την τωρινή οικονομική και πολιτική κατάσταση; 184 00:09:02,440 --> 00:09:04,856 Μοιάζει πιθανό ότι θα βιώσουμε 185 00:09:04,856 --> 00:09:08,992 ένα επίπεδο ανισότητας πλούτου και ανεργίας 186 00:09:08,992 --> 00:09:10,578 που δεν έχουμε ξαναδεί. 187 00:09:10,578 --> 00:09:13,276 Αν απουσιάσει η θέληση να βάλουμε άμεσα αυτόν τον πλούτο 188 00:09:13,276 --> 00:09:15,346 στην υπηρεσία όλης της ανθρωπότητας, 189 00:09:15,346 --> 00:09:19,256 ελάχιστοι πολυεκατομμυριούχοι θα κοσμούν τα εξώφυλλα των οικονομικών περιοδικών, 190 00:09:19,256 --> 00:09:21,996 ενώ ο υπόλοιπος κόσμος θα είναι ελεύθερος να λιμοκτονήσει. 191 00:09:22,320 --> 00:09:24,616 Και τι θα κάνουν οι Ρώσοι ή οι Κινέζοι 192 00:09:24,616 --> 00:09:27,232 αν μάθουν ότι μια εταιρεία στη Σίλικον Βάλεϊ 193 00:09:27,232 --> 00:09:29,968 πρόκειται να κυκλοφορήσει μια υπερευφυή τεχνητή νοημοσύνη; 194 00:09:30,064 --> 00:09:32,920 Αυτή η μηχανή θα μπορούσε να κηρύξει πόλεμο, 195 00:09:32,920 --> 00:09:35,256 είτε συμβατικό είτε σε επίπεδο υπολογιστών, 196 00:09:35,256 --> 00:09:37,350 με ισχύ άνευ προηγουμένου. 197 00:09:38,120 --> 00:09:40,156 Είναι ένα σενάριο όπου κερδίζει μόνο ένας. 198 00:09:40,156 --> 00:09:43,136 Όταν προηγείσαι εδώ έξι μήνες από τον ανταγωνισμό, 199 00:09:43,160 --> 00:09:45,936 είναι σαν να είσαι 500.000 χρόνια μπροστά 200 00:09:45,936 --> 00:09:47,152 κατά το ελάχιστο. 201 00:09:47,480 --> 00:09:52,216 Άρα φαίνεται ότι ακόμη και απλές φήμες για κάτι τόσο επαναστατικό 202 00:09:52,216 --> 00:09:54,402 θα έκανε το είδος μας να τρελαθεί. 203 00:09:54,640 --> 00:09:57,536 Ένα από τα πιο τρομακτικά πράγματα, 204 00:09:57,536 --> 00:10:00,092 κατά την άποψή μου, αυτή τη στιγμή, 205 00:10:00,360 --> 00:10:04,396 είναι αυτά που λένε οι ερευνητές της τεχνητής νοημοσύνης 206 00:10:04,680 --> 00:10:06,610 όταν θέλουν να μας καθησυχάσουν. 207 00:10:06,840 --> 00:10:10,486 Κι ο πιο κοινός λόγος που προβάλλουν για να μην ανησυχούμε είναι ο χρόνος. 208 00:10:10,486 --> 00:10:12,726 Αυτό είναι πολύ μακριά, δεν το βλέπετε; 209 00:10:12,726 --> 00:10:15,280 Είναι περίπου 50 ή 100 χρόνια μετά. 210 00:10:15,640 --> 00:10:16,876 Ένας ερευνητής έχει πει, 211 00:10:16,876 --> 00:10:19,146 «Ανησυχώντας για ασφάλεια στην τεχνητή νοημοσύνη 212 00:10:19,146 --> 00:10:21,690 είναι σαν να ανησυχούμε για υπερπληθυσμό στον Άρη». 213 00:10:22,116 --> 00:10:23,926 Αυτό είναι η έκδοση της Σίλικον Βάλεϊ 214 00:10:23,926 --> 00:10:26,186 του «μην ζαλίζεις το όμορφο κεφαλάκι σου». 215 00:10:26,186 --> 00:10:27,490 (Γέλια) 216 00:10:27,490 --> 00:10:29,416 Κανείς δεν φαίνεται να βλέπει 217 00:10:29,416 --> 00:10:32,272 ότι η αναφορά στον χρονικό ορίζοντα 218 00:10:32,272 --> 00:10:34,396 είναι τελείως ανακόλουθη. 219 00:10:34,590 --> 00:10:37,796 Αν η ευφυΐα είναι απλώς θέμα επεξεργασίας της πληροφορίας, 220 00:10:37,960 --> 00:10:40,276 και συνεχίζουμε να βελτιώνουμε τις μηχανές μας, 221 00:10:40,640 --> 00:10:43,770 σίγουρα θα δημιουργήσουμε κάποια μορφή υπερευφυΐας. 222 00:10:44,320 --> 00:10:47,976 Και δεν ξέρουμε πόσο χρόνο θα μας πάρει 223 00:10:47,976 --> 00:10:51,146 να δημιουργήσουμε τις συνθήκες ώστε να το κάνουμε με ασφάλεια. 224 00:10:52,200 --> 00:10:53,366 Να το πω πάλι. 225 00:10:53,520 --> 00:10:57,336 Δεν έχουμε ιδέα πόσο χρόνο θα μας πάρει 226 00:10:57,336 --> 00:11:00,326 να δημιουργήσουμε τις συνθήκες ώστε να το κάνουμε με ασφάλεια. 227 00:11:00,920 --> 00:11:04,376 Κι αν δεν το έχετε προσέξει, τα 50 χρόνια δεν είναι αυτό που ήταν. 228 00:11:04,376 --> 00:11:06,562 Αυτό είναι 50 χρόνια σε μήνες. 229 00:11:06,880 --> 00:11:08,720 Τόσον καιρό έχουμε το iPhone. 230 00:11:09,440 --> 00:11:12,040 Τόσον καιρό παίζονται οι Σίμπσονς στην τηλεόραση. 231 00:11:12,680 --> 00:11:15,056 Τα 50 χρόνια δεν είναι τόσο πολλά 232 00:11:15,056 --> 00:11:18,766 για μια από τις μεγαλύτερες προκλήσεις που θα αντιμετωπίσει το είδος μας. 233 00:11:19,640 --> 00:11:23,656 Και πάλι - αδυνατούμε να επιδείξουμε κατάλληλη συναισθηματική απόκριση 234 00:11:23,656 --> 00:11:26,352 σε κάτι που έχουμε κάθε λόγο να πιστεύουμε ότι θα έρθει. 235 00:11:26,400 --> 00:11:30,376 Ο επιστήμων υπολογιστών Στιούαρτ Ράσελ έχει μια ωραία αναλογία γι' αυτό. 236 00:11:30,376 --> 00:11:35,112 Είπε, φανταστείτε ότι λάβαμε μήνυμα από εξωγήινο πολιτισμό, 237 00:11:35,320 --> 00:11:36,346 που έλεγε: 238 00:11:37,040 --> 00:11:38,366 «Άνθρωποι της Γης, 239 00:11:38,600 --> 00:11:41,240 θα φτάσουμε στον πλανήτη σας σε 50 χρόνια. 240 00:11:41,800 --> 00:11:43,006 Ετοιμαστείτε». 241 00:11:43,400 --> 00:11:47,436 Και τώρα απλώς μετράμε αντίστροφα τον χρόνο μέχρι να έρθει το διαστημόπλοιο. 242 00:11:47,680 --> 00:11:51,350 Θα το νιώθαμε ως κάτι λίγο πιο επιτακτικό από ό,τι τώρα. 243 00:11:52,370 --> 00:11:54,426 Μας λένε επίσης να μην ανησυχούμε, 244 00:11:54,426 --> 00:11:57,616 γιατί οι μηχανές δεν μπορούν παρά να έχουν τις δικές μας αξίες, 245 00:11:57,616 --> 00:12:00,216 καθώς κυριολεκτικά είναι προέκταση των εαυτών μας. 246 00:12:00,216 --> 00:12:02,032 Θα συνδεθούν στον εγκέφαλό μας 247 00:12:02,032 --> 00:12:04,752 και βασικά θα γίνουμε το μεταιχμιακό τους σύστημα. 248 00:12:05,120 --> 00:12:06,536 Σκεφτείτε για ένα λεπτό 249 00:12:06,536 --> 00:12:09,712 ότι ο ασφαλέστερος και ο μόνος συνετός δρόμος προς τα εμπρός 250 00:12:09,712 --> 00:12:10,968 που προτείνεται, 251 00:12:10,968 --> 00:12:14,328 είναι να εμφυτεύσουμε αυτή την τεχνολογία απευθείας στον εγκέφαλό μας. 252 00:12:14,600 --> 00:12:17,976 Βέβαια, μπορεί να είναι ο ασφαλέστερος και ο μόνος συνετός δρόμος, 253 00:12:17,976 --> 00:12:21,032 αλλά συνήθως οι ανησυχίες για την ασφάλεια μιας τεχνολογίας 254 00:12:21,032 --> 00:12:24,688 πρέπει να έχουν επιλυθεί πριν την εμφυτεύσουμε στο κεφάλι μας. 255 00:12:24,688 --> 00:12:26,704 (Γέλια) 256 00:12:26,800 --> 00:12:30,190 Το βαθύτερο πρόβλημα είναι ότι φαίνεται ευκολότερο 257 00:12:30,190 --> 00:12:33,600 να φτάξεις ένα μεμονωμένο σύστημα τεχνητής νοημοσύνης, 258 00:12:33,600 --> 00:12:35,776 από το να φτιάξεις ένα σύστημα 259 00:12:35,776 --> 00:12:37,552 και να έχεις και επαρκή νευροεπιστήμη 260 00:12:37,552 --> 00:12:40,472 που να επιτρέπει την εύκολη ενσωμάτωσή του στον εγκέφαλό μας. 261 00:12:40,800 --> 00:12:43,976 Και δεδομένου ότι οι κυβερνήσεις και εταιρείες που θα το κάνουν 262 00:12:43,976 --> 00:12:47,632 είναι πιθανόν θα θεωρούν ότι ανταγωνίζονται όλους τους άλλους, 263 00:12:47,632 --> 00:12:50,668 εφόσον όποιος το κάνει πρώτος θα κυριαρχήσει στον κόσμο, 264 00:12:50,668 --> 00:12:53,454 με την προϋπόθεση ότι δεν θα τον καταστρέψει αμέσως μετά, 265 00:12:53,454 --> 00:12:54,590 τότε μοιάζει πιθανό 266 00:12:54,590 --> 00:12:57,780 ότι θα γίνει πρώτο οτιδήποτε γίνεται πιο εύκολα. 267 00:12:58,560 --> 00:13:01,190 Δυστυχώς δεν έχω κάποια λύση γι' αυτό το πρόβλημα, 268 00:13:01,190 --> 00:13:04,050 εκτός από το να συστήσω να το ξανασκεφτούμε οι περισσότεροι. 269 00:13:04,050 --> 00:13:06,626 Νομίζω ότι χρειαζόμαστε κάτι σαν το Πρόγραμμα Μανχάταν 270 00:13:06,626 --> 00:13:08,660 προσαρμοσμένο για την τεχνητή νοημοσύνη. 271 00:13:08,660 --> 00:13:11,386 Όχι για να την φτιάξουμε, γιατί μάλλον είναι αναπόφευκτο, 272 00:13:11,386 --> 00:13:14,616 αλλά να καταλάβουμε πώς να αποφύγουμε έναν αγώνα εξοπλισμών 273 00:13:14,616 --> 00:13:17,992 και να την φτιάξουμε έτσι που να συμβαδίζει με τα συμφέροντά μας. 274 00:13:18,160 --> 00:13:20,296 Όταν μιλάτε για υπερευφυή τεχνητή νοημοσύνη 275 00:13:20,296 --> 00:13:22,552 που μπορεί να τροποποιήσει τον εαυτό της, 276 00:13:22,600 --> 00:13:27,216 φαίνεται ότι έχουμε μόνο μία πιθανότητα να ορίσουμε τις σωστές προϋποθέσεις, 277 00:13:27,216 --> 00:13:29,502 και ακόμη και τότε θα χρειαστεί να απορροφήσουμε 278 00:13:29,502 --> 00:13:32,750 τις οικονομικές και πολιτικές συνέπειες της σωστής εφαρμογής. 279 00:13:33,760 --> 00:13:35,816 Αλλά μόλις παραδεχθούμε 280 00:13:35,816 --> 00:13:40,246 ότι η επεξεργασία πληροφοριών είναι η πηγή της ευφυΐας, 281 00:13:40,720 --> 00:13:45,690 ότι η βάση της ευφυΐας είναι κάποιο κατάλληλο υπολογιστικό σύστημα, 282 00:13:46,360 --> 00:13:50,680 και αποδεχθούμε να βελτιώνουμε αυτά τα συστήματα συνεχώς, 283 00:13:51,280 --> 00:13:55,736 και παραδεχθούμε ότι ο γνωστικός ορίζοντας μάλλον ξεπερνά κατά πολύ 284 00:13:55,736 --> 00:13:57,516 όσα ήδη γνωρίζουμε, 285 00:13:58,120 --> 00:13:59,416 τότε πρέπει να παραδεχθούμε 286 00:13:59,416 --> 00:14:02,540 ότι βρισκόμαστε σε διαδικασία κατασκευής κάποιου είδους θεού. 287 00:14:03,400 --> 00:14:04,746 Τώρα είναι η σωστή ώρα 288 00:14:04,746 --> 00:14:08,129 να εξασφαλίσουμε ότι είναι ένας θεός με τον οποίον μπορούμε να ζήσουμε. 289 00:14:08,129 --> 00:14:09,360 Σας ευχαριστώ πολύ. 290 00:14:09,360 --> 00:14:10,913 (Χειροκρότημα)