0:00:00.870,0:00:03.466 Θα σας μιλήσω για ένα σφάλμα στη λογική 0:00:03.466,0:00:05.150 που έχουν πολλοί από εμάς. 0:00:05.480,0:00:08.840 Στην ουσία είναι αδυναμία να δούμε[br]ένα ορισμένο είδος κινδύνου. 0:00:09.384,0:00:11.120 Θα περιγράψω ένα σενάριο 0:00:11.120,0:00:14.376 που θεωρώ ταυτόχρονα τρομακτικό, 0:00:14.376,0:00:16.336 αλλά και πιθανό να συμβεί, 0:00:16.840,0:00:18.496 και δεν είναι καλός συνδυασμός, 0:00:18.496,0:00:19.902 όπως τελικά αποδεικνύεται. 0:00:20.080,0:00:22.676 Αλλά αντί να τρομοκρατείστε,[br]οι περισσότεροι πιστεύετε 0:00:22.676,0:00:24.860 ότι αυτό που σας λέω είναι μάλλον ωραίο. 0:00:25.200,0:00:26.580 Θα σας περιγράψω 0:00:26.580,0:00:29.976 πώς τα οφέλη που θα δρέψουμε[br]από την τεχνητή νοημοσύνη 0:00:29.976,0:00:31.752 μπορούν εν τέλει να μας καταστρέψουν. 0:00:31.800,0:00:34.580 Και μάλιστα το θεωρώ απίθανο[br]είτε να μην μας καταστρέψουν 0:00:34.580,0:00:36.960 ή να μας εμπνεύσουν[br]να καταστραφούμε μόνοι μας. 0:00:37.400,0:00:39.256 Αν όμως σκέφτεστε όπως εγώ, 0:00:39.256,0:00:41.782 θα το απολαμβάνετε[br]να σκέφτεστε αυτά τα πράγματα. 0:00:41.960,0:00:45.140 Κι αυτή η αντίδραση[br]είναι μέρος του προβλήματος. 0:00:45.140,0:00:47.600 Εντάξει; Αυτή η αντίδραση[br]θα πρέπει να σας ανησυχεί. 0:00:47.920,0:00:50.576 Κι αν επρόκειτο να σας πείσω[br]με αυτή την ομιλία 0:00:50.576,0:00:53.992 ότι είναι πιθανόν[br]να αντιμετωπίσουμε παγκόσμιο λιμό, 0:00:53.992,0:00:57.048 είτε λόγω κλιματικής αλλαγής[br]ή κάποιας άλλης καταστροφής, 0:00:57.048,0:01:00.464 και ότι τα εγγόνια σας,[br]ή τα δικά τους εγγόνια, 0:01:00.464,0:01:02.904 είναι πολύ πιθανόν να ζήσουν κάπως έτσι, 0:01:03.200,0:01:04.400 δεν θα σκεφτόσασταν, 0:01:05.440,0:01:06.776 «Ενδιαφέρον. 0:01:06.776,0:01:08.636 Μου αρέσει αυτή η ομιλία TED». 0:01:09.200,0:01:11.180 Ο λιμός δεν είναι κάτι διασκεδαστικό. 0:01:11.720,0:01:15.266 Από την άλλη, ο θάνατος μέσω επιστημονικής[br]φαντασίας είναι διασκεδαστικός, 0:01:15.266,0:01:19.176 και κάτι που με ανησυχεί σε αυτό το στάδιο[br]της εξέλιξης της τεχνητής νοημοσύνης 0:01:19.176,0:01:23.272 είναι ότι αδυνατούμε να επιδείξουμε[br]μια κατάλληλη συναισθηματική αντίδραση 0:01:23.272,0:01:25.088 στους επικείμενους κινδύνους. 0:01:25.160,0:01:28.660 Ούτε εγώ μπορώ να έχω αυτή την αντίδραση[br]και κάνω αυτή την ομιλία. 0:01:30.120,0:01:32.496 Είναι σαν να στεκόμαστε[br]μπροστά σε δύο πόρτες. 0:01:32.840,0:01:34.096 Πίσω από την πρώτη πόρτα, 0:01:34.096,0:01:37.262 παύουμε να κάνουμε πρόοδο[br]στην παραγωγή ευφυών μηχανών. 0:01:37.440,0:01:41.316 Για κάποιον λόγο παύουμε να βελτιώνουμε[br]υλισμικό και λογισμικό στους υπολογιστές. 0:01:41.480,0:01:44.620 Τώρα σκεφτείτε για λίγο[br]γιατί μπορεί να συμβεί αυτό. 0:01:45.080,0:01:48.736 Εννοώ ότι, δεδομένης της μεγάλης αξίας[br]της ευφυίας και των αυτοματισμών, 0:01:48.736,0:01:52.526 εφόσον μπορούμε, θα συνεχίσουμε[br]να βελτιώνουμε την τεχνολογία μας. 0:01:53.200,0:01:54.987 Τι μπορεί να μας αποτρέψει; 0:01:55.800,0:01:57.910 Ένας πυρηνικός πόλεμος πλήρους κλίμακας; 0:01:59.000,0:02:00.920 Μια παγκόσμια πανδημία; 0:02:02.320,0:02:04.190 Μια σύγκρουση με αστεροειδή; 0:02:05.640,0:02:08.216 Να γίνει ο Τζάστιν Μπίμπερ[br]πρόεδρος των ΗΠΑ; 0:02:08.240,0:02:10.520 (Γέλια) 0:02:12.760,0:02:17.100 Το θέμα είναι ότι κάτι θα πρέπει[br]να καταστρέψει τον σύγχρονο πολιτισμό. 0:02:17.360,0:02:21.576 Θα πρέπει να φανταστείτε[br]πόσο οδυνηρό πρέπει να είναι 0:02:21.576,0:02:24.812 για να μας αποτρέψει[br]από το να βελτιώσουμε την τεχνολογία μας 0:02:24.812,0:02:26.268 σε μόνιμη βάση, 0:02:26.268,0:02:28.174 στις επόμενες γενεές. 0:02:28.320,0:02:29.870 Αυτό είναι σχεδόν εξ ορισμού 0:02:29.870,0:02:32.496 ό,τι χειρότερο έχει ποτέ συμβεί[br]στην ανθρώπινη ιστορία. 0:02:32.520,0:02:33.816 Έτσι η μόνη εναλλακτική 0:02:33.816,0:02:36.152 -κι αυτή βρίσκεται[br]πίσω από τη δεύτερη πόρτα- 0:02:36.152,0:02:39.288 είναι να συνεχίσουμε να βελτιώνουμε[br]τις έξυπνες μηχανές μας 0:02:39.288,0:02:41.208 χρόνο με τον χρόνο. 0:02:41.720,0:02:45.590 Σε κάποιο σημείο, θα φτιάξουμε μηχανές[br]που θα είναι πιο έξυπνες από εμάς, 0:02:46.080,0:02:48.470 κι όταν θα έχουμε μηχανές[br]εξυπνότερες από εμάς, 0:02:48.470,0:02:50.496 θα αρχίσουν να βελτιώνονται μόνες τους. 0:02:50.720,0:02:52.420 Τότε διακινδυνεύουμε να έχουμε κάτι 0:02:52.420,0:02:55.256 που ο μαθηματικός Ι. Τζ. Γκουντ[br]αποκάλεσε «έκρηξη ευφυίας», 0:02:55.256,0:02:57.756 όπου η διαδικασία μπορεί[br]να φύγει από τον έλεγχό μας. 0:02:58.144,0:03:00.960 Αυτό συχνά απεικονίζεται,[br]όπως σας δείχνω εδώ, 0:03:00.960,0:03:04.176 ως ένας φόβος ότι στρατιές[br]από κακόβουλα ρομπότ 0:03:04.176,0:03:05.432 θα μας επιτεθούν. 0:03:05.480,0:03:07.996 Αλλά αυτό δεν είναι το πιο πιθανό σενάριο. 0:03:08.200,0:03:12.946 Δεν είναι ότι οι μηχανές μας[br]θα γίνουν αυθόρμητα κακόβουλες. 0:03:13.090,0:03:15.706 Η πραγματική ανησυχία είναι[br]ότι θα φτιάξουμε μηχανές 0:03:15.706,0:03:17.812 που θα είναι τόσο πιο ικανές από εμάς 0:03:17.812,0:03:21.576 που η ελάχιστη απόκλιση μεταξύ[br]των δικών τους στόχων και των δικών μας 0:03:21.576,0:03:23.256 θα μπορούσε να μας καταστρέψει. 0:03:23.960,0:03:26.200 Σκεφτείτε τη σχέση μας με τα μυρμήγκια. 0:03:26.600,0:03:27.946 Δεν τα μισούμε. 0:03:28.280,0:03:30.176 Δεν τα βλάπτουμε εκουσίως. 0:03:30.176,0:03:32.712 Συχνά μάλιστα κάνουμε προσπάθεια[br]να μην τα βλάψουμε. 0:03:32.712,0:03:34.836 Αποφεύγουμε να τα πατήσουμε[br]στο πεζοδρόμιο. 0:03:34.836,0:03:36.936 Αλλά όταν η παρουσία τους 0:03:36.936,0:03:39.432 αντιτίθεται σοβαρά με τους στόχους μας, 0:03:39.432,0:03:41.909 ας πούμε, όταν φτιάχνουμε[br]ένα τέτοιο κτήριο, 0:03:41.909,0:03:44.189 τα εκμηδενίζουμε χωρίς δεύτερη σκέψη. 0:03:44.480,0:03:47.416 Η ανησυχία είναι ότι μια μέρα[br]θα φτιάξουμε μηχανές που, 0:03:47.416,0:03:50.152 είτε ενσυνείδητα ή όχι, 0:03:50.152,0:03:52.582 θα μας μεταχειριστούν[br]με παρόμοια αδιαφορία. 0:03:53.760,0:03:56.520 Υποψιάζομαι ότι οι περισσότεροι[br]το θεωρείτε παρατραβηγμένο. 0:03:57.360,0:04:02.190 Βάζω στοίχημα ότι κάποιοι αμφιβάλλουν[br]αν η υπερευφυής τεχνητή νοημοσύνη 0:04:02.190,0:04:05.086 είναι εφικτή,[br]πολύ δε λιγότερο αναπόφευκτη. 0:04:05.400,0:04:08.860 Τότε όμως πρέπει να βρείτε κάποιο λάθος[br]στις ακόλουθες υποθέσεις. 0:04:09.044,0:04:10.616 Και είναι μόνο τρεις υποθέσεις. 0:04:11.800,0:04:16.639 Η ευφυΐα είναι θέμα επεξεργασίας[br]της πληροφορίας σε υλικά συστήματα. 0:04:17.320,0:04:19.825 Βασικά, αυτό είναι[br]κάτι παραπάνω από μια υπόθεση. 0:04:19.825,0:04:23.412 Έχουμε ήδη ενσωματώσει[br]περιορισμένη ευφυΐα στις μηχανές μας, 0:04:23.412,0:04:25.428 και πολλές από αυτές ήδη αποδίδουν 0:04:25.428,0:04:28.518 σε επίπεδο υπεράνθρωπης ευφυΐας. 0:04:28.840,0:04:31.416 Και ξέρουμε πως η απλή ύλη 0:04:31.416,0:04:34.032 μπορεί να δημιουργήσει[br]αυτό που λέγεται «γενική ευφυΐα», 0:04:34.032,0:04:37.688 μια ικανότητα να σκεφτούμε ευέλικτα[br]σε πολλαπλά επίπεδα, 0:04:37.688,0:04:40.604 επειδή τα μυαλά μας[br]τα έχουν καταφέρει, σωστά; 0:04:40.920,0:04:44.856 Εξάλλου μόνο άτομα υπάρχουν εκεί, 0:04:44.880,0:04:49.376 και όσο συνεχίζουμε να φτιάχνουμε[br]συστήματα από άτομα 0:04:49.376,0:04:52.072 που επιδεικνύουν όλο και[br]περισσότερο ευφυή συμπεριφορά, 0:04:52.072,0:04:54.608 αν δεν μας σταματήσει κάποιος, 0:04:54.608,0:04:57.984 τελικά θα βάλουμε τη γενική ευφυΐα 0:04:57.984,0:04:59.280 μέσα στις μηχανές μας. 0:04:59.400,0:05:03.006 Είναι σημαντικό να καταλάβουμε[br]ότι δεν έχει σημασία ο ρυθμός της προόδου, 0:05:03.006,0:05:06.412 γιατί κάθε πρόοδος είναι αρκετή[br]για να οδηγήσει σε αυτή την κατάληξη. 0:05:06.412,0:05:09.956 Δεν χρειάζεται ο Νόμος του Μουρ,[br]ούτε κάποια εκθετική πρόοδος. 0:05:09.956,0:05:12.026 Χρειάζεται απλώς να συνεχίσουμε. 0:05:13.480,0:05:16.610 Η δεύτερη υπόθεση είναι[br]ότι θα συνεχίσουμε. 0:05:17.000,0:05:20.130 Θα συνεχίσουμε να βελτιώνουμε[br]τις έξυπνες μηχανές μας. 0:05:21.000,0:05:25.376 Και σύμφωνα με την αξία της ευφυΐας - 0:05:25.376,0:05:28.912 εννοώ ότι είτε η ευφυΐα[br]είναι η πηγή για ό,τι θεωρούμε άξιο, 0:05:28.912,0:05:31.818 ή χρειάζεται να περιφρουρήσουμε[br]οτιδήποτε θεωρούμε άξιο. 0:05:31.818,0:05:34.016 Είναι ο πιο πολύτιμος πόρος που έχουμε. 0:05:34.016,0:05:35.552 Έτσι, θέλουμε να το κάνουμε. 0:05:35.552,0:05:38.888 Έχουμε προβλήματα και πρέπει[br]να τα λύσουμε επειγόντως. 0:05:38.960,0:05:42.310 Θέλουμε να θεραπεύσουμε νόσους[br]όπως τον καρκίνο και την Αλτσχάιμερ, 0:05:42.960,0:05:46.836 να καταλάβουμε οικονομικά συστήματα,[br]να βελτιώσουμε τη γνώση μας για το κλίμα. 0:05:46.920,0:05:49.176 Γι' αυτό θα το κάνουμε, αν μπορούμε. 0:05:49.176,0:05:52.682 Το τρένο έχει ήδη ξεκινήσει[br]και δεν έχει φρένο. 0:05:53.880,0:05:59.336 Τέλος, δεν έχουμε φτάσει[br]στην αποκορύφωση της ευφυΐας, 0:05:59.336,0:06:01.356 μάλλον ούτε που την πλησιάσαμε. 0:06:01.640,0:06:03.536 Και αυτή είναι η σημαντική διαπίστωση. 0:06:03.536,0:06:05.952 Αυτό κάνει τόσο επισφαλή[br]την κατάστασή μας, 0:06:05.952,0:06:10.132 και τόσο αναξιόπιστα[br]τα προαίσθήματά μας σχετικά με το ρίσκο. 0:06:11.120,0:06:14.050 Απλώς σκεφτείτε το πιο έξυπνο[br]άτομο που έχει ποτέ ζήσει. 0:06:14.640,0:06:18.056 Κάποιον που όλοι σας θα έχετε κατά νου[br]είναι ο Τζον φον Νόιμαν. 0:06:18.080,0:06:21.416 Η εντύπωση που έκανε[br]στους τριγύρω του ο φον Νόιμαν, 0:06:21.416,0:06:25.472 συμπεριλαμβανομένων των πιο λαμπρών[br]μαθηματικών και φυσικών της εποχής του, 0:06:25.472,0:06:27.408 έχει καταγραφεί επαρκώς. 0:06:27.480,0:06:30.880 Και μόνο οι μισές ιστορίες[br]γι' αυτόν να αληθεύουν, 0:06:30.880,0:06:32.286 χωρίς αμφιβολία 0:06:32.286,0:06:34.952 είναι από τους πιο έξυπνους[br]ανθρώπους που έχουν ζήσει. 0:06:35.012,0:06:37.690 Σκεφτείτε λοιπόν το φάσμα της ευφυΐας. 0:06:38.320,0:06:40.019 Εδώ είναι ο Τζον φον Νόιμαν. 0:06:41.560,0:06:43.404 Κι εδώ είμαστε εσείς κι εγώ. 0:06:44.120,0:06:45.576 Μετά είναι οι κότες. 0:06:45.576,0:06:47.350 (Γέλια) 0:06:47.350,0:06:48.666 Συγνώμη, μια κότα. 0:06:48.666,0:06:49.896 (Γέλια) 0:06:49.920,0:06:53.360 Δεν υπάρχει λόγος να κάνω την ομιλία[br]πιο θλιβερή απ' όσο χρειάζεται. 0:06:53.360,0:06:55.280 (Γέλια) 0:06:56.339,0:06:59.816 Ωστόσο, φαίνεται εκπληκτικά πιθανόν[br]ότι το φάσμα της ευφυΐας 0:06:59.816,0:07:03.446 εκτείνεται πολύ πιο πέρα[br]από όσο τώρα αντιλαμβανόμαστε, 0:07:03.880,0:07:06.816 και αν φτιάξουμε μηχανές[br]πιο έξυπνες από εμάς, 0:07:07.120,0:07:09.416 είναι πολύ πιθανόν[br]να εξερευνήσουν αυτό το φάσμα 0:07:09.416,0:07:11.592 με τρόπους που δεν μπορούμε να φανταστούμε 0:07:11.592,0:07:14.110 και να μας ξεπεράσουν σε αφάνταστο βαθμό. 0:07:15.000,0:07:19.266 Και είναι σημαντικό να αναγνωρίσουμε[br]ότι αυτό αληθεύει και μόνο λόγω ταχύτητας. 0:07:19.360,0:07:24.116 Σωστά; Φανταστείτε να φτιάχναμε[br]μια υπερευφυή τεχνητή νοημοσύνη, 0:07:24.440,0:07:27.896 που δεν θα ήταν εξυπνότερη[br]από μια μέση ομάδα ερευνητών 0:07:27.896,0:07:29.982 των πανεπιστημίων Στάνφορντ ή ΜΙΤ. 0:07:30.240,0:07:32.070 Τα ηλεκτρονικά κυκλώματα λειτουργούν 0:07:32.070,0:07:34.536 ένα εκατομμύριο φορές ταχύτερα[br]από τα βιοχημικά, 0:07:34.536,0:07:37.656 έτσι αυτή η μηχανή θα σκεφτόταν[br]ένα εκατομμύριο φορές πιο γρήγορα 0:07:37.656,0:07:39.472 από τους εγκεφάλους που την έφτιαξαν. 0:07:39.544,0:07:41.200 Με λειτουργία μίας εβδομάδας 0:07:41.200,0:07:46.070 θα παράξει έργο 20.000 ετών[br]σε επίπεδο ανθρώπινης διάνοιας, 0:07:46.400,0:07:48.820 και το ίδιο θα κάνει[br]κάθε επόμενη εβδομάδα. 0:07:49.640,0:07:52.816 Πώς μπορούμε να καταλάβουμε,[br]πολύ δε περισσότερο να περιορίσουμε, 0:07:52.816,0:07:55.510 έναν εγκέφαλο που κάνει τέτοια πρόοδο; 0:07:56.840,0:08:00.056 Για να πω την αλήθεια,[br]είναι επίσης ανησυχητικό 0:08:00.056,0:08:03.976 να φανταστούμε το καλύτερο δυνατό σενάριο. 0:08:04.000,0:08:07.800 Φανταστείτε να βρούμε ένα σχέδιο[br]υπερεφυούς τεχνητής νοημοσύνης 0:08:07.800,0:08:09.626 που δεν έχει θέματα ασφάλειας. 0:08:09.626,0:08:12.666 Θα έχουμε βρει το τέλειο σχέδιο[br]για πρώτη φορά. 0:08:12.880,0:08:15.096 Θα είναι σαν να μας έχει δοθεί ένα μαντείο 0:08:15.096,0:08:17.112 που λειτουργεί ακριβώς όπως πρέπει. 0:08:17.112,0:08:21.122 Αυτή θα ήταν η τέλεια μηχανή[br]εξοικονόμησης έργου. 0:08:21.590,0:08:24.109 Θα σχεδιάσει τη μηχανή[br]που θα κατασκευάσει τη μηχανή 0:08:24.109,0:08:26.062 που θα κάνει κάθε σωματική εργασία, 0:08:26.062,0:08:27.400 τροφοδοτούμενη από τον ήλιο, 0:08:27.400,0:08:29.916 με μόνο κόστος αυτό των πρώτων υλών. 0:08:30.120,0:08:32.956 Έτσι μιλάμε για το τέλος[br]της ανθρώπινης αγγαρείας. 0:08:33.400,0:08:36.520 Επίσης μιλάμε για το τέλος[br]της περισσότερης διανοητικής εργασίας. 0:08:37.200,0:08:40.156 Τι θα κάνουν οι πίθηκοι όπως εμείς[br]σε αυτή την περίπτωση; 0:08:40.280,0:08:44.810 Θα έχουμε χρόνο να παίζουμε φρίσμπι[br]και να κάνουμε μασάζ ο ένας στον άλλον. 0:08:45.840,0:08:48.766 Προσθέστε λίγο LSD και κάποιες[br]αμφίβολες επιλογές ένδυσης, 0:08:48.766,0:08:51.426 κι όλος ο κόσμος θα μοιάζει[br]με φεστιβάλ Burning Man. 0:08:51.426,0:08:52.910 (Γέλια) 0:08:54.320,0:08:56.760 Μπορεί βέβαια να ακούγεται αρκετά καλό, 0:08:57.280,0:08:59.656 αλλά αναρωτηθείτε τι θα συνέβαινε 0:08:59.656,0:09:02.242 με την τωρινή οικονομική[br]και πολιτική κατάσταση; 0:09:02.440,0:09:04.856 Μοιάζει πιθανό ότι θα βιώσουμε 0:09:04.856,0:09:08.992 ένα επίπεδο ανισότητας[br]πλούτου και ανεργίας 0:09:08.992,0:09:10.578 που δεν έχουμε ξαναδεί. 0:09:10.578,0:09:13.276 Αν απουσιάσει η θέληση[br]να βάλουμε άμεσα αυτόν τον πλούτο 0:09:13.276,0:09:15.346 στην υπηρεσία όλης της ανθρωπότητας, 0:09:15.346,0:09:19.256 ελάχιστοι πολυεκατομμυριούχοι θα κοσμούν[br]τα εξώφυλλα των οικονομικών περιοδικών, 0:09:19.256,0:09:21.996 ενώ ο υπόλοιπος κόσμος[br]θα είναι ελεύθερος να λιμοκτονήσει. 0:09:22.320,0:09:24.616 Και τι θα κάνουν οι Ρώσοι ή οι Κινέζοι 0:09:24.616,0:09:27.232 αν μάθουν ότι μια εταιρεία[br]στη Σίλικον Βάλεϊ 0:09:27.232,0:09:29.968 πρόκειται να κυκλοφορήσει[br]μια υπερευφυή τεχνητή νοημοσύνη; 0:09:30.064,0:09:32.920 Αυτή η μηχανή θα μπορούσε[br]να κηρύξει πόλεμο, 0:09:32.920,0:09:35.256 είτε συμβατικό[br]είτε σε επίπεδο υπολογιστών, 0:09:35.256,0:09:37.350 με ισχύ άνευ προηγουμένου. 0:09:38.120,0:09:40.156 Είναι ένα σενάριο όπου κερδίζει μόνο ένας. 0:09:40.156,0:09:43.136 Όταν προηγείσαι εδώ[br]έξι μήνες από τον ανταγωνισμό, 0:09:43.160,0:09:45.936 είναι σαν να είσαι 500.000 χρόνια μπροστά 0:09:45.936,0:09:47.152 κατά το ελάχιστο. 0:09:47.480,0:09:52.216 Άρα φαίνεται ότι ακόμη και απλές φήμες[br]για κάτι τόσο επαναστατικό 0:09:52.216,0:09:54.402 θα έκανε το είδος μας να τρελαθεί. 0:09:54.640,0:09:57.536 Ένα από τα πιο τρομακτικά πράγματα, 0:09:57.536,0:10:00.092 κατά την άποψή μου, αυτή τη στιγμή, 0:10:00.360,0:10:04.396 είναι αυτά που λένε οι ερευνητές[br]της τεχνητής νοημοσύνης 0:10:04.680,0:10:06.610 όταν θέλουν να μας καθησυχάσουν. 0:10:06.840,0:10:10.486 Κι ο πιο κοινός λόγος που προβάλλουν[br]για να μην ανησυχούμε είναι ο χρόνος. 0:10:10.486,0:10:12.726 Αυτό είναι πολύ μακριά, δεν το βλέπετε; 0:10:12.726,0:10:15.280 Είναι περίπου 50 ή 100 χρόνια μετά. 0:10:15.640,0:10:16.876 Ένας ερευνητής έχει πει, 0:10:16.876,0:10:19.146 «Ανησυχώντας για ασφάλεια[br]στην τεχνητή νοημοσύνη 0:10:19.146,0:10:21.690 είναι σαν να ανησυχούμε[br]για υπερπληθυσμό στον Άρη». 0:10:22.116,0:10:23.926 Αυτό είναι η έκδοση της Σίλικον Βάλεϊ 0:10:23.926,0:10:26.186 του «μην ζαλίζεις το όμορφο κεφαλάκι σου». 0:10:26.186,0:10:27.490 (Γέλια) 0:10:27.490,0:10:29.416 Κανείς δεν φαίνεται να βλέπει 0:10:29.416,0:10:32.272 ότι η αναφορά στον χρονικό ορίζοντα 0:10:32.272,0:10:34.396 είναι τελείως ανακόλουθη. 0:10:34.590,0:10:37.796 Αν η ευφυΐα είναι απλώς θέμα[br]επεξεργασίας της πληροφορίας, 0:10:37.960,0:10:40.276 και συνεχίζουμε[br]να βελτιώνουμε τις μηχανές μας, 0:10:40.640,0:10:43.770 σίγουρα θα δημιουργήσουμε[br]κάποια μορφή υπερευφυΐας. 0:10:44.320,0:10:47.976 Και δεν ξέρουμε πόσο χρόνο θα μας πάρει 0:10:47.976,0:10:51.146 να δημιουργήσουμε τις συνθήκες[br]ώστε να το κάνουμε με ασφάλεια. 0:10:52.200,0:10:53.366 Να το πω πάλι. 0:10:53.520,0:10:57.336 Δεν έχουμε ιδέα πόσο χρόνο θα μας πάρει 0:10:57.336,0:11:00.326 να δημιουργήσουμε τις συνθήκες[br]ώστε να το κάνουμε με ασφάλεια. 0:11:00.920,0:11:04.376 Κι αν δεν το έχετε προσέξει,[br]τα 50 χρόνια δεν είναι αυτό που ήταν. 0:11:04.376,0:11:06.562 Αυτό είναι 50 χρόνια σε μήνες. 0:11:06.880,0:11:08.720 Τόσον καιρό έχουμε το iPhone. 0:11:09.440,0:11:12.040 Τόσον καιρό παίζονται [br]οι Σίμπσονς στην τηλεόραση. 0:11:12.680,0:11:15.056 Τα 50 χρόνια δεν είναι τόσο πολλά 0:11:15.056,0:11:18.766 για μια από τις μεγαλύτερες προκλήσεις[br]που θα αντιμετωπίσει το είδος μας. 0:11:19.640,0:11:23.656 Και πάλι - αδυνατούμε να επιδείξουμε[br]κατάλληλη συναισθηματική απόκριση 0:11:23.656,0:11:26.352 σε κάτι που έχουμε κάθε λόγο[br]να πιστεύουμε ότι θα έρθει. 0:11:26.400,0:11:30.376 Ο επιστήμων υπολογιστών Στιούαρτ Ράσελ[br]έχει μια ωραία αναλογία γι' αυτό. 0:11:30.376,0:11:35.112 Είπε, φανταστείτε ότι λάβαμε μήνυμα[br]από εξωγήινο πολιτισμό, 0:11:35.320,0:11:36.346 που έλεγε: 0:11:37.040,0:11:38.366 «Άνθρωποι της Γης, 0:11:38.600,0:11:41.240 θα φτάσουμε στον πλανήτη σας σε 50 χρόνια. 0:11:41.800,0:11:43.006 Ετοιμαστείτε». 0:11:43.400,0:11:47.436 Και τώρα απλώς μετράμε αντίστροφα[br]τον χρόνο μέχρι να έρθει το διαστημόπλοιο. 0:11:47.680,0:11:51.350 Θα το νιώθαμε ως κάτι λίγο[br]πιο επιτακτικό από ό,τι τώρα. 0:11:52.370,0:11:54.426 Μας λένε επίσης να μην ανησυχούμε, 0:11:54.426,0:11:57.616 γιατί οι μηχανές δεν μπορούν[br]παρά να έχουν τις δικές μας αξίες, 0:11:57.616,0:12:00.216 καθώς κυριολεκτικά[br]είναι προέκταση των εαυτών μας. 0:12:00.216,0:12:02.032 Θα συνδεθούν στον εγκέφαλό μας 0:12:02.032,0:12:04.752 και βασικά θα γίνουμε[br]το μεταιχμιακό τους σύστημα. 0:12:05.120,0:12:06.536 Σκεφτείτε για ένα λεπτό 0:12:06.536,0:12:09.712 ότι ο ασφαλέστερος και ο μόνος[br]συνετός δρόμος προς τα εμπρός 0:12:09.712,0:12:10.968 που προτείνεται, 0:12:10.968,0:12:14.328 είναι να εμφυτεύσουμε αυτή την τεχνολογία[br]απευθείας στον εγκέφαλό μας. 0:12:14.600,0:12:17.976 Βέβαια, μπορεί να είναι ο ασφαλέστερος[br]και ο μόνος συνετός δρόμος, 0:12:17.976,0:12:21.032 αλλά συνήθως οι ανησυχίες[br]για την ασφάλεια μιας τεχνολογίας 0:12:21.032,0:12:24.688 πρέπει να έχουν επιλυθεί[br]πριν την εμφυτεύσουμε στο κεφάλι μας. 0:12:24.688,0:12:26.704 (Γέλια) 0:12:26.800,0:12:30.190 Το βαθύτερο πρόβλημα είναι[br]ότι φαίνεται ευκολότερο 0:12:30.190,0:12:33.600 να φτάξεις ένα μεμονωμένο[br]σύστημα τεχνητής νοημοσύνης, 0:12:33.600,0:12:35.776 από το να φτιάξεις ένα σύστημα 0:12:35.776,0:12:37.552 και να έχεις και επαρκή νευροεπιστήμη 0:12:37.552,0:12:40.472 που να επιτρέπει την εύκολη[br]ενσωμάτωσή του στον εγκέφαλό μας. 0:12:40.800,0:12:43.976 Και δεδομένου ότι οι κυβερνήσεις[br]και εταιρείες που θα το κάνουν 0:12:43.976,0:12:47.632 είναι πιθανόν θα θεωρούν[br]ότι ανταγωνίζονται όλους τους άλλους, 0:12:47.632,0:12:50.668 εφόσον όποιος το κάνει πρώτος[br]θα κυριαρχήσει στον κόσμο, 0:12:50.668,0:12:53.454 με την προϋπόθεση[br]ότι δεν θα τον καταστρέψει αμέσως μετά, 0:12:53.454,0:12:54.590 τότε μοιάζει πιθανό 0:12:54.590,0:12:57.780 ότι θα γίνει πρώτο[br]οτιδήποτε γίνεται πιο εύκολα. 0:12:58.560,0:13:01.190 Δυστυχώς δεν έχω κάποια λύση[br]γι' αυτό το πρόβλημα, 0:13:01.190,0:13:04.050 εκτός από το να συστήσω[br]να το ξανασκεφτούμε οι περισσότεροι. 0:13:04.050,0:13:06.626 Νομίζω ότι χρειαζόμαστε[br]κάτι σαν το Πρόγραμμα Μανχάταν 0:13:06.626,0:13:08.660 προσαρμοσμένο για την τεχνητή νοημοσύνη. 0:13:08.660,0:13:11.386 Όχι για να την φτιάξουμε,[br]γιατί μάλλον είναι αναπόφευκτο, 0:13:11.386,0:13:14.616 αλλά να καταλάβουμε πώς να αποφύγουμε[br]έναν αγώνα εξοπλισμών 0:13:14.616,0:13:17.992 και να την φτιάξουμε έτσι που[br]να συμβαδίζει με τα συμφέροντά μας. 0:13:18.160,0:13:20.296 Όταν μιλάτε[br]για υπερευφυή τεχνητή νοημοσύνη 0:13:20.296,0:13:22.552 που μπορεί να τροποποιήσει τον εαυτό της, 0:13:22.600,0:13:27.216 φαίνεται ότι έχουμε μόνο μία πιθανότητα[br]να ορίσουμε τις σωστές προϋποθέσεις, 0:13:27.216,0:13:29.502 και ακόμη και τότε[br]θα χρειαστεί να απορροφήσουμε 0:13:29.502,0:13:32.750 τις οικονομικές και πολιτικές συνέπειες[br]της σωστής εφαρμογής. 0:13:33.760,0:13:35.816 Αλλά μόλις παραδεχθούμε 0:13:35.816,0:13:40.246 ότι η επεξεργασία πληροφοριών[br]είναι η πηγή της ευφυΐας, 0:13:40.720,0:13:45.690 ότι η βάση της ευφυΐας είναι[br]κάποιο κατάλληλο υπολογιστικό σύστημα, 0:13:46.360,0:13:50.680 και αποδεχθούμε να βελτιώνουμε[br]αυτά τα συστήματα συνεχώς, 0:13:51.280,0:13:55.736 και παραδεχθούμε ότι ο γνωστικός ορίζοντας[br]μάλλον ξεπερνά κατά πολύ 0:13:55.736,0:13:57.516 όσα ήδη γνωρίζουμε, 0:13:58.120,0:13:59.416 τότε πρέπει να παραδεχθούμε 0:13:59.416,0:14:02.540 ότι βρισκόμαστε σε διαδικασία κατασκευής[br]κάποιου είδους θεού. 0:14:03.400,0:14:04.746 Τώρα είναι η σωστή ώρα 0:14:04.746,0:14:08.129 να εξασφαλίσουμε ότι είναι ένας θεός[br]με τον οποίον μπορούμε να ζήσουμε. 0:14:08.129,0:14:09.360 Σας ευχαριστώ πολύ. 0:14:09.360,0:14:10.913 (Χειροκρότημα)