1 00:00:00,735 --> 00:00:03,024 Πόσοι από εσάς είστε δημιουργοί, 2 00:00:03,028 --> 00:00:06,656 σχεδιαστές, μηχανικοί, επιχειρηματίες, καλλιτέχνες, 3 00:00:06,656 --> 00:00:09,077 ή έχετε απλώς πολύ μεγάλη φαντασία; 4 00:00:09,077 --> 00:00:10,949 Σηκώστε τα χέρια! (Επευφημίες) 5 00:00:10,949 --> 00:00:12,630 Οι περισσότεροι από σας. 6 00:00:13,334 --> 00:00:15,628 Έχω νέα για εμάς τους δημιουργούς. 7 00:00:16,714 --> 00:00:19,397 Μέσα στα επόμενα 20 χρόνια 8 00:00:21,471 --> 00:00:25,401 ο τρόπος με τον οποίο δουλεύουμε θα αλλάξει πολύ περισσότερο 9 00:00:25,401 --> 00:00:28,109 απ' ό,τι άλλαξε μέσα στα τελευταία 2.000 χρόνια. 10 00:00:28,511 --> 00:00:33,139 Πράγματι, νομίζω ότι ανατέλλει μια νέα εποχή της ανθρώπινης ιστορίας. 11 00:00:33,645 --> 00:00:38,406 Ο τρόπος που δουλεύουμε ορίζεται σε τέσσερις περιόδους. 12 00:00:39,404 --> 00:00:42,679 Η εποχή του Κυνηγού-Τροφοσυλλέκτη διήρκεσε αρκετά εκατομμύρια χρόνια. 13 00:00:43,163 --> 00:00:46,739 Και μετά η εποχή της Γεωργοκαλλιέργειας διήρκεσε αρκετές χιλιάδες χρόνια. 14 00:00:47,195 --> 00:00:50,685 Η Βιομηχανική εποχή διήρκεσε κάνα δυο αιώνες. 15 00:00:50,689 --> 00:00:54,970 Τώρα πλέον, η εποχή της Πληροφορίας έχει διάρκεια μόλις μερικών δεκαετιών. 16 00:00:54,970 --> 00:01:00,240 Σήμερα, βρισκόμαστε στο μεταίχμιο της επομένης εποχής μας ως είδος. 17 00:01:01,296 --> 00:01:03,976 Καλωσορίσατε στην Επαυξημένη Εποχή. 18 00:01:03,990 --> 00:01:07,693 Σε αυτή τη νέα εποχή, οι φυσικές σας ανθρώπινες δεξιότητες θα ενισχυθούν 19 00:01:07,697 --> 00:01:10,649 μέσω υπολογιστικών συστημάτων που θα σας βοηθούν να σκέφτεστε, 20 00:01:10,649 --> 00:01:13,275 ρομποτικά συστήματα θα σας επιτρέπουν να κατασκευάζετε, 21 00:01:13,275 --> 00:01:14,797 και ένα ψηφιακό νευρικό σύστημα 22 00:01:14,797 --> 00:01:18,381 θα σας συνδέει με τον κόσμο πολύ πέρα από τις φυσικές σας αισθήσεις. 23 00:01:19,367 --> 00:01:21,379 Ας ξεκινήσουμε με τη γνωστική ενίσχυση. 24 00:01:21,383 --> 00:01:23,773 Πόσοι από εσάς είστε επαυξημένα σάιμποργκ; 25 00:01:24,133 --> 00:01:26,777 (Γέλια) 26 00:01:26,777 --> 00:01:29,628 Θα έλεγα ότι στην πραγματικότητα ήδη είμαστε επαυξημένοι. 27 00:01:30,178 --> 00:01:31,812 Φανταστείτε ότι είστε σε ένα πάρτι 28 00:01:31,812 --> 00:01:35,336 και κάποιος σας κάνει μια ερώτηση που δεν ξέρετε να απαντήσετε. 29 00:01:35,340 --> 00:01:39,120 Αν έχετε ένα από αυτά, σε μερικά δεύτερα θα γνωρίζετε την απάντηση. 30 00:01:39,869 --> 00:01:42,378 Αυτό είναι μόνο η αρχή. 31 00:01:42,863 --> 00:01:46,194 Ακόμη και η Σίρι είναι απλώς ένα παθητικό εργαλείο. 32 00:01:46,660 --> 00:01:50,025 Στην πραγματικότητα, τα τελευταία τρεισήμισι εκατομμύρια χρόνια 33 00:01:50,025 --> 00:01:53,174 τα εργαλεία που είχαμε ήταν εντελώς παθητικά. 34 00:01:54,203 --> 00:01:57,878 Κάνουν ακριβώς ό,τι τους λέμε και τίποτα παραπάνω. 35 00:01:57,882 --> 00:02:00,983 Το πρώτο πρώτο μας εργαλείο απλώς έκοβε εκεί που το χτυπούσαμε. 36 00:02:01,822 --> 00:02:04,862 Η σμίλη σμιλεύει εκεί που την οδηγεί ο καλλιτέχνης. 37 00:02:05,123 --> 00:02:07,338 Ακόμη και τα πιο εξελιγμένα μας εργαλεία 38 00:02:07,338 --> 00:02:10,878 δεν κάνουν τίποτα χωρίς τις ακριβείς μας οδηγίες. 39 00:02:10,878 --> 00:02:14,173 Στην πραγματικότητα, ως σήμερα, και αυτό είναι κάτι που με απελπίζει, 40 00:02:14,173 --> 00:02:15,655 ήμασταν πάντα περιορισμένοι 41 00:02:15,655 --> 00:02:19,070 από αυτή την ανάγκη να επιβάλουμε τη θέλησή μας στα εργαλεία μας 42 00:02:19,070 --> 00:02:21,477 χειρωνακτικά, κυριολεκτικά με τα ίδια μας τα χέρια, 43 00:02:21,477 --> 00:02:23,179 ακόμη και με τους υπολογιστές. 44 00:02:24,072 --> 00:02:26,529 Εγώ είμαι όμως πιο πολύ σαν τον Σκότι στο Σταρ Τρεκ. 45 00:02:26,529 --> 00:02:28,433 (Γέλια) 46 00:02:28,433 --> 00:02:30,543 Θέλω να μπορώ να συζητάω με έναν υπολογιστή. 47 00:02:30,543 --> 00:02:33,447 Να λέω: «Υπολογιστή, ας σχεδιάσουμε ένα αυτοκίνητο», 48 00:02:33,447 --> 00:02:35,166 και ο υπολογιστής να μου το δείχνει. 49 00:02:35,166 --> 00:02:37,968 Να λέω: «Όχι, να είναι πιο γρήγορο και λιγότερο γερμανικό» 50 00:02:37,968 --> 00:02:40,255 και μπαμ, να μου δείχνει ένα τέτοιο. 51 00:02:40,255 --> 00:02:41,844 (Γέλια) 52 00:02:42,208 --> 00:02:44,498 Η συζήτηση μπορεί να είναι λίγο παρατραβηγμένη, 53 00:02:44,498 --> 00:02:47,203 πιθανόν λιγότερο απ' όσο πολλοί από εμάς νομίζουμε, 54 00:02:47,207 --> 00:02:49,869 αυτή τη στιγμή όμως δουλεύουμε πάνω σ' αυτό. 55 00:02:49,869 --> 00:02:54,191 Τα εργαλεία μας θα κάνουν αυτό το άλμα και από παθητικά θα γίνουν δημιουργικά. 56 00:02:54,831 --> 00:02:56,643 Τα δημιουργικά σχεδιαστικά εργαλεία, 57 00:02:56,643 --> 00:03:00,771 με έναν υπολογιστή και αλγορίθμους συνθέτουν γεωμετρία, 58 00:03:00,775 --> 00:03:03,926 και εφευρίσκουν νέα σχέδια εντελώς από μόνα τους. 59 00:03:03,926 --> 00:03:06,964 Το μόνο που μένει είναι να θέσετε στόχους και περιορισμούς. 60 00:03:06,964 --> 00:03:08,286 Θα σας δώσω ένα παράδειγμα. 61 00:03:08,286 --> 00:03:10,952 Για τον σκελετό αυτού του ιπτάμενου τηλεκατευθυνόμενου 62 00:03:10,952 --> 00:03:13,592 το μόνο που χρειάζεται είναι να του πείτε κάτι όπως: 63 00:03:13,592 --> 00:03:16,545 θέλω να έχει τέσσερις προπέλες, να είναι όσο πιο ελαφρύ γίνεται 64 00:03:16,545 --> 00:03:18,780 και να είναι αεροδυναμικό. 65 00:03:19,408 --> 00:03:24,306 Στη συνέχεια ο υπολογιστής μελετά όλο το φάσμα των πιθανών λύσεων: 66 00:03:24,306 --> 00:03:28,273 όλες τις πιθανές παραλλαγές που επιλύουν και ανταποκρίνονται στα κριτήρια, 67 00:03:28,277 --> 00:03:29,739 δηλαδή εκατομμύρια επιλογές. 68 00:03:29,743 --> 00:03:31,778 Χρειάζονται μεγάλοι υπολογιστές γι' αυτό. 69 00:03:31,778 --> 00:03:33,841 Αλλά μας βγάζει σχέδια 70 00:03:33,841 --> 00:03:37,236 που εμείς από μόνοι μας ποτέ δεν θα είχαμε φανταστεί. 71 00:03:37,236 --> 00:03:40,082 Και ο υπολογιστής τα σκέφτεται όλα αυτά από μόνος του, 72 00:03:40,082 --> 00:03:43,840 κανένας δεν σχεδίασε τίποτα και ξεκίνησε εντελώς από το μηδέν. 73 00:03:45,038 --> 00:03:47,399 Παρεμπιπτόντως, δεν είναι τυχαίο 74 00:03:47,399 --> 00:03:51,090 ότι το σώμα του τηλεκατευθυνόμενου μοιάζει με την πύελο ενός ιπτάμενου σκίουρου. 75 00:03:51,287 --> 00:03:53,294 (Γέλια) 76 00:03:53,660 --> 00:03:57,756 Είναι γιατί οι αλγόριθμοι σχεδιάστηκαν για να λειτουργούν όπως η εξέλιξη. 77 00:03:58,755 --> 00:04:01,209 Το συναρπαστικό είναι ότι αυτή η τεχνολογία υπάρχει, 78 00:04:01,209 --> 00:04:02,692 εκεί έξω στον πραγματικό κόσμο. 79 00:04:02,692 --> 00:04:04,928 Συνεργαζόμαστε με την Airbus εδώ και λίγα χρόνια 80 00:04:04,928 --> 00:04:07,247 πάνω σε μια ιδέα για ένα αεροπλάνο του μέλλοντος. 81 00:04:07,247 --> 00:04:09,111 Έχουμε πολύ δρόμο ακόμα. 82 00:04:09,111 --> 00:04:12,859 Πρόσφατα όμως χρησιμοποιήσαμε μια δημιουργική τεχνητή νοημοσύνη 83 00:04:12,859 --> 00:04:15,156 που σκέφτηκε αυτό. 84 00:04:15,349 --> 00:04:18,296 Αυτό είναι ένα διαχωριστικό καμπίνας από τρισδιάστατο εκτυπωτή 85 00:04:18,296 --> 00:04:20,786 το οποίο σχεδιάστηκε από έναν υπολογιστή. 86 00:04:20,786 --> 00:04:23,594 Είναι ανθεκτικότερο από το πρωτότυπο αλλά με το μισό βάρος 87 00:04:23,594 --> 00:04:26,775 και θα πετάει με το Airbus A320 αργότερα εντός του έτους. 88 00:04:27,395 --> 00:04:29,394 Οι υπολογιστές μπορούν πια να δημιουργούν, 89 00:04:29,394 --> 00:04:33,583 να βρίσκουν τις δικές τους λύσεις σε δικά μας σαφώς καθορισμένα προβλήματα. 90 00:04:34,497 --> 00:04:36,137 Αλλά δεν έχουν διαίσθηση. 91 00:04:36,147 --> 00:04:39,091 Ακόμη πρέπει να αρχίζουν κάθε φορά από το μηδέν, 92 00:04:39,091 --> 00:04:41,686 επειδή ποτέ δεν μαθαίνουν. 93 00:04:42,368 --> 00:04:44,078 Σε αντίθεση με τη Μάγκι. 94 00:04:44,078 --> 00:04:45,713 (Γέλια) 95 00:04:45,713 --> 00:04:49,470 Η Μάγκι είναι πράγματι πιο έξυπνη από τα πιο προχωρημένα σχεδιαστικά εργαλεία. 96 00:04:49,470 --> 00:04:50,811 Τι εννοώ με αυτό; 97 00:04:50,811 --> 00:04:52,591 Αν ο ιδιοκτήτης πιάσει αυτό το λουρί, 98 00:04:52,591 --> 00:04:56,043 η Μάγκι ξέρει, με αρκετά μεγάλη βεβαιότητα, ότι είναι ώρα για βόλτα. 99 00:04:56,043 --> 00:04:57,250 Πώς το έμαθε αυτό; 100 00:04:57,254 --> 00:05:00,482 Λοιπόν, κάθε φορά που ο ιδιοκτήτης έπαιρνε το λουρί, πήγαιναν βόλτα. 101 00:05:00,482 --> 00:05:02,464 Η Μάγκι έκανε τρια πράγματα: 102 00:05:02,464 --> 00:05:06,407 έδινε προσοχή, θυμόταν τι είχε γίνει την προηγούμενη φορά, 103 00:05:06,413 --> 00:05:10,540 και δημιουργούσε και κράταγε τη φόρμουλα στο μυαλό της. 104 00:05:11,429 --> 00:05:14,688 Το ενδιαφέρον είναι πως σε αυτό ακριβώς προσπαθούν οι επιστήμονες 105 00:05:14,688 --> 00:05:17,921 να εκπαιδεύσουν την τεχνητή νοημοσύνη για τα τελευταία 60 χρόνια. 106 00:05:18,683 --> 00:05:23,906 Το 1952 έφτιαξαν έναν υπολογιστή που μπορούσε να παίζει τρίλιζα. 107 00:05:25,081 --> 00:05:26,601 Σιγά το πράγμα. 108 00:05:27,029 --> 00:05:30,029 Έπειτα, 45 χρόνια αργότερα, το 1997, 109 00:05:30,033 --> 00:05:32,735 ο Deep Blue νίκησε τον Κασπάροφ στο σκάκι. 110 00:05:34,046 --> 00:05:38,998 Το 2011 ο Γουάτσον κέρδισε δύο ανθρώπους στο παιχνίδι ερωτήσεων Jeopardy, 111 00:05:38,998 --> 00:05:41,966 που είναι πολύ πιο δύσκολο από το σκάκι για έναν υπολογιστή. 112 00:05:41,970 --> 00:05:45,602 Και αυτό γιατί, αντί να δουλεύει με προκαθορισμένες απαντήσεις, 113 00:05:45,606 --> 00:05:49,489 ο Γουάτσον έπρεπε να νικήσει με τη λογική τους ανθρώπους αντιπάλους του. 114 00:05:50,393 --> 00:05:54,326 Λίγες εβδομάδες πριν, ο AlphaGo της DeepMind 115 00:05:54,326 --> 00:05:57,112 νίκησε τον καλύτερο παίκτη στο παιχνίδι Go, 116 00:05:57,112 --> 00:05:59,088 το πιο δύσκολο παιχνίδι που υπάρχει. 117 00:05:59,088 --> 00:06:02,238 Στο Go υπάρχουν περισσότερες πιθανές κινήσεις 118 00:06:02,238 --> 00:06:04,632 απ' ό,τι άτομα στο σύμπαν. 119 00:06:06,210 --> 00:06:08,036 Προκειμένου λοιπόν να νικήσει, 120 00:06:08,040 --> 00:06:10,678 ο AlphaGo έπρεπε να αναπτύξει διαίσθηση. 121 00:06:11,098 --> 00:06:14,182 Και μάλιστα, σε κάποια σημεία, οι προγραμματιστές του AlphaGo 122 00:06:14,182 --> 00:06:17,648 δεν καταλάβαιναν καν γιατί ο AlphaGo έκανε αυτό που έκανε. 123 00:06:19,331 --> 00:06:21,111 Άρα όλα εξελίσσονται πολύ γρήγορα. 124 00:06:21,115 --> 00:06:24,356 Σκεφτείτε ότι, στη διάρκεια της ζωής ενός ανθρώπου, 125 00:06:24,356 --> 00:06:26,789 οι υπολογιστές εξελίχθηκαν από παιδικό παιχνίδι 126 00:06:27,670 --> 00:06:31,098 σε αυτό που αναγνωρίζεται ως το αποκορύφωμα της στρατηγικής σκέψης. 127 00:06:31,999 --> 00:06:34,390 Αυτό που ουσιαστικά συμβαίνει 128 00:06:34,390 --> 00:06:37,347 είναι ότι οι υπολογιστές εξελίσσονται από Σποκ... 129 00:06:37,897 --> 00:06:39,567 σε Κάπτεν Κερκ. 130 00:06:39,747 --> 00:06:42,475 (Γέλια) 131 00:06:43,389 --> 00:06:46,923 Έτσι; Από την καθαρή λογική στη διαίσθηση. 132 00:06:48,184 --> 00:06:50,167 Θα περνούσατε αυτή τη γέφυρα; 133 00:06:50,579 --> 00:06:52,876 Οι περισσότεροι από σας θα λέγατε: «Όχι βέβαια!» 134 00:06:52,876 --> 00:06:54,118 (Γέλια) 135 00:06:54,118 --> 00:06:56,905 Χρειάστηκε ένα δευτερόλεπτο για να πάρετε αυτή την απόφαση. 136 00:06:56,905 --> 00:06:59,687 Κατά κάποιο τρόπο ήδη ξέρατε ότι η γέφυρα δεν ήταν ασφαλής. 137 00:06:59,687 --> 00:07:01,520 Αυτό ακριβώς το είδος της διαίσθησης 138 00:07:01,520 --> 00:07:05,022 αναπτύσσουν αυτή τη στιγμή τα συστήματά μας που μαθαίνουν. 139 00:07:05,532 --> 00:07:06,993 Πολύ σύντομα θα μπορείτε 140 00:07:06,993 --> 00:07:09,990 να δείξετε σε έναν υπολογιστή κάτι που φτιάξατε, που σχεδιάσατε, 141 00:07:09,990 --> 00:07:12,169 κι αυτός θα το κοιτάει και θα σας λέει: 142 00:07:12,169 --> 00:07:15,826 «Λυπάμαι μάγκα, δεν θα λειτουργήσει, πρέπει να προσπαθήσεις ξανά». 143 00:07:15,826 --> 00:07:19,036 Θα μπορείτε να ρωτήσετε αν θα αρέσει στον κόσμο το νέο σας τραγούδι, 144 00:07:19,876 --> 00:07:22,736 ή η καινούρια γεύση παγωτού που φτιάξατε. 145 00:07:23,549 --> 00:07:27,462 Ακόμη πιο σημαντικό, θα μπορούσατε να συνεργαστείτε με έναν υπολογιστή, 146 00:07:27,462 --> 00:07:30,077 για να επιλύσετε ένα εντελώς καινούριο πρόβλημα. 147 00:07:30,077 --> 00:07:33,237 Για παράδειγμα, η κλιματική αλλαγή: δεν τα καταφέρνουμε μόνοι μας, 148 00:07:33,237 --> 00:07:35,899 όσο περισσότερη βοήθεια έχουμε, τόσο το καλύτερο για μας. 149 00:07:35,899 --> 00:07:37,391 Γι' αυτό ακριβώς μιλάω, 150 00:07:37,391 --> 00:07:39,960 πώς η τεχνολογία ενισχύει τις γνωστικές μας ικανότητες 151 00:07:39,960 --> 00:07:43,722 ώστε να μπορούμε να φανταστούμε και να σχεδιάσουμε πράγματα απλησίαστα ως τώρα 152 00:07:43,722 --> 00:07:46,085 σαν απλοί μη-επαυξημένοι άνθρωποι. 153 00:07:47,764 --> 00:07:50,919 Γιατί να μη φτιάξουμε λοιπόν όλα αυτά τα τρελά καινούρια πράγματα 154 00:07:50,919 --> 00:07:53,390 που πρόκειται να εφεύρουμε και να σχεδιάσουμε; 155 00:07:53,952 --> 00:07:58,045 Η εποχή της επαύξησης του ανθρώπου τόσο για τον πραγματικό κόσμο 156 00:07:58,049 --> 00:08:01,134 όσο και για τον εικονικό ανήκει στη σφαίρα της διανόησης. 157 00:08:01,833 --> 00:08:03,754 Πώς θα μας επαυξήσει η τεχνολογία; 158 00:08:04,261 --> 00:08:06,734 Στον πραγματικό κόσμο, ρομποτικά συστήματα. 159 00:08:07,620 --> 00:08:09,356 Εντάξει, σίγουρα υπάρχει ένας φόβος 160 00:08:09,360 --> 00:08:11,862 ότι τα ρομπότ θα πάρουν τις δουλειές των ανθρώπων 161 00:08:11,862 --> 00:08:14,052 και αυτό είναι αλήθεια για ορισμένους τομείς. 162 00:08:14,054 --> 00:08:17,112 Εμένα όμως μου αρέσει πολύ περισσότερο η ιδέα 163 00:08:17,112 --> 00:08:21,630 ότι άνθρωποι και ρομπότ σε συνεργασία θα επαυξήσουν ο ένας τον άλλον 164 00:08:21,630 --> 00:08:23,998 και θα βρεθούν σε ένα νέο πεδίο. 165 00:08:23,998 --> 00:08:26,984 Αυτό είναι το εργαστήρι εφαρμοσμένης έρευνας στο Σαν Φρανσίσκο. 166 00:08:26,984 --> 00:08:29,950 Ένα από τα πεδία της έρευνάς μας είναι η εξελιγμένη ρομποτική 167 00:08:29,950 --> 00:08:32,255 και ειδικότερα η συνεργασία ανθρώπων και ρομπότ. 168 00:08:33,034 --> 00:08:35,777 Αυτός είναι ο Μπίσοπ, ένα από τα ρομπότ μας. 169 00:08:35,777 --> 00:08:38,436 Σε ένα πείραμα τον βάλαμε να βοηθήσει έναν άνθρωπο 170 00:08:38,436 --> 00:08:41,550 που δούλευε στις οικοδομές και έκανε επαναλαμβανόμενες κινήσεις, 171 00:08:41,984 --> 00:08:46,178 κινήσεις όπως να ανοίγει τρύπες για πρίζες ή διακόπτες πάνω σε γυψοσανίδες. 172 00:08:46,182 --> 00:08:48,668 (Γέλια) 173 00:08:49,667 --> 00:08:52,427 Ο άνθρωπος-συνεργάτης του Μπίσοπ του λέει τι να κάνει 174 00:08:52,427 --> 00:08:55,797 σε απλά Αγγλικά και με απλές χειρονομίες, κάπως σαν να μιλά σε σκύλο, 175 00:08:55,798 --> 00:08:59,279 και μετά ο Μπίσοπ εκτελεί αυτές τις οδηγίες με απόλυτη ακρίβεια. 176 00:08:59,895 --> 00:09:02,878 Χρησιμοποιούμε τον άνθρωπο σ' αυτό που ο άνθρωπος είναι καλός: 177 00:09:02,878 --> 00:09:05,235 επαγρύπνηση, αντίληψη και λήψη αποφάσεων. 178 00:09:05,235 --> 00:09:07,499 Χρησιμοποιούμε το ρομπότ εκεί που είναι καλό: 179 00:09:07,499 --> 00:09:09,407 ακρίβεια και επανάληψη. 180 00:09:09,852 --> 00:09:12,613 Να άλλο ένα άλλο ωραίο πρότζεκτ στο οποίο δούλεψε ο Μπίσοπ. 181 00:09:12,613 --> 00:09:15,712 Ο στόχος αυτού του πρότζεκτ που το λέμε HIVE, κυψέλη, 182 00:09:15,712 --> 00:09:19,587 είναι να αναπαραστήσουμε την εμπειρία ανθρώπων, υπολογιστών και ρομπότ 183 00:09:19,587 --> 00:09:23,497 που δουλεύουν όλοι μαζί για να λύσουν ένα ιδιαίτερα πολύπλοκο πρόβλημα σχεδιασμού. 184 00:09:23,503 --> 00:09:25,244 Ο άνθρωποι ενέργησαν ως εργάτες. 185 00:09:25,248 --> 00:09:28,325 Κινήθηκαν στο εργοτάξιο, επεξεργάστηκαν το μπαμπού, 186 00:09:28,325 --> 00:09:30,965 το οποίο, επειδή είναι ένα μη-ισοφορμικό υλικό 187 00:09:30,965 --> 00:09:33,313 είναι πολύ δύσκολο για τα ρομπότ να το χειριστούν. 188 00:09:33,313 --> 00:09:35,875 Αλλά μετά τα ρομπότ έκαναν αυτό το δέσιμο με τις ίνες 189 00:09:35,875 --> 00:09:38,020 που ήταν σχεδόν αδύνατο να το κάνει άνθρωπος. 190 00:09:38,020 --> 00:09:41,579 Είχαμε και μια τεχνητή νοημοσύνη που έλεγχε τα πάντα. 191 00:09:41,579 --> 00:09:44,899 Έλεγε στους ανθρώπους τι να κάνουν, έλεγε στα ρομπότ τι να κάνουν, 192 00:09:44,913 --> 00:09:47,802 και κρατούσε λογαριασμό για χιλιάδες συστατικά στοιχεία. 193 00:09:47,802 --> 00:09:49,026 Το πιο ενδιαφέρον είναι 194 00:09:49,026 --> 00:09:52,207 ότι το να χτίσουμε αυτό το περίπτερο ήταν απλά αδύνατο 195 00:09:52,221 --> 00:09:55,190 χωρίς τους ανθρώπους, τα ρομπότ και την τεχνητή νοημοσύνη 196 00:09:55,190 --> 00:09:57,320 να επαυξάνουν το ένα το άλλο. 197 00:09:57,890 --> 00:10:01,210 Εντάξει, θα μοιραστώ μαζί σας ένα ακόμη πρότζεκτ, λίγο τρελό. 198 00:10:01,214 --> 00:10:05,696 Μαζί με έναν καλλιτέχνη στο Άμστερνταμ, τον Γιόρις Λάρμαν και την ομάδα του MX3D 199 00:10:05,696 --> 00:10:08,604 για να σχεδιάσουμε και να εκτυπώσουμε ρομποτικά 200 00:10:08,608 --> 00:10:11,623 την πρώτη αυτοκατασκευαζόμενη γέφυρα στον κόσμο. 201 00:10:12,315 --> 00:10:16,664 Έτσι, ο Γιόρις και μια τεχνητή νοημοσύνη τη σχεδιάζουν τώρα στο Άμστερνταμ. 202 00:10:17,180 --> 00:10:20,715 Ακολούθως θα πατήσουμε το κουμπί και τα ρομπότ θα αρχίσουν την εκτύπωση 203 00:10:20,715 --> 00:10:23,946 τρισδιάστατα, σε ανοξείδωτο ατσάλι, και θα συνεχίσουν να εκτυπώνουν, 204 00:10:23,946 --> 00:10:28,133 χωρίς ανθρώπινη παρέμβαση, μέχρι η γέφυρα να τελειώσει. 205 00:10:28,879 --> 00:10:31,671 Καθώς λοιπόν οι υπολογιστές θα επαυξήσουν την ικανότητά μας 206 00:10:31,671 --> 00:10:34,201 να φανταζόμαστε και να σχεδιάζουμε καινούρια πράγματα, 207 00:10:34,205 --> 00:10:37,330 τα ρομποτικά συστήματα θα μας βοηθήσουν να κατασκευάσουμε πράγματα 208 00:10:37,330 --> 00:10:39,828 που δεν θα μπορούσαμε να κάνουμε πριν. 209 00:10:40,207 --> 00:10:44,501 Τι θα γίνει όμως με την ικανότητά μας να αισθανόμαστε και να τα ελέγχουμε αυτά; 210 00:10:44,501 --> 00:10:48,562 Τι θα λέγατε για ένα νευρικό σύστημα για τα πράγματα που θα φτιάξουμε; 211 00:10:48,566 --> 00:10:51,098 Το νευρικό μας σύστημα, το ανθρώπινο νευρικό σύστημα, 212 00:10:51,102 --> 00:10:53,433 μας ενημερώνει για όλα όσα συμβαίνουν γύρω μας. 213 00:10:54,186 --> 00:10:57,854 Αλλά το νευρικό σύστημα των πραγμάτων που φτιάχνουμε είναι το πολύ υποτυπώδες. 214 00:10:57,854 --> 00:11:01,457 Για παράδειγμα, ένα αυτοκίνητο δεν λέει στο τμήμα δημοσίων έργων μιας πόλης 215 00:11:01,461 --> 00:11:04,605 ότι μόλις βρήκε μια λακκούβα στη γωνία Μπροντγουέι και Μόρισον. 216 00:11:04,605 --> 00:11:06,661 Ένα κτίριο δεν λέει στους σχεδιαστές του 217 00:11:06,661 --> 00:11:09,359 αν αρέσει ή όχι στους ανθρώπους να ζούνε μέσα του, 218 00:11:09,359 --> 00:11:11,743 και ο κατασκευαστής παιχνιδιών 219 00:11:11,743 --> 00:11:14,424 δεν ξέρει αν πραγματικά παίζουν με κάποιο παιχνίδι, 220 00:11:14,424 --> 00:11:17,003 πώς και πού και αν είναι διασκεδαστικό. 221 00:11:17,620 --> 00:11:21,504 Σίγουρα οι δημιουργοί της Μπάρμπι ήξεραν πώς θα ήταν η ζωή της, 222 00:11:21,504 --> 00:11:22,832 όταν την έφτιαξαν. 223 00:11:22,832 --> 00:11:24,183 (Γέλια) 224 00:11:24,183 --> 00:11:27,067 Αλλά τι γίνεται αν τελικά η Μπάρμπι νοιώθει μοναξιά; 225 00:11:27,067 --> 00:11:29,014 (Γέλια) 226 00:11:30,996 --> 00:11:34,829 Αν οι δημιουργοί της είχαν γνώσεις για τον πραγματικό κόσμο των σχεδίων τους 227 00:11:34,829 --> 00:11:38,204 - τον δρόμο, το σπίτι, την Μπάρμπι - θα μπορούσαν να τις χρησιμοποιήσουν 228 00:11:38,204 --> 00:11:40,988 για να δημιουργήσουν μια καλύτερη εμπειρία για τον χρήστη. 229 00:11:40,988 --> 00:11:43,243 Αυτό που λείπει είναι ένα νευρικό σύστημα 230 00:11:43,243 --> 00:11:47,322 που να μας ενώνει με όλα τα πράγματα που σχεδιάζουμε, κάνουμε και χρησιμοποιούμε. 231 00:11:47,915 --> 00:11:51,444 Πώς θα ήταν αν όλοι εσείς είχατε αυτή την πληροφορία να ρέει προς εσάς, 232 00:11:51,444 --> 00:11:54,387 από τα πράγματα που δημιουργείτε στον πραγματικό κόσμο; 233 00:11:55,232 --> 00:11:58,656 Για όλα τα πράγματα που φτιάχνουμε ξοδεύουμε άπειρα χρήματα και ενέργεια, 234 00:11:58,656 --> 00:12:01,116 πέρυσι δύο τρις δολάρια, 235 00:12:01,116 --> 00:12:04,780 προσπαθώντας να πείσουμε τους ανθρώπους να αγοράσουν τα πράγματα που φτιάξαμε. 236 00:12:04,780 --> 00:12:07,796 Αν όμως είχαμε αυτή τη σύνδεση με τα πράγματα που δημιουργούμε 237 00:12:07,796 --> 00:12:11,713 αφότου βρεθούν έξω στον πραγματικό κόσμο, αφότου πουληθούν ή κυκλοφορήσουν, 238 00:12:13,385 --> 00:12:15,095 θα μπορούσαμε να το αλλάξουμε αυτό: 239 00:12:15,095 --> 00:12:18,146 αντί να κάνουμε τους ανθρώπους να θέλουν αυτά που φτιάχνουμε, 240 00:12:18,150 --> 00:12:21,458 να φτιάχνουμε πράγματα που οι άνθρωποι θα ήθελαν έτσι κι αλλιώς. 241 00:12:21,458 --> 00:12:24,425 Τα καλά νέα είναι ότι δουλεύουμε σε ψηφιακά νευρικά συστήματα 242 00:12:24,429 --> 00:12:27,370 που μας συνδέουν με τα πράγματα που σχεδιάζουμε. 243 00:12:28,365 --> 00:12:29,976 Δουλεύουμε σε ένα πρότζεκτ 244 00:12:29,976 --> 00:12:34,138 με κάποιους εκεί στο Λος Άντζελες, τους αδερφούς Μπαντίτο και την ομάδα τους. 245 00:12:34,823 --> 00:12:38,616 Ένα από αυτά που κάνουν αυτοί οι τύποι είναι να φτιάχνουν κάτι τρελά αυτοκίνητα 246 00:12:38,620 --> 00:12:41,513 που κάνουν απολύτως τρελά πράγματα. 247 00:12:42,905 --> 00:12:44,375 Είναι τρελοί αυτοί οι τύποι 248 00:12:44,379 --> 00:12:45,465 (Γέλια) 249 00:12:45,465 --> 00:12:47,122 με την καλή την έννοια. 250 00:12:48,633 --> 00:12:50,170 Αυτό που κάνουμε μαζί τους 251 00:12:50,170 --> 00:12:53,120 είναι να πάρουμε το κανονικό σασί ενός αγωνιστικού αυτοκινήτου 252 00:12:53,120 --> 00:12:55,019 και να του βάζουμε ένα νευρικό σύστημα. 253 00:12:55,019 --> 00:12:57,895 Το κατασκευάσαμε λοιπόν με ένα σωρό αισθητήρες, 254 00:12:57,895 --> 00:13:00,484 βάλαμε έναν οδηγό παγκοσμίου κλάσης πίσω από το τιμόνι, 255 00:13:00,484 --> 00:13:03,915 το βγάλαμε στην έρημο και το οδηγήσαμε όσο δεν παίρνει επί μία εβδομάδα. 256 00:13:03,915 --> 00:13:06,450 Το νευρικό σύστημα του αυτοκινήτου κατέγραψε τα πάντα, 257 00:13:06,450 --> 00:13:08,152 όλα όσα συνέβαιναν στο αυτοκίνητο. 258 00:13:08,152 --> 00:13:10,661 Καταγράψαμε τέσσερα δισεκατομμύρια στοιχεία δεδομένων 259 00:13:10,661 --> 00:13:12,971 και όλες τις δυνάμεις που υπέστη. 260 00:13:12,975 --> 00:13:14,764 Μετά κάναμε κάτι τρελό. 261 00:13:15,268 --> 00:13:16,768 Πήραμε όλα αυτά τα δεδομένα 262 00:13:16,782 --> 00:13:20,528 και τα κατεβάσαμε σε μια τεχνητή νοημοσύνη σχεδιασμού που τη λέμε Ονειροπαγίδα. 263 00:13:21,270 --> 00:13:25,228 Τι παίρνει κανείς λοιπόν όταν δίνει σε ένα σχεδιαστικό εργαλείο ένα νευρικό σύστημα, 264 00:13:25,228 --> 00:13:28,140 και του ζητά να του φτιάξει το τέλειο σασί αυτοκινήτου. 265 00:13:28,723 --> 00:13:30,696 Παίρνει αυτό. 266 00:13:32,293 --> 00:13:36,006 Αυτό είναι κάτι που ο άνθρωπος δεν θα μπορούσε ποτέ να σχεδιάσει. 267 00:13:36,707 --> 00:13:38,589 Άνθρωπος όμως το σχεδίασε αυτό, 268 00:13:38,589 --> 00:13:42,722 μόνο που ήταν ένας άνθρωπος επαυξημένος από μια τεχνητή νοημοσύνη σχεδιασμού, 269 00:13:42,722 --> 00:13:44,177 ένα ψηφιακό νευρικό σύστημα 270 00:13:44,177 --> 00:13:47,212 και ρομπότ που μπορούν να φτιάξουν κάτι τέτοιο. 271 00:13:47,680 --> 00:13:51,269 Αν αυτό είναι το μέλλον, η Επαυξημένη Εποχή, 272 00:13:51,269 --> 00:13:55,560 και πρόκειται να επαυξηθούν οι γνώσεις, οι φυσικές και διανοητικές μας ικανότητες, 273 00:13:55,574 --> 00:13:56,992 πώς θα μοιάζει αυτό; 274 00:13:57,576 --> 00:14:00,897 Πώς θα είναι αυτή η χώρα των θαυμάτων; 275 00:14:00,901 --> 00:14:02,614 Νομίζω πως θα δούμε έναν κόσμο 276 00:14:02,614 --> 00:14:05,722 όπου θα περάσουμε από τα πράγματα που κατασκευάζονται 277 00:14:05,726 --> 00:14:07,531 στα πράγματα που καλλιεργούνται. 278 00:14:08,159 --> 00:14:11,612 Περνάμε από τα πράγματα που χτίζονται 279 00:14:11,616 --> 00:14:13,490 σε πράγματα που αναπτύσσονται. 280 00:14:14,134 --> 00:14:17,542 Περνάμε από την απομόνωση στη σύνδεση. 281 00:14:18,634 --> 00:14:21,045 Απομακρυνόμαστε από την εξαγωγή 282 00:14:21,049 --> 00:14:23,262 και αποδεχόμαστε την ενσωμάτωση. 283 00:14:23,967 --> 00:14:27,718 Νομίζω επίσης ότι δεν θα απαιτούμε πια υπακοή από τα πράγματά μας 284 00:14:27,718 --> 00:14:29,839 αλλά θα εκτιμούμε την αυτονομία. 285 00:14:30,510 --> 00:14:32,415 Χάρη στις επαυξημένες μας δεξιότητες, 286 00:14:32,419 --> 00:14:34,816 ο κόσμος μας θα αλλάξει δραματικά. 287 00:14:35,316 --> 00:14:38,806 Θα έχουμε έναν κόσμο με μεγαλύτερη ποικιλία, μεγαλύτερη συνδεσιμότητα, 288 00:14:38,806 --> 00:14:41,127 πιο δυναμικό, πιο πολύπλοκο, 289 00:14:41,127 --> 00:14:44,485 πιο προσαρμόσιμο, και φυσικά πιο όμορφο. 290 00:14:44,991 --> 00:14:49,129 Το μέλλον δε θα μοιάζει καθόλου με αυτά που έχουμε δει μέχρι τώρα. 291 00:14:49,129 --> 00:14:51,516 Γιατί; Γιατί αυτό που θα διαμορφώσει όλα αυτά 292 00:14:52,046 --> 00:14:57,571 είναι η νέα συνεργασία της τεχνολογίας με τη φύση και τον άνθρωπο. 293 00:14:59,279 --> 00:15:03,057 Αυτό, κατά τη γνώμη μου, είναι ένα μέλλον που αξίζει να το περιμένει κανείς. 294 00:15:03,057 --> 00:15:04,647 Σας ευχαριστώ όλους πάρα πολύ. 295 00:15:04,647 --> 00:15:06,565 (Χειροκρότημα)