0:00:00.735,0:00:03.024 Πόσοι από εσάς είστε δημιουργοί, 0:00:03.028,0:00:06.656 σχεδιαστές, μηχανικοί,[br]επιχειρηματίες, καλλιτέχνες, 0:00:06.656,0:00:09.077 ή έχετε απλώς πολύ μεγάλη φαντασία; 0:00:09.077,0:00:10.949 Σηκώστε τα χέρια! (Επευφημίες) 0:00:10.949,0:00:12.630 Οι περισσότεροι από σας. 0:00:13.334,0:00:15.628 Έχω νέα για εμάς τους δημιουργούς. 0:00:16.714,0:00:19.397 Μέσα στα επόμενα 20 χρόνια 0:00:21.471,0:00:25.401 ο τρόπος με τον οποίο δουλεύουμε [br]θα αλλάξει πολύ περισσότερο 0:00:25.401,0:00:28.109 απ' ό,τι άλλαξε [br]μέσα στα τελευταία 2.000 χρόνια. 0:00:28.511,0:00:33.139 Πράγματι, νομίζω ότι ανατέλλει [br]μια νέα εποχή της ανθρώπινης ιστορίας. 0:00:33.645,0:00:38.406 Ο τρόπος που δουλεύουμε ορίζεται [br]σε τέσσερις περιόδους. 0:00:39.404,0:00:42.679 Η εποχή του Κυνηγού-Τροφοσυλλέκτη[br]διήρκεσε αρκετά εκατομμύρια χρόνια. 0:00:43.163,0:00:46.739 Και μετά η εποχή της Γεωργοκαλλιέργειας[br]διήρκεσε αρκετές χιλιάδες χρόνια. 0:00:47.195,0:00:50.685 Η Βιομηχανική εποχή διήρκεσε[br]κάνα δυο αιώνες. 0:00:50.689,0:00:54.970 Τώρα πλέον, η εποχή της Πληροφορίας[br]έχει διάρκεια μόλις μερικών δεκαετιών. 0:00:54.970,0:01:00.240 Σήμερα, βρισκόμαστε στο μεταίχμιο[br]της επομένης εποχής μας ως είδος. 0:01:01.296,0:01:03.976 Καλωσορίσατε στην Επαυξημένη Εποχή. 0:01:03.990,0:01:07.693 Σε αυτή τη νέα εποχή, οι φυσικές σας[br]ανθρώπινες δεξιότητες θα ενισχυθούν 0:01:07.697,0:01:10.649 μέσω υπολογιστικών συστημάτων[br]που θα σας βοηθούν να σκέφτεστε, 0:01:10.649,0:01:13.275 ρομποτικά συστήματα [br]θα σας επιτρέπουν να κατασκευάζετε, 0:01:13.275,0:01:14.797 και ένα ψηφιακό νευρικό σύστημα 0:01:14.797,0:01:18.381 θα σας συνδέει με τον κόσμο[br]πολύ πέρα από τις φυσικές σας αισθήσεις. 0:01:19.367,0:01:21.379 Ας ξεκινήσουμε με τη γνωστική ενίσχυση. 0:01:21.383,0:01:23.773 Πόσοι από εσάς είστε επαυξημένα σάιμποργκ; 0:01:24.133,0:01:26.777 (Γέλια) 0:01:26.777,0:01:29.628 Θα έλεγα ότι στην πραγματικότητα[br]ήδη είμαστε επαυξημένοι. 0:01:30.178,0:01:31.812 Φανταστείτε ότι είστε σε ένα πάρτι 0:01:31.812,0:01:35.336 και κάποιος σας κάνει μια ερώτηση[br]που δεν ξέρετε να απαντήσετε. 0:01:35.340,0:01:39.120 Αν έχετε ένα από αυτά, σε μερικά δεύτερα[br]θα γνωρίζετε την απάντηση. 0:01:39.869,0:01:42.378 Αυτό είναι μόνο η αρχή. 0:01:42.863,0:01:46.194 Ακόμη και η Σίρι είναι απλώς[br]ένα παθητικό εργαλείο. 0:01:46.660,0:01:50.025 Στην πραγματικότητα, τα τελευταία[br]τρεισήμισι εκατομμύρια χρόνια 0:01:50.025,0:01:53.174 τα εργαλεία που είχαμε[br]ήταν εντελώς παθητικά. 0:01:54.203,0:01:57.878 Κάνουν ακριβώς ό,τι τους λέμε[br]και τίποτα παραπάνω. 0:01:57.882,0:02:00.983 Το πρώτο πρώτο μας εργαλείο[br]απλώς έκοβε εκεί που το χτυπούσαμε. 0:02:01.822,0:02:04.862 Η σμίλη σμιλεύει [br]εκεί που την οδηγεί ο καλλιτέχνης. 0:02:05.123,0:02:07.338 Ακόμη και τα πιο εξελιγμένα μας εργαλεία[br] 0:02:07.338,0:02:10.878 δεν κάνουν τίποτα[br]χωρίς τις ακριβείς μας οδηγίες. 0:02:10.878,0:02:14.173 Στην πραγματικότητα, ως σήμερα,[br]και αυτό είναι κάτι που με απελπίζει, 0:02:14.173,0:02:15.655 ήμασταν πάντα περιορισμένοι 0:02:15.655,0:02:19.070 από αυτή την ανάγκη να επιβάλουμε[br]τη θέλησή μας στα εργαλεία μας 0:02:19.070,0:02:21.477 χειρωνακτικά, κυριολεκτικά[br]με τα ίδια μας τα χέρια, 0:02:21.477,0:02:23.179 ακόμη και με τους υπολογιστές. 0:02:24.072,0:02:26.529 Εγώ είμαι όμως πιο πολύ[br]σαν τον Σκότι στο Σταρ Τρεκ. 0:02:26.529,0:02:28.433 (Γέλια) 0:02:28.433,0:02:30.543 Θέλω να μπορώ να συζητάω[br]με έναν υπολογιστή. 0:02:30.543,0:02:33.447 Να λέω: «Υπολογιστή,[br]ας σχεδιάσουμε ένα αυτοκίνητο», 0:02:33.447,0:02:35.166 και ο υπολογιστής να μου το δείχνει. 0:02:35.166,0:02:37.968 Να λέω: «Όχι, να είναι πιο γρήγορο [br]και λιγότερο γερμανικό» 0:02:37.968,0:02:40.255 και μπαμ, να μου δείχνει ένα τέτοιο. 0:02:40.255,0:02:41.844 (Γέλια) 0:02:42.208,0:02:44.498 Η συζήτηση μπορεί να είναι[br]λίγο παρατραβηγμένη, 0:02:44.498,0:02:47.203 πιθανόν λιγότερο απ' όσο πολλοί[br]από εμάς νομίζουμε, 0:02:47.207,0:02:49.869 αυτή τη στιγμή όμως[br]δουλεύουμε πάνω σ' αυτό. 0:02:49.869,0:02:54.191 Τα εργαλεία μας θα κάνουν αυτό το άλμα[br]και από παθητικά θα γίνουν δημιουργικά. 0:02:54.831,0:02:56.643 Τα δημιουργικά σχεδιαστικά εργαλεία, 0:02:56.643,0:03:00.771 με έναν υπολογιστή και αλγορίθμους[br]συνθέτουν γεωμετρία, 0:03:00.775,0:03:03.926 και εφευρίσκουν νέα σχέδια[br]εντελώς από μόνα τους. 0:03:03.926,0:03:06.964 Το μόνο που μένει είναι να θέσετε [br]στόχους και περιορισμούς. 0:03:06.964,0:03:08.286 Θα σας δώσω ένα παράδειγμα. 0:03:08.286,0:03:10.952 Για τον σκελετό αυτού[br]του ιπτάμενου τηλεκατευθυνόμενου 0:03:10.952,0:03:13.592 το μόνο που χρειάζεται είναι[br]να του πείτε κάτι όπως: 0:03:13.592,0:03:16.545 θέλω να έχει τέσσερις προπέλες,[br]να είναι όσο πιο ελαφρύ γίνεται 0:03:16.545,0:03:18.780 και να είναι αεροδυναμικό. 0:03:19.408,0:03:24.306 Στη συνέχεια ο υπολογιστής μελετά[br]όλο το φάσμα των πιθανών λύσεων: 0:03:24.306,0:03:28.273 όλες τις πιθανές παραλλαγές που επιλύουν [br]και ανταποκρίνονται στα κριτήρια, 0:03:28.277,0:03:29.739 δηλαδή εκατομμύρια επιλογές. 0:03:29.743,0:03:31.778 Χρειάζονται μεγάλοι υπολογιστές γι' αυτό. 0:03:31.778,0:03:33.841 Αλλά μας βγάζει σχέδια 0:03:33.841,0:03:37.236 που εμείς από μόνοι μας[br]ποτέ δεν θα είχαμε φανταστεί. 0:03:37.236,0:03:40.082 Και ο υπολογιστής τα σκέφτεται[br]όλα αυτά από μόνος του, 0:03:40.082,0:03:43.840 κανένας δεν σχεδίασε τίποτα[br]και ξεκίνησε εντελώς από το μηδέν. 0:03:45.038,0:03:47.399 Παρεμπιπτόντως, δεν είναι τυχαίο 0:03:47.399,0:03:51.090 ότι το σώμα του τηλεκατευθυνόμενου μοιάζει[br]με την πύελο ενός ιπτάμενου σκίουρου. 0:03:51.287,0:03:53.294 (Γέλια) 0:03:53.660,0:03:57.756 Είναι γιατί οι αλγόριθμοι σχεδιάστηκαν [br]για να λειτουργούν όπως η εξέλιξη. 0:03:58.755,0:04:01.209 Το συναρπαστικό είναι[br]ότι αυτή η τεχνολογία υπάρχει, 0:04:01.209,0:04:02.692 εκεί έξω στον πραγματικό κόσμο. 0:04:02.692,0:04:04.928 Συνεργαζόμαστε με την Airbus[br]εδώ και λίγα χρόνια 0:04:04.928,0:04:07.247 πάνω σε μια ιδέα[br]για ένα αεροπλάνο του μέλλοντος. 0:04:07.247,0:04:09.111 Έχουμε πολύ δρόμο ακόμα. 0:04:09.111,0:04:12.859 Πρόσφατα όμως χρησιμοποιήσαμε[br]μια δημιουργική τεχνητή νοημοσύνη 0:04:12.859,0:04:15.156 που σκέφτηκε αυτό. 0:04:15.349,0:04:18.296 Αυτό είναι ένα διαχωριστικό καμπίνας[br]από τρισδιάστατο εκτυπωτή 0:04:18.296,0:04:20.786 το οποίο σχεδιάστηκε από έναν υπολογιστή. 0:04:20.786,0:04:23.594 Είναι ανθεκτικότερο από το πρωτότυπο[br]αλλά με το μισό βάρος 0:04:23.594,0:04:26.775 και θα πετάει με το Airbus A320[br]αργότερα εντός του έτους. 0:04:27.395,0:04:29.394 Οι υπολογιστές μπορούν πια να δημιουργούν, 0:04:29.394,0:04:33.583 να βρίσκουν τις δικές τους λύσεις[br]σε δικά μας σαφώς καθορισμένα προβλήματα. 0:04:34.497,0:04:36.137 Αλλά δεν έχουν διαίσθηση. 0:04:36.147,0:04:39.091 Ακόμη πρέπει να αρχίζουν[br]κάθε φορά από το μηδέν, 0:04:39.091,0:04:41.686 επειδή ποτέ δεν μαθαίνουν. 0:04:42.368,0:04:44.078 Σε αντίθεση με τη Μάγκι. 0:04:44.078,0:04:45.713 (Γέλια) 0:04:45.713,0:04:49.470 Η Μάγκι είναι πράγματι πιο έξυπνη από[br]τα πιο προχωρημένα σχεδιαστικά εργαλεία. 0:04:49.470,0:04:50.811 Τι εννοώ με αυτό; 0:04:50.811,0:04:52.591 Αν ο ιδιοκτήτης πιάσει αυτό το λουρί, 0:04:52.591,0:04:56.043 η Μάγκι ξέρει, με αρκετά μεγάλη [br]βεβαιότητα, ότι είναι ώρα για βόλτα. 0:04:56.043,0:04:57.250 Πώς το έμαθε αυτό; 0:04:57.254,0:05:00.482 Λοιπόν, κάθε φορά που ο ιδιοκτήτης[br]έπαιρνε το λουρί, πήγαιναν βόλτα. 0:05:00.482,0:05:02.464 Η Μάγκι έκανε τρια πράγματα: 0:05:02.464,0:05:06.407 έδινε προσοχή, θυμόταν τι είχε γίνει [br]την προηγούμενη φορά, 0:05:06.413,0:05:10.540 και δημιουργούσε και κράταγε [br]τη φόρμουλα στο μυαλό της. 0:05:11.429,0:05:14.688 Το ενδιαφέρον είναι πως σε αυτό ακριβώς[br]προσπαθούν οι επιστήμονες 0:05:14.688,0:05:17.921 να εκπαιδεύσουν την τεχνητή νοημοσύνη [br]για τα τελευταία 60 χρόνια. 0:05:18.683,0:05:23.906 Το 1952 έφτιαξαν έναν υπολογιστή[br]που μπορούσε να παίζει τρίλιζα. 0:05:25.081,0:05:26.601 Σιγά το πράγμα. 0:05:27.029,0:05:30.029 Έπειτα, 45 χρόνια αργότερα, το 1997, 0:05:30.033,0:05:32.735 ο Deep Blue νίκησε τον Κασπάροφ στο σκάκι. 0:05:34.046,0:05:38.998 Το 2011 ο Γουάτσον κέρδισε δύο ανθρώπους[br]στο παιχνίδι ερωτήσεων Jeopardy, 0:05:38.998,0:05:41.966 που είναι πολύ πιο δύσκολο από το σκάκι[br]για έναν υπολογιστή. 0:05:41.970,0:05:45.602 Και αυτό γιατί, αντί να δουλεύει [br]με προκαθορισμένες απαντήσεις, 0:05:45.606,0:05:49.489 ο Γουάτσον έπρεπε να νικήσει με τη λογική[br]τους ανθρώπους αντιπάλους του. 0:05:50.393,0:05:54.326 Λίγες εβδομάδες πριν, [br]ο AlphaGo της DeepMind 0:05:54.326,0:05:57.112 νίκησε τον καλύτερο παίκτη [br]στο παιχνίδι Go, 0:05:57.112,0:05:59.088 το πιο δύσκολο παιχνίδι που υπάρχει. 0:05:59.088,0:06:02.238 Στο Go υπάρχουν περισσότερες[br]πιθανές κινήσεις 0:06:02.238,0:06:04.632 απ' ό,τι άτομα στο σύμπαν. 0:06:06.210,0:06:08.036 Προκειμένου λοιπόν να νικήσει, 0:06:08.040,0:06:10.678 ο AlphaGo έπρεπε να αναπτύξει διαίσθηση. 0:06:11.098,0:06:14.182 Και μάλιστα, σε κάποια σημεία,[br]οι προγραμματιστές του AlphaGo 0:06:14.182,0:06:17.648 δεν καταλάβαιναν καν γιατί ο AlphaGo[br]έκανε αυτό που έκανε. 0:06:19.331,0:06:21.111 Άρα όλα εξελίσσονται πολύ γρήγορα. 0:06:21.115,0:06:24.356 Σκεφτείτε ότι, στη διάρκεια [br]της ζωής ενός ανθρώπου, 0:06:24.356,0:06:26.789 οι υπολογιστές εξελίχθηκαν[br]από παιδικό παιχνίδι 0:06:27.670,0:06:31.098 σε αυτό που αναγνωρίζεται ως[br]το αποκορύφωμα της στρατηγικής σκέψης. 0:06:31.999,0:06:34.390 Αυτό που ουσιαστικά συμβαίνει 0:06:34.390,0:06:37.347 είναι ότι οι υπολογιστές [br]εξελίσσονται από Σποκ... 0:06:37.897,0:06:39.567 σε Κάπτεν Κερκ. 0:06:39.747,0:06:42.475 (Γέλια) 0:06:43.389,0:06:46.923 Έτσι; Από την καθαρή λογική στη διαίσθηση. 0:06:48.184,0:06:50.167 Θα περνούσατε αυτή τη γέφυρα; 0:06:50.579,0:06:52.876 Οι περισσότεροι από σας [br]θα λέγατε: «Όχι βέβαια!» 0:06:52.876,0:06:54.118 (Γέλια) 0:06:54.118,0:06:56.905 Χρειάστηκε ένα δευτερόλεπτο[br]για να πάρετε αυτή την απόφαση. 0:06:56.905,0:06:59.687 Κατά κάποιο τρόπο ήδη ξέρατε[br]ότι η γέφυρα δεν ήταν ασφαλής. 0:06:59.687,0:07:01.520 Αυτό ακριβώς το είδος της διαίσθησης 0:07:01.520,0:07:05.022 αναπτύσσουν αυτή τη στιγμή[br]τα συστήματά μας που μαθαίνουν. 0:07:05.532,0:07:06.993 Πολύ σύντομα θα μπορείτε 0:07:06.993,0:07:09.990 να δείξετε σε έναν υπολογιστή[br]κάτι που φτιάξατε, που σχεδιάσατε, 0:07:09.990,0:07:12.169 κι αυτός θα το κοιτάει και θα σας λέει: 0:07:12.169,0:07:15.826 «Λυπάμαι μάγκα, δεν θα λειτουργήσει,[br]πρέπει να προσπαθήσεις ξανά». 0:07:15.826,0:07:19.036 Θα μπορείτε να ρωτήσετε αν θα αρέσει[br]στον κόσμο το νέο σας τραγούδι, 0:07:19.876,0:07:22.736 ή η καινούρια γεύση παγωτού που φτιάξατε. 0:07:23.549,0:07:27.462 Ακόμη πιο σημαντικό, θα μπορούσατε [br]να συνεργαστείτε με έναν υπολογιστή, 0:07:27.462,0:07:30.077 για να επιλύσετε ένα εντελώς [br]καινούριο πρόβλημα. 0:07:30.077,0:07:33.237 Για παράδειγμα, η κλιματική αλλαγή:[br]δεν τα καταφέρνουμε μόνοι μας, 0:07:33.237,0:07:35.899 όσο περισσότερη βοήθεια έχουμε,[br]τόσο το καλύτερο για μας. 0:07:35.899,0:07:37.391 Γι' αυτό ακριβώς μιλάω, 0:07:37.391,0:07:39.960 πώς η τεχνολογία ενισχύει[br]τις γνωστικές μας ικανότητες 0:07:39.960,0:07:43.722 ώστε να μπορούμε να φανταστούμε και[br]να σχεδιάσουμε πράγματα απλησίαστα ως τώρα 0:07:43.722,0:07:46.085 σαν απλοί μη-επαυξημένοι άνθρωποι. 0:07:47.764,0:07:50.919 Γιατί να μη φτιάξουμε λοιπόν[br]όλα αυτά τα τρελά καινούρια πράγματα 0:07:50.919,0:07:53.390 που πρόκειται να εφεύρουμε[br]και να σχεδιάσουμε; 0:07:53.952,0:07:58.045 Η εποχή της επαύξησης του ανθρώπου[br]τόσο για τον πραγματικό κόσμο 0:07:58.049,0:08:01.134 όσο και για τον εικονικό[br]ανήκει στη σφαίρα της διανόησης. 0:08:01.833,0:08:03.754 Πώς θα μας επαυξήσει η τεχνολογία; 0:08:04.261,0:08:06.734 Στον πραγματικό κόσμο,[br]ρομποτικά συστήματα. 0:08:07.620,0:08:09.356 Εντάξει, σίγουρα υπάρχει ένας φόβος 0:08:09.360,0:08:11.862 ότι τα ρομπότ θα πάρουν [br]τις δουλειές των ανθρώπων 0:08:11.862,0:08:14.052 και αυτό είναι αλήθεια[br]για ορισμένους τομείς. 0:08:14.054,0:08:17.112 Εμένα όμως μου αρέσει[br]πολύ περισσότερο η ιδέα 0:08:17.112,0:08:21.630 ότι άνθρωποι και ρομπότ σε συνεργασία[br]θα επαυξήσουν ο ένας τον άλλον 0:08:21.630,0:08:23.998 και θα βρεθούν σε ένα νέο πεδίο. 0:08:23.998,0:08:26.984 Αυτό είναι το εργαστήρι εφαρμοσμένης[br]έρευνας στο Σαν Φρανσίσκο. 0:08:26.984,0:08:29.950 Ένα από τα πεδία της έρευνάς μας[br]είναι η εξελιγμένη ρομποτική 0:08:29.950,0:08:32.255 και ειδικότερα η συνεργασία[br]ανθρώπων και ρομπότ. 0:08:33.034,0:08:35.777 Αυτός είναι ο Μπίσοπ,[br]ένα από τα ρομπότ μας. 0:08:35.777,0:08:38.436 Σε ένα πείραμα τον βάλαμε[br]να βοηθήσει έναν άνθρωπο 0:08:38.436,0:08:41.550 που δούλευε στις οικοδομές και[br]έκανε επαναλαμβανόμενες κινήσεις, 0:08:41.984,0:08:46.178 κινήσεις όπως να ανοίγει τρύπες για πρίζες[br]ή διακόπτες πάνω σε γυψοσανίδες. 0:08:46.182,0:08:48.668 (Γέλια) 0:08:49.667,0:08:52.427 Ο άνθρωπος-συνεργάτης[br]του Μπίσοπ του λέει τι να κάνει 0:08:52.427,0:08:55.797 σε απλά Αγγλικά και με απλές χειρονομίες,[br]κάπως σαν να μιλά σε σκύλο, 0:08:55.798,0:08:59.279 και μετά ο Μπίσοπ εκτελεί [br]αυτές τις οδηγίες με απόλυτη ακρίβεια. 0:08:59.895,0:09:02.878 Χρησιμοποιούμε τον άνθρωπο[br]σ' αυτό που ο άνθρωπος είναι καλός: 0:09:02.878,0:09:05.235 επαγρύπνηση, αντίληψη και λήψη αποφάσεων. 0:09:05.235,0:09:07.499 Χρησιμοποιούμε το ρομπότ[br]εκεί που είναι καλό: 0:09:07.499,0:09:09.407 ακρίβεια και επανάληψη. 0:09:09.852,0:09:12.613 Να άλλο ένα άλλο ωραίο πρότζεκτ[br]στο οποίο δούλεψε ο Μπίσοπ. 0:09:12.613,0:09:15.712 Ο στόχος αυτού του πρότζεκτ[br]που το λέμε HIVE, κυψέλη, 0:09:15.712,0:09:19.587 είναι να αναπαραστήσουμε την εμπειρία[br]ανθρώπων, υπολογιστών και ρομπότ 0:09:19.587,0:09:23.497 που δουλεύουν όλοι μαζί για να λύσουν ένα[br]ιδιαίτερα πολύπλοκο πρόβλημα σχεδιασμού. 0:09:23.503,0:09:25.244 Ο άνθρωποι ενέργησαν ως εργάτες. 0:09:25.248,0:09:28.325 Κινήθηκαν στο εργοτάξιο,[br]επεξεργάστηκαν το μπαμπού, 0:09:28.325,0:09:30.965 το οποίο, επειδή είναι ένα[br]μη-ισοφορμικό υλικό 0:09:30.965,0:09:33.313 είναι πολύ δύσκολο για τα ρομπότ[br]να το χειριστούν. 0:09:33.313,0:09:35.875 Αλλά μετά τα ρομπότ έκαναν αυτό[br]το δέσιμο με τις ίνες 0:09:35.875,0:09:38.020 που ήταν σχεδόν αδύνατο[br]να το κάνει άνθρωπος. 0:09:38.020,0:09:41.579 Είχαμε και μια τεχνητή νοημοσύνη[br]που έλεγχε τα πάντα. 0:09:41.579,0:09:44.899 Έλεγε στους ανθρώπους τι να κάνουν,[br]έλεγε στα ρομπότ τι να κάνουν, 0:09:44.913,0:09:47.802 και κρατούσε λογαριασμό[br]για χιλιάδες συστατικά στοιχεία. 0:09:47.802,0:09:49.026 Το πιο ενδιαφέρον είναι 0:09:49.026,0:09:52.207 ότι το να χτίσουμε αυτό το περίπτερο[br]ήταν απλά αδύνατο 0:09:52.221,0:09:55.190 χωρίς τους ανθρώπους, τα ρομπότ[br]και την τεχνητή νοημοσύνη 0:09:55.190,0:09:57.320 να επαυξάνουν το ένα το άλλο. 0:09:57.890,0:10:01.210 Εντάξει, θα μοιραστώ μαζί σας[br]ένα ακόμη πρότζεκτ, λίγο τρελό. 0:10:01.214,0:10:05.696 Μαζί με έναν καλλιτέχνη στο Άμστερνταμ,[br]τον Γιόρις Λάρμαν και την ομάδα του MX3D 0:10:05.696,0:10:08.604 για να σχεδιάσουμε[br]και να εκτυπώσουμε ρομποτικά 0:10:08.608,0:10:11.623 την πρώτη αυτοκατασκευαζόμενη[br]γέφυρα στον κόσμο. 0:10:12.315,0:10:16.664 Έτσι, ο Γιόρις και μια τεχνητή νοημοσύνη[br]τη σχεδιάζουν τώρα στο Άμστερνταμ. 0:10:17.180,0:10:20.715 Ακολούθως θα πατήσουμε το κουμπί[br]και τα ρομπότ θα αρχίσουν την εκτύπωση 0:10:20.715,0:10:23.946 τρισδιάστατα, σε ανοξείδωτο ατσάλι,[br]και θα συνεχίσουν να εκτυπώνουν, 0:10:23.946,0:10:28.133 χωρίς ανθρώπινη παρέμβαση,[br]μέχρι η γέφυρα να τελειώσει. 0:10:28.879,0:10:31.671 Καθώς λοιπόν οι υπολογιστές[br]θα επαυξήσουν την ικανότητά μας 0:10:31.671,0:10:34.201 να φανταζόμαστε και να σχεδιάζουμε[br]καινούρια πράγματα, 0:10:34.205,0:10:37.330 τα ρομποτικά συστήματα θα μας βοηθήσουν[br]να κατασκευάσουμε πράγματα 0:10:37.330,0:10:39.828 που δεν θα μπορούσαμε να κάνουμε πριν. 0:10:40.207,0:10:44.501 Τι θα γίνει όμως με την ικανότητά μας να[br]αισθανόμαστε και να τα ελέγχουμε αυτά; 0:10:44.501,0:10:48.562 Τι θα λέγατε για ένα νευρικό σύστημα[br]για τα πράγματα που θα φτιάξουμε; 0:10:48.566,0:10:51.098 Το νευρικό μας σύστημα,[br]το ανθρώπινο νευρικό σύστημα, 0:10:51.102,0:10:53.433 μας ενημερώνει για όλα[br]όσα συμβαίνουν γύρω μας. 0:10:54.186,0:10:57.854 Αλλά το νευρικό σύστημα των πραγμάτων[br]που φτιάχνουμε είναι το πολύ υποτυπώδες. 0:10:57.854,0:11:01.457 Για παράδειγμα, ένα αυτοκίνητο δεν λέει[br]στο τμήμα δημοσίων έργων μιας πόλης 0:11:01.461,0:11:04.605 ότι μόλις βρήκε μια λακκούβα[br]στη γωνία Μπροντγουέι και Μόρισον. 0:11:04.605,0:11:06.661 Ένα κτίριο δεν λέει στους σχεδιαστές του 0:11:06.661,0:11:09.359 αν αρέσει ή όχι στους ανθρώπους[br]να ζούνε μέσα του, 0:11:09.359,0:11:11.743 και ο κατασκευαστής παιχνιδιών 0:11:11.743,0:11:14.424 δεν ξέρει αν πραγματικά[br]παίζουν με κάποιο παιχνίδι, 0:11:14.424,0:11:17.003 πώς και πού και αν είναι διασκεδαστικό. 0:11:17.620,0:11:21.504 Σίγουρα οι δημιουργοί της Μπάρμπι [br]ήξεραν πώς θα ήταν η ζωή της, 0:11:21.504,0:11:22.832 όταν την έφτιαξαν. 0:11:22.832,0:11:24.183 (Γέλια) 0:11:24.183,0:11:27.067 Αλλά τι γίνεται αν τελικά[br]η Μπάρμπι νοιώθει μοναξιά; 0:11:27.067,0:11:29.014 (Γέλια) 0:11:30.996,0:11:34.829 Αν οι δημιουργοί της είχαν γνώσεις[br]για τον πραγματικό κόσμο των σχεδίων τους 0:11:34.829,0:11:38.204 - τον δρόμο, το σπίτι, την Μπάρμπι -[br]θα μπορούσαν να τις χρησιμοποιήσουν 0:11:38.204,0:11:40.988 για να δημιουργήσουν [br]μια καλύτερη εμπειρία για τον χρήστη. 0:11:40.988,0:11:43.243 Αυτό που λείπει είναι ένα νευρικό σύστημα 0:11:43.243,0:11:47.322 που να μας ενώνει με όλα τα πράγματα που[br]σχεδιάζουμε, κάνουμε και χρησιμοποιούμε. 0:11:47.915,0:11:51.444 Πώς θα ήταν αν όλοι εσείς είχατε αυτή[br]την πληροφορία να ρέει προς εσάς, 0:11:51.444,0:11:54.387 από τα πράγματα που δημιουργείτε[br]στον πραγματικό κόσμο; 0:11:55.232,0:11:58.656 Για όλα τα πράγματα που φτιάχνουμε[br]ξοδεύουμε άπειρα χρήματα και ενέργεια, 0:11:58.656,0:12:01.116 πέρυσι δύο τρις δολάρια, 0:12:01.116,0:12:04.780 προσπαθώντας να πείσουμε τους ανθρώπους[br]να αγοράσουν τα πράγματα που φτιάξαμε. 0:12:04.780,0:12:07.796 Αν όμως είχαμε αυτή τη σύνδεση[br]με τα πράγματα που δημιουργούμε 0:12:07.796,0:12:11.713 αφότου βρεθούν έξω στον πραγματικό κόσμο,[br]αφότου πουληθούν ή κυκλοφορήσουν, 0:12:13.385,0:12:15.095 θα μπορούσαμε να το αλλάξουμε αυτό: 0:12:15.095,0:12:18.146 αντί να κάνουμε τους ανθρώπους[br]να θέλουν αυτά που φτιάχνουμε, 0:12:18.150,0:12:21.458 να φτιάχνουμε πράγματα που οι άνθρωποι[br]θα ήθελαν έτσι κι αλλιώς. 0:12:21.458,0:12:24.425 Τα καλά νέα είναι ότι δουλεύουμε[br]σε ψηφιακά νευρικά συστήματα 0:12:24.429,0:12:27.370 που μας συνδέουν με τα πράγματα[br]που σχεδιάζουμε. 0:12:28.365,0:12:29.976 Δουλεύουμε σε ένα πρότζεκτ 0:12:29.976,0:12:34.138 με κάποιους εκεί στο Λος Άντζελες,[br]τους αδερφούς Μπαντίτο και την ομάδα τους. 0:12:34.823,0:12:38.616 Ένα από αυτά που κάνουν αυτοί οι τύποι[br]είναι να φτιάχνουν κάτι τρελά αυτοκίνητα 0:12:38.620,0:12:41.513 που κάνουν απολύτως τρελά πράγματα. 0:12:42.905,0:12:44.375 Είναι τρελοί αυτοί οι τύποι 0:12:44.379,0:12:45.465 (Γέλια) 0:12:45.465,0:12:47.122 με την καλή την έννοια. 0:12:48.633,0:12:50.170 Αυτό που κάνουμε μαζί τους 0:12:50.170,0:12:53.120 είναι να πάρουμε το κανονικό σασί[br]ενός αγωνιστικού αυτοκινήτου 0:12:53.120,0:12:55.019 και να του βάζουμε ένα νευρικό σύστημα. 0:12:55.019,0:12:57.895 Το κατασκευάσαμε λοιπόν[br]με ένα σωρό αισθητήρες, 0:12:57.895,0:13:00.484 βάλαμε έναν οδηγό παγκοσμίου κλάσης[br]πίσω από το τιμόνι, 0:13:00.484,0:13:03.915 το βγάλαμε στην έρημο και το οδηγήσαμε[br]όσο δεν παίρνει επί μία εβδομάδα. 0:13:03.915,0:13:06.450 Το νευρικό σύστημα του αυτοκινήτου[br]κατέγραψε τα πάντα, 0:13:06.450,0:13:08.152 όλα όσα συνέβαιναν στο αυτοκίνητο. 0:13:08.152,0:13:10.661 Καταγράψαμε τέσσερα[br]δισεκατομμύρια στοιχεία δεδομένων 0:13:10.661,0:13:12.971 και όλες τις δυνάμεις που υπέστη. 0:13:12.975,0:13:14.764 Μετά κάναμε κάτι τρελό. 0:13:15.268,0:13:16.768 Πήραμε όλα αυτά τα δεδομένα 0:13:16.782,0:13:20.528 και τα κατεβάσαμε σε μια τεχνητή νοημοσύνη[br]σχεδιασμού που τη λέμε Ονειροπαγίδα. 0:13:21.270,0:13:25.228 Τι παίρνει κανείς λοιπόν όταν δίνει σε ένα[br]σχεδιαστικό εργαλείο ένα νευρικό σύστημα, 0:13:25.228,0:13:28.140 και του ζητά να του φτιάξει[br]το τέλειο σασί αυτοκινήτου. 0:13:28.723,0:13:30.696 Παίρνει αυτό. 0:13:32.293,0:13:36.006 Αυτό είναι κάτι που ο άνθρωπος[br]δεν θα μπορούσε ποτέ να σχεδιάσει. 0:13:36.707,0:13:38.589 Άνθρωπος όμως το σχεδίασε αυτό, 0:13:38.589,0:13:42.722 μόνο που ήταν ένας άνθρωπος επαυξημένος[br]από μια τεχνητή νοημοσύνη σχεδιασμού, 0:13:42.722,0:13:44.177 ένα ψηφιακό νευρικό σύστημα 0:13:44.177,0:13:47.212 και ρομπότ που μπορούν[br]να φτιάξουν κάτι τέτοιο. 0:13:47.680,0:13:51.269 Αν αυτό είναι το μέλλον,[br]η Επαυξημένη Εποχή, 0:13:51.269,0:13:55.560 και πρόκειται να επαυξηθούν οι γνώσεις,[br]οι φυσικές και διανοητικές μας ικανότητες, 0:13:55.574,0:13:56.992 πώς θα μοιάζει αυτό; 0:13:57.576,0:14:00.897 Πώς θα είναι αυτή η χώρα των θαυμάτων; 0:14:00.901,0:14:02.614 Νομίζω πως θα δούμε έναν κόσμο 0:14:02.614,0:14:05.722 όπου θα περάσουμε από τα πράγματα[br]που κατασκευάζονται 0:14:05.726,0:14:07.531 στα πράγματα που καλλιεργούνται. 0:14:08.159,0:14:11.612 Περνάμε από τα πράγματα που χτίζονται 0:14:11.616,0:14:13.490 σε πράγματα που αναπτύσσονται. 0:14:14.134,0:14:17.542 Περνάμε από την απομόνωση στη σύνδεση. 0:14:18.634,0:14:21.045 Απομακρυνόμαστε από την εξαγωγή 0:14:21.049,0:14:23.262 και αποδεχόμαστε την ενσωμάτωση. 0:14:23.967,0:14:27.718 Νομίζω επίσης ότι δεν θα απαιτούμε πια[br]υπακοή από τα πράγματά μας 0:14:27.718,0:14:29.839 αλλά θα εκτιμούμε την αυτονομία. 0:14:30.510,0:14:32.415 Χάρη στις επαυξημένες μας δεξιότητες, 0:14:32.419,0:14:34.816 ο κόσμος μας θα αλλάξει δραματικά. 0:14:35.316,0:14:38.806 Θα έχουμε έναν κόσμο με μεγαλύτερη[br]ποικιλία, μεγαλύτερη συνδεσιμότητα, 0:14:38.806,0:14:41.127 πιο δυναμικό, πιο πολύπλοκο, 0:14:41.127,0:14:44.485 πιο προσαρμόσιμο, και φυσικά πιο όμορφο. 0:14:44.991,0:14:49.129 Το μέλλον δε θα μοιάζει καθόλου [br]με αυτά που έχουμε δει μέχρι τώρα. 0:14:49.129,0:14:51.516 Γιατί; Γιατί αυτό [br]που θα διαμορφώσει όλα αυτά 0:14:52.046,0:14:57.571 είναι η νέα συνεργασία της τεχνολογίας[br]με τη φύση και τον άνθρωπο. 0:14:59.279,0:15:03.057 Αυτό, κατά τη γνώμη μου, είναι ένα μέλλον[br]που αξίζει να το περιμένει κανείς. 0:15:03.057,0:15:04.647 Σας ευχαριστώ όλους πάρα πολύ. 0:15:04.647,0:15:06.565 (Χειροκρότημα)