0:00:00.880,0:00:04.893 Ήταν σύνηθες, αν θέλατε [br]ένας υπολογιστής να κάνει κάτι νέο, 0:00:04.893,0:00:06.447 έπρεπε να τον προγραμματίσετε. 0:00:06.447,0:00:09.858 Ο προγραμματισμός βέβαια, [br]για όσους δεν έχετε ασχοληθεί, 0:00:09.858,0:00:13.360 απαιτεί να καταχωρήσεις [br]με εξωφρενική λεπτομέρεια 0:00:13.360,0:00:16.727 κάθε ξεχωριστό βήμα [br]που θέλετε να κάνει ο υπολογιστής 0:00:16.727,0:00:19.089 για να πετύχετε το σκοπό σας. 0:00:19.089,0:00:22.585 Και αν θέλετε να κάνετε κάτι [br]που δεν ξέρετε να το κάνετε ο ίδιος, 0:00:22.585,0:00:24.648 αυτό είναι σοβαρό πρόβλημα. 0:00:24.648,0:00:28.131 Αυτό ήταν το πρόβλημα του Άρθουρ Σάμιουελ. 0:00:28.131,0:00:32.208 Το 1956 ήθελε να κάνει αυτό τον υπολογιστή 0:00:32.208,0:00:34.548 να μπορεί να τον νικάει στη ντάμα. 0:00:34.548,0:00:36.588 Πώς μπορείς να γράψεις πρόγραμμα, 0:00:36.588,0:00:40.394 να καταχωρήσεις με πλήρη λεπτομέρεια,[br]πώς να γίνει καλύτερος από σένα στη ντάμα; 0:00:40.394,0:00:42.116 Έτσι είχε μια ιδέα: 0:00:42.116,0:00:45.840 έβαλε τον υπολογιστή να παίξει [br]ενάντια στον εαυτό του χιλιάδες φορές 0:00:45.840,0:00:48.364 και να μάθει να παίζει ντάμα. 0:00:48.364,0:00:51.612 Πραγματικά είχε αποτέλεσμα και έως το 1962 0:00:51.612,0:00:55.561 ο υπολογιστής είχε νικήσει [br]τον πρωταθλητή της πολιτείας Κονέκτικατ. 0:00:55.561,0:00:58.534 Έτσι ο Άρθουρ Σάμιουελ[br]ήταν ο πατέρας της μηχανικής μάθησης, 0:00:58.534,0:01:00.251 και του χρωστάω πολλά, 0:01:00.251,0:01:03.014 επειδή ασχολούμαι με την εφαρμογή [br]της μηχανικής μάθησης. 0:01:03.014,0:01:04.439 Ήμουν πρόεδρος της Kaggle, 0:01:04.439,0:01:08.047 μια κοινότητα άνω των 200.000 ατόμων [br]που ασχολούνται με τη μηχανική μάθηση. 0:01:08.047,0:01:10.105 Η Kaggle οργανώνει διαγωνισμούς 0:01:10.105,0:01:13.633 για τη λύση άλυτων προβλημάτων, 0:01:13.633,0:01:17.120 και σημείωσε επιτυχίες εκατοντάδες φορές. 0:01:17.120,0:01:19.940 Από αυτή την πλεονεκτική θέση [br]μπόρεσα να ανακαλύψω πολλά 0:01:19.940,0:01:23.890 σχετικά με το τι έκανε η μηχανική μάθηση[br]στο παρελθόν, τι μπορεί να κάνει σήμερα, 0:01:23.890,0:01:26.252 και τι θα μπορεί να κάνει στο μέλλον. 0:01:26.252,0:01:30.675 Ίσως η πρώτη εμπορικά μεγάλη επιτυχία[br]της μηχανικής μάθησης ήταν η Google. 0:01:30.675,0:01:33.784 Η Google απέδειξε ότι ήταν δυνατόν [br]να βρεθούν πληροφορίες 0:01:33.784,0:01:35.536 με ένα αλγόριθμο υπολογιστή, 0:01:35.536,0:01:38.437 και αυτός ο αλγόριθμος [br]βασίζεται στη μηχανική μάθηση. 0:01:38.437,0:01:42.323 Από τότε έχουν υπάρξει πολλές [br]εμπορικές επιτυχίες της μηχανικής μάθησης. 0:01:42.323,0:01:44.160 Εταιρείες όπως η Amazon και η Netflix 0:01:44.160,0:01:47.876 χρησιμοποιούν τη μηχανική μάθηση [br]για να προτείνουν προϊόντα ν' αγοράσετε, 0:01:47.876,0:01:49.896 ταινίες που θα θέλατε να δείτε. 0:01:49.896,0:01:51.703 Μερικές φορές γίνεται ανατριχιαστικό. 0:01:51.703,0:01:53.657 Εταιρείες όπως η LinkedIn και το Facebook 0:01:53.657,0:01:56.251 μερικές φορές σας λένε [br]ποιοι μπορεί να είναι φίλοι σας 0:01:56.251,0:01:58.228 και δεν έχετε ιδέα πώς τα κατάφεραν, 0:01:58.228,0:02:01.195 και το κάνουν με τη δύναμη[br]της μηχανικής μάθησης. 0:02:01.195,0:02:04.152 Αυτοί είναι αλγόριθμοι που έμαθαν[br]να το κάνουν από τα δεδομένα 0:02:04.152,0:02:07.399 παρά από προγραμματισμό με το χέρι. 0:02:07.399,0:02:09.877 Έτσι κατάφερε και η IBM 0:02:09.877,0:02:13.739 να νικήσει o Γουότσον τους δύο [br]παγκόσμιους πρωταθλητές του «Jeopardy» 0:02:13.739,0:02:16.964 απαντώντας απίστευτα πονηρές [br]και περίπλοκες ερωτήσεις όπως αυτή. 0:02:16.964,0:02:19.799 [«Το "Λιοντάρι του Νεμρώδ" εξαφανίστηκε[br]από το μουσείο αυτής της πόλης το 2003»] 0:02:19.799,0:02:22.944 Γι' αυτό έχουμε πλέον τα πρώτα αυτοκίνητα[br]που οδηγούν μόνα τους. 0:02:22.944,0:02:25.466 Αν θέλεις να μπορείς [br]να δεις τη διαφορά, ας πούμε, 0:02:25.466,0:02:28.488 ανάμεσα σε ένα δένδρο και έναν πεζό, [br]αυτό είναι πολύ σημαντικό. 0:02:28.488,0:02:31.075 Δεν ξέρουμε να γράφουμε [br]τέτοια προγράμματα με το χέρι, 0:02:31.075,0:02:33.832 αλλά με τη μηχανική μάθηση [br]αυτό είναι πλέον δυνατόν. 0:02:33.832,0:02:37.110 Αυτό το αυτοκίνητο έχει οδηγήσει [br]πάνω από 1.600.000 χιλιόμετρα 0:02:37.110,0:02:40.186 σε κανονικό δρόμο χωρίς καθόλου ατυχήματα. 0:02:40.196,0:02:44.110 Έτσι ξέρουμε ότι οι υπολογιστές[br]μπορούν να μαθαίνουν, 0:02:44.110,0:02:46.210 και μπορούν να μάθουν να κάνουν πράγματα 0:02:46.210,0:02:48.848 που μερικές φορές [br]ούτε κι εμείς ξέρουμε να κάνουμε, 0:02:48.848,0:02:51.733 ή μπορούν να τα κάνουν καλύτερα από εμάς. 0:02:51.733,0:02:55.818 Ένα εκπληκτικό παράδειγμα [br]της μηχανικής μάθησης που έχω δει 0:02:55.818,0:02:58.320 έγινε σε ένα πρόγραμμα [br]που έκανα στην Kaggle, 0:02:58.320,0:03:01.911 όπου μια ομάδα [br]υπό κάποιον ονόματι Τζέφρι Χίντον 0:03:01.911,0:03:03.463 από το Πανεπιστήμιο του Τορόντο, 0:03:03.463,0:03:06.140 κέρδισε έναν διαγωνισμό [br]για αυτόματη ανακάλυψη φαρμάκου. 0:03:06.140,0:03:08.987 Αυτό όμως που είναι αξιοσημείωτο [br]δεν είναι ότι νίκησαν 0:03:08.987,0:03:13.000 όλους τους αλγόριθμους της Μέρκ[br]ή της διεθνούς ακαδημαϊκής κοινότητας, 0:03:13.000,0:03:18.061 αλλά ότι κανείς στην ομάδα δεν είχε[br]γνώσεις χημείας, βιολογίας ή ιατρικής, 0:03:18.061,0:03:20.230 και τα κατάφεραν μέσα σε δύο εβδομάδες. 0:03:20.230,0:03:22.131 Πώς τα κατάφεραν; 0:03:22.131,0:03:25.342 Χρησιμοποίησαν έναν ασυνήθιστο αλγόριθμο [br]που λέγεται βαθιά μάθηση. 0:03:25.342,0:03:28.211 Ήταν τόσο σημαντικό [br]που η επιτυχία καλύφθηκε 0:03:28.211,0:03:31.412 σε πρωτοσέλιδο των Τάιμς της Νέας Υόρκης[br]μερικές εβδομάδες μετά. 0:03:31.412,0:03:34.147 Ο Τζέφρι Χίντον είναι εδώ αριστερά. 0:03:34.147,0:03:38.488 Η βαθιά μάθηση είναι ένας αλγόριθμος [br]εμπνευσμένος από το ανθρώπινο μυαλό, 0:03:38.488,0:03:40.300 συνεπώς είναι ένας αλγόριθμος 0:03:40.300,0:03:44.141 που θεωρητικά δεν έχει όρια [br]στο τι μπορεί να κάνει. 0:03:44.141,0:03:46.964 Όσο περισσότερα δεδομένα [br]και χρόνο υπολογισμού του δίνεις, 0:03:46.964,0:03:48.276 τόσο καλύτερος γίνεται. 0:03:48.276,0:03:50.615 Οι Τάιμς της Νέας Υόρκης[br]έδειξαν επίσης στο άρθρο 0:03:50.615,0:03:53.187 άλλο ένα ασυνήθιστο αποτέλεσμα [br]της βαθιάς μάθησης 0:03:53.187,0:03:55.569 που θα σας δείξω τώρα. 0:03:55.569,0:04:00.510 Δείχνει ότι οι υπολογιστές μπορούν [br]να ακούν και να καταλαβαίνουν. 0:04:00.510,0:04:03.221 (Βίντεο) Ρίτσαρντ Ράσιντ: [br]Τώρα το τελευταίο βήμα 0:04:03.221,0:04:06.246 που θέλω να κάνω σε αυτή τη διαδικασία 0:04:06.246,0:04:10.961 είναι να σας μιλήσω κανονικά στα Κινέζικα. 0:04:10.961,0:04:13.596 Το μυστικό εδώ είναι ότι, 0:04:13.596,0:04:18.458 μπορέσαμε να πάρουμε μεγάλη ποσότητα [br]πληροφοριών από ομιλητές της Κινεζικής 0:04:18.458,0:04:21.498 και να φτιάξουμε ένα σύστημα [br]μετατροπής κειμένου σε ομιλία 0:04:21.498,0:04:26.201 που μετατρέπει Κινέζικο λόγο [br]από γραπτό σε προφορικό, 0:04:26.201,0:04:29.929 και μετά χρειαστήκαμε καμιά ώρα [br]με τη δική μου φωνή 0:04:29.929,0:04:32.340 για να μπορέσουμε να ρυθμίσουμε 0:04:32.340,0:04:36.364 το βασικό σύστημα μετατροπής λόγου [br]ώστε να ακούγεται σαν εμένα. 0:04:36.364,0:04:39.204 Και πάλι το αποτέλεσμα δεν ήταν τέλειο. 0:04:39.204,0:04:41.552 Υπήρχαν μερικά λαθάκια. 0:04:41.552,0:04:44.036 (Στα Κινέζικα) 0:04:44.036,0:04:47.403 (Χειροκρότημα) 0:04:49.446,0:04:53.022 Χρειάζεται να γίνουν πολλά [br]σε αυτό τον τομέα. 0:04:53.022,0:04:56.667 (Στα Κινέζικα) 0:04:56.667,0:04:59.130 (Χειροκρότημα) 0:05:01.345,0:05:04.744 Τζέρεμι Χάουαρντ: Αυτό ήταν [br]σε συνέδριο μηχανικής μάθησης στην Κίνα. 0:05:04.744,0:05:07.114 Δεν συμβαίνει συχνά σε ακαδημαϊκά συνέδρια 0:05:07.114,0:05:09.011 να έχεις τόσο αυθόρμητες επευφημίες, 0:05:09.011,0:05:12.687 αλλά μιας και είμαστε σε συνάντηση TED,[br]μην περιορίζεστε. 0:05:12.687,0:05:15.482 Όλα όσα είδατε εκεί [br]συνέβησαν με τη βαθιά μάθηση. 0:05:15.482,0:05:17.007 (Χειροκρότημα) [br]Ευχαριστώ. 0:05:17.007,0:05:19.569 Η μεταγραφή στα Αγγλικά[br]έγινε από τη βαθιά μάθηση. 0:05:19.569,0:05:22.701 Η μετάφραση στα Κινέζικα, [br]το κείμενο πάνω δεξιά, 0:05:22.701,0:05:26.008 και η σύνθεση της φωνής [br]έγιναν από τη βαθιά μάθηση επίσης. 0:05:26.008,0:05:29.242 Η βαθιά μάθηση είναι κάτι ξεχωριστό. 0:05:29.242,0:05:32.341 Είναι ένας αλγόριθμος [br]που μοιάζει να μπορεί να κάνει τα πάντα, 0:05:32.341,0:05:35.452 και ανακάλυψα ότι πριν ένα χρόνο [br]είχε επίσης μάθει να βλέπει. 0:05:35.452,0:05:37.628 Σε έναν δυσνόητο διαγωνισμό στη Γερμανία 0:05:37.628,0:05:40.225 σχετικά με την αναγνώριση οδικής σήμανσης, 0:05:40.225,0:05:43.618 η βαθιά μάθηση έμαθε να αναγνωρίζει [br]οδικά σήματα όπως αυτό. 0:05:43.618,0:05:45.712 Όχι μόνο αναγνώριζε τα οδικά σήματα 0:05:45.712,0:05:47.470 καλύτερα από κάθε άλλο αλγόριθμο, 0:05:47.470,0:05:49.989 στον πίνακα αποτελεσμάτων [br]σημείωσε βαθμολογία 0:05:49.989,0:05:52.151 δύο φορές καλύτερη από τους ανθρώπους. 0:05:52.151,0:05:53.367 Έτσι έως το 2011, 0:05:53.367,0:05:57.442 είχαμε το πρώτο παράδειγμα υπολογιστή[br]που μπορεί να δει καλύτερα από άνθρωπο. 0:05:57.442,0:05:59.491 Από τότε έγιναν πολλά. 0:05:59.491,0:06:03.005 Το 2012 η Google ανακοίνωσε ότι [br]ο αλγόριθμος βαθιά μάθηση 0:06:03.005,0:06:04.420 έβλεπε βίντεο του YouTube 0:06:04.420,0:06:07.857 και διάβαζε δεδομένα [br]από 16.000 υπολογιστές για ένα μήνα, 0:06:07.857,0:06:12.218 και ο υπολογιστής έμαθε από μόνος του [br]έννοιες όπως «άνθρωπος και «γάτα», 0:06:12.218,0:06:14.027 απλώς βλέποντας τα βίντεο. 0:06:14.027,0:06:16.539 Μοιάζει πολύ με τον τρόπο [br]που μαθαίνουν οι άνθρωποι. 0:06:16.539,0:06:19.119 Δεν μαθαίνουμε [br]όταν κάποιος μας λέει τι να δούμε, 0:06:19.119,0:06:22.450 αλλά μαθαίνοντας από μόνοι μας [br]τι είναι αυτά τα πράγματα. 0:06:22.450,0:06:25.819 Επίσης το 2012 ο Τζέφρι Χίντον [br]που είδαμε νωρίτερα 0:06:25.819,0:06:28.677 κέρδισε στον δημοφιλή διαγωνισμό ImageNet, 0:06:28.677,0:06:32.818 προσπαθώντας να βρει [br]μέσα από 1,5 εκατομμύριο εικόνες 0:06:32.818,0:06:34.256 τι απεικονίζουν. 0:06:34.256,0:06:37.789 Από το 2014 έχουμε πέσει [br]στο 6% ποσοστό σφάλματος 0:06:37.789,0:06:39.242 στην αναγνώριση εικόνας. 0:06:39.242,0:06:41.268 Και πάλι καλύτερα από τον άνθρωπο. 0:06:41.268,0:06:45.037 Οι μηχανές τα καταφέρνουν πολύ καλά [br]σε αυτό τον τομέα, 0:06:45.037,0:06:47.306 και πλέον χρησιμοποιείται στη βιομηχανία. 0:06:47.306,0:06:50.348 Για παράδειγμα, η Google ανακοίνωσε πέρυσι 0:06:50.348,0:06:54.933 ότι χαρτογράφησαν ολόκληρη[br]τη Γαλλία μέσα σε δύο ώρες, 0:06:54.933,0:06:58.380 και το έκαναν εισάγοντας φωτογραφίες [br]από την τεχνολογία Street View 0:06:58.380,0:07:02.699 σε έναν αλγόριθμο βαθιάς μάθησης[br]ώστε να αναγνωρίζει την αρίθμηση των οδών. 0:07:02.699,0:07:04.919 Φανταστείτε πόσο θα έπαιρνε παλιότερα: 0:07:04.919,0:07:08.274 πλήθος ανθρώπων, πολλά χρόνια. 0:07:08.274,0:07:10.185 Συμβαίνει επίσης στην Κίνα. 0:07:10.185,0:07:14.221 Η Baidu είναι θα λέγαμε [br]η αντίστοιχη Google της Κίνας 0:07:14.221,0:07:16.504 και εδώ πάνω αριστερά [br]βλέπετε ένα παράδειγμα 0:07:16.504,0:07:20.478 από μια φωτογραφία που μεταφόρτωσα [br]στο σύστημα βαθιάς μάθησης της Baidu, 0:07:20.478,0:07:24.247 και από κάτω βλέπετε ότι [br]το σύστημα αναγνώρισε τη φωτογραφία 0:07:24.247,0:07:26.483 και βρήκε και παρόμοιες. 0:07:26.483,0:07:29.089 Οι παρόμοιες εικόνες έχουν παρόμοιο φόντο, 0:07:29.089,0:07:30.877 παρόμοιο προσανατολισμό των προσώπων, 0:07:30.877,0:07:32.665 μερικές ακόμα και με τη γλώσσα έξω. 0:07:32.665,0:07:35.695 Αυτό σαφώς δεν είναι [br]σαν να βλέπεις κείμενο σε ιστοσελίδα. 0:07:35.695,0:07:37.107 Μόνο μια φωτογραφία ανέβασα. 0:07:37.107,0:07:40.628 Έχουμε λοιπόν υπολογιστές [br]που πράγματι καταλαβαίνουν τι βλέπουν 0:07:40.628,0:07:43.222 και γι' αυτό μπορούν [br]να ερευνήσουν βάσεις δεδομένων 0:07:43.222,0:07:46.306 εκατοντάδων εκατομμυρίων εικόνων[br]σε πραγματικό χρόνο. 0:07:46.306,0:07:49.536 Τι σημασία έχει ότι [br]οι υπολογιστές μπορούν να βλέπουν; 0:07:49.536,0:07:51.553 Λοιπόν, δεν είναι μόνο αυτό. 0:07:51.553,0:07:53.622 Η βαθιά μάθηση έκανε περισσότερα. 0:07:53.622,0:07:56.570 Περίπλοκες προτάσεις με λεπτές έννοιες, [br]όπως αυτή εδώ, 0:07:56.570,0:07:59.394 μπορούν πλέον να κατανοηθούν [br]από τον αλγόριθμο. 0:07:59.394,0:08:00.697 Όπως βλέπετε εδώ, 0:08:00.697,0:08:03.775 το σύστημα του Στάνφορντ[br]στην κόκκινη κουκκίδα στην κορυφή 0:08:03.775,0:08:07.384 κατάλαβε ότι αυτή η πρόταση [br]εκφράζει αρνητικό συναίσθημα. 0:08:07.384,0:08:10.790 Η βαθιά μάθηση όντως πλησιάζει [br]την ανθρώπινη επίδοση 0:08:10.802,0:08:15.683 στο να καταλαβαίνουν το κεντρικό θέμα [br]και το γενικό περιεχόμενο μιας πρότασης. 0:08:15.683,0:08:18.971 Η βαθιά μάθηση χρησιμοποιήθηκε επίσης[br]για την ανάγνωση Κινέζικων 0:08:18.971,0:08:21.807 και πάλι στο επίπεδο [br]του Κινέζου φυσικού ομιλητή. 0:08:21.807,0:08:24.285 Αυτός ο αλγόριθμος εξελίχθηκε [br]από ομάδα Ελβετών, 0:08:24.285,0:08:27.331 κανείς εκ των οποίων [br]δεν μιλούσε ή καταλάβαινε Κινέζικα. 0:08:27.331,0:08:29.382 Όπως είπα, η χρήση της βαθιάς μάθησης 0:08:29.382,0:08:32.191 είναι το καλύτερο σύστημα[br]στον κόσμο γι' αυτό, 0:08:32.191,0:08:36.718 συγκρινόμενο ακόμα και [br]με την ανθρώπινη κατανόηση. 0:08:36.718,0:08:39.682 Είναι ένα σύστημα [br]που φτιάχνουμε στην εταιρεία μου 0:08:39.682,0:08:41.728 που δείχνει πώς συντίθενται όλα τα μέρη. 0:08:41.728,0:08:44.189 Αυτές είναι εικόνες χωρίς κείμενο, 0:08:44.189,0:08:46.541 και καθώς πληκτρολογώ κείμενο, 0:08:46.541,0:08:49.510 σε πραγματικό χρόνο [br]κατανοεί αυτές τις εικόνες, 0:08:49.510,0:08:51.189 αντιλαμβάνεται το θέμα τους, 0:08:51.189,0:08:54.352 και βρίσκει παρόμοιες φωτογραφίες [br]με το κείμενο που γράφω. 0:08:54.352,0:08:57.108 Άρα ουσιαστικά[br]καταλαβαίνει τις προτάσεις μου 0:08:57.108,0:08:59.332 και καταλαβαίνει αυτές τις εικόνες. 0:08:59.332,0:09:01.891 Ξέρω ότι έχετε δει κάτι τέτοιο στη Google, 0:09:01.891,0:09:04.666 όπου πληκτρολογείτε κάτι [br]και σας δείχνει εικόνες, 0:09:04.666,0:09:08.090 αλλά στην πραγματικότητα [br]ψάχνει στην ιστοσελίδα για κείμενο. 0:09:08.090,0:09:11.091 Αυτό είναι πολύ διαφορετικό [br]από το να κατανοείς τις εικόνες. 0:09:11.091,0:09:13.843 Αυτό το κατάφεραν οι υπολογιστές 0:09:13.843,0:09:16.861 για πρώτη φορά πριν λίγους μήνες. 0:09:16.861,0:09:21.182 Έτσι οι υπολογιστές, όχι μόνο βλέπουν,[br]αλλά μπορούν και να διαβάσουν, 0:09:21.182,0:09:24.947 και φυσικά δείξαμε [br]ότι καταλαβαίνουν ό,τι ακούνε. 0:09:24.947,0:09:28.389 Ίσως δεν σας εκπλήξει να σας πω [br]ότι μπορούν να γράφουν. 0:09:28.389,0:09:33.172 Εδώ είναι κείμενο που παρήγαγα χθες[br]με έναν αλγόριθμο βαθιάς μάθησης. 0:09:33.172,0:09:37.096 Και αυτό είναι κείμενο που παρήγαγε [br]ένας αλγόριθμος του Στάνφορντ. 0:09:37.096,0:09:38.860 Κάθε πρόταση δημιουργήθηκε 0:09:38.860,0:09:43.109 από έναν αλγόριθμο βαθιάς μάθησης[br]για να περιγράψει καθεμιά από τις εικόνες. 0:09:43.109,0:09:47.581 Ο αλγόριθμος δεν είχε ξαναδεί άνθρωπο [br]με μαύρο πουκάμισο να παίζει κιθάρα. 0:09:47.581,0:09:49.801 Είχε ξαναδεί άνθρωπο, [br]είχε ξαναδεί μαύρο, 0:09:49.801,0:09:51.400 είχε ξαναδεί κιθάρα, 0:09:51.400,0:09:55.694 αλλά από μόνος του έφτιαξε [br]αυτή τη νέα περιγραφή για την εικόνα. 0:09:55.694,0:09:59.196 Εδώ δεν φτάσαμε την ανθρώπινη απόδοση [br]αλλά πλησιάζουμε. 0:09:59.196,0:10:03.264 Στις δοκιμές, οι άνθρωποι προτιμούν [br]τις ετικέτες που φτιάχτηκαν από υπολογιστή 0:10:03.264,0:10:04.791 μία στις τέσσερις φορές. 0:10:04.791,0:10:06.855 Αυτό το σύστημα είναι μόνο δύο εβδομάδων, 0:10:06.855,0:10:08.701 άρα μάλλον εντός του επόμενου έτους, 0:10:08.701,0:10:11.502 ο αλγόριθμος θα έχει ξεπεράσει [br]την ανθρώπινη επίδοση 0:10:11.502,0:10:13.364 με τους τρέχοντες ρυθμούς. 0:10:13.364,0:10:16.413 Άρα οι υπολογιστές μπορούν και να γράφουν. 0:10:16.413,0:10:19.888 Βάζοντάς τα όλα μαζί [br]οδεύουμε σε εκπληκτικές δυνατότητες. 0:10:19.888,0:10:21.380 Για παράδειγμα, στην ιατρική, 0:10:21.380,0:10:23.905 μια ομάδα στη Βοστόνη [br]ανακοίνωσε ότι ανακάλυψαν 0:10:23.905,0:10:26.854 μεγάλο αριθμό νέων κλινικά σχετικών[br]χαρακτηριστικών όγκων 0:10:26.854,0:10:31.120 που θα βοηθήσει τους γιατρούς [br]στην πρόγνωση του καρκίνου. 0:10:32.220,0:10:34.516 Παρομοίως στο Στάνφορντ, 0:10:34.516,0:10:38.179 μια ομάδα ανακοίνωσε ότι, [br]εξετάζοντας ιστούς σε μεγέθυνση, 0:10:38.179,0:10:40.560 εξέλιξαν ένα σύστημα μηχανικής μάθησης 0:10:40.560,0:10:43.142 που είναι όντως καλύτερο [br]από τους ανθρώπους παθολόγους 0:10:43.142,0:10:47.519 στην πρόβλεψη των ποσοστών επιβίωσης [br]των πασχόντων από καρκίνο. 0:10:47.519,0:10:50.764 Και στις δύο περιπτώσεις, [br]όχι μόνο έκαναν ακριβέστερη πρόβλεψη, 0:10:50.764,0:10:53.026 αλλά παρήγαγαν πιο διορατική γνώση. 0:10:53.026,0:10:54.781 Στην περίπτωση της ακτινολογίας, 0:10:54.781,0:10:58.056 υπήρξαν νέες κλινικές ενδείξεις [br]που οι άνθρωποι θα καταλάβουν. 0:10:58.056,0:10:59.668 Σε αυτή την παθολογική περίπτωση, 0:10:59.668,0:11:04.168 το σύστημα στον υπολογιστή ανακάλυψε [br]ότι τα κύτταρα γύρω από τον όγκο 0:11:04.168,0:11:07.508 είναι το ίδιο σημαντικά [br]όσο τα καρκινικά κύτταρα 0:11:07.508,0:11:09.260 για τη διάγνωση. 0:11:09.260,0:11:14.621 Αυτό είναι αντίθετο από όσα διδάσκονταν [br]οι παθολόγοι για δεκαετίες. 0:11:14.621,0:11:17.913 Σε καθεμιά από τις δύο περιπτώσεις, [br]ήταν συστήματα που αναπτύχθηκαν 0:11:17.913,0:11:21.534 από συνδυασμό ειδικών στην ιατρική [br]και ειδικών στη μηχανική μάθηση, 0:11:21.534,0:11:24.275 αλλά από πέρυσι, [br]το έχουμε ξεπεράσει και αυτό. 0:11:24.275,0:11:27.824 Εδώ έχουμε παράδειγμα [br]εντοπισμού καρκινικής περιοχής 0:11:27.824,0:11:30.354 σε ανθρώπινο ιστό κάτω από το μικροσκόπιο. 0:11:30.354,0:11:34.967 Το σύστημα μπορεί να εντοπίσει[br]αυτές τις περιοχές ακριβέστερα, 0:11:34.967,0:11:37.742 ή περίπου με την ίδια ακρίβεια [br]όσο οι παθολόγοι, 0:11:37.742,0:11:41.134 αλλά έγινε εξολοκλήρου με τη βαθιά μάθηση,[br]χωρίς ιατρική τεχνογνωσία, 0:11:41.134,0:11:43.660 από ανθρώπους χωρίς προϋπηρεσία [br]στον χώρο αυτό. 0:11:44.730,0:11:47.285 Παρόμοια εδώ, αυτή η κατάτμηση νευρώνα. 0:11:47.285,0:11:50.953 Μπορούμε πλέον να κατατμήσουμε νευρώνες[br]με την ίδια ακρίβεια όπως οι άνθρωποι, 0:11:50.953,0:11:53.670 αλλά με σύστημα που αναπτύχθηκε [br]με τη βαθιά μάθηση 0:11:53.670,0:11:56.921 και ανθρώπους που δεν είχαν [br]καμία σχέση με την ιατρική. 0:11:56.921,0:12:00.148 Συνεπώς εγώ ο ίδιος, [br]πλήρως άσχετος με την ιατρική, 0:12:00.148,0:12:03.875 φαίνεται να έχω όλα τα προσόντα [br]να φτιάξω μια ιατροφαρμακευτική εταιρεία, 0:12:03.875,0:12:06.021 πράγμα που έκανα. 0:12:06.021,0:12:07.761 Αρχικά φοβόμουν να το κάνω, 0:12:07.761,0:12:10.650 αλλά θεωρητικά φαινόταν εφικτό 0:12:10.650,0:12:16.142 να φτιάξω χρήσιμα φάρμακα χρησιμοποιώντας[br]μόνο τεχνικές ανάλυσης δεδομένων. 0:12:16.142,0:12:18.472 Ευτυχώς τα σχόλια ήταν άκρως ενθαρρυντικά. 0:12:18.472,0:12:21.228 όχι μόνο από τα μέσα [br]αλλά και από την ιατρική κοινότητα, 0:12:21.228,0:12:23.322 που με στήριξε πολύ. 0:12:23.322,0:12:27.471 Θεωρητικά μπορούμε να πάρουμε [br]την μέση φάση της ιατρικής διαδικασίας 0:12:27.471,0:12:30.364 και να αναλύσουμε τα δεδομένα της[br]στο μέγιστο δυνατό βαθμό, 0:12:30.364,0:12:33.429 αφήνοντας τους γιατρούς να κάνουν [br]αυτό που ξέρουν καλύτερα. 0:12:33.429,0:12:35.031 Θα σας δώσω ένα παράδειγμα. 0:12:35.031,0:12:39.975 Τώρα μας παίρνει 15 λεπτά να βγάλουμε [br]ένα νέο διαγνωστικό τεστ 0:12:39.975,0:12:41.929 και θα το δείτε σε πραγματικό χρόνο, 0:12:41.929,0:12:45.416 αλλά το συμπίεσα σε τρία λεπτά [br]παραλείποντας κάποια κομμάτια. 0:12:45.416,0:12:48.477 Αντί για τη δημιουργία [br]ενός ιατρικού διαγνωστικού τεστ, 0:12:48.477,0:12:51.846 θα σας δείξω ένα διαγνωστικό τεστ [br]από εικόνες αυτοκινήτων, 0:12:51.846,0:12:54.068 επειδή είναι κάτι που όλοι καταλαβαίνουμε. 0:12:54.068,0:12:57.269 Ξεκινάμε με περίπου 1,5 εκατομμύριο [br]εικόνες αυτοκινήτων 0:12:57.269,0:13:00.475 και θέλω να φτιάξω κάτι που θα τις χωρίσει 0:13:00.475,0:13:02.698 ανάλογα με τη γωνία λήψης της φωτογραφίας. 0:13:02.698,0:13:06.586 Οι εικόνες δεν έχουν καθόλου κείμενο, [br]έτσι αρχίζω από το μηδέν. 0:13:06.586,0:13:08.451 Με τον αλγόριθμο βαθιάς γνώσης 0:13:08.451,0:13:12.158 μπορεί αυτόματα να εντοπίσει [br]περιοχές δομής μέσα στις εικόνες. 0:13:12.158,0:13:15.778 Είναι καλό που άνθρωπος και υπολογιστής [br]μπορούν να συνεργαστούν. 0:13:15.778,0:13:17.956 Ο άνθρωπος που βλέπετε εδώ 0:13:17.956,0:13:20.631 λέει στον υπολογιστή [br]για τις περιοχές ενδιαφέροντος 0:13:20.631,0:13:25.281 που θέλει να χρησιμοποιήσει ο υπολογιστής [br]για να βελτιώσει τον αλγόριθμό του. 0:13:25.281,0:13:29.577 Τα συστήματα αυτά είναι [br]σε διάστημα 16.000 διαστάσεων, 0:13:29.577,0:13:33.009 έτσι βλέπετε τον υπολογιστή [br]να το περιστρέφει σε αυτό το διάστημα, 0:13:33.009,0:13:35.001 προσπαθώντας να βρει νέες περιοχές δομής. 0:13:35.001,0:13:36.782 Και όταν το κάνει με επιτυχία, 0:13:36.782,0:13:40.786 τότε ο ανθρώπινος χειριστής μπορεί [br]να δείξει τις περιοχές ενδιαφέροντος. 0:13:40.786,0:13:43.208 Εδώ ο υπολογιστής βρήκε επιτυχώς περιοχές, 0:13:43.208,0:13:45.770 για παράδειγμα, κάποιες γωνίες. 0:13:45.770,0:13:47.376 Κατά τη διάρκεια της διαδικασίας, 0:13:47.376,0:13:49.716 σταδιακά λέμε στον υπολογιστή [br]όλο και περισσότερα 0:13:49.716,0:13:52.144 για το είδος των δομών που ψάχνουμε. 0:13:52.144,0:13:53.916 Φανταστείτε ότι στο διαγνωστικό τεστ 0:13:53.916,0:13:57.266 θα είναι ο παθολόγος που δείχνει [br]τις επικίνδυνες περιοχές, 0:13:57.266,0:14:02.292 ή ο ακτινολόγος να δείχνει [br]τους εν δυνάμει ανησυχητικούς όζους. 0:14:02.292,0:14:04.851 Μερικές φορές ο αλγόριθμος δυσκολεύεται. 0:14:04.851,0:14:06.815 Εδώ έχει μπερδευτεί λίγο. 0:14:06.815,0:14:09.365 Τα μπρος και πίσω μέρη των αυτοκινήτων[br]έχουν μπλεχτεί. 0:14:09.365,0:14:11.437 Τότε πρέπει να προσέξουμε λίγο περισσότερο 0:14:11.437,0:14:14.669 επιλέγοντας χειροκίνητα αυτά τα μπρος [br]από εκείνα τα πίσω μέρη, 0:14:14.669,0:14:20.175 και μετά λέγοντας στον υπολογιστή [br]ότι αυτά είναι ένα είδος ομάδας 0:14:20.175,0:14:21.523 που μας ενδιαφέρει. 0:14:21.523,0:14:24.200 Το κάνουμε για λίγο, [br]παραλείπουμε λίγο εδώ, 0:14:24.200,0:14:26.446 και μετά εκπαιδεύουμε[br]τον αλγόριθμο βαθιά μάθηση 0:14:26.446,0:14:28.520 με βάση αυτά τα διακόσια περίπου πράγματα, 0:14:28.520,0:14:30.445 και ελπίζουμε ότι βελτιώθηκε. 0:14:30.445,0:14:33.518 Μπορείτε να δείτε ότι θολώνει [br]κάποια μέρη των εικόνων, 0:14:33.518,0:14:38.036 δείχνοντάς μας ότι ήδη καταλαβαίνει [br]πώς να αναγνωρίζει κάποια μέρη μόνος του. 0:14:38.036,0:14:41.128 Μπορούμε να χρησιμοποιήσουμε[br]το σχέδιο με τις παρόμοιες εικόνες, 0:14:41.128,0:14:43.222 και έτσι εδώ μπορείτε να δείτε 0:14:43.222,0:14:47.241 ο υπολογιστής τώρα μπορεί ολοκληρωτικά [br]να βρίσκει μόνο τα μπροστινά μέρη. 0:14:47.241,0:14:50.189 Σε αυτό το σημείο ο άνθρωπος [br]μπορεί να λέει στον υπολογιστή, 0:14:50.189,0:14:52.482 εντάξει, μια χαρά τα πας. 0:14:53.512,0:14:56.107 Φυσικά κάποιες φορές, [br]ακόμα και σε αυτό το σημείο 0:14:56.107,0:14:59.511 είναι ακόμα δύσκολο [br]να διακρίνει τις ομάδες. 0:14:59.511,0:15:03.395 Εδώ, ακόμη και αφού ο υπολογιστής [br]το έχει περιστρέψει κάμποσο, 0:15:03.399,0:15:06.744 ακόμα οι εικόνες αριστερής [br]και δεξιάς πλευράς 0:15:06.744,0:15:08.102 είναι ανάμικτες. 0:15:08.102,0:15:10.362 Έτσι δίνουμε στον υπολογιστή[br]κάποιες οδηγίες, 0:15:10.362,0:15:13.338 και του λέμε να βρει [br]μια προβολή που να διαχωρίζει 0:15:13.338,0:15:15.945 κατά το δυνατόν [br]τις δεξιές από τις αριστερές πλευρές 0:15:15.945,0:15:18.067 χρησιμοποιώντας[br]τον αλγόριθμο βαθιάς γνώσης. 0:15:18.067,0:15:21.009 Με αυτή την οδηγία --[br]ωραία, είχε αποτέλεσμα. 0:15:21.009,0:15:23.891 Κατάφερε να βρει τρόπο σκέψης [br]σχετικά με αυτά τα αντικείμενα 0:15:23.891,0:15:26.271 ώστε να τα διαχωρίσει. 0:15:26.271,0:15:28.709 Καταλαβαίνετε λοιπόν πώς γίνεται. 0:15:28.709,0:15:36.906 Αυτή δεν είναι περίπτωση που ο υπολογιστής[br]αντικαθιστά τον άνθρωπο, 0:15:36.906,0:15:39.546 αλλά όπου συνεργάζονται. 0:15:39.546,0:15:43.096 Εδώ αντικαθιστούμε κάτι [br]που χρειαζόταν μια ομάδα 0:15:43.096,0:15:45.098 πέντε ή έξι ατόμων για σχεδόν επτά χρόνια, 0:15:45.098,0:15:47.703 και το αντικαθιστούμε με κάτι [br]που χρειάζεται 15 λεπτά 0:15:47.703,0:15:50.208 για ένα άτομο που δουλεύει μόνο του. 0:15:50.208,0:15:54.158 Έτσι η διαδικασία αφαιρεί τέσσερις [br]ή πέντε επαναληπτικές φάσεις. 0:15:54.158,0:15:56.017 Βλέπετε ότι τώρα έχουμε 62% 0:15:56.017,0:15:58.976 από 1,5 εκατομμύριο εικόνες [br]ορθά ταξινομημένες. 0:15:58.976,0:16:01.448 Και σε αυτό το σημείο, [br]μπορούμε αρκετά γρήγορα 0:16:01.448,0:16:03.275 να μαρκάρουμε μεγάλα τμήματα, 0:16:03.275,0:16:05.664 να τα τσεκάρουμε ώστε να μην έχουν λάθη. 0:16:05.664,0:16:09.616 Όπου υπάρχουν σφάλματα, [br]ενημερώνουμε τον υπολογιστή. 0:16:09.616,0:16:12.661 Και με αυτή τη διαδικασία για κάθε ομάδα, 0:16:12.661,0:16:15.148 έχουμε φτάσει σε ένα ποσοστό επιτυχίας 80% 0:16:15.148,0:16:17.563 στην ταξινόμηση 1,5 εκατομμυρίου εικόνων. 0:16:17.563,0:16:19.641 Είμαστε στη φάση όπου 0:16:19.641,0:16:23.220 παίρνουμε τις λίγες εικόνες [br]που δεν ταξινομήθηκαν σωστά 0:16:23.220,0:16:26.108 και προσπαθούμε να βρούμε τον λόγο. 0:16:26.108,0:16:27.851 Με αυτή την προσέγγιση, 0:16:27.851,0:16:31.972 σε 15 λεπτά φτάνουμε[br]το 97% στον ρυθμό ταξινόμησης. 0:16:31.972,0:16:36.572 Αυτή η τεχνική θα βοηθήσει [br]να διορθώσουμε ένα σοβαρό πρόβλημα, 0:16:36.578,0:16:39.614 την ανεπάρκεια ειδικών[br]στην ιατρική σε όλο τον κόσμο. 0:16:39.614,0:16:41.733 Το Παγκόσμιο Οικονομικό Φόρουμ λέει ότι 0:16:41.733,0:16:45.727 υπάρχει δεκαπλάσιο με εικοσαπλάσιο [br]έλλειμμα ιατρών στον αναπτυσσόμενο κόσμο, 0:16:45.727,0:16:47.640 και θα χρειαστούν 300 χρόνια 0:16:47.640,0:16:50.734 για να εκπαιδευθούν αρκετοί άνθρωποι[br]ώστε να λυθεί το πρόβλημα. 0:16:50.734,0:16:53.879 Φαντάζεστε να μπορούσαμε [br]να ενισχύσουμε την απόδοσή τους 0:16:53.879,0:16:56.458 με την προσέγγιση της βαθιάς μάθησης; 0:16:56.458,0:16:58.690 Είμαι ενθουσιασμένος [br]με αυτές τις προοπτικές. 0:16:58.690,0:17:01.279 Ανησυχώ επίσης και για τα προβλήματα. 0:17:01.279,0:17:04.403 Το πρόβλημα εδώ είναι ότι [br]κάθε μπλε περιοχή στο χάρτη 0:17:04.403,0:17:08.172 είναι μέρος όπου οι υπηρεσίες [br]είναι πάνω από το 80% της απασχόλησης. 0:17:08.172,0:17:09.959 Ποιες είναι οι υπηρεσίες; 0:17:09.959,0:17:11.473 Αυτές είναι οι υπηρεσίες. 0:17:11.473,0:17:15.627 Είναι αυτά ακριβώς τα πράγματα [br]που ο υπολογιστής μόλις έμαθε να κάνει. 0:17:15.627,0:17:19.341 Έτσι το 80% της παγκόσμιας απασχόλησης [br]στον αναπτυσσόμενο κόσμο 0:17:19.341,0:17:22.123 είναι πράγματα που οι υπολογιστές[br]μόλις έμαθαν να κάνουν. 0:17:22.123,0:17:23.403 Τι σημαίνει αυτό; 0:17:23.403,0:17:25.986 Κάτι θα γίνει.[br]Θα αντικατασταθούν από άλλες δουλειές. 0:17:25.986,0:17:28.753 Θα γίνουν περισσότερες θέσεις[br]για επιστήμονες δεδομένων. 0:17:28.753,0:17:29.510 Όχι ακριβώς. 0:17:29.510,0:17:32.628 Δεν χρειάζονται πολύ χρόνο [br]να φτιάξουν κάτι τέτοιο. 0:17:32.628,0:17:35.880 Αυτούς τους τέσσερις αλγόριθμους [br]τους έφτιαξε το ίδιο άτομο. 0:17:35.880,0:17:38.318 Αν σκεφτείτε, εντάξει, [br]το έχουμε ξαναδεί το έργο, 0:17:38.318,0:17:42.126 είδαμε τα αποτελέσματα στο παρελθόν [br]όταν προέκυψαν νέες ανάγκες 0:17:42.126,0:17:44.378 και αντικαταστάθηκαν από νέα επαγγέλματα, 0:17:44.378,0:17:46.494 ποια θα είναι τα νέα επαγγέλματα; 0:17:46.494,0:17:48.365 Είναι πολύ δύσκολο να το εκτιμήσουμε 0:17:48.365,0:17:51.104 γιατί η ανθρώπινη απόδοση [br]αυξάνεται με σταδιακό ρυθμό, 0:17:51.104,0:17:53.666 αλλά τώρα έχουμε το σύστημα βαθιάς μάθησης 0:17:53.666,0:17:56.893 που αυξάνει την ικανότητά του [br]με ρυθμούς γεωμετρικής προόδου. 0:17:56.893,0:17:58.498 Και είμαστε εδώ. 0:17:58.498,0:18:00.959 Προς το παρόν,[br]κοιτάμε γύρω μας και σκεφτόμαστε 0:18:00.959,0:18:03.235 «Οι υπολογιστές είναι χαζά μηχανήματα».[br]Σωστά; 0:18:03.235,0:18:06.854 Σε πέντε χρόνια όμως, οι υπολογιστές[br]θα έχουν φύγει από τα όρια του πίνακα. 0:18:06.854,0:18:10.329 Θα πρέπει να αρχίσουμε να σκεφτόμαστε [br]αυτή την ικανότητα άμεσα. 0:18:10.329,0:18:12.579 Το έχουμε δει ακόμη μια φορά στο παρελθόν. 0:18:12.579,0:18:13.966 Στη Βιομηχανική Επανάσταση 0:18:13.966,0:18:17.457 είδαμε μια αλλαγή ρυθμού στην ικανότητα [br]χάρις στις μηχανές. 0:18:17.457,0:18:20.805 Το θέμα είναι βέβαια, ότι μετά από λίγο [br]τα πράγματα ισοπεδώθηκαν. 0:18:20.805,0:18:22.427 Υπήρξε κοινωνική διάσπαση, 0:18:22.427,0:18:26.056 αλλά εφόσον οι μηχανές χρησιμοποιήθηκαν [br]για την παραγωγή ενέργειας παντού 0:18:26.056,0:18:28.300 τα πράγματα έφτασαν σε μια σταθερότητα. 0:18:28.300,0:18:29.773 Η Επανάσταση Μηχανικής Μάθησης 0:18:29.773,0:18:32.432 θα διαφέρει πολύ[br]από τη Βιομηχανική Επανάσταση 0:18:32.432,0:18:35.632 επειδή η Μηχανική Μάθηση [br]ποτέ δεν φτάνει σε στάδιο σταθερότητας. 0:18:35.632,0:18:38.614 Όσο οι υπολογιστές βελτιώνονται [br]σε διανοητικές ικανότητες, 0:18:38.614,0:18:42.862 θα φτιάξουν καλύτερους υπολογιστές [br]που θα βελτιωθούν διανοητικά περισσότερο, 0:18:42.862,0:18:44.770 έτσι θα είναι ένα είδος αλλαγής 0:18:44.770,0:18:47.128 που ο κόσμος δεν έχει ξαναζήσει, 0:18:47.128,0:18:50.894 έτσι η προηγούμενη αντίληψή σας [br]για το τι είναι δυνατόν είναι διαφορετική. 0:18:50.894,0:18:52.754 Ήδη μας επηρεάζει. 0:18:52.754,0:18:56.384 Τα τελευταία 25 χρόνια, καθώς αυξανόταν [br]η παραγωγικότητα κεφαλαίου, 0:18:56.400,0:19:00.588 η παραγωγικότητα εργασίας έμενε σταθερή, [br]ίσως και να μειωνόταν ελάχιστα. 0:19:01.408,0:19:04.149 Ας ξαναρχίσουμε αυτή τη συζήτηση τώρα. 0:19:04.149,0:19:06.906 Ξέρω ότι όταν κάνω συζήτηση[br]σχετικά με αυτή την κατάσταση, 0:19:06.906,0:19:08.666 οι άνθρωποι γίνονται απαξιωτικοί. 0:19:08.666,0:19:10.679 Οι υπολογιστές δεν μπορούν να σκεφτούν, 0:19:10.679,0:19:13.287 δεν νιώθουν, [br]δεν καταλαβαίνουν την ποίηση, 0:19:13.287,0:19:16.078 εμείς δεν καταλαβαίνουμε πραγματικά [br]πώς αυτοί λειτουργούν. 0:19:16.078,0:19:17.374 Και λοιπόν; 0:19:17.374,0:19:21.828 Οι υπολογιστές τώρα μπορούν να κάνουν[br]όσα οι άνθρωποι πληρώνονται για να κάνουν 0:19:21.831,0:19:23.484 έτσι είναι καιρός να σκεφτούμε 0:19:23.484,0:19:28.048 πώς θα αναπροσαρμόσουμε[br]τις κοινωνικές και οικονομικές δομές 0:19:28.048,0:19:30.045 σε αυτή τη νέα πραγματικότητα. 0:19:30.045,0:19:30.885 Ευχαριστώ. 0:19:30.885,0:19:31.778 (Χειροκρότημα)