0:00:01.040,0:00:04.811 Είμαι εδώ για να σας προσφέρω[br]μια νέα οπτική για τον τομέα μου, 0:00:04.815,0:00:06.613 που είναι η τεχνητή νοημοσύνη. 0:00:06.613,0:00:08.721 Πιστεύω πως ο σκοπός[br]της τεχνητής νοημοσύνης 0:00:08.721,0:00:12.359 είναι η ενδυνάμωση των ανθρώπων [br]μέσω της νοημοσύνης των μηχανών. 0:00:13.286,0:00:15.766 Όσο οι μηχανές γίνονται εξυπνότερες, 0:00:15.766,0:00:17.482 γινόμαστε κι εμείς εξυπνότεροι. 0:00:17.907,0:00:20.459 Αυτό το ονομάζω ανθρωπιστική[br]τεχνητή νοημοσύνη -- 0:00:20.459,0:00:24.154 τεχνητή νοημοσύνη σχεδιασμένη[br]να καλύψει ανθρώπινες ανάγκες 0:00:24.154,0:00:27.069 συνεργαζόμενη με τους ανθρώπους[br]κι ενισχύοντάς τους. 0:00:28.149,0:00:30.099 Με χαρά διαπιστώνω, 0:00:30.099,0:00:33.780 πως η ιδέα του ψηφιακού βοηθού[br]είναι πλέον διαδεδομένη. 0:00:33.780,0:00:38.997 Πρόκειται για μια διεπαφή μεταξύ[br]ανθρώπων και τεχνητής νοημοσύνης. 0:00:39.556,0:00:42.253 Αυτή που βοήθησα να δημιουργηθεί[br]ονομάζεται Σίρι. 0:00:42.957,0:00:44.139 Σίγουρα τη γνωρίζετε. 0:00:44.139,0:00:46.818 Η Σίρι γνωρίζει τον σκοπό σου 0:00:46.818,0:00:49.759 και σε βοηθά να τον πετύχεις,[br]να κάνεις αυτό που θέλεις. 0:00:50.180,0:00:51.543 Κάτι που ίσως δεν γνωρίζετε, 0:00:51.543,0:00:55.641 είναι ότι σχεδιάσαμε τη Σίρι, [br]σαν ανθρωπιστική τεχνητή νοημοσύνη, 0:00:55.641,0:00:58.836 για να ενισχύει τους ανθρώπους[br]με μία πλατφόρμα επικοινωνίας, 0:00:58.836,0:01:02.323 που έκανε εφικτή τη χρήση[br]κινητού λογισμικού, 0:01:02.323,0:01:05.591 ανεξαρτήτως της ταυτότητας [br]και των ικανοτήτων των χρηστών της. 0:01:06.525,0:01:11.166 Για τους περισσότερους από εμάς,[br]ο ρόλος αυτής της τεχνολογίας 0:01:11.166,0:01:13.953 είναι να κάνει τα πράγματα[br]λιγάκι ευκολότερα στη χρήση. 0:01:13.953,0:01:16.435 Αλλά όσον αφορά τον φίλο μου τον Ντάνιελ, 0:01:17.352,0:01:20.523 η τεχνητή νοημοσύνη του άλλαξε τη ζωή. 0:01:21.217,0:01:26.090 Βλέπετε ο Ντάνιελ είναι [br]ιδιαίτερα κοινωνικός τύπος, 0:01:26.090,0:01:28.023 και είναι τυφλός και παραπληγικός, 0:01:28.614,0:01:32.331 πράγμα που καθιστά δύσκολη τη χρήση[br]συσκευών που εμείς θεωρούμε δεδομένες. 0:01:32.331,0:01:33.749 Μια φορά που πήγα σπίτι του,[br] 0:01:33.749,0:01:36.314 ο αδερφός του μου είπε,[br]«Ο Νταν δεν είναι έτοιμος, 0:01:36.314,0:01:39.973 μιλάει στο τηλέφωνο με μια γυναίκα[br]που γνώρισε στο διαδίκτυο». 0:01:39.973,0:01:41.849 Κι εγώ ρώτησα πώς τα κατάφερε. 0:01:41.849,0:01:46.953 Ο Ντάνιελ λοιπόν χρησιμοποιεί τη Σίρι[br]για να κουμαντάρει την κοινωνική του ζωή, 0:01:46.953,0:01:48.801 το μέιλ, τα μηνύματα και τα τηλέφωνα, 0:01:48.801,0:01:51.327 χωρίς να βασίζεται πλέον[br]σε αυτούς που τον φροντίζουν. 0:01:52.501,0:01:54.289 Ενδιαφέρον έτσι; 0:01:54.289,0:01:55.590 Η ειρωνία εδώ είναι μεγάλη. 0:01:55.604,0:01:58.532 Η σχέση αυτού του ανθρώπου [br]με την τεχνητή νοημοσύνη, 0:01:58.532,0:02:01.701 τον βοηθάει να έχει σχέση[br]με αληθινά ανθρώπινα όντα. 0:02:02.805,0:02:06.085 Κι αυτό ακριβώς είναι[br]η ανθρωπιστική τεχνητή νοημοσύνη. 0:02:07.404,0:02:09.842 Ένα άλλο παράδειγμα, [br]θέμα ζωής και θανάτου, 0:02:09.842,0:02:11.663 είναι η διάγνωση του καρκίνου. 0:02:12.795,0:02:14.990 Όταν ένας γιατρός υποπτεύεται καρκίνο 0:02:14.990,0:02:17.729 παίρνει ένα δείγμα,[br]το στέλνει σ' έναν παθολόγο, 0:02:17.729,0:02:19.653 που το αναλύει στο μικροσκόπιο. 0:02:20.145,0:02:22.690 Οι παθολόγοι κοιτάνε εκατοντάδες εικόνες, 0:02:22.694,0:02:25.018 εκατομμύρια κύτταρα κάθε ημέρα. 0:02:25.552,0:02:27.047 Για να τους βοηθήσουν, 0:02:27.047,0:02:30.483 κάποιοι ερευνητές έφτιαξαν[br]έναν ψηφιακό ταξιθέτη. 0:02:31.548,0:02:36.141 Αυτός ο ταξιθέτης αναρωτιέται,[br]είναι ή δεν είναι καρκίνος αυτό εδώ, 0:02:36.141,0:02:37.740 κοιτώντας τις εικόνες. 0:02:38.355,0:02:40.209 Η ταξιθέτηση είναι αρκετά καλή, 0:02:40.967,0:02:43.082 μα όχι τόσο όσο η ανθρώπινη, 0:02:43.727,0:02:45.713 που το πετυχαίνει τις περισσότερες φορές. 0:02:46.427,0:02:52.627 Συνδυάζοντας όμως τις δύο ικανότητες[br]της μηχανής και του ανθρώπου μαζί, 0:02:52.631,0:02:55.626 η ακρίβεια φθάνει στο 99.5 %. 0:02:57.150,0:03:02.391 Αυτή συνεργασία κατάφερε να μειώσει[br]κατά 86% τα διαγνωστικά λάθη, 0:03:02.391,0:03:05.861 που ένας ανθρώπινος παθολόγος[br]θα έκανε άμα δούλευε μονάχος. 0:03:06.820,0:03:10.199 Πρόκειται για πολλούς καρκίνους,[br]που αλλιώς θα παρέμεναν χωρίς θεραπεία. 0:03:11.097,0:03:14.537 Για τους περίεργους, προκύπτει[br]ότι οι άνθρωποι ήταν καλύτεροι 0:03:14.537,0:03:16.570 στην ανίχνευση λαθών σε θετικές διαγνώσεις 0:03:16.570,0:03:20.171 ενώ οι μηχανές ανίχνευαν[br]καλύτερα τις δύσκολες διαγνώσεις. 0:03:20.171,0:03:23.412 Το μήνυμα εδώ όμως δεν έχει να κάνει[br]με το ποιος είναι καλύτερος 0:03:23.412,0:03:25.484 σε αυτήν τη χωροταξική εργασία. 0:03:25.888,0:03:27.747 Αυτά αλλάζουν κάθε μέρα. 0:03:27.751,0:03:29.349 Το μήνυμα είναι, 0:03:29.349,0:03:32.723 πως συνδυάζοντας τις ανθρώπινες[br]και τις ψηφιακές δυνατότητες, 0:03:32.727,0:03:37.678 δημιουργήθηκε μια συνεργασία[br]με υπεράνθρωπη αποτελεσματικότητα. 0:03:38.543,0:03:41.483 Κι αυτό είναι ανθρωπιστική[br]τεχνητή νοημοσύνη. 0:03:42.787,0:03:44.793 Ας δούμε τώρα κι ένα άλλο παράδειγμα 0:03:44.797,0:03:47.124 με εντυπωσιακές επιδόσεις. 0:03:47.124,0:03:48.541 Πρόκειται για τον σχεδιασμό. 0:03:48.541,0:03:49.881 Ας πούμε ότι είστε μηχανικός 0:03:49.881,0:03:53.180 και θέλετε να σχεδιάσετε ένα νέο κέλυφος[br]για μη επανδρωμένα αεροσκάφη. 0:03:53.180,0:03:55.895 Επιλέγετε τα αγαπημένα σας[br]σχεδιαστικά εργαλεία, 0:03:55.895,0:04:00.104 επιλέγετε τη μορφή και τα υλικά[br]κι ύστερα μελετάτε τις επιδόσεις. 0:04:00.104,0:04:01.752 Αυτό σας δίνει ένα σχέδιο. 0:04:02.162,0:04:05.899 Εάν δώσετε τα ίδια εργαλεία[br]στη τεχνητή νοημοσύνη, 0:04:05.899,0:04:08.987 θα παράξει χιλιάδες σχέδια. 0:04:09.749,0:04:12.167 Αυτό το βίντεο της Autodesk[br]είναι καταπληκτικό. 0:04:12.167,0:04:13.671 Είναι αληθινό το βίντεο. 0:04:14.092,0:04:17.203 Πραγματικά αλλάζει τον τρόπο[br]με τον οποίο σχεδιάζουμε. 0:04:17.203,0:04:18.655 Ο ανθρώπινος μηχανικός τώρα 0:04:18.655,0:04:24.534 λέει τι πρέπει να πετύχει το σχέδιο, [br]και η μηχανή λέει, ορίστε οι επιλογές. 0:04:25.758,0:04:29.594 Η δουλειά του μηχανικού[br]είναι να επιλέξει το σχέδιο 0:04:29.594,0:04:31.922 που ικανοποιεί τους σχεδιαστικούς στόχους, 0:04:31.922,0:04:35.245 τους οποίους, ως άνθρωπος, γνωρίζει [br]καλύτερα από οποιονδήποτε άλλον, 0:04:35.245,0:04:37.472 μέσω της ανθρώπινης[br]κρίσης κι επιδεξιότητας. 0:04:37.472,0:04:39.164 Εδώ το σχέδιο που κερδίζει, 0:04:39.164,0:04:41.759 μοιάζει σαν κάτι που θα μπορούσε[br]να είχε φτιάξει η φύση 0:04:41.759,0:04:43.937 μερικά εκατομμύρια[br]εξελικτικά χρόνια αργότερα, 0:04:43.937,0:04:46.373 και μάλιστα χωρίς αυτή την άχρηστη γούνα. 0:04:48.424,0:04:53.136 Ας δούμε λοιπόν που μας οδηγεί[br]η ανθρωπιστική τεχνητή νοημοσύνη, 0:04:53.136,0:04:55.513 χρησιμοποιώντας τη φαντασία μας. 0:04:56.118,0:04:59.122 Τι είδους ενδυνάμωση[br]θα θέλαμε να πετύχουμε; 0:04:59.529,0:05:02.435 Τι θα λέγατε για νοητική ενδυνάμωση; 0:05:03.904,0:05:05.413 Αντί να ρωτάμε, 0:05:05.413,0:05:07.702 πόσο έξυπνες μπορούμε[br]να κάνουμε τις μηχανές μας, 0:05:07.702,0:05:11.395 ας ρωτήσουμε πόσο έξυπνους[br]μπορούν να μας κάνουν οι μηχανές μας. 0:05:13.105,0:05:14.885 Ας πάρουμε τη μνήμη για παράδειγμα. 0:05:15.511,0:05:18.457 Η μνήμη είναι η βάση[br]της ανθρώπινης νοημοσύνης. 0:05:19.767,0:05:22.738 Μα η ανθρώπινη μνήμη[br]έχει σημαντικές ελλείψεις. 0:05:23.541,0:05:25.635 Είμαστε πολύ καλοί στο να λέμε ιστορίες, 0:05:25.639,0:05:27.610 μα όχι στο να θυμόμαστε τις λεπτομέρειες. 0:05:27.614,0:05:30.840 Και η μνήμη μας χειροτερεύει με τον καιρό. 0:05:30.844,0:05:34.106 Που πήγε η δεκαετία του 60,[br]μπορώ να πάω κι εγώ εκεί; 0:05:34.106,0:05:35.567 (Γέλια) 0:05:36.648,0:05:40.952 Αν είχαμε κι εμείς μνήμη [br]το ίδιο καλή με τους υπολογιστές, 0:05:42.158,0:05:45.704 για όσα συμβαίνουν στη ζωή μας; 0:05:45.704,0:05:48.553 Να θυμόμασταν όλους τους ανθρώπους[br]που έχουμε γνωρίσει; 0:05:48.553,0:05:51.577 Πώς προφέρεται το όνομά τους,[br]την οικογενειακή τους κατάσταση, 0:05:51.577,0:05:54.298 το αγαπημένο τους άθλημα,[br]την τελευταία μας συνομιλία. 0:05:54.298,0:05:59.195 Αν είχαμε αυτήν τη μνήμη όλη μας τη ζωή,[br]θα μπορούσαμε να κοιτάξουμε 0:05:59.195,0:06:02.081 όλες τις συνομιλίες που είχαμε[br]με όλους, όλα αυτά τα χρόνια, 0:06:02.081,0:06:05.835 και να μπορέσουμε να εξετάσουμε [br]σε βάθος χρόνου τις σχέσεις μας. 0:06:06.530,0:06:11.428 Και αν βάζαμε την μνήμη αυτή [br]να διαβάσει όλα όσα έχουμε διαβάσει 0:06:11.428,0:06:14.134 και να ακούσει όλα τα τραγούδια[br]που έχουμε ακούσει; 0:06:15.344,0:06:17.777 Με το παραμικρό ερέθισμα, θα μπορούσαμε [br] 0:06:17.777,0:06:21.220 να φέρουμε στη μνήμη μας όλα [br]όσα έχουμε δει ή ακούσει στο παρελθόν. 0:06:21.968,0:06:23.247 Σκεφτείτε τις επιδράσεις 0:06:23.247,0:06:27.106 στην ικανότητά μας να κάνουμε [br]νέες συνδέσεις, να έχουμε νέες ιδέες. 0:06:27.106,0:06:28.797 Και για το σώμα μας; 0:06:29.602,0:06:31.610 Αν μπορούσαμε να θυμόμαστε τις συνέπειες[br] 0:06:31.610,0:06:35.535 κάθε φαγητού που φάγαμε,[br]κάθε χαπιού που πήραμε, 0:06:36.485,0:06:38.320 κάθε ξενυχτιού που κάναμε; 0:06:38.771,0:06:42.081 Θα μπορούσαμε να μελετήσουμε [br]τον εαυτό μας με τα δικά μας δεδομένα, 0:06:42.082,0:06:45.935 το τι μας κάνει να αισθανόμαστε καλά[br]και να παραμένουμε υγιείς. 0:06:45.935,0:06:48.202 Φανταστείτε πώς θα άλλαζε άρδην 0:06:48.202,0:06:51.403 τον τρόπο που χειριζόμαστε[br]τις αλλεργίες και τις χρόνιες ασθένειες. 0:06:52.909,0:06:56.122 Πιστεύω πως η τεχνητή νοημοσύνη 0:06:56.122,0:06:59.122 θα καταφέρει πράγματι να ενισχύσει[br]την προσωπική μας μνήμη. 0:06:59.122,0:07:01.946 Δεν μπορώ να πω πότε ή τι μορφή θα έχει, 0:07:02.627,0:07:04.697 μα νομίζω πως είναι αναπόφευκτο. 0:07:05.740,0:07:10.770 Διότι αυτά που κάνουν επιτυχημένη[br]την τεχνητή νοημοσύνη σήμερα -- 0:07:10.774,0:07:13.297 η πληθώρα περιεκτικών δεδομένων 0:07:13.297,0:07:16.859 και η ικανότητα των μηχανών[br]να κατανοούν αυτά τα δεδομένα -- 0:07:16.863,0:07:20.152 μπορεί να χρησιμοποιηθούν[br]και στα δεδομένα της ζωής μας. 0:07:20.152,0:07:24.024 Κι αυτά βρίσκονται ανάμεσά μας[br]και είναι διαθέσιμα σε όλους μας, 0:07:24.024,0:07:30.744 διότι ζούμε ψηφιακές ζωές[br]στα κινητά μας και στο διαδίκτυο. 0:07:31.833,0:07:35.743 Κατ΄ εμέ η προσωπική μνήμη είναι ιδιωτική. 0:07:35.747,0:07:39.684 Επιλέγουμε τι ανακαλούμε και τι κρατάμε. 0:07:40.517,0:07:44.181 Είναι πολύ σημαντικό[br]να παραμείνουν αυτά ασφαλή. 0:07:44.937,0:07:46.796 Για τους περισσότερους από εμάς, 0:07:46.796,0:07:49.753 η αυξημένη προσωπική μνήμη 0:07:49.753,0:07:52.456 θα σήμαινε αυξημένες νοητικές ικανότητες. 0:07:52.456,0:07:55.051 Ίσως και λιγάκι περισσότερα[br]κοινωνικά χαρίσματα. 0:07:56.658,0:08:01.305 Μα για τα εκατομμύρια που πάσχουν[br]από Αλτσχάιμερ και άνοια, 0:08:03.209,0:08:05.432 η αύξηση της μνήμης θα μπορούσε 0:08:05.436,0:08:07.897 να μετατρέψει μία ζωή απομονωμένη, 0:08:09.016,0:08:11.586 σε μία ζωή αξιοπρεπή και συνδεδεμένη. 0:08:12.166,0:08:17.813 Βρισκόμαστε στα μέσα μίας αναγέννησης[br]της τεχνητής νοημοσύνης. 0:08:18.652,0:08:20.643 Τα τελευταία χρόνια, 0:08:20.647,0:08:24.308 ξεκινήσαμε να βλέπουμε λύσεις[br]σε προβλήματα τεχνητής νοημοσύνης, 0:08:24.308,0:08:28.272 με τα οποία παλεύαμε[br]κυριολεκτικά δεκαετίες: 0:08:29.226,0:08:31.923 αναγνώριση φωνής, αναγνώριση κειμένων, 0:08:31.923,0:08:33.237 αναγνώριση εικόνων. 0:08:34.177,0:08:38.538 Έχουμε την επιλογή πλέον στο πώς[br]θα χρησιμοποιήσουμε αυτήν την τεχνολογία. 0:08:38.894,0:08:41.156 Μπορούμε να επιλέξουμε τεχνητή νοημοσύνη 0:08:41.156,0:08:44.156 που θα αυτοματοποιεί[br]και θα συναγωνίζεται μαζί μας, 0:08:44.156,0:08:45.800 ή να επιλέξουμε τεχνητή νοημοσύνη 0:08:45.800,0:08:48.157 που θα μας ενισχύει[br]και θα συνεργάζεται μαζί μας, 0:08:48.157,0:08:51.268 να ξεπεράσουμε νοητικούς περιορισμούς 0:08:51.268,0:08:54.444 και να μας βοηθήσει[br]να κάνουμε ό,τι θελήσουμε, 0:08:54.444,0:08:55.959 και καλύτερα. 0:08:56.339,0:09:02.863 Και όπως θα ανακαλύπτουμε νέους τρόπους[br]να δίνουμε στις μηχανές μας νοημοσύνη, 0:09:02.867,0:09:05.966 θα μπορούμε να τη μοιράζουμε 0:09:05.966,0:09:08.371 σε όλους τους ψηφιακούς [br]βοηθούς ανά τον κόσμο, 0:09:08.371,0:09:11.899 κι επομένως σε κάθε άνθρωπο[br]ανεξαρτήτως περιστάσεων. 0:09:13.189,0:09:14.758 Και να γιατί, 0:09:14.758,0:09:17.903 κάθε φορά που η μηχανή γίνεται εξυπνότερη, 0:09:18.628,0:09:20.379 γινόμαστε κι εμείς εξυπνότεροι. 0:09:21.028,0:09:24.781 Αυτή είναι τεχνητή νοημοσύνη[br]που αξίζει να διαδωθεί. 0:09:24.785,0:09:25.987 Σας ευχαριστώ. 0:09:25.991,0:09:28.537 (Χειροκρότημα)