WEBVTT 00:00:01.040 --> 00:00:04.811 Είμαι εδώ για να σας προσφέρω μια νέα οπτική για τον τομέα μου, 00:00:04.815 --> 00:00:06.613 που είναι η τεχνητή νοημοσύνη. 00:00:06.613 --> 00:00:08.721 Πιστεύω πως ο σκοπός της τεχνητής νοημοσύνης 00:00:08.721 --> 00:00:12.359 είναι η ενδυνάμωση των ανθρώπων μέσω της νοημοσύνης των μηχανών. 00:00:13.286 --> 00:00:15.766 Όσο οι μηχανές γίνονται εξυπνότερες, 00:00:15.766 --> 00:00:17.482 γινόμαστε κι εμείς εξυπνότεροι. 00:00:17.907 --> 00:00:20.459 Αυτό το ονομάζω ανθρωπιστική τεχνητή νοημοσύνη -- 00:00:20.459 --> 00:00:24.154 τεχνητή νοημοσύνη σχεδιασμένη να καλύψει ανθρώπινες ανάγκες 00:00:24.154 --> 00:00:27.069 συνεργαζόμενη με τους ανθρώπους κι ενισχύοντάς τους. 00:00:28.149 --> 00:00:30.099 Με χαρά διαπιστώνω, 00:00:30.099 --> 00:00:33.780 πως η ιδέα του ψηφιακού βοηθού είναι πλέον διαδεδομένη. 00:00:33.780 --> 00:00:38.997 Πρόκειται για μια διεπαφή μεταξύ ανθρώπων και τεχνητής νοημοσύνης. 00:00:39.556 --> 00:00:42.253 Αυτή που βοήθησα να δημιουργηθεί ονομάζεται Σίρι. NOTE Paragraph 00:00:42.957 --> 00:00:44.139 Σίγουρα τη γνωρίζετε. 00:00:44.139 --> 00:00:46.818 Η Σίρι γνωρίζει τον σκοπό σου 00:00:46.818 --> 00:00:49.759 και σε βοηθά να τον πετύχεις, να κάνεις αυτό που θέλεις. 00:00:50.180 --> 00:00:51.543 Κάτι που ίσως δεν γνωρίζετε, 00:00:51.543 --> 00:00:55.641 είναι ότι σχεδιάσαμε τη Σίρι, σαν ανθρωπιστική τεχνητή νοημοσύνη, 00:00:55.641 --> 00:00:58.836 για να ενισχύει τους ανθρώπους με μία πλατφόρμα επικοινωνίας, 00:00:58.836 --> 00:01:02.323 που έκανε εφικτή τη χρήση κινητού λογισμικού, 00:01:02.323 --> 00:01:05.591 ανεξαρτήτως της ταυτότητας και των ικανοτήτων των χρηστών της. NOTE Paragraph 00:01:06.525 --> 00:01:11.166 Για τους περισσότερους από εμάς, ο ρόλος αυτής της τεχνολογίας 00:01:11.166 --> 00:01:13.953 είναι να κάνει τα πράγματα λιγάκι ευκολότερα στη χρήση. 00:01:13.953 --> 00:01:16.435 Αλλά όσον αφορά τον φίλο μου τον Ντάνιελ, 00:01:17.352 --> 00:01:20.523 η τεχνητή νοημοσύνη του άλλαξε τη ζωή. 00:01:21.217 --> 00:01:26.090 Βλέπετε ο Ντάνιελ είναι ιδιαίτερα κοινωνικός τύπος, 00:01:26.090 --> 00:01:28.023 και είναι τυφλός και παραπληγικός, 00:01:28.614 --> 00:01:32.331 πράγμα που καθιστά δύσκολη τη χρήση συσκευών που εμείς θεωρούμε δεδομένες. 00:01:32.331 --> 00:01:33.749 Μια φορά που πήγα σπίτι του, 00:01:33.749 --> 00:01:36.314 ο αδερφός του μου είπε, «Ο Νταν δεν είναι έτοιμος, 00:01:36.314 --> 00:01:39.973 μιλάει στο τηλέφωνο με μια γυναίκα που γνώρισε στο διαδίκτυο». 00:01:39.973 --> 00:01:41.849 Κι εγώ ρώτησα πώς τα κατάφερε. 00:01:41.849 --> 00:01:46.953 Ο Ντάνιελ λοιπόν χρησιμοποιεί τη Σίρι για να κουμαντάρει την κοινωνική του ζωή, 00:01:46.953 --> 00:01:48.801 το μέιλ, τα μηνύματα και τα τηλέφωνα, 00:01:48.801 --> 00:01:51.327 χωρίς να βασίζεται πλέον σε αυτούς που τον φροντίζουν. 00:01:52.501 --> 00:01:54.289 Ενδιαφέρον έτσι; 00:01:54.289 --> 00:01:55.590 Η ειρωνία εδώ είναι μεγάλη. 00:01:55.604 --> 00:01:58.532 Η σχέση αυτού του ανθρώπου με την τεχνητή νοημοσύνη, 00:01:58.532 --> 00:02:01.701 τον βοηθάει να έχει σχέση με αληθινά ανθρώπινα όντα. 00:02:02.805 --> 00:02:06.085 Κι αυτό ακριβώς είναι η ανθρωπιστική τεχνητή νοημοσύνη. NOTE Paragraph 00:02:07.404 --> 00:02:09.842 Ένα άλλο παράδειγμα, θέμα ζωής και θανάτου, 00:02:09.842 --> 00:02:11.663 είναι η διάγνωση του καρκίνου. 00:02:12.795 --> 00:02:14.990 Όταν ένας γιατρός υποπτεύεται καρκίνο 00:02:14.990 --> 00:02:17.729 παίρνει ένα δείγμα, το στέλνει σ' έναν παθολόγο, 00:02:17.729 --> 00:02:19.653 που το αναλύει στο μικροσκόπιο. 00:02:20.145 --> 00:02:22.690 Οι παθολόγοι κοιτάνε εκατοντάδες εικόνες, 00:02:22.694 --> 00:02:25.018 εκατομμύρια κύτταρα κάθε ημέρα. 00:02:25.552 --> 00:02:27.047 Για να τους βοηθήσουν, 00:02:27.047 --> 00:02:30.483 κάποιοι ερευνητές έφτιαξαν έναν ψηφιακό ταξιθέτη. 00:02:31.548 --> 00:02:36.141 Αυτός ο ταξιθέτης αναρωτιέται, είναι ή δεν είναι καρκίνος αυτό εδώ, 00:02:36.141 --> 00:02:37.740 κοιτώντας τις εικόνες. 00:02:38.355 --> 00:02:40.209 Η ταξιθέτηση είναι αρκετά καλή, 00:02:40.967 --> 00:02:43.082 μα όχι τόσο όσο η ανθρώπινη, 00:02:43.727 --> 00:02:45.713 που το πετυχαίνει τις περισσότερες φορές. NOTE Paragraph 00:02:46.427 --> 00:02:52.627 Συνδυάζοντας όμως τις δύο ικανότητες της μηχανής και του ανθρώπου μαζί, 00:02:52.631 --> 00:02:55.626 η ακρίβεια φθάνει στο 99.5 %. 00:02:57.150 --> 00:03:02.391 Αυτή συνεργασία κατάφερε να μειώσει κατά 86% τα διαγνωστικά λάθη, 00:03:02.391 --> 00:03:05.861 που ένας ανθρώπινος παθολόγος θα έκανε άμα δούλευε μονάχος. 00:03:06.820 --> 00:03:10.199 Πρόκειται για πολλούς καρκίνους, που αλλιώς θα παρέμεναν χωρίς θεραπεία. 00:03:11.097 --> 00:03:14.537 Για τους περίεργους, προκύπτει ότι οι άνθρωποι ήταν καλύτεροι 00:03:14.537 --> 00:03:16.570 στην ανίχνευση λαθών σε θετικές διαγνώσεις 00:03:16.570 --> 00:03:20.171 ενώ οι μηχανές ανίχνευαν καλύτερα τις δύσκολες διαγνώσεις. 00:03:20.171 --> 00:03:23.412 Το μήνυμα εδώ όμως δεν έχει να κάνει με το ποιος είναι καλύτερος 00:03:23.412 --> 00:03:25.484 σε αυτήν τη χωροταξική εργασία. 00:03:25.888 --> 00:03:27.747 Αυτά αλλάζουν κάθε μέρα. 00:03:27.751 --> 00:03:29.349 Το μήνυμα είναι, 00:03:29.349 --> 00:03:32.723 πως συνδυάζοντας τις ανθρώπινες και τις ψηφιακές δυνατότητες, 00:03:32.727 --> 00:03:37.678 δημιουργήθηκε μια συνεργασία με υπεράνθρωπη αποτελεσματικότητα. 00:03:38.543 --> 00:03:41.483 Κι αυτό είναι ανθρωπιστική τεχνητή νοημοσύνη. NOTE Paragraph 00:03:42.787 --> 00:03:44.793 Ας δούμε τώρα κι ένα άλλο παράδειγμα 00:03:44.797 --> 00:03:47.124 με εντυπωσιακές επιδόσεις. 00:03:47.124 --> 00:03:48.541 Πρόκειται για τον σχεδιασμό. 00:03:48.541 --> 00:03:49.881 Ας πούμε ότι είστε μηχανικός 00:03:49.881 --> 00:03:53.180 και θέλετε να σχεδιάσετε ένα νέο κέλυφος για μη επανδρωμένα αεροσκάφη. 00:03:53.180 --> 00:03:55.895 Επιλέγετε τα αγαπημένα σας σχεδιαστικά εργαλεία, 00:03:55.895 --> 00:04:00.104 επιλέγετε τη μορφή και τα υλικά κι ύστερα μελετάτε τις επιδόσεις. 00:04:00.104 --> 00:04:01.752 Αυτό σας δίνει ένα σχέδιο. 00:04:02.162 --> 00:04:05.899 Εάν δώσετε τα ίδια εργαλεία στη τεχνητή νοημοσύνη, 00:04:05.899 --> 00:04:08.987 θα παράξει χιλιάδες σχέδια. NOTE Paragraph 00:04:09.749 --> 00:04:12.167 Αυτό το βίντεο της Autodesk είναι καταπληκτικό. 00:04:12.167 --> 00:04:13.671 Είναι αληθινό το βίντεο. 00:04:14.092 --> 00:04:17.203 Πραγματικά αλλάζει τον τρόπο με τον οποίο σχεδιάζουμε. 00:04:17.203 --> 00:04:18.655 Ο ανθρώπινος μηχανικός τώρα 00:04:18.655 --> 00:04:24.534 λέει τι πρέπει να πετύχει το σχέδιο, και η μηχανή λέει, ορίστε οι επιλογές. 00:04:25.758 --> 00:04:29.594 Η δουλειά του μηχανικού είναι να επιλέξει το σχέδιο 00:04:29.594 --> 00:04:31.922 που ικανοποιεί τους σχεδιαστικούς στόχους, 00:04:31.922 --> 00:04:35.245 τους οποίους, ως άνθρωπος, γνωρίζει καλύτερα από οποιονδήποτε άλλον, 00:04:35.245 --> 00:04:37.472 μέσω της ανθρώπινης κρίσης κι επιδεξιότητας. 00:04:37.472 --> 00:04:39.164 Εδώ το σχέδιο που κερδίζει, 00:04:39.164 --> 00:04:41.759 μοιάζει σαν κάτι που θα μπορούσε να είχε φτιάξει η φύση 00:04:41.759 --> 00:04:43.937 μερικά εκατομμύρια εξελικτικά χρόνια αργότερα, 00:04:43.937 --> 00:04:46.373 και μάλιστα χωρίς αυτή την άχρηστη γούνα. NOTE Paragraph 00:04:48.424 --> 00:04:53.136 Ας δούμε λοιπόν που μας οδηγεί η ανθρωπιστική τεχνητή νοημοσύνη, 00:04:53.136 --> 00:04:55.513 χρησιμοποιώντας τη φαντασία μας. 00:04:56.118 --> 00:04:59.122 Τι είδους ενδυνάμωση θα θέλαμε να πετύχουμε; 00:04:59.529 --> 00:05:02.435 Τι θα λέγατε για νοητική ενδυνάμωση; 00:05:03.904 --> 00:05:05.413 Αντί να ρωτάμε, 00:05:05.413 --> 00:05:07.702 πόσο έξυπνες μπορούμε να κάνουμε τις μηχανές μας, 00:05:07.702 --> 00:05:11.395 ας ρωτήσουμε πόσο έξυπνους μπορούν να μας κάνουν οι μηχανές μας. 00:05:13.105 --> 00:05:14.885 Ας πάρουμε τη μνήμη για παράδειγμα. 00:05:15.511 --> 00:05:18.457 Η μνήμη είναι η βάση της ανθρώπινης νοημοσύνης. 00:05:19.767 --> 00:05:22.738 Μα η ανθρώπινη μνήμη έχει σημαντικές ελλείψεις. 00:05:23.541 --> 00:05:25.635 Είμαστε πολύ καλοί στο να λέμε ιστορίες, 00:05:25.639 --> 00:05:27.610 μα όχι στο να θυμόμαστε τις λεπτομέρειες. 00:05:27.614 --> 00:05:30.840 Και η μνήμη μας χειροτερεύει με τον καιρό. 00:05:30.844 --> 00:05:34.106 Που πήγε η δεκαετία του 60, μπορώ να πάω κι εγώ εκεί; NOTE Paragraph 00:05:34.106 --> 00:05:35.567 (Γέλια) NOTE Paragraph 00:05:36.648 --> 00:05:40.952 Αν είχαμε κι εμείς μνήμη το ίδιο καλή με τους υπολογιστές, 00:05:42.158 --> 00:05:45.704 για όσα συμβαίνουν στη ζωή μας; 00:05:45.704 --> 00:05:48.553 Να θυμόμασταν όλους τους ανθρώπους που έχουμε γνωρίσει; 00:05:48.553 --> 00:05:51.577 Πώς προφέρεται το όνομά τους, την οικογενειακή τους κατάσταση, 00:05:51.577 --> 00:05:54.298 το αγαπημένο τους άθλημα, την τελευταία μας συνομιλία. 00:05:54.298 --> 00:05:59.195 Αν είχαμε αυτήν τη μνήμη όλη μας τη ζωή, θα μπορούσαμε να κοιτάξουμε 00:05:59.195 --> 00:06:02.081 όλες τις συνομιλίες που είχαμε με όλους, όλα αυτά τα χρόνια, 00:06:02.081 --> 00:06:05.835 και να μπορέσουμε να εξετάσουμε σε βάθος χρόνου τις σχέσεις μας. 00:06:06.530 --> 00:06:11.428 Και αν βάζαμε την μνήμη αυτή να διαβάσει όλα όσα έχουμε διαβάσει 00:06:11.428 --> 00:06:14.134 και να ακούσει όλα τα τραγούδια που έχουμε ακούσει; 00:06:15.344 --> 00:06:17.777 Με το παραμικρό ερέθισμα, θα μπορούσαμε 00:06:17.777 --> 00:06:21.220 να φέρουμε στη μνήμη μας όλα όσα έχουμε δει ή ακούσει στο παρελθόν. 00:06:21.968 --> 00:06:23.247 Σκεφτείτε τις επιδράσεις 00:06:23.247 --> 00:06:27.106 στην ικανότητά μας να κάνουμε νέες συνδέσεις, να έχουμε νέες ιδέες. NOTE Paragraph 00:06:27.106 --> 00:06:28.797 Και για το σώμα μας; 00:06:29.602 --> 00:06:31.610 Αν μπορούσαμε να θυμόμαστε τις συνέπειες NOTE Paragraph 00:06:31.610 --> 00:06:35.535 κάθε φαγητού που φάγαμε, κάθε χαπιού που πήραμε, 00:06:36.485 --> 00:06:38.320 κάθε ξενυχτιού που κάναμε; 00:06:38.771 --> 00:06:42.081 Θα μπορούσαμε να μελετήσουμε τον εαυτό μας με τα δικά μας δεδομένα, 00:06:42.082 --> 00:06:45.935 το τι μας κάνει να αισθανόμαστε καλά και να παραμένουμε υγιείς. 00:06:45.935 --> 00:06:48.202 Φανταστείτε πώς θα άλλαζε άρδην 00:06:48.202 --> 00:06:51.403 τον τρόπο που χειριζόμαστε τις αλλεργίες και τις χρόνιες ασθένειες. NOTE Paragraph 00:06:52.909 --> 00:06:56.122 Πιστεύω πως η τεχνητή νοημοσύνη 00:06:56.122 --> 00:06:59.122 θα καταφέρει πράγματι να ενισχύσει την προσωπική μας μνήμη. 00:06:59.122 --> 00:07:01.946 Δεν μπορώ να πω πότε ή τι μορφή θα έχει, 00:07:02.627 --> 00:07:04.697 μα νομίζω πως είναι αναπόφευκτο. 00:07:05.740 --> 00:07:10.770 Διότι αυτά που κάνουν επιτυχημένη την τεχνητή νοημοσύνη σήμερα -- 00:07:10.774 --> 00:07:13.297 η πληθώρα περιεκτικών δεδομένων 00:07:13.297 --> 00:07:16.859 και η ικανότητα των μηχανών να κατανοούν αυτά τα δεδομένα -- 00:07:16.863 --> 00:07:20.152 μπορεί να χρησιμοποιηθούν και στα δεδομένα της ζωής μας. 00:07:20.152 --> 00:07:24.024 Κι αυτά βρίσκονται ανάμεσά μας και είναι διαθέσιμα σε όλους μας, 00:07:24.024 --> 00:07:30.744 διότι ζούμε ψηφιακές ζωές στα κινητά μας και στο διαδίκτυο. NOTE Paragraph 00:07:31.833 --> 00:07:35.743 Κατ΄ εμέ η προσωπική μνήμη είναι ιδιωτική. 00:07:35.747 --> 00:07:39.684 Επιλέγουμε τι ανακαλούμε και τι κρατάμε. 00:07:40.517 --> 00:07:44.181 Είναι πολύ σημαντικό να παραμείνουν αυτά ασφαλή. NOTE Paragraph 00:07:44.937 --> 00:07:46.796 Για τους περισσότερους από εμάς, 00:07:46.796 --> 00:07:49.753 η αυξημένη προσωπική μνήμη 00:07:49.753 --> 00:07:52.456 θα σήμαινε αυξημένες νοητικές ικανότητες. 00:07:52.456 --> 00:07:55.051 Ίσως και λιγάκι περισσότερα κοινωνικά χαρίσματα. 00:07:56.658 --> 00:08:01.305 Μα για τα εκατομμύρια που πάσχουν από Αλτσχάιμερ και άνοια, 00:08:03.209 --> 00:08:05.432 η αύξηση της μνήμης θα μπορούσε 00:08:05.436 --> 00:08:07.897 να μετατρέψει μία ζωή απομονωμένη, 00:08:09.016 --> 00:08:11.586 σε μία ζωή αξιοπρεπή και συνδεδεμένη. NOTE Paragraph 00:08:12.166 --> 00:08:17.813 Βρισκόμαστε στα μέσα μίας αναγέννησης της τεχνητής νοημοσύνης. 00:08:18.652 --> 00:08:20.643 Τα τελευταία χρόνια, 00:08:20.647 --> 00:08:24.308 ξεκινήσαμε να βλέπουμε λύσεις σε προβλήματα τεχνητής νοημοσύνης, 00:08:24.308 --> 00:08:28.272 με τα οποία παλεύαμε κυριολεκτικά δεκαετίες: 00:08:29.226 --> 00:08:31.923 αναγνώριση φωνής, αναγνώριση κειμένων, 00:08:31.923 --> 00:08:33.237 αναγνώριση εικόνων. 00:08:34.177 --> 00:08:38.538 Έχουμε την επιλογή πλέον στο πώς θα χρησιμοποιήσουμε αυτήν την τεχνολογία. 00:08:38.894 --> 00:08:41.156 Μπορούμε να επιλέξουμε τεχνητή νοημοσύνη 00:08:41.156 --> 00:08:44.156 που θα αυτοματοποιεί και θα συναγωνίζεται μαζί μας, 00:08:44.156 --> 00:08:45.800 ή να επιλέξουμε τεχνητή νοημοσύνη 00:08:45.800 --> 00:08:48.157 που θα μας ενισχύει και θα συνεργάζεται μαζί μας, 00:08:48.157 --> 00:08:51.268 να ξεπεράσουμε νοητικούς περιορισμούς 00:08:51.268 --> 00:08:54.444 και να μας βοηθήσει να κάνουμε ό,τι θελήσουμε, 00:08:54.444 --> 00:08:55.959 και καλύτερα. 00:08:56.339 --> 00:09:02.863 Και όπως θα ανακαλύπτουμε νέους τρόπους να δίνουμε στις μηχανές μας νοημοσύνη, 00:09:02.867 --> 00:09:05.966 θα μπορούμε να τη μοιράζουμε 00:09:05.966 --> 00:09:08.371 σε όλους τους ψηφιακούς βοηθούς ανά τον κόσμο, 00:09:08.371 --> 00:09:11.899 κι επομένως σε κάθε άνθρωπο ανεξαρτήτως περιστάσεων. 00:09:13.189 --> 00:09:14.758 Και να γιατί, 00:09:14.758 --> 00:09:17.903 κάθε φορά που η μηχανή γίνεται εξυπνότερη, 00:09:18.628 --> 00:09:20.379 γινόμαστε κι εμείς εξυπνότεροι. NOTE Paragraph 00:09:21.028 --> 00:09:24.781 Αυτή είναι τεχνητή νοημοσύνη που αξίζει να διαδωθεί. NOTE Paragraph 00:09:24.785 --> 00:09:25.987 Σας ευχαριστώ. NOTE Paragraph 00:09:25.991 --> 00:09:28.537 (Χειροκρότημα)