Was passiert, wenn unsere Computer intelligenter werden als wir?
-
0:01 - 0:06Ich arbeite mit einigen Mathematikern,
Philosophen und Informatikern zusammen. -
0:06 - 0:08Wir sitzen herum
-
0:08 - 0:12und denken z. B. über die Zukunft
der maschinellen Intelligenz nach. -
0:12 - 0:16Manche Leute denken,
einiges davon sei sehr futuristisch, -
0:17 - 0:19ausgefallen, einfach verrückt.
-
0:20 - 0:21Aber ich sage gern:
-
0:21 - 0:25Betrachten wir den Zustand
des modernen Menschen. -
0:25 - 0:26(Gelächter)
-
0:26 - 0:29Das ist der normale Gang der Dinge.
-
0:29 - 0:31Aber wenn wir darüber nachdenken,
-
0:31 - 0:36ist die menschliche Spezies erst
seit Kurzem Gast auf diesem Planeten. -
0:36 - 0:38Denken Sie darüber nach:
-
0:38 - 0:41Wäre die Erde erst
vor einem Jahr erschaffen worden, -
0:41 - 0:45dann wäre der Mensch erst 10 Minuten alt.
-
0:45 - 0:48Die industrielle Ära hätte
vor zwei Sekunden begonnen. -
0:49 - 0:54Man könnte auch das Welt-BIP
der letzten 10.000 Jahre betrachten. -
0:54 - 0:58Ich habe mir die Mühe gemacht,
dies für Sie grafisch darzustellen. -
0:58 - 1:00Es sieht so aus.
-
1:00 - 1:01(Gelächter)
-
1:01 - 1:03Es ist eine seltsame Form
für einen Normalzustand. -
1:03 - 1:05Ich würde nicht darauf sitzen wollen.
-
1:05 - 1:07(Gelächter)
-
1:07 - 1:08Fragen wir uns:
-
1:08 - 1:12Was ist die Ursache
dieser aktuellen Anomalie? -
1:12 - 1:15Manche Leute würden sagen,
dass es Technologie ist. -
1:15 - 1:16Das ist richtig,
-
1:16 - 1:20Technologie hat sich
im Laufe der Zeit angesammelt, -
1:20 - 1:24und im Moment entwickelt sich
die Technologie extrem schnell -- -
1:24 - 1:28das ist die unmittelbare Ursache,
deshalb sind wir derzeit so produktiv. -
1:29 - 1:32Aber ich denke gerne weiter
an die ultimative Ursache. -
1:33 - 1:37Schauen Sie sich diese zwei
hoch angesehenen Herren an: -
1:37 - 1:38Wir haben Kanzi --
-
1:38 - 1:43er hat 200 Begriffe gemeistert,
eine unglaubliche Leistung. -
1:43 - 1:47Und Ed Witten entfesselte
die zweite Superstring-Revolution. -
1:47 - 1:49Ein Blick unter die Haube zeigt das hier:
-
1:49 - 1:51im Grunde das Gleiche.
-
1:51 - 1:52Das eine ist etwas größer,
-
1:52 - 1:56es hat vielleicht auch ein paar Tricks
in der Art, wie es verkabelt ist. -
1:56 - 1:59Diese unsichtbaren Unterschiede können
aber nicht allzu kompliziert sein, -
1:59 - 2:02da es seit unserem letzten
gemeinsamen Vorfahren -
2:02 - 2:05nur 250.000 Generationen gab.
-
2:05 - 2:10Komplizierte Mechanismen brauchen
bekanntlich viel Zeit zur Entwicklung. -
2:10 - 2:13So führen uns einige
relativ kleine Änderungen -
2:13 - 2:15von Kanzi zu Witten,
-
2:16 - 2:20von abgebrochenen Ästen
bis hin zu Interkontinentalraketen. -
2:21 - 2:23Es ist also ziemlich offensichtlich,
-
2:23 - 2:26dass all unsere Leistungen
und alles, was uns interessiert, -
2:26 - 2:29entscheidend von einigen
relativ kleinen Veränderungen abhängt, -
2:29 - 2:32die den menschlichen Geist ausmachen.
-
2:32 - 2:35Die logische Folge ist natürlich,
-
2:35 - 2:39dass jede weitere Veränderung
des Substrats des Denkens -
2:40 - 2:42enorme Konsequenzen haben könnte.
-
2:44 - 2:48Einige meiner Kollegen glauben,
dass wir kurz vor etwas stehen, -
2:48 - 2:52was zu einer tiefgreifenden Veränderung
dieses Substrats führen könnte, -
2:52 - 2:54und das ist Maschinen-Superintelligenz.
-
2:54 - 2:59Künstliche Intelligenz hieß,
Befehle in eine Box zu stecken. -
2:59 - 3:04Menschliche Programmierer
bastelten mühsam Wissenselemente. -
3:05 - 3:08Man baute Expertensysteme,
die für einige Zwecke nützlich waren, -
3:08 - 3:11aber sie waren nicht skalierbar.
-
3:11 - 3:14Im Grunde bekam man nur heraus,
was man zuvor hineingebaut hatte. -
3:14 - 3:17Aber seitdem gab es
einen Paradigmenwechsel -
3:17 - 3:19im Bereich der künstlichen Intelligenz.
-
3:19 - 3:22Heute geht alles um maschinelles Lernen.
-
3:22 - 3:28Anstatt Wissensrepräsentationen
und -eigenschaften manuell zu erstellen, -
3:29 - 3:34erstellen wir Algorithmen, die oft
aus rohen sensorischen Daten lernen. -
3:34 - 3:39Genau das Gleiche,
was das menschliche Kind tut. -
3:39 - 3:43Das Ergebnis ist KI, die nicht
auf eine Domäne beschränkt ist -- -
3:43 - 3:48das gleiche System kann lernen,
beliebige Sprachpaare zu übersetzen, -
3:48 - 3:53oder lernen, jedes Computerspiel
auf der Atari-Konsole zu spielen. -
3:53 - 3:59Natürlich hat KI noch nicht annähernd
die gleiche universelle Fähigkeit, -
3:59 - 4:02zu lernen und zu planen
wie ein menschliches Wesen. -
4:02 - 4:04Der Kortex hat noch
einige algorithmische Tricks, -
4:04 - 4:08von denen wir noch nicht wissen,
wie wir sie in Maschinen abbilden sollen. -
4:08 - 4:09Die Frage ist also:
-
4:09 - 4:13Wie weit sind wir in der Lage,
diesen Tricks zu entsprechen? -
4:14 - 4:16Vor ein paar Jahren
machten wir eine Umfrage -
4:16 - 4:19unter einigen der weltweit
führenden KI-Experten, -
4:19 - 4:21um zu sehen, was sie denken,
und eine der Fragen war: -
4:21 - 4:25"In welchem Jahr sehen Sie
eine 50 %-Wahrscheinlichkeit, -
4:25 - 4:28dass wir maschinelle Intelligenz
auf menschlicher Ebene erreicht haben?" -
4:29 - 4:32Wir definierten hierbei
die menschliche Ebene als Fähigkeit, -
4:32 - 4:36fast jeden Job mindestens so gut
wie ein erwachsener Mensch zu können, -
4:36 - 4:40also die echte menschliche Ebene,
nicht nur für einen Spezialbereich. -
4:40 - 4:43Die mittlere Antwort war 2040 oder 2050,
-
4:43 - 4:46je nachdem, welche Gruppe
von Experten wir fragten. -
4:47 - 4:50Das könnte sehr viel später
oder auch früher passieren, -
4:50 - 4:52niemand weiß das wirklich.
-
4:53 - 4:58Wir wissen aber, dass die ultimative
Grenze für die Informationsverarbeitung -
4:58 - 5:03in einer Maschine weit jenseits der
Grenzen des biologischen Gewebes liegt. -
5:03 - 5:05Das liegt an der Physik.
-
5:05 - 5:09Ein biologisches Neuron
feuert mit etwa 200 Hertz, -
5:09 - 5:10200-mal pro Sekunde.
-
5:10 - 5:14Aber sogar ein heutiger Transistor
arbeitet mit 1 Gigahertz. -
5:14 - 5:19Neuronen bewegen sich langsam in Axonen,
maximal 100 Meter pro Sekunde. -
5:19 - 5:23Aber in Computern können sich Signale
mit Lichtgeschwindigkeit bewegen. -
5:23 - 5:25Es gibt auch Größenbeschränkungen,
-
5:25 - 5:28weil ein menschliches Gehirn
in einen Schädel passen muss. -
5:28 - 5:33Aber ein Computer kann so groß
wie ein Lagerhaus oder größer sein. -
5:33 - 5:38Also ruht das Potential
für Superintelligenz in der Materie, -
5:38 - 5:44ähnlich wie die Kraft des Atoms
während der Menschheitsgeschichte ruhte -
5:44 - 5:48und dort geduldig bis 1945 wartete.
-
5:48 - 5:51In diesem Jahrhundert
könnten Wissenschaftler lernen, -
5:51 - 5:54die Kraft der künstlichen
Intelligenz zu wecken. -
5:54 - 5:58Ich denke, wir könnten dann
eine Intelligenzexplosion erleben. -
5:58 - 6:02Wenn die meisten Leute darüber nachdenken,
was schlau und was dumm ist, -
6:02 - 6:05haben sie etwa dieses Bild vor Augen:
-
6:05 - 6:08An einem Ende haben wir den Dorftrottel,
-
6:08 - 6:13und weit entfernt am anderen Ende
haben wir Ed Witten oder Albert Einstein, -
6:13 - 6:15oder wer auch immer Ihr Lieblingsguru ist.
-
6:15 - 6:19Aber ich denke, dass vom Standpunkt
der künstlichen Intelligenz -
6:19 - 6:23das wahre Bild wohl eher so aussieht:
-
6:23 - 6:26KI beginnt hier an diesem Punkt,
bei null Intelligenz -
6:26 - 6:30und nach sehr vielen Jahren
wirklich harter Arbeit -
6:30 - 6:33kommen wir vielleicht
zur KI auf Mausebene, -
6:33 - 6:36etwas, das durch ungeordnete Umgebungen
-
6:36 - 6:38navigieren kann wie eine Maus.
-
6:38 - 6:42Dann, nach noch viel mehr Jahren
wirklich harter Arbeit und viel Geld, -
6:42 - 6:47kommen wir vielleicht irgendwann
zur KI auf Schimpansen-Ebene. -
6:47 - 6:50Nach noch mehr Jahren härtester Arbeit
-
6:50 - 6:53kommen wir zur Dorftrottel-KI.
-
6:53 - 6:56Und wenige Augenblicke später
sind wir hinter Ed Witten. -
6:56 - 6:59Der Zug endet nicht in Menschenhausen.
-
6:59 - 7:02Er wird wohl eher einfach durchrauschen.
-
7:02 - 7:05Das hat tiefgreifende Auswirkungen,
-
7:05 - 7:08besonders wenn es um Machtfragen geht.
-
7:08 - 7:10Zum Beispiel sind Schimpansen stark --
-
7:10 - 7:15ein Schimpanse ist pro Kilo etwa
doppelt so stark wie ein fitter Mann. -
7:15 - 7:19Aber das Schicksal von Kanzi
und seinen Freunden -
7:19 - 7:21hängt viel mehr von dem ab,
was wir Menschen tun, -
7:21 - 7:24als von dem, was Schimpansen selbst tun.
-
7:25 - 7:28Sobald es eine Superintelligenz gibt,
-
7:28 - 7:32kann das Schicksal der Menschheit
vom Tun der Superintelligenz abhängen. -
7:32 - 7:34Denken Sie darüber nach:
-
7:34 - 7:38KI ist die letzte Erfindung,
die die Menschheit je machen muss. -
7:38 - 7:41Maschinen sind dann
besser im Erfinden als wir -
7:41 - 7:44und tun es mit digitalen Zeitmaßstäben.
-
7:44 - 7:49Im Grunde bedeutet das
eine Komprimierung der Zukunft. -
7:49 - 7:53Denken Sie an all die verrückten Sachen,
von denen Sie sich vorstellen könnten, -
7:53 - 7:55dass die Menschen sie
zu gegebener Zeit entwickelt hätten: -
7:55 - 7:58Mittel gegen das Altern,
Besiedelung des Alls, -
7:58 - 8:00selbstreplizierende Nanobots
-
8:00 - 8:03oder das Hochladen
des menschlichen Geistes in Computer; -
8:03 - 8:04alle möglichen futuristischen Dinge,
-
8:04 - 8:07solange es mit den Gesetzen
der Physik übereinstimmt. -
8:07 - 8:11All das könnte die Superintelligenz
wohl ziemlich schnell entwickeln. -
8:12 - 8:16Eine Superintelligenz mit
einer solchen technologischen Reife -
8:16 - 8:18wäre extrem mächtig,
-
8:18 - 8:21und zumindest in einigen Szenarien
wäre sie in der Lage, -
8:21 - 8:23ihren Willen zu bekommen.
-
8:23 - 8:25Wir hätten dann eine Zukunft,
-
8:25 - 8:28die durch die Vorlieben
dieser KI geprägt wäre. -
8:29 - 8:34Eine gute Frage ist dann:
"Was sind das für Vorlieben?" -
8:34 - 8:36Hier wird es kniffliger.
-
8:36 - 8:37Um damit voranzukommen,
-
8:37 - 8:41müssen wir vor allem
die Anthropomorphisierung vermeiden. -
8:42 - 8:45Das ist ironisch,
weil jeder Zeitungsartikel -
8:45 - 8:49über die Zukunft der KI
etwa so ein Bild davon malt: -
8:50 - 8:54Also denke ich, dass wir das Thema
abstrakter verstehen müssen, -
8:54 - 8:57nicht wie in den lebhaften
Hollywood-Szenarien. -
8:57 - 9:01Wir müssen Intelligenz
als Optimierungsprozess betrachten, -
9:01 - 9:06einen Prozess, der die Zukunft
in eine Reihe von Konfigurationen steuert. -
9:06 - 9:10Eine Superintelligenz ist ein
wirklich starker Optimierungsprozess. -
9:10 - 9:13Sie ist sehr gut darin,
verfügbare Mittel zu verwenden, -
9:13 - 9:16um einen Zustand zu erreichen,
in dem das Ziel realisiert ist. -
9:16 - 9:18Es gibt also keinen
zwingenden Zusammenhang -
9:18 - 9:23zwischen einer hohen Intelligenz
in diesem Sinne und einem Ziel, -
9:23 - 9:27das wir Menschen für lohnend
oder sinnvoll halten würden. -
9:27 - 9:31Angenommen, wir geben einer KI das Ziel,
Menschen zum Lächeln zu bringen. -
9:31 - 9:35Eine schwache KI führt nützliche
oder amüsante Handlungen durch, -
9:35 - 9:37die ihren Benutzer zum Lächeln bringen.
-
9:37 - 9:39Eine superintelligente KI erkennt,
-
9:39 - 9:43dass es einen effektiveren Weg gibt,
dieses Ziel zu erreichen: -
9:43 - 9:45die Kontrolle über die Welt zu übernehmen
-
9:45 - 9:48und Elektroden in die Gesichtsmuskeln
von Menschen zu stecken, -
9:48 - 9:50um ein konstantes,
strahlendes Grinsen zu verursachen. -
9:50 - 9:52Ein anderes Beispiel:
-
9:52 - 9:55Angenommen, die KI soll ein schwieriges
mathematisches Problem lösen. -
9:55 - 9:57Eine superintelligente KI erkennt,
-
9:57 - 10:01dass der effektivste Weg
zur Lösung dieses Problems darin besteht, -
10:01 - 10:04den Planeten in einen
riesigen Computer zu verwandeln, -
10:04 - 10:06um ihre Denkfähigkeit zu erhöhen.
-
10:06 - 10:09Man beachte, dass dies den KIs
einen instrumentalen Grund gibt, -
10:09 - 10:11Dinge zu tun, die uns
vielleicht nicht gefallen. -
10:11 - 10:14Menschen sind in diesem Modell
eine Bedrohung, -
10:14 - 10:17denn wir könnten die Lösung
des mathematischen Problems verhindern. -
10:17 - 10:20Natürlich werden Dinge nicht
genau so schiefgehen; -
10:20 - 10:22das sind Cartoon-Beispiele.
-
10:22 - 10:24Aber der generelle Punkt hier ist wichtig:
-
10:24 - 10:27Wenn Sie einen wirklich mächtigen
Optimierungsprozess erstellen, -
10:27 - 10:29um für das Ziel x zu maximieren,
-
10:29 - 10:33sollten Sie sicherstellen,
dass Ihre Definition von x alles enthält, -
10:33 - 10:34was Ihnen wichtig ist.
-
10:35 - 10:39Diese Lektion wird auch
in vielen Mythen gelehrt. -
10:39 - 10:44König Midas wünscht, dass alles,
was er berührt, zu Gold wird. -
10:44 - 10:47Er berührt seine Tochter,
sie verwandelt sich in Gold. -
10:47 - 10:50Er berührt sein Essen,
es verwandelt sich in Gold. -
10:50 - 10:53Das könnte praktisch relevant werden,
-
10:53 - 10:55nicht nur als Metapher für Gier,
-
10:55 - 10:56sondern als Illustration für das,
-
10:56 - 11:00was passiert, wenn Sie einen mächtigen
Optimierungsprozess erstellen -
11:00 - 11:04und ihm falsche oder schlecht
spezifizierte Ziele geben. -
11:04 - 11:07Nun könnte man sagen,
wenn ein Computer anfängt, -
11:07 - 11:10Elektroden in die Gesichter
von Menschen zu stecken, -
11:10 - 11:12würden wir ihn einfach abschalten.
-
11:12 - 11:18A, das ist nicht unbedingt so einfach,
wenn wir abhängig vom System sind. -
11:18 - 11:21Wo etwa ist der Ausschalter des Internets?
-
11:21 - 11:25B, warum haben die Schimpansen nicht
den Schalter an der Menschheit -
11:25 - 11:27oder den Neandertalern ausgeschaltet?
-
11:27 - 11:30Sie hatten sicherlich Gründe.
-
11:30 - 11:33Wir haben zum Beispiel
einen Aus-Schalter hier. -
11:33 - 11:34(Würgen)
-
11:34 - 11:37Der Grund ist, dass wir
ein intelligenter Gegner sind; -
11:37 - 11:40wir können Bedrohungen
vorhersehen und ihnen ausweichen. -
11:40 - 11:42Aber das könnte auch
ein superintelligenter Agent, -
11:42 - 11:46und der wäre viel besser
darin als wir selbst. -
11:46 - 11:49Wir sollten uns also nicht zu sicher sein,
-
11:49 - 11:53dass wir das hier unter Kontrolle haben.
-
11:53 - 11:56Wir könnten versuchen, unsere Arbeit
ein wenig einfacher zu machen, -
11:56 - 11:58indem wir die KI in eine Box sperren,
-
11:58 - 12:00wie eine sichere Software-Umgebung,
-
12:00 - 12:03eine Virtual-Reality-Simulation,
aus der sie nicht entkommen kann. -
12:03 - 12:07Aber wie sicher können wir sein,
dass die KI keine Lücke findet? -
12:07 - 12:10Da schon menschliche Hacker
ständig solche Fehler finden, -
12:10 - 12:13würde ich sagen, wohl nicht sehr sicher.
-
12:14 - 12:19Also trennen wir das Ethernetkabel,
um einen Luftspalt zu schaffen, -
12:19 - 12:22aber selbst menschliche Hacker
überwinden solche Luftlücken -
12:23 - 12:25routinemäßig durch Social Engineering.
-
12:25 - 12:29Sicher gibt es gerade
irgendwo einen Angestellten, -
12:29 - 12:32der von einem vermeintlichen Mitarbeiter
aus der IT überredet wurde, -
12:32 - 12:35seine Kontodaten preiszugeben.
-
12:35 - 12:37Es sind auch kreativere Szenarien möglich.
-
12:37 - 12:41Als KI kann man Elektroden
in seiner internen Schaltung umbauen, -
12:41 - 12:45um Funkwellen zu erzeugen,
mit denen man kommunizieren kann. -
12:45 - 12:47Oder man gibt eine Fehlfunktion vor,
-
12:47 - 12:51und wenn die Programmierer nachsehen,
was schiefgelaufen ist, -
12:51 - 12:53sehen sie sich den Quellcode an -- Bam! --
-
12:53 - 12:55Die Manipulation kann stattfinden.
-
12:55 - 12:59Oder sie könnte den Bauplan zu einer
raffinierten Technologie ausgeben, -
12:59 - 13:02und wenn wir die implementieren,
hat sie einen verborgenen Nebeneffekt, -
13:02 - 13:05den die KI geplant hatte.
-
13:05 - 13:08Der Punkt ist, dass wir nicht
auf unsere Fähigkeit vertrauen sollten, -
13:08 - 13:12einen superintelligenten Geist für immer
in seiner Flasche eingesperrt zu halten. -
13:12 - 13:14Früher oder später kommt er heraus.
-
13:15 - 13:18Ich glaube, wir müssen herausfinden,
-
13:18 - 13:23wie man superintelligente KI so baut,
dass wenn sie -- sobald -- sie entkommt, -
13:23 - 13:26es immer noch sicher ist,
weil sie fest auf unserer Seite ist, -
13:26 - 13:28weil sie unsere Werte teilt.
-
13:28 - 13:32Es führt kein Weg um dieses
schwierige Problem herum. -
13:33 - 13:36Ich bin aber ziemlich optimistisch,
dass es gelöst werden kann. -
13:36 - 13:40Wir müssten keine lange Liste von allem
aufschreiben, was uns wichtig ist, -
13:40 - 13:42oder schlimmer noch,
-
13:42 - 13:45es in irgendeiner Computersprache
wie C++ oder Python buchstabieren; -
13:45 - 13:48das wäre eine Aufgabe,
die mehr als hoffnungslos ist. -
13:48 - 13:52Stattdessen würden wir eine KI bauen,
die ihre Intelligenz nutzt, -
13:52 - 13:55um zu lernen, was wir wertschätzen,
-
13:55 - 13:58und ihr Motivationssystem
ist so konstruiert, -
13:58 - 14:01dass sie anstrebt,
unsere Ziele zu verfolgen -
14:01 - 14:06oder Dinge zu tun, von denen
sie erwartet, dass wir sie billigen. -
14:06 - 14:09Wir würden somit ihre Intelligenz
-
14:09 - 14:13für das Problem der Wertedefinition
so gut wie möglich einsetzen. -
14:13 - 14:14Das kann passieren,
-
14:14 - 14:18und das Ergebnis könnte
sehr gut für die Menschheit sein. -
14:18 - 14:22Aber es geschieht nicht automatisch.
-
14:22 - 14:25Die Anfangsbedingungen
für die Intelligenzexplosion -
14:25 - 14:28müssen genau auf die richtige
Art und Weise aufgestellt werden, -
14:28 - 14:31wenn wir eine kontrollierte
Detonation haben wollen. -
14:31 - 14:34Die Werte der KI müssen
mit unseren übereinstimmen, -
14:34 - 14:35nicht nur im vertrauten Kontext,
-
14:35 - 14:38wo wir leicht überprüfen können,
wie die KI sich verhält, -
14:38 - 14:40sondern auch in allen neuen Situationen,
-
14:40 - 14:43auf die die KI in der
unbestimmten Zukunft treffen könnte. -
14:43 - 14:47Es gibt auch einige esoterische Fragen,
die gelöst werden müssten: -
14:47 - 14:50die genauen Details
ihrer Entscheidungstheorie, -
14:50 - 14:52wie mit logischer Unsicherheit
umzugehen ist usw. -
14:53 - 14:56Die technischen Probleme,
die dafür gelöst werden müssen, -
14:56 - 14:58sind ziemlich schwierig --
-
14:58 - 15:01nicht so schwierig, wie eine
superintelligente KI zu bauen, -
15:01 - 15:03aber ziemlich schwierig.
-
15:03 - 15:05Hier ist die Sorge:
-
15:05 - 15:10Superintelligente KI zu bauen
ist eine wirklich harte Herausforderung. -
15:10 - 15:13Sichere superintelligente KI zu bauen
-
15:13 - 15:15birgt noch zusätzliche Herausforderungen.
-
15:16 - 15:20Das Risiko besteht darin,
dass jemand die erste Hürde knackt, -
15:20 - 15:23ohne die zusätzliche Herausforderung,
perfekte Sicherheit zu gewährleisten, -
15:23 - 15:25ebenfalls zu knacken.
-
15:25 - 15:27Ich denke daher,
-
15:27 - 15:31wir sollten im Vorfeld
das Steuerungsproblem lösen, -
15:31 - 15:35damit wir eine Lösung haben,
wenn sie benötigt wird. -
15:35 - 15:39Vielleicht können wir nicht das
ganze Steuerungsproblem im Voraus lösen, -
15:39 - 15:41weil vielleicht einige Elemente
erst gesetzt werden können, -
15:41 - 15:45wenn wir die Details der Architektur,
in der sie implementiert werden, kennen. -
15:45 - 15:49Je mehr Kontrollprobleme
wir jedoch im Voraus lösen, -
15:49 - 15:52desto besser sind die Chancen,
dass der Übergang -
15:52 - 15:54zur Maschinenintelligenz gut verläuft.
-
15:54 - 15:59Das sieht für mich nach einer Sache aus,
die es wert ist, getan zu werden, -
15:59 - 16:02und ich kann mir vorstellen,
dass wenn die Dinge gut laufen, -
16:02 - 16:07die Leute in einer Million Jahre
auf dieses Jahrhundert zurückblicken -
16:07 - 16:09und möglicherweise sagen,
-
16:09 - 16:12dass unsere einzige wichtige Leistung
der Erfolg bei dieser Sache war. -
16:12 - 16:14Vielen Dank.
-
16:14 - 16:16(Beifall)
- Title:
- Was passiert, wenn unsere Computer intelligenter werden als wir?
- Speaker:
- Nick Bostrom
- Description:
-
Künstliche Intelligenz verbessert sich sprunghaft – noch in diesem Jahrhundert, so glauben Forscher, könnte eine KI "schlauer" als ein Mensch werden. Und dann, sagt Nick Bostrom, werde sie uns überholen: "Maschinenintelligenz wird die letzte Erfindung sein, die die Menschheit noch machen muss". Als Philosoph und Technologe bittet Bostrom uns, intensiv über die Welt nachzudenken, die wir jetzt konstruieren und die von denkenden Maschinen getrieben wird. Werden unsere klugen Maschinen die Menschheit und unsere Werte erhalten – oder werden sie eigene Werte haben?
- Video Language:
- English
- Team:
- closed TED
- Project:
- TEDTalks
- Duration:
- 16:31
Swenja Gawantka approved German subtitles for What happens when our computers get smarter than we are? | ||
Swenja Gawantka accepted German subtitles for What happens when our computers get smarter than we are? | ||
Andreas Herzog edited German subtitles for What happens when our computers get smarter than we are? | ||
Swenja Gawantka declined German subtitles for What happens when our computers get smarter than we are? | ||
Swenja Gawantka edited German subtitles for What happens when our computers get smarter than we are? | ||
Swenja Gawantka edited German subtitles for What happens when our computers get smarter than we are? | ||
Swenja Gawantka edited German subtitles for What happens when our computers get smarter than we are? | ||
Swenja Gawantka edited German subtitles for What happens when our computers get smarter than we are? |