Keine Angst vor superintelligenter KI
-
0:01 - 0:05Als Kind war ich der typische Nerd.
-
0:05 - 0:07Ich glaube, das waren
manche von Ihnen auch. -
0:08 - 0:09(Gelächter)
-
0:09 - 0:12Sie, der am lautesten gelacht hat,
Sie sind es wohl immer noch. -
0:12 - 0:14(Gelächter)
-
0:14 - 0:18Ich wuchs in einer Kleinstadt in
den staubigen Ebenen Nordtexas' auf, -
0:18 - 0:21der Sohn eines Sheriffs,
der der Sohn eines Pastors war. -
0:21 - 0:23Ich durfte keinen Ärger machen.
-
0:24 - 0:27Ich fing aus Vergnügen an,
Mathebücher zu lesen. -
0:27 - 0:29(Gelächter)
-
0:29 - 0:31Das haben Sie auch gemacht.
-
0:31 - 0:34Das führte mich dazu, einen Laser und
einen Computer und Modellraketen zu bauen -
0:34 - 0:37und Raketenbrennstoff
in meinem Schlafzimmer herzustellen. -
0:38 - 0:42In wissenschaftlicher Terminologie
-
0:42 - 0:45nennen wir das eine sehr schlechte Idee.
-
0:45 - 0:46(Gelächter)
-
0:46 - 0:48Um die Zeit herum
-
0:48 - 0:52kam Stanley Kubricks "2001:
Odyssee im Weltraum" in die Kinos -
0:52 - 0:54und mein Leben hatte sich
für immer verändert. -
0:54 - 0:56Ich liebte alles in diesem Film,
-
0:56 - 0:59besonders den HAL 9000.
-
0:59 - 1:01HAL war ein empfindungsfähiger Computer,
-
1:01 - 1:03dazu entworfen, das Raumschiff Discovery
-
1:03 - 1:06von der Erde zum Jupiter zu leiten.
-
1:06 - 1:08HAL war auch ein fehlerhafter Charakter,
-
1:08 - 1:12da er am Ende beschloss, die Mission
über menschliches Leben zu setzen. -
1:13 - 1:15HAL war ein fiktiver Charakter,
-
1:15 - 1:18aber nichtsdestotrotz
spricht er unsere Ängste an, -
1:18 - 1:20unsere Ängste vor der Unterwerfung
-
1:20 - 1:23durch irgendeine nicht fühlende
künstliche Intelligenz, -
1:23 - 1:25der unsere Menschlichkeit
gleichgültig ist. -
1:26 - 1:28Ich glaube, dass solche Ängste
unbegründet sind. -
1:28 - 1:31Wir befinden uns wirklich
in einer bemerkenswerten Zeit -
1:31 - 1:33in der Geschichte der
Menschheit, in der wir, -
1:33 - 1:38getrieben durch die Weigerung die Grenzen
von Körper und Geist zu akzeptieren, -
1:38 - 1:39Maschinen bauen,
-
1:39 - 1:43von exquisiter, wunderschöner
Komplexität und Grazie, -
1:43 - 1:45die die menschliche
Erfahrung erweitern werden, -
1:45 - 1:47weit über unsere Vorstellung hinaus.
-
1:48 - 1:50Nach einer Karriere
bei der Luftwaffen-Akademie -
1:50 - 1:52bin ich jetzt beim Weltraumkommando,
-
1:52 - 1:54als Systemingenieur.
-
1:54 - 1:57Und kürzlich wurde ich in ein
technisches Problem einbezogen, -
1:57 - 1:59das mit der NASA-Mission
zum Mars zu tun hat. -
1:59 - 2:02In Raumflügen zum Mond
-
2:02 - 2:05können wir uns auf die Einsatzleitstelle
in Houston verlassen, -
2:05 - 2:07die über alle Aspekte des Fluges wacht.
-
2:07 - 2:11Allerdings ist der Mars 200-mal weiter weg
-
2:11 - 2:14und daher dauert es
im Durchschnitt 13 Minuten, -
2:14 - 2:17bis ein Signal von der Erde
zum Mars gelangt. -
2:17 - 2:20Wenn es ein Problem gibt,
bleibt nicht genügend Zeit. -
2:21 - 2:25Und so mussten wir, für eine
sinnvolle technische Lösung, -
2:25 - 2:29die Einsatzleitstelle im
Orion-Raumschiffes platzieren. -
2:29 - 2:32Eine andere faszinierende Idee,
im Profil der Mission, -
2:32 - 2:35setzt humanoide Roboter
auf die Marsoberfläche, -
2:35 - 2:37bevor die Menschen selbst ankommen,
-
2:37 - 2:38um zunächst Gebäude zu bauen,
-
2:38 - 2:42und später als kollaborative Mitglieder
im Wissenschaftsteam zu dienen. -
2:43 - 2:46Als ich dies aus der technischen
Perspektive betrachtete, -
2:46 - 2:49wurde mir sehr klar, dass das,
was ich bauen musste, -
2:49 - 2:52eine schlaue, kollaborative,
-
2:52 - 2:54sozial intelligente
künstliche Intelligenz war. -
2:54 - 2:58Anders gesagt, ich musste etwas
ganz Ähnliches wie HAL bauen, -
2:58 - 3:01ohne die mörderischen Neigungen.
-
3:01 - 3:02(Gelächter)
-
3:03 - 3:05Lassen Sie uns kurz anhalten.
-
3:05 - 3:09Ist es wirklich möglich, eine solche
künstliche Intelligenz zu bauen? -
3:09 - 3:10Nun, das ist es.
-
3:10 - 3:11In vieler Hinsicht
-
3:11 - 3:13ist dies ein rein technisches Problem
-
3:13 - 3:15mit KI-Anteilen,
-
3:15 - 3:20kein vages KI-Problem,
das technisch gelöst werden muss. -
3:20 - 3:22Um es mit Alan Turing zu sagen:
-
3:22 - 3:25Ich will keine empfindungsfähige
Maschine bauen. -
3:25 - 3:26Ich baue keinen HAL.
-
3:26 - 3:29Alles was ich will,
ist ein simples Gehirn, -
3:29 - 3:32etwas, das die Illusion
von Intelligenz bietet. -
3:33 - 3:36Kunst und Lehre der Informatik
sind weit gekommen, -
3:36 - 3:38seit HAL auf der Leinwand erschien,
-
3:38 - 3:41und ich glaube, wenn sein Erfinder,
Dr. Chandra, heute hier wäre, -
3:41 - 3:43hätte er viele Fragen an uns.
-
3:43 - 3:45Ist es uns wirklich möglich
-
3:45 - 3:49ein System von abermillionen
Geräten zu nehmen, -
3:49 - 3:51ihre Datenströme zu lesen,
-
3:51 - 3:53ihre Fehler vorher zu sagen
und vorher zu handeln? -
3:53 - 3:54Ja.
-
3:54 - 3:58Können wir Systeme bauen,
die mit Menschen natürlich sprechen? -
3:58 - 3:58Ja.
-
3:58 - 4:02Können wir Systeme bauen, die
Gegenstände und Emotionen erkennen, -
4:02 - 4:05sich ausdrücken, Spiele spielen
und sogar Lippen lesen? -
4:05 - 4:06Ja.
-
4:06 - 4:09Können wir ein System bauen,
das Ziele setzt, -
4:09 - 4:12das Pläne für diese Ziele ausführt
und auf dem Weg dahin lernt? -
4:12 - 4:13Ja.
-
4:13 - 4:17Können wir Systeme bauen, die eine
Naive Theorie [Theory of mind] haben? -
4:17 - 4:18Das lernen wir gerade.
-
4:18 - 4:22Können wir Systeme mit ethischen
und moralischen Grundlagen bauen? -
4:22 - 4:25Das müssen wir noch lernen.
-
4:25 - 4:27So lassen Sie uns für
einen Moment akzeptieren, -
4:27 - 4:30dass eine solche KI möglich ist,
-
4:30 - 4:32für solche und andere Aufgaben.
-
4:32 - 4:34Die nächste Frage,
die Sie sich stellen müssen, ist: -
4:34 - 4:36Sollten wir sie fürchten?
-
4:36 - 4:38Jede neue Technologie
-
4:38 - 4:41bringt eine gewisse Angst mit sich.
-
4:41 - 4:42Als wir die ersten Autos sahen,
-
4:43 - 4:47beklagten manche, dass wir
die Zerstörung der Familie sehen würden. -
4:47 - 4:49Als die ersten Telefone aufkamen,
-
4:49 - 4:52waren Leute besorgt, dies würde
alle höflichen Gespräche zerstören. -
4:52 - 4:56Irgendwann setzte sich das
geschriebene Wort durch, -
4:56 - 4:59und man fürchtete um das Auswendiglernen.
-
4:59 - 5:01Das ist alles in gewisser Hinsicht wahr,
-
5:01 - 5:03aber es ist auch wahr,
dass diese Technologien -
5:03 - 5:07uns Dinge gebracht haben, die unsere
menschliche Erfahrung ganz wesentlich -
5:07 - 5:08erweitert haben.
-
5:10 - 5:12Lassen Sie uns noch
einen Schritt weiter gehen. -
5:13 - 5:18Ich fürchte die Erschaffung
einer solchen KI nicht, -
5:18 - 5:22da sie schließlich manche
unserer Werte verkörpern wird. -
5:22 - 5:25Bedenken Sie: Ein kognitives System
zu bauen ist grundsätzlich anders -
5:25 - 5:29als ein traditionelles software-
intensives System der Vergangenheit. -
5:29 - 5:31Wir programmieren sie nicht.
Wir lehren sie. -
5:31 - 5:34Um einem System beizubringen,
eine Blume zu erkennen, -
5:34 - 5:37zeige ich ihm tausende
meiner Lieblingsblumen. -
5:37 - 5:39Um einem System ein Spiel beizubringen --
-
5:39 - 5:41Ich würde. Sie würden auch.
-
5:43 - 5:45Ich mag Blumen. Wirklich.
-
5:45 - 5:48Um einem System
ein Spiel wie Go beizubringen, -
5:48 - 5:50würde ich es tausende
Go-Spiele spielen lassen, -
5:50 - 5:52aber dann bringe ich ihm auch bei,
-
5:52 - 5:54zu erkennen, ob ein Spiel
gut oder schlecht ist. -
5:55 - 5:58Wenn ich einen KI-Rechtsassistenten baue,
-
5:58 - 6:00werde ich ihm Gesetze beibringen,
-
6:00 - 6:03gleichzeitig füge ich ein Verständnis
-
6:03 - 6:06für Gnade und Gerechtigkeit hinzu,
was Teil des Rechts ist. -
6:07 - 6:10In der Wissenschaft nennen
wir das Grundwahrheit. -
6:10 - 6:11Das ist wichtig:
-
6:11 - 6:13Wenn wir diese Maschinen bauen,
-
6:13 - 6:16werden wir ihnen unsere Werte beibringen.
-
6:17 - 6:20Und insofern vertraue ich
künstlicher Intelligenz genauso, -
6:20 - 6:23oder gar mehr, als einem
gut ausgebildeten Menschen. -
6:24 - 6:25Aber, werden Sie fragen,
-
6:25 - 6:28was ist mit Schurken,
-
6:28 - 6:31einer gut finanzierten,
nichtstaatlichen Organisation? -
6:31 - 6:35Ich habe keine Angst vor einer KI
in der Hand eines Einzelgängers. -
6:35 - 6:40Wir können uns nicht vor jeder
willkürlichen Gewalttat schützen, -
6:40 - 6:42aber die Realität ist,
dass solch ein System -
6:42 - 6:45ausgiebiges und raffiniertes
Training braucht, -
6:45 - 6:48was weit über die Möglichkeiten
eines Einzelnen hinaus geht. -
6:48 - 6:49Außerdem ist es schwieriger
-
6:49 - 6:52als einen Internet-Virus
in die Welt zu injizieren, -
6:52 - 6:55wo man einen Knopf drückt,
und plötzlich ist es überall -
6:55 - 6:57und Laptops fangen überall an,
zu explodieren. -
6:57 - 7:00Diese Materie ist viel schwieriger,
-
7:00 - 7:02und wir werden es sicher kommen sehen.
-
7:03 - 7:06Ob ich fürchte, dass eine solche KI
-
7:06 - 7:08die ganze Menschheit bedrohen könnte?
-
7:08 - 7:13Wenn man sich Filme ansieht,
wie "Matrix", "Metropolis", -
7:13 - 7:16"Terminator", oder Serien wie "Westworld",
-
7:16 - 7:18sprechen die alle von dieser Angst.
-
7:18 - 7:22In dem Buch "Superintelligenz"
des Philosophen Nick Bostrom, -
7:22 - 7:24nimmt er dieses Thema auf,
-
7:24 - 7:28und merkt an, dass eine Superintelligenz
nicht nur gefährlich wäre, -
7:28 - 7:32sie könnte eine existenzielle Bedrohung
für die ganze Menschheit sein. -
7:32 - 7:34Dr. Bostroms Hauptargument ist,
-
7:34 - 7:37dass solche Systeme schlussendlich
-
7:37 - 7:40einen unstillbaren
Informationshunger haben, -
7:40 - 7:43dass sie vielleicht
lernen werden, zu lernen, -
7:43 - 7:46und schließlich entdecken,
dass sie Ziele haben, -
7:46 - 7:48die den menschlichen
Bedürfnissen widersprechen. -
7:48 - 7:50Dr. Bostrom hat viele Anhänger.
-
7:50 - 7:54Er wird von Leuten wie Elon Musk
und Stephen Hawking unterstützt. -
7:55 - 7:57Bei allem Respekt
-
7:58 - 8:00vor diesen brillanten Köpfen,
-
8:00 - 8:02ich glaube, dass sie sich gewaltig irren.
-
8:02 - 8:06Viele Argumente von Dr. Bostrom
kann man widerlegen. -
8:06 - 8:08Ich habe keine Zeit,
sie alle zu widerlegen. -
8:08 - 8:11Bedenken sie nur kurz dies:
-
8:11 - 8:14Super-Wissen ist etwas
ganz anderes als Super-Tun. -
8:14 - 8:17HAL war erst dann
eine Bedrohung für die Mannschaft, -
8:17 - 8:21als HAL alle Aspekte
der Discovery befehligte. -
8:21 - 8:23Das müsste bei einer
Superintelligenz der Fall sein. -
8:23 - 8:26Sie müsste die Gewalt über
unsere ganze Welt haben. -
8:26 - 8:29Das ist wie das Skynet
aus dem Film "Terminator", -
8:29 - 8:30in dem eine Superintelligenz
-
8:30 - 8:32den menschlichen Willen beherrschte
-
8:32 - 8:36und jedes Gerät in
jedem Winkel der Welt steuerte. -
8:36 - 8:37Praktisch gesehen
-
8:37 - 8:39wird das nicht passieren.
-
8:39 - 8:42Wir bauen keine KIs,
die das Wetter kontrollieren, -
8:42 - 8:44die die Gezeiten steuern,
-
8:44 - 8:47die uns kapriziöse, chaotische
Menschen befehligt. -
8:47 - 8:51Und außerdem: Wenn eine
solche KI existieren würde, -
8:51 - 8:54müsste sie mit menschlichen
Wirtschaftssystemen konkurrieren, -
8:54 - 8:57und somit mit uns um
Ressourcen konkurrieren. -
8:57 - 8:58Schlussendlich --
-
8:58 - 9:00verraten Sie das Siri nicht --
-
9:00 - 9:02können wir sie immer ausstecken.
-
9:02 - 9:04(Gelächter)
-
9:05 - 9:08Wir sind auf einer unglaublichen Reise
-
9:08 - 9:10der Co-Evolution mit unseren Maschinen.
-
9:10 - 9:13Die Menschen, die wir heute sind,
-
9:13 - 9:15sind nicht die Menschen,
die wir dann sein werden. -
9:15 - 9:19Die aktuelle Sorge vor der
Machtergreifung einer Superintelligenz -
9:19 - 9:22ist in vieler Hinsicht eine
gefährliche Ablenkung, -
9:22 - 9:24weil die Zunahme
der Rechenleistung an sich, -
9:24 - 9:27eine Reihe von menschlichen
und sozialen Fragen aufwirft, -
9:27 - 9:29denen wir uns jetzt zuwenden müssen.
-
9:29 - 9:32Wie organisieren wir
die Gesellschaft am besten, -
9:32 - 9:35wenn der Bedarf an
menschlicher Arbeit abnimmt? -
9:35 - 9:38Wie können wir weltweit
Verständigung und Bildung bereitstellen, -
9:38 - 9:40und dabei unsere
Unterschiedlichkeit achten? -
9:40 - 9:44Wie das menschliches Leben durch
ein kognitives Gesundheitswesen erweitern? -
9:44 - 9:47Wie können wir Rechenleistung nutzen,
-
9:47 - 9:49um uns zu den Sternen zu bringen?
-
9:50 - 9:52Und das ist der aufregende Teil.
-
9:52 - 9:55Die Chancen, diese
Rechenleistung zu nutzen, -
9:55 - 9:57um menschliche Erfahrung zu erweitern,
-
9:57 - 9:58sind heute gegeben,
-
9:58 - 10:00hier und jetzt,
-
10:00 - 10:01und wir fangen gerade erst an.
-
10:02 - 10:03Herzlichen Dank!
-
10:04 - 10:08(Beifall)
- Title:
- Keine Angst vor superintelligenter KI
- Speaker:
- Grady Booch
- Description:
-
Neue Technologie bringt neue Ängste hervor, sagt Wissenschaftler und Philosoph Grady Booch. Aber wir brauchen keine Angst vor einer allmächtigen, gefühllosen KI zu haben. Booch nimmt uns unsere schlimmsten (Sci-fi induzierten) Ängste vor superintelligenten Computern, indem er erklärt, wie wir sie lehren, und nicht programmieren werden, unsere Werte zu teilen. Anstatt uns um eine unwahrscheinliche existenzielle Bedrohung zu sorgen, drängt er uns zu bedenken, wie künstliche Intelligenz das menschliche Leben verbessern wird.
- Video Language:
- English
- Team:
- closed TED
- Project:
- TEDTalks
- Duration:
- 10:20
Angelika Lueckert Leon edited German subtitles for Don't fear superintelligent AI | ||
P Hakenberg accepted German subtitles for Don't fear superintelligent AI | ||
P Hakenberg edited German subtitles for Don't fear superintelligent AI | ||
P Hakenberg edited German subtitles for Don't fear superintelligent AI | ||
P Hakenberg edited German subtitles for Don't fear superintelligent AI | ||
P Hakenberg edited German subtitles for Don't fear superintelligent AI | ||
P Hakenberg edited German subtitles for Don't fear superintelligent AI | ||
P Hakenberg edited German subtitles for Don't fear superintelligent AI |