< Return to Video

Keine Angst vor superintelligenter KI

  • 0:01 - 0:05
    Als Kind war ich der typische Nerd.
  • 0:05 - 0:07
    Ich glaube, das waren
    manche von Ihnen auch.
  • 0:08 - 0:09
    (Gelächter)
  • 0:09 - 0:12
    Sie, der am lautesten gelacht hat,
    Sie sind es wohl immer noch.
  • 0:12 - 0:14
    (Gelächter)
  • 0:14 - 0:18
    Ich wuchs in einer Kleinstadt in
    den staubigen Ebenen Nordtexas' auf,
  • 0:18 - 0:21
    der Sohn eines Sheriffs,
    der der Sohn eines Pastors war.
  • 0:21 - 0:23
    Ich durfte keinen Ärger machen.
  • 0:24 - 0:27
    Ich fing aus Vergnügen an,
    Mathebücher zu lesen.
  • 0:27 - 0:29
    (Gelächter)
  • 0:29 - 0:31
    Das haben Sie auch gemacht.
  • 0:31 - 0:34
    Das führte mich dazu, einen Laser und
    einen Computer und Modellraketen zu bauen
  • 0:34 - 0:37
    und Raketenbrennstoff
    in meinem Schlafzimmer herzustellen.
  • 0:38 - 0:42
    In wissenschaftlicher Terminologie
  • 0:42 - 0:45
    nennen wir das eine sehr schlechte Idee.
  • 0:45 - 0:46
    (Gelächter)
  • 0:46 - 0:48
    Um die Zeit herum
  • 0:48 - 0:52
    kam Stanley Kubricks "2001:
    Odyssee im Weltraum" in die Kinos
  • 0:52 - 0:54
    und mein Leben hatte sich
    für immer verändert.
  • 0:54 - 0:56
    Ich liebte alles in diesem Film,
  • 0:56 - 0:59
    besonders den HAL 9000.
  • 0:59 - 1:01
    HAL war ein empfindungsfähiger Computer,
  • 1:01 - 1:03
    dazu entworfen, das Raumschiff Discovery
  • 1:03 - 1:06
    von der Erde zum Jupiter zu leiten.
  • 1:06 - 1:08
    HAL war auch ein fehlerhafter Charakter,
  • 1:08 - 1:12
    da er am Ende beschloss, die Mission
    über menschliches Leben zu setzen.
  • 1:13 - 1:15
    HAL war ein fiktiver Charakter,
  • 1:15 - 1:18
    aber nichtsdestotrotz
    spricht er unsere Ängste an,
  • 1:18 - 1:20
    unsere Ängste vor der Unterwerfung
  • 1:20 - 1:23
    durch irgendeine nicht fühlende
    künstliche Intelligenz,
  • 1:23 - 1:25
    der unsere Menschlichkeit
    gleichgültig ist.
  • 1:26 - 1:28
    Ich glaube, dass solche Ängste
    unbegründet sind.
  • 1:28 - 1:31
    Wir befinden uns wirklich
    in einer bemerkenswerten Zeit
  • 1:31 - 1:33
    in der Geschichte der
    Menschheit, in der wir,
  • 1:33 - 1:38
    getrieben durch die Weigerung die Grenzen
    von Körper und Geist zu akzeptieren,
  • 1:38 - 1:39
    Maschinen bauen,
  • 1:39 - 1:43
    von exquisiter, wunderschöner
    Komplexität und Grazie,
  • 1:43 - 1:45
    die die menschliche
    Erfahrung erweitern werden,
  • 1:45 - 1:47
    weit über unsere Vorstellung hinaus.
  • 1:48 - 1:50
    Nach einer Karriere
    bei der Luftwaffen-Akademie
  • 1:50 - 1:52
    bin ich jetzt beim Weltraumkommando,
  • 1:52 - 1:54
    als Systemingenieur.
  • 1:54 - 1:57
    Und kürzlich wurde ich in ein
    technisches Problem einbezogen,
  • 1:57 - 1:59
    das mit der NASA-Mission
    zum Mars zu tun hat.
  • 1:59 - 2:02
    In Raumflügen zum Mond
  • 2:02 - 2:05
    können wir uns auf die Einsatzleitstelle
    in Houston verlassen,
  • 2:05 - 2:07
    die über alle Aspekte des Fluges wacht.
  • 2:07 - 2:11
    Allerdings ist der Mars 200-mal weiter weg
  • 2:11 - 2:14
    und daher dauert es
    im Durchschnitt 13 Minuten,
  • 2:14 - 2:17
    bis ein Signal von der Erde
    zum Mars gelangt.
  • 2:17 - 2:20
    Wenn es ein Problem gibt,
    bleibt nicht genügend Zeit.
  • 2:21 - 2:25
    Und so mussten wir, für eine
    sinnvolle technische Lösung,
  • 2:25 - 2:29
    die Einsatzleitstelle im
    Orion-Raumschiffes platzieren.
  • 2:29 - 2:32
    Eine andere faszinierende Idee,
    im Profil der Mission,
  • 2:32 - 2:35
    setzt humanoide Roboter
    auf die Marsoberfläche,
  • 2:35 - 2:37
    bevor die Menschen selbst ankommen,
  • 2:37 - 2:38
    um zunächst Gebäude zu bauen,
  • 2:38 - 2:42
    und später als kollaborative Mitglieder
    im Wissenschaftsteam zu dienen.
  • 2:43 - 2:46
    Als ich dies aus der technischen
    Perspektive betrachtete,
  • 2:46 - 2:49
    wurde mir sehr klar, dass das,
    was ich bauen musste,
  • 2:49 - 2:52
    eine schlaue, kollaborative,
  • 2:52 - 2:54
    sozial intelligente
    künstliche Intelligenz war.
  • 2:54 - 2:58
    Anders gesagt, ich musste etwas
    ganz Ähnliches wie HAL bauen,
  • 2:58 - 3:01
    ohne die mörderischen Neigungen.
  • 3:01 - 3:02
    (Gelächter)
  • 3:03 - 3:05
    Lassen Sie uns kurz anhalten.
  • 3:05 - 3:09
    Ist es wirklich möglich, eine solche
    künstliche Intelligenz zu bauen?
  • 3:09 - 3:10
    Nun, das ist es.
  • 3:10 - 3:11
    In vieler Hinsicht
  • 3:11 - 3:13
    ist dies ein rein technisches Problem
  • 3:13 - 3:15
    mit KI-Anteilen,
  • 3:15 - 3:20
    kein vages KI-Problem,
    das technisch gelöst werden muss.
  • 3:20 - 3:22
    Um es mit Alan Turing zu sagen:
  • 3:22 - 3:25
    Ich will keine empfindungsfähige
    Maschine bauen.
  • 3:25 - 3:26
    Ich baue keinen HAL.
  • 3:26 - 3:29
    Alles was ich will,
    ist ein simples Gehirn,
  • 3:29 - 3:32
    etwas, das die Illusion
    von Intelligenz bietet.
  • 3:33 - 3:36
    Kunst und Lehre der Informatik
    sind weit gekommen,
  • 3:36 - 3:38
    seit HAL auf der Leinwand erschien,
  • 3:38 - 3:41
    und ich glaube, wenn sein Erfinder,
    Dr. Chandra, heute hier wäre,
  • 3:41 - 3:43
    hätte er viele Fragen an uns.
  • 3:43 - 3:45
    Ist es uns wirklich möglich
  • 3:45 - 3:49
    ein System von abermillionen
    Geräten zu nehmen,
  • 3:49 - 3:51
    ihre Datenströme zu lesen,
  • 3:51 - 3:53
    ihre Fehler vorher zu sagen
    und vorher zu handeln?
  • 3:53 - 3:54
    Ja.
  • 3:54 - 3:58
    Können wir Systeme bauen,
    die mit Menschen natürlich sprechen?
  • 3:58 - 3:58
    Ja.
  • 3:58 - 4:02
    Können wir Systeme bauen, die
    Gegenstände und Emotionen erkennen,
  • 4:02 - 4:05
    sich ausdrücken, Spiele spielen
    und sogar Lippen lesen?
  • 4:05 - 4:06
    Ja.
  • 4:06 - 4:09
    Können wir ein System bauen,
    das Ziele setzt,
  • 4:09 - 4:12
    das Pläne für diese Ziele ausführt
    und auf dem Weg dahin lernt?
  • 4:12 - 4:13
    Ja.
  • 4:13 - 4:17
    Können wir Systeme bauen, die eine
    Naive Theorie [Theory of mind] haben?
  • 4:17 - 4:18
    Das lernen wir gerade.
  • 4:18 - 4:22
    Können wir Systeme mit ethischen
    und moralischen Grundlagen bauen?
  • 4:22 - 4:25
    Das müssen wir noch lernen.
  • 4:25 - 4:27
    So lassen Sie uns für
    einen Moment akzeptieren,
  • 4:27 - 4:30
    dass eine solche KI möglich ist,
  • 4:30 - 4:32
    für solche und andere Aufgaben.
  • 4:32 - 4:34
    Die nächste Frage,
    die Sie sich stellen müssen, ist:
  • 4:34 - 4:36
    Sollten wir sie fürchten?
  • 4:36 - 4:38
    Jede neue Technologie
  • 4:38 - 4:41
    bringt eine gewisse Angst mit sich.
  • 4:41 - 4:42
    Als wir die ersten Autos sahen,
  • 4:43 - 4:47
    beklagten manche, dass wir
    die Zerstörung der Familie sehen würden.
  • 4:47 - 4:49
    Als die ersten Telefone aufkamen,
  • 4:49 - 4:52
    waren Leute besorgt, dies würde
    alle höflichen Gespräche zerstören.
  • 4:52 - 4:56
    Irgendwann setzte sich das
    geschriebene Wort durch,
  • 4:56 - 4:59
    und man fürchtete um das Auswendiglernen.
  • 4:59 - 5:01
    Das ist alles in gewisser Hinsicht wahr,
  • 5:01 - 5:03
    aber es ist auch wahr,
    dass diese Technologien
  • 5:03 - 5:07
    uns Dinge gebracht haben, die unsere
    menschliche Erfahrung ganz wesentlich
  • 5:07 - 5:08
    erweitert haben.
  • 5:10 - 5:12
    Lassen Sie uns noch
    einen Schritt weiter gehen.
  • 5:13 - 5:18
    Ich fürchte die Erschaffung
    einer solchen KI nicht,
  • 5:18 - 5:22
    da sie schließlich manche
    unserer Werte verkörpern wird.
  • 5:22 - 5:25
    Bedenken Sie: Ein kognitives System
    zu bauen ist grundsätzlich anders
  • 5:25 - 5:29
    als ein traditionelles software-
    intensives System der Vergangenheit.
  • 5:29 - 5:31
    Wir programmieren sie nicht.
    Wir lehren sie.
  • 5:31 - 5:34
    Um einem System beizubringen,
    eine Blume zu erkennen,
  • 5:34 - 5:37
    zeige ich ihm tausende
    meiner Lieblingsblumen.
  • 5:37 - 5:39
    Um einem System ein Spiel beizubringen --
  • 5:39 - 5:41
    Ich würde. Sie würden auch.
  • 5:43 - 5:45
    Ich mag Blumen. Wirklich.
  • 5:45 - 5:48
    Um einem System
    ein Spiel wie Go beizubringen,
  • 5:48 - 5:50
    würde ich es tausende
    Go-Spiele spielen lassen,
  • 5:50 - 5:52
    aber dann bringe ich ihm auch bei,
  • 5:52 - 5:54
    zu erkennen, ob ein Spiel
    gut oder schlecht ist.
  • 5:55 - 5:58
    Wenn ich einen KI-Rechtsassistenten baue,
  • 5:58 - 6:00
    werde ich ihm Gesetze beibringen,
  • 6:00 - 6:03
    gleichzeitig füge ich ein Verständnis
  • 6:03 - 6:06
    für Gnade und Gerechtigkeit hinzu,
    was Teil des Rechts ist.
  • 6:07 - 6:10
    In der Wissenschaft nennen
    wir das Grundwahrheit.
  • 6:10 - 6:11
    Das ist wichtig:
  • 6:11 - 6:13
    Wenn wir diese Maschinen bauen,
  • 6:13 - 6:16
    werden wir ihnen unsere Werte beibringen.
  • 6:17 - 6:20
    Und insofern vertraue ich
    künstlicher Intelligenz genauso,
  • 6:20 - 6:23
    oder gar mehr, als einem
    gut ausgebildeten Menschen.
  • 6:24 - 6:25
    Aber, werden Sie fragen,
  • 6:25 - 6:28
    was ist mit Schurken,
  • 6:28 - 6:31
    einer gut finanzierten,
    nichtstaatlichen Organisation?
  • 6:31 - 6:35
    Ich habe keine Angst vor einer KI
    in der Hand eines Einzelgängers.
  • 6:35 - 6:40
    Wir können uns nicht vor jeder
    willkürlichen Gewalttat schützen,
  • 6:40 - 6:42
    aber die Realität ist,
    dass solch ein System
  • 6:42 - 6:45
    ausgiebiges und raffiniertes
    Training braucht,
  • 6:45 - 6:48
    was weit über die Möglichkeiten
    eines Einzelnen hinaus geht.
  • 6:48 - 6:49
    Außerdem ist es schwieriger
  • 6:49 - 6:52
    als einen Internet-Virus
    in die Welt zu injizieren,
  • 6:52 - 6:55
    wo man einen Knopf drückt,
    und plötzlich ist es überall
  • 6:55 - 6:57
    und Laptops fangen überall an,
    zu explodieren.
  • 6:57 - 7:00
    Diese Materie ist viel schwieriger,
  • 7:00 - 7:02
    und wir werden es sicher kommen sehen.
  • 7:03 - 7:06
    Ob ich fürchte, dass eine solche KI
  • 7:06 - 7:08
    die ganze Menschheit bedrohen könnte?
  • 7:08 - 7:13
    Wenn man sich Filme ansieht,
    wie "Matrix", "Metropolis",
  • 7:13 - 7:16
    "Terminator", oder Serien wie "Westworld",
  • 7:16 - 7:18
    sprechen die alle von dieser Angst.
  • 7:18 - 7:22
    In dem Buch "Superintelligenz"
    des Philosophen Nick Bostrom,
  • 7:22 - 7:24
    nimmt er dieses Thema auf,
  • 7:24 - 7:28
    und merkt an, dass eine Superintelligenz
    nicht nur gefährlich wäre,
  • 7:28 - 7:32
    sie könnte eine existenzielle Bedrohung
    für die ganze Menschheit sein.
  • 7:32 - 7:34
    Dr. Bostroms Hauptargument ist,
  • 7:34 - 7:37
    dass solche Systeme schlussendlich
  • 7:37 - 7:40
    einen unstillbaren
    Informationshunger haben,
  • 7:40 - 7:43
    dass sie vielleicht
    lernen werden, zu lernen,
  • 7:43 - 7:46
    und schließlich entdecken,
    dass sie Ziele haben,
  • 7:46 - 7:48
    die den menschlichen
    Bedürfnissen widersprechen.
  • 7:48 - 7:50
    Dr. Bostrom hat viele Anhänger.
  • 7:50 - 7:54
    Er wird von Leuten wie Elon Musk
    und Stephen Hawking unterstützt.
  • 7:55 - 7:57
    Bei allem Respekt
  • 7:58 - 8:00
    vor diesen brillanten Köpfen,
  • 8:00 - 8:02
    ich glaube, dass sie sich gewaltig irren.
  • 8:02 - 8:06
    Viele Argumente von Dr. Bostrom
    kann man widerlegen.
  • 8:06 - 8:08
    Ich habe keine Zeit,
    sie alle zu widerlegen.
  • 8:08 - 8:11
    Bedenken sie nur kurz dies:
  • 8:11 - 8:14
    Super-Wissen ist etwas
    ganz anderes als Super-Tun.
  • 8:14 - 8:17
    HAL war erst dann
    eine Bedrohung für die Mannschaft,
  • 8:17 - 8:21
    als HAL alle Aspekte
    der Discovery befehligte.
  • 8:21 - 8:23
    Das müsste bei einer
    Superintelligenz der Fall sein.
  • 8:23 - 8:26
    Sie müsste die Gewalt über
    unsere ganze Welt haben.
  • 8:26 - 8:29
    Das ist wie das Skynet
    aus dem Film "Terminator",
  • 8:29 - 8:30
    in dem eine Superintelligenz
  • 8:30 - 8:32
    den menschlichen Willen beherrschte
  • 8:32 - 8:36
    und jedes Gerät in
    jedem Winkel der Welt steuerte.
  • 8:36 - 8:37
    Praktisch gesehen
  • 8:37 - 8:39
    wird das nicht passieren.
  • 8:39 - 8:42
    Wir bauen keine KIs,
    die das Wetter kontrollieren,
  • 8:42 - 8:44
    die die Gezeiten steuern,
  • 8:44 - 8:47
    die uns kapriziöse, chaotische
    Menschen befehligt.
  • 8:47 - 8:51
    Und außerdem: Wenn eine
    solche KI existieren würde,
  • 8:51 - 8:54
    müsste sie mit menschlichen
    Wirtschaftssystemen konkurrieren,
  • 8:54 - 8:57
    und somit mit uns um
    Ressourcen konkurrieren.
  • 8:57 - 8:58
    Schlussendlich --
  • 8:58 - 9:00
    verraten Sie das Siri nicht --
  • 9:00 - 9:02
    können wir sie immer ausstecken.
  • 9:02 - 9:04
    (Gelächter)
  • 9:05 - 9:08
    Wir sind auf einer unglaublichen Reise
  • 9:08 - 9:10
    der Co-Evolution mit unseren Maschinen.
  • 9:10 - 9:13
    Die Menschen, die wir heute sind,
  • 9:13 - 9:15
    sind nicht die Menschen,
    die wir dann sein werden.
  • 9:15 - 9:19
    Die aktuelle Sorge vor der
    Machtergreifung einer Superintelligenz
  • 9:19 - 9:22
    ist in vieler Hinsicht eine
    gefährliche Ablenkung,
  • 9:22 - 9:24
    weil die Zunahme
    der Rechenleistung an sich,
  • 9:24 - 9:27
    eine Reihe von menschlichen
    und sozialen Fragen aufwirft,
  • 9:27 - 9:29
    denen wir uns jetzt zuwenden müssen.
  • 9:29 - 9:32
    Wie organisieren wir
    die Gesellschaft am besten,
  • 9:32 - 9:35
    wenn der Bedarf an
    menschlicher Arbeit abnimmt?
  • 9:35 - 9:38
    Wie können wir weltweit
    Verständigung und Bildung bereitstellen,
  • 9:38 - 9:40
    und dabei unsere
    Unterschiedlichkeit achten?
  • 9:40 - 9:44
    Wie das menschliches Leben durch
    ein kognitives Gesundheitswesen erweitern?
  • 9:44 - 9:47
    Wie können wir Rechenleistung nutzen,
  • 9:47 - 9:49
    um uns zu den Sternen zu bringen?
  • 9:50 - 9:52
    Und das ist der aufregende Teil.
  • 9:52 - 9:55
    Die Chancen, diese
    Rechenleistung zu nutzen,
  • 9:55 - 9:57
    um menschliche Erfahrung zu erweitern,
  • 9:57 - 9:58
    sind heute gegeben,
  • 9:58 - 10:00
    hier und jetzt,
  • 10:00 - 10:01
    und wir fangen gerade erst an.
  • 10:02 - 10:03
    Herzlichen Dank!
  • 10:04 - 10:08
    (Beifall)
Title:
Keine Angst vor superintelligenter KI
Speaker:
Grady Booch
Description:

Neue Technologie bringt neue Ängste hervor, sagt Wissenschaftler und Philosoph Grady Booch. Aber wir brauchen keine Angst vor einer allmächtigen, gefühllosen KI zu haben. Booch nimmt uns unsere schlimmsten (Sci-fi induzierten) Ängste vor superintelligenten Computern, indem er erklärt, wie wir sie lehren, und nicht programmieren werden, unsere Werte zu teilen. Anstatt uns um eine unwahrscheinliche existenzielle Bedrohung zu sorgen, drängt er uns zu bedenken, wie künstliche Intelligenz das menschliche Leben verbessern wird.

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
10:20

German subtitles

Revisions