Return to Video

私がロボットを使って描く理由

  • 0:01 - 0:04
    私たちの多くが日々の生活で
    テクノロジーを利用しています
  • 0:04 - 0:07
    なかには仕事をする上で
    テクノロジーに頼り切っている人もいます
  • 0:07 - 0:11
    長い間 私は機械や
    それを動かすテクノロジーを
  • 0:11 - 0:16
    作業の効率をあげ 生産性を高める
    最高のツールとして捉えていました
  • 0:16 - 0:20
    でも 多岐に渡る産業で
    自動化が進むにつれて
  • 0:20 - 0:21
    こう思うようになりました
  • 0:21 - 0:23
    これまで人によって行われてきた仕事を
  • 0:23 - 0:25
    機械ができるようになってきたら
  • 0:25 - 0:27
    人間の技能は
    どうなってしまうのでしょうか?
  • 0:28 - 0:32
    完璧さ 緻密さ 自動化を求める
    私たちの願望は
  • 0:32 - 0:34
    創造性にどう影響するのでしょうか?
  • 0:35 - 0:39
    芸術家で研究者である 私の仕事は
    AIとロボット工学を研究して
  • 0:39 - 0:42
    人間の創造性を高める
    新たなプロセスを生み出すことです
  • 0:42 - 0:43
    ここ数年は
  • 0:43 - 0:48
    機械やデータ 新しいテクノロジーを
    使って制作しています
  • 0:48 - 0:50
    これは 個人とシステムの力学と
  • 0:50 - 0:53
    その中に含まれる
    あらゆる乱雑さに対する
  • 0:53 - 0:55
    生涯を通じた
    私の関心の一部です
  • 0:55 - 1:00
    AIと人間の境界はどこにあるかという
    課題を追究する方法であり
  • 1:00 - 1:02
    未来における
  • 1:02 - 1:05
    感覚の組み合わせ方の可能性を
    探る方法を開発する場でもあります
  • 1:06 - 1:09
    哲学とテクノロジーが
    交差する場だと思います
  • 1:09 - 1:11
    この仕事から学んだことがあります
  • 1:12 - 1:14
    不完全さを受け入れると
    私たち自身について
  • 1:14 - 1:17
    分かることがあるということ
  • 1:17 - 1:20
    芸術を研究することで
  • 1:20 - 1:23
    私たちを形作るテクノロジーの
    生成を促しうるということ
  • 1:23 - 1:26
    AIとロボット工学を
    既存の創造性の形―
  • 1:26 - 1:30
    私の場合 視覚芸術と
    結びつけることで
  • 1:30 - 1:32
    人間とは何か 機械とは何かを
  • 1:32 - 1:35
    より深く考える手助けになること
  • 1:36 - 1:38
    そして 研究を通して気づいたのは
  • 1:38 - 1:41
    機械と人間が進歩するとき
    両者のための空間を作るには
  • 1:41 - 1:42
    協働が大切だという点です
  • 1:42 - 1:45
    すべての始まりは簡単な実験で
    使った機械は
  • 1:45 - 1:48
    「Drawing Operations Unit: Generation 1
    (描画操作ユニット 第1世代)」
  • 1:48 - 1:51
    略して「D.O.U.G.」でした
  • 1:51 - 1:52
    D.O.U.G.の製作前は
  • 1:52 - 1:55
    ロボットの作り方など
    全く知りませんでした
  • 1:55 - 1:58
    オープンソースのロボットアームの
    設計を採用し
  • 1:58 - 2:01
    リアルタイムで
    私の動きに追従する
  • 2:02 - 2:03
    システムを組み上げました
  • 2:03 - 2:05
    前提はシンプルでした
  • 2:05 - 2:07
    私がすることを 機械がまねる
  • 2:07 - 2:10
    私が線を描けば
    線をまねて描きます
  • 2:10 - 2:14
    2015年 ニューヨークで
    少人数の観客を前に
  • 2:14 - 2:17
    初めて描いたときの映像です
  • 2:17 - 2:19
    まばらなパフォーマンスで
  • 2:19 - 2:23
    照明も音楽もなく 観客の目を
    遮るものもありませんでした
  • 2:23 - 2:27
    私の手は汗だくになり
    ロボットのサーボモーターは過熱しました
  • 2:27 - 2:29
    (笑)あきらかに
    私たち向きの状況ではありません
  • 2:30 - 2:33
    ところが 予期せぬ
    興味深いことが起こったのです
  • 2:33 - 2:38
    初期のD.O.U.G.を見てください
    私の描いた線を完璧にはまねていません
  • 2:38 - 2:40
    スクリーン上の
    シミュレーションでは
  • 2:40 - 2:42
    1ピクセルの狂いもなかったのに
  • 2:42 - 2:44
    現実世界だと
    そうはいかなかったのです
  • 2:44 - 2:47
    滑ったり ずれたり
    途切れたり ぶれたりしたので
  • 2:47 - 2:49
    私が対応しなくては
    なりませんでした
  • 2:50 - 2:51
    そこに本来の姿はありませんでした
  • 2:51 - 2:55
    それでも なぜか誤りによって
    興味深い作品になりました
  • 2:55 - 2:57
    機械は私の描線を解釈していましたが
    完ぺきではなく
  • 2:57 - 2:59
    私が対処を強いられました
  • 2:59 - 3:01
    お互いリアルタイムで
    順応していたのです
  • 3:01 - 3:03
    これを見て
    分かったことがあります
  • 3:03 - 3:08
    誤りが作品を
    よりおもしろいものにするのです
  • 3:09 - 3:13
    ロボットの不完全さを通して
    両者の不完全さは
  • 3:13 - 3:17
    相互作用から生まれる
    美しさへと変化するのです
  • 3:18 - 3:21
    人間と機械システムが持つ
    美しさの一部は
  • 3:21 - 3:24
    両者に共通する誤りやすさに
    あるのかもしれないと気づいて
  • 3:24 - 3:27
    私の胸は高鳴りました
  • 3:27 - 3:29
    D.O.U.G.の第2世代では
  • 3:29 - 3:31
    このアイデアを
    掘り下げたいと思いました
  • 3:31 - 3:36
    ただ ロボットアームを限界まで
    追い込んで生じる偶発性ではなく
  • 3:36 - 3:39
    私の描線に予測不能な反応をするシステムを
  • 3:39 - 3:41
    設計しようと思いました
  • 3:41 - 3:44
    そこで過去数十年の
    私のデジタルとアナログ両方の絵から
  • 3:44 - 3:47
    視覚情報を抽出するために
    視覚アルゴリズムを利用しました
  • 3:47 - 3:50
    その絵を
    ニューラルネットワークに学習させ
  • 3:50 - 3:52
    作品に繰り返し表れるパターンを生成し
  • 3:52 - 3:56
    専用のソフトウェアで
    ロボットに入力するのです
  • 3:56 - 4:00
    絵は 探せる限り
    徹底的に集めました
  • 4:00 - 4:05
    完成した作品 未完成の試作
    雑多なスケッチもです
  • 4:05 - 4:07
    そして AIシステムのために
    タグ付けしました
  • 4:07 - 4:10
    私は芸術家ですから
    20年以上創作をしています
  • 4:10 - 4:12
    そこまで集めるのに
    何か月もかけて
  • 4:12 - 4:14
    全体像が見えました
  • 4:14 - 4:16
    AIシステムに学習させるのは
  • 4:16 - 4:19
    とても手間がかかります
  • 4:19 - 4:21
    見えない部分で多くの作業が進みます
  • 4:21 - 4:24
    しかしこの作業を進めるなかで
  • 4:24 - 4:27
    AIが どのように
    構築されているかが分かりました
  • 4:27 - 4:30
    単にニューラルネットワーク用の
    モデルや識別器から
  • 4:30 - 4:32
    できている訳ではなく
  • 4:32 - 4:35
    順応性があり形成可能で
  • 4:35 - 4:38
    常に人の手が入っている
    システムなのです
  • 4:38 - 4:42
    私たちが全能と信じさせられてきた
    AIとはかけ離れています
  • 4:42 - 4:45
    だからニューラルネットのために
    絵を集めました
  • 4:45 - 4:49
    そして それ以前なら
    不可能だったことを認識したのです
  • 4:49 - 4:53
    私のロボットD.O.U.G. は
    私の人生で手掛けた作品をリアルタイムで
  • 4:53 - 4:56
    インタラクティブに反映するようになりました
  • 4:56 - 5:00
    データは個人的なものでも
    結果はとても力強く
  • 5:00 - 5:01
    私はとてもワクワクしました
  • 5:01 - 5:06
    なぜなら機械は
    単なる道具である必要はなく
  • 5:06 - 5:09
    人ではない協力者として
    機能すると考え始めたからです
  • 5:10 - 5:11
    またそれ以上に
  • 5:11 - 5:14
    創造性の未来は
    何を作ったかではなく
  • 5:14 - 5:15
    新しい制作方法を探って
  • 5:15 - 5:19
    どのように協働したかにあるのでは
    と思ったのです
  • 5:19 - 5:21
    だから D.O.U.G._1 を筋肉
  • 5:21 - 5:23
    D.O.U.G._2 を頭脳とすると
  • 5:23 - 5:26
    D.O.U.G._3 は家族と思いたいのです
  • 5:26 - 5:31
    人とモノとの大規模な協働というアイデアを
    詳しく探りたくなっていました
  • 5:31 - 5:33
    ここ数ヶ月は
  • 5:33 - 5:36
    共同体として私と作業できる
    20台のロボットの開発に
  • 5:36 - 5:38
    チームと共に取り組みました
  • 5:38 - 5:39
    そのロボットは集団で作業し
  • 5:39 - 5:42
    私たちと共に ニューヨーク全体と
    協働するものでした
  • 5:42 - 5:45
    スタンフォードの研究者
    フェイフェイ・リーの言葉に触発されました
  • 5:45 - 5:48
    「機械に考え方を教えたければ
  • 5:48 - 5:50
    まず見方を教える必要がある」
  • 5:50 - 5:52
    その言葉に従い 過去十年の
    ニューヨークでの生活を再考し
  • 5:52 - 5:56
    街中にある監視カメラに
    どう見られていたかを考えてみました
  • 5:56 - 5:58
    そして ロボットに
    見方を教えるために
  • 5:58 - 6:01
    それらの映像を使えたら
    面白そうだと思いました
  • 6:01 - 6:03
    そこでこのプロジェクトでは
  • 6:03 - 6:05
    機械からの視線について考察し
  • 6:05 - 6:08
    視覚を 様々な方向から来る
    どこか別の場所から見た光景として
  • 6:08 - 6:10
    考え始めました
  • 6:10 - 6:12
    私たちはインターネットで
  • 6:12 - 6:15
    一般公開されている
    ライブカメラ映像を集めました
  • 6:15 - 6:17
    歩道を歩く人々や
  • 6:17 - 6:19
    車道を行き交う車やタクシーなど
  • 6:19 - 6:20
    都会のあらゆる運動です
  • 6:21 - 6:24
    この映像をもとに
    オプティカルフローと呼ばれる
  • 6:24 - 6:26
    技術を応用して
    視覚アルゴリズムに学習させ
  • 6:26 - 6:28
    全体の密度や
  • 6:28 - 6:32
    方向 静止 速度の状態といった
    都会の動きを分析しました
  • 6:32 - 6:36
    このシステムは それらの状態を
    映像から位置データとして抽出し
  • 6:36 - 6:40
    ロボットが描くための
    スケッチブックになりました
  • 6:40 - 6:42
    1対1の協働ではなく
  • 6:42 - 6:45
    複数対複数の協働です
  • 6:45 - 6:49
    人間の視覚と
    都市の機械を組み合わせることで
  • 6:49 - 6:52
    私たちは風景画の可能性を
    イメージし直しました
  • 6:52 - 6:54
    D.O.U.G.を使った
    どの実験をとっても
  • 6:54 - 6:57
    同じ作品にはなりません
  • 6:57 - 6:58
    そして協働を通して
  • 6:58 - 7:01
    人間かロボット 片方だけでは
    できないものを作ります
  • 7:01 - 7:04
    人間とモノが並行して作業し
  • 7:04 - 7:07
    私たちの創造性の限界を
    研究しているのです
  • 7:08 - 7:10
    これは始まりに過ぎないと
    私は思います
  • 7:11 - 7:13
    今年 私はScilicetを立ち上げました
  • 7:13 - 7:17
    人間や人々の協働作業を探る
    新しい研究所です
  • 7:17 - 7:19
    個人と人工物と生態系の
  • 7:19 - 7:24
    フィードバックループに
    関心を持っています
  • 7:24 - 7:27
    私たちは 人や機械からの出力を
  • 7:27 - 7:30
    生体測定や その他の環境データと
    結びつけようとしています
  • 7:30 - 7:34
    仕事やシステム 人々の協働の
    未来に関心がある方なら
  • 7:34 - 7:35
    一緒に研究するために
  • 7:35 - 7:37
    誰でも招いています
  • 7:37 - 7:40
    この仕事を任された
    技術者だけでなく
  • 7:40 - 7:42
    全員に役割があるのです
  • 7:42 - 7:45
    これまで伝統的に人の手で行われてきた
  • 7:45 - 7:47
    仕事の仕方を機械に教えることで
  • 7:47 - 7:50
    人の手によって可能とされることの
  • 7:50 - 7:53
    基準を研究し進化させられると
    信じています
  • 7:53 - 7:56
    そして その旅の一部は
    人間と機械の双方の
  • 7:56 - 8:00
    不完全性を容認し
    誤りやすさを認識することであり
  • 8:00 - 8:03
    それにより双方の可能性を
    広げようとするものです
  • 8:03 - 8:05
    現在 私は人間とモノが持つ
    創造性の素晴らしさを
  • 8:05 - 8:08
    見つけ出そうとしている
    只中にいます
  • 8:08 - 8:11
    それが将来 どんなものになるか
    想像もつきませんが
  • 8:12 - 8:14
    それを見出すことに
    とても関心があるのです
  • 8:14 - 8:15
    ありがとう
  • 8:15 - 8:17
    (拍手)
Title:
私がロボットを使って描く理由
Speaker:
スグウェン・チャン
Description:

人間とロボットが一緒に芸術作品を作ると、何が起こるでしょう?この圧倒的なトークで、芸術家スグウェン・チャンはどうやって自分のスタイルを機械に「教えた」かを見せてくれます。そして、ロボットも間違うという予期せぬ発見をした後の協働の結果を教えてくれます。「人間と機械システムが持つ美しさの一部は、両者に共通する誤りやすさにあるのかもしれない」と彼女は言います。

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
08:30
Retired user approved Japanese subtitles for Why I draw with robots
Retired user edited Japanese subtitles for Why I draw with robots
Retired user accepted Japanese subtitles for Why I draw with robots
Retired user edited Japanese subtitles for Why I draw with robots
Hiroshi Uchiyama edited Japanese subtitles for Why I draw with robots
Hiroshi Uchiyama edited Japanese subtitles for Why I draw with robots
Retired user declined Japanese subtitles for Why I draw with robots
Retired user edited Japanese subtitles for Why I draw with robots
Show all

Japanese subtitles

Revisions