< Return to Video

Como los humanos y la IA pueden cooperar para crear mejores empresas

  • 0:01 - 0:03
    Déjenme compartir una paradoja.
  • 0:04 - 0:06
    Durante los últimos 10 años,
  • 0:06 - 0:10
    muchas compañías han intentado
    ser menos burocráticas,
  • 0:10 - 0:13
    tener menos reglas centrales
    y procedimientos,
  • 0:13 - 0:16
    más autonomía para que
    sus equipos locales sean más ágiles.
  • 0:16 - 0:21
    Y ahora están dando cuerda
    a la inteligencia artificial, IA,
  • 0:21 - 0:23
    sin darse cuenta de que
    esta genial tecnología
  • 0:23 - 0:27
    podría hacerlos
    más burocráticos que nunca.
  • 0:27 - 0:29
    ¿Por qué?
  • 0:29 - 0:32
    Porque la IA opera
    al igual que las burocracias.
  • 0:32 - 0:35
    La esencia de la burocracia
  • 0:35 - 0:39
    es favorecer reglas y procedimientos
    sobre el juicio humano.
  • 0:40 - 0:44
    Y la IA decide
    únicamente según las reglas.
  • 0:44 - 0:47
    Muchas reglas inferidas de datos pasados,
  • 0:47 - 0:49
    pero solo reglas.
  • 0:49 - 0:53
    Y si no se involucra el juicio humano
  • 0:53 - 0:58
    la AI traerá una forma aterradora
    de nueva burocracia,
  • 0:58 - 1:01
    yo la llamo "algocracia"
  • 1:01 - 1:05
    donde la IA tomará más y más
    decisiones críticas basada en reglas
  • 1:05 - 1:07
    fuera de cualquier control humano.
  • 1:08 - 1:10
    ¿Existe un riesgo real?
  • 1:11 - 1:12
    Sí.
  • 1:12 - 1:15
    Lidero un equipo
    de 800 especialistas en IA.
  • 1:15 - 1:19
    Hemos instalados
    más de 100 soluciones de IA personalizadas
  • 1:19 - 1:21
    para grandes empresas de todo el mundo.
  • 1:21 - 1:27
    Y veo demasiados ejecutivos corporativos
    comportándose como burócratas del pasado.
  • 1:28 - 1:33
    Quieren sacar a humanos costosos
    y anticuados del proceso
  • 1:33 - 1:37
    y confiar solo en la IA
    en la toma de decisiones.
  • 1:37 - 1:41
    Yo llamo a esto
    la "mentalidad de cero humanos".
  • 1:42 - 1:44
    ¿Y por qué es eso tan tentador?
  • 1:45 - 1:50
    Porque la otra ruta,
    "Humano más IA" es larga,
  • 1:50 - 1:53
    costosa y difícil.
  • 1:53 - 1:56
    Equipos de negocios, equipos tecnológicos,
    equipos de ciencia de datos
  • 1:56 - 1:58
    tienen que interaccionar meses
  • 1:58 - 2:04
    para encontrar cómo los humanos
    y la IA pueden trabajar mejor juntos.
  • 2:04 - 2:08
    Largo, costoso y difícil.
  • 2:08 - 2:10
    Pero la recompensa es enorme.
  • 2:10 - 2:14
    Una encuesta reciente de BCG y MIT
  • 2:14 - 2:18
    muestra que el 18 %
    de empresas en el mundo
  • 2:18 - 2:20
    son pioneras en IA,
  • 2:20 - 2:23
    haciendo dinero con eso.
  • 2:23 - 2:29
    Esas compañías se enfocan
    un 80 % de sus iniciativas de IA
  • 2:29 - 2:31
    en efectividad y crecimiento,
  • 2:31 - 2:33
    tomando mejores decisiones
  • 2:33 - 2:36
    no reemplazando humanos con IA
    para ahorrar costos.
  • 2:38 - 2:41
    ¿Por qué es importante
    mantener a los humanos involucrados?
  • 2:42 - 2:47
    Simplemente porque, dejándola sola,
    la IA puede hacer cosas muy tontas.
  • 2:47 - 2:51
    A veces sin consecuencias,
    como en este tuit.
  • 2:51 - 2:53
    "Querida Amazon,
  • 2:53 - 2:54
    compré un asiento de inodoro.
  • 2:54 - 2:56
    Por necesidad, no por deseo.
  • 2:56 - 2:57
    No los colecciono.
  • 2:57 - 3:00
    No soy un adicto a los inodoros.
  • 3:00 - 3:02
    No importa cuán tentador sea el correo,
  • 3:02 - 3:04
    No voy a pensar, 'Oh, adelante, entonces,
  • 3:04 - 3:06
    un asiento de inodoro más,
    Trataré yo mismo".
  • 3:06 - 3:08
    (Risas)
  • 3:08 - 3:12
    A veces, con más consecuencia,
    como en este otro tuit.
  • 3:13 - 3:15
    "Tenía la misma situación
  • 3:15 - 3:17
    con la urna funeraria de mi madre".
  • 3:17 - 3:18
    (Risas)
  • 3:18 - 3:20
    "Por meses tras su muerte,
  • 3:20 - 3:23
    recibí mensajes de Amazon,
    diciendo: 'Si te gustó eso...' ".
  • 3:23 - 3:25
    (Risas)
  • 3:25 - 3:28
    A veces con peores consecuencias.
  • 3:28 - 3:33
    Por ejemplo, una IA rechazando
    una solicitud para la universidad.
  • 3:33 - 3:34
    ¿Por qué?
  • 3:34 - 3:36
    Porque ha "aprendido" de datos pasados,
  • 3:36 - 3:40
    características de los estudiantes
    este pasará y este fallará.
  • 3:40 - 3:42
    Algunos obvios,
    como los exámenes de grado.
  • 3:42 - 3:47
    Pero si, en el pasado, los estudiantes
    de un código postal dado han fallado,
  • 3:47 - 3:51
    es muy probable
    que la IA hará de esto una regla
  • 3:51 - 3:55
    y rechazará a cada estudiante
    con este código postal,
  • 3:55 - 3:59
    sin darle a nadie la oportunidad para
    demostrar que la regla está equivocada.
  • 4:00 - 4:02
    Y nadie puede verificar todas las reglas,
  • 4:02 - 4:06
    porque la IA avanzada
    está constantemente aprendiendo.
  • 4:06 - 4:09
    Y si los humanos no están involucrados,
  • 4:09 - 4:12
    llega la pesadilla algocrática.
  • 4:12 - 4:15
    ¿Quién es responsable?
    de rechazar al estudiante?
  • 4:15 - 4:17
    Nadie, la AI lo hizo.
  • 4:17 - 4:19
    ¿Es justo? Sí.
  • 4:19 - 4:22
    El mismo conjunto de reglas objetivas
    se ha aplicado a todos.
  • 4:22 - 4:26
    ¿Podríamos reconsiderar a este niño
    brillante con el código postal incorrecto?
  • 4:27 - 4:30
    No, los algoritmos no cambian de opinión.
  • 4:31 - 4:33
    Tenemos una opción aquí.
  • 4:34 - 4:36
    Continuar con algoritmocracia
  • 4:36 - 4:39
    o decidir ir a "Humano más IA".
  • 4:39 - 4:41
    Y para hacer esto,
  • 4:41 - 4:44
    primero tenemos
    que dejar de pensar en tecnología
  • 4:44 - 4:48
    y debemos comenzar a aplicar
    la fórmula secreta.
  • 4:49 - 4:51
    Para usar "Humano más IA"
  • 4:51 - 4:54
    el 10 % del esfuerzo es
    de codificar algoritmos;
  • 4:54 - 4:57
    el 20 % construir tecnología
    alrededor de los algoritmos,
  • 4:57 - 5:01
    recolectando datos, construyendo IU,
    integración en sistemas heredados;
  • 5:01 - 5:04
    pero el 70 %, la mayor parte del esfuerzo,
  • 5:04 - 5:09
    se dedica a entrelazar
    la AI con personas y procesos
  • 5:09 - 5:11
    para maximizar el resultado real.
  • 5:12 - 5:17
    La IA falla cuando se corta en el 70 %.
  • 5:17 - 5:20
    El precio para eso puede ser pequeño,
  • 5:20 - 5:24
    desperdiciando muchos, muchos millones
    de dólares en tecnología inútil.
  • 5:24 - 5:25
    ¿A alguien le importa?
  • 5:26 - 5:28
    O tragedias reales:
  • 5:29 - 5:37
    Las 346 bajas en los accidentes recientes
    de dos aviones B-737
  • 5:37 - 5:40
    cuando los pilotos no podían
    interactuar adecuadamente
  • 5:40 - 5:43
    con un sistema de comando computarizado.
  • 5:44 - 5:46
    Para un exitoso 70 %, el primer paso
  • 5:46 - 5:51
    es asegurarse de que los algoritmos
    están codificados por científicos de datos
  • 5:51 - 5:53
    junto a expertos en dominios.
  • 5:53 - 5:56
    Tomen, por ejemplo,
    el cuidado de la salud.
  • 5:56 - 5:59
    Uno de nuestros equipos trabajó
    en un nuevo medicamento
  • 5:59 - 6:00
    con un pequeño problema
  • 6:01 - 6:02
    Al tomar la primera dosis,
  • 6:02 - 6:06
    algunos pacientes, muy pocos,
    tienen ataques al corazón
  • 6:06 - 6:09
    Entonces, todos los pacientes,
    cuando toman su primera dosis,
  • 6:09 - 6:12
    tienen que pasar un día en el hospital
  • 6:12 - 6:14
    para monitorización, por si acaso.
  • 6:15 - 6:20
    Nuestro objetivo era identificar pacientes
    que tenían cero riesgo de ataques,
  • 6:20 - 6:23
    que podrían pasar el día en el hospital.
  • 6:23 - 6:27
    Utilizamos la IA para analizar datos
    de ensayos clínicos,
  • 6:28 - 6:33
    para correlacionar la señal del ECG,
    composición sanguínea, biomarcadores,
  • 6:33 - 6:35
    con riesgo de infarto.
  • 6:35 - 6:37
    En un mes,
  • 6:37 - 6:43
    nuestro modelo podría marcar el 62 %
    de los pacientes con riesgo cero.
  • 6:43 - 6:45
    Podrían saltarse el día en el hospital.
  • 6:46 - 6:49
    ¿Estarían cómodos quedándose en casa
    para su primera dosis
  • 6:49 - 6:51
    si es que el algoritmo lo dijo?
  • 6:51 - 6:52
    (Risas)
  • 6:52 - 6:54
    Los médicos no.
  • 6:54 - 6:56
    ¿Y si tuviéramos falsos negativos,
  • 6:56 - 7:02
    es decir, personas a quienes les dice
    la AI pueden quedarse en casa y morir?
  • 7:02 - 7:03
    (Risas)
  • 7:03 - 7:05
    Ahí comenzó nuestro 70 %.
  • 7:05 - 7:07
    Trabajamos con un equipo de médicos
  • 7:07 - 7:11
    para verificar la lógica médica
    de cada variable en nuestro modelo.
  • 7:12 - 7:16
    Por ejemplo, estábamos usando
    la concentración de una enzima hepática
  • 7:16 - 7:17
    como predictor
  • 7:17 - 7:21
    lo cual para la lógica médica
    no era obvio.
  • 7:21 - 7:24
    La señal estadística fue bastante fuerte.
  • 7:24 - 7:27
    Pero ¿y si fue un sesgo
    en nuestra muestra?
  • 7:27 - 7:30
    Ese predictor fue sacado del modelo.
  • 7:30 - 7:34
    También sacamos predictores
    para los que los expertos nos dijeron
  • 7:34 - 7:38
    que no pueden medirse rigurosamente
    por médicos en la vida real.
  • 7:38 - 7:40
    Después de cuatro meses
  • 7:40 - 7:43
    teníamos un modelo y un protocolo médico.
  • 7:44 - 7:45
    Ambos fueron aprobados
  • 7:45 - 7:48
    por mis autoridades medicas
    en EE. UU. la primavera pasada,
  • 7:48 - 7:52
    resultando en mucho menos estrés
    para la mitad de los pacientes
  • 7:52 - 7:54
    y mejor calidad de vida.
  • 7:54 - 7:59
    Y un alza esperada en las ventas
    más de 100 millones para ese fármaco.
  • 8:00 - 8:04
    Invertir el 70 % entrelazando
    la IA con equipo y procesos
  • 8:04 - 8:07
    también significa
    construir interfaces potentes
  • 8:07 - 8:13
    para humanos y para la IA a fin de juntos
    resolver los problemas más difíciles.
  • 8:13 - 8:18
    Una vez, nos desafió un minorista de moda.
  • 8:19 - 8:22
    "Tenemos los mejores
    compradores del mundo.
  • 8:22 - 8:27
    ¿Podrías construir un motor de IA que
    los venciera al pronosticar las ventas?
  • 8:27 - 8:31
    ¿Decir cuántas camisas de hombre XL
    de gama alta, verde claro,
  • 8:31 - 8:33
    tenemos que comprar para el año que viene?
  • 8:33 - 8:36
    Predecir mejor lo que se venderá o no
  • 8:36 - 8:38
    que nuestros diseñadores".
  • 8:38 - 8:42
    Nuestro equipo entrenó un modelo en pocas
    semanas, en datos de ventas anteriores,
  • 8:42 - 8:46
    y se organizó la competencia
    con compradores humanos
  • 8:46 - 8:47
    ¿Resultado?
  • 8:48 - 8:53
    La IA gana, reduciendo los errores de
    pronóstico en un 25 %.
  • 8:54 - 8:56
    Los campeones del cero humanos
  • 8:56 - 8:59
    podrían haber intentado implementar
    este modelo inicial
  • 8:59 - 9:02
    y crear una pelea con todos
    los compradores humanos.
  • 9:02 - 9:03
    Que les vaya bien.
  • 9:03 - 9:08
    Pero sabíamos que los compradores humanos
    tenían ideas sobre tendencias de la moda
  • 9:08 - 9:11
    que no se pudieron encontrar
    en datos pasados.
  • 9:12 - 9:15
    Ahí comenzó nuestro 70 %.
  • 9:15 - 9:17
    Fuimos a una segunda prueba,
  • 9:17 - 9:20
    donde los compradores humanos
    estaban revisando cantidades
  • 9:20 - 9:21
    sugerida por IA
  • 9:21 - 9:24
    y podían corregirlos si fuera necesario.
  • 9:24 - 9:25
    ¿Resultado?
  • 9:26 - 9:28
    Humanos que usan IA...
  • 9:28 - 9:29
    pierde.
  • 9:30 - 9:34
    El 75 % de las correcciones
    hechas por un humano
  • 9:34 - 9:36
    estaban reduciendo la precisión.
  • 9:37 - 9:40
    ¿Era hora de deshacerse
    de los compradores humanos?
  • 9:40 - 9:41
    No.
  • 9:41 - 9:44
    Era hora de recrear un modelo.
  • 9:44 - 9:49
    donde los humanos no intentarían
    adivinar cuando la IA está mal,
  • 9:49 - 9:54
    sino donde la IA tomaría una entrada real
    de compradores humanos.
  • 9:55 - 9:57
    Reconstruimos completamente el modelo.
  • 9:57 - 10:03
    y nos alejamos de nuestra
    interfaz inicial, que era, más o menos,
  • 10:03 - 10:05
    "¡Oye, humano! Esto es lo que predije,
  • 10:05 - 10:07
    corrige lo que quieras"
  • 10:07 - 10:10
    y se mudó a uno mucho más rico, más como,
  • 10:10 - 10:12
    "¡Hola, humanos!
  • 10:12 - 10:14
    No sé las tendencias para el próximo año.
  • 10:14 - 10:17
    ¿Podrían compartir conmigo?
    sus mejores apuestas creativas?
  • 10:18 - 10:19
    "¡Hola, humanos!
  • 10:19 - 10:22
    Podrían ayudarme a cuantificar
    esos pocos artículos grandes?
  • 10:22 - 10:26
    No puedo encontrar buenos datos
    comparables en el pasado para ellos".
  • 10:26 - 10:28
    ¿Resultado?
  • 10:28 - 10:30
    "Humano más IA" gana,
  • 10:30 - 10:34
    reduciendo errores
    de pronóstico en un 50 %.
  • 10:36 - 10:39
    Se tardó un año
    en finalizar la herramienta.
  • 10:39 - 10:42
    Largo, costoso y difícil.
  • 10:43 - 10:45
    Pero las ganancias y beneficios
  • 10:45 - 10:51
    fueron más de 100 millones de ahorro
    por año para ese minorista.
  • 10:51 - 10:54
    El 70 % en temas muy delicados
  • 10:54 - 10:58
    también significa que los humanos tienen
    que decidir lo que está bien o mal
  • 10:58 - 11:02
    y definir reglas
    sobre lo que la IA puede o no hacer,
  • 11:02 - 11:06
    como establecer límites en precios para
    evitar que motores de fijación de precios
  • 11:06 - 11:10
    cobren precios escandalosamente altos
    a clientes sin educación
  • 11:10 - 11:12
    ¿Quién los aceptaría?
  • 11:13 - 11:15
    Solo los humanos
    pueden definir esos límites.
  • 11:15 - 11:19
    no hay manera de que la IA
    pueda encontrarlos en datos pasados.
  • 11:19 - 11:22
    Algunas situaciones están en la zona gris.
  • 11:22 - 11:25
    Trabajamos con una aseguradora de salud.
  • 11:25 - 11:30
    Desarrolló un motor de IA.
    para identificar, entre sus clientes,
  • 11:30 - 11:32
    personas que están a punto
    de ir al hospital
  • 11:32 - 11:34
    para venderles servicios premium.
  • 11:35 - 11:36
    Y el problema es que
  • 11:36 - 11:39
    algunos prospectos los llamó
    el equipo comercial
  • 11:39 - 11:42
    mientras aún no sabían
  • 11:42 - 11:45
    que tendrían que ir al hospital muy pronto
  • 11:46 - 11:48
    Eres el CEO de esta empresa.
  • 11:48 - 11:50
    ¿Paras ese programa?
  • 11:51 - 11:52
    No es una pregunta fácil.
  • 11:53 - 11:56
    Y para abordar esta pregunta,
    algunas compañías están formando equipos,
  • 11:56 - 12:02
    definen reglas y estándares éticos
    para ayudar a equipos empresariales
  • 12:02 - 12:06
    y tecnológicos a establecer límites
    entre personalización y manipulación,
  • 12:06 - 12:09
    personalización de ofertas
    y discriminación,
  • 12:09 - 12:11
    focalización e intrusión.
  • 12:13 - 12:16
    Estoy convencido de que en cada empresa,
  • 12:16 - 12:21
    aplicar IA donde realmente importa
    tiene una recuperación masiva.
  • 12:21 - 12:24
    Los líderes empresariales
    deben ser valientes
  • 12:24 - 12:26
    y seleccionar algunos temas,
  • 12:26 - 12:31
    y para cada uno de ellos, movilizar 10,
    20, 30 personas de sus mejores equipos,
  • 12:31 - 12:34
    tecnología, IA, ciencia de datos, ética,
  • 12:34 - 12:38
    e ir a través del ciclo completo
    10, 20 y 70 %
  • 12:38 - 12:40
    de "Humano más IA"
  • 12:40 - 12:44
    si quieren usar IA de manera efectiva
    en sus equipos y procesos.
  • 12:45 - 12:47
    No hay otra manera.
  • 12:47 - 12:52
    Ciudadanos en economías desarrolladas
    ya temen la algoritmocracia.
  • 12:52 - 12:56
    Siete mil fueron entrevistados
    en una encuesta reciente.
  • 12:56 - 13:00
    Más del 75 % expresó preocupaciones reales
  • 13:00 - 13:04
    sobre el impacto de la IA
    en la fuerza laboral, en la privacidad,
  • 13:04 - 13:07
    sobre el riesgo
    de una sociedad deshumanizada.
  • 13:07 - 13:13
    Empujar la algoritmocracia crea un riesgo
    real de reacción severa contra la IA
  • 13:13 - 13:17
    dentro de las empresas
    o en la sociedad en general.
  • 13:17 - 13:20
    "Humano más IA" es nuestra única opción
  • 13:20 - 13:23
    para traer los beneficios de la IA
    al mundo real
  • 13:24 - 13:25
    Y al fin,
  • 13:25 - 13:29
    las organizaciones ganadoras
    invertirán en conocimiento humano,
  • 13:29 - 13:32
    no solo en IA y en datos.
  • 13:33 - 13:36
    Reclutamiento, entrenamiento,
    recompensar a los expertos humanos.
  • 13:37 - 13:40
    Se dice que los datos
    son el nuevo petróleo,
  • 13:40 - 13:44
    pero créanme, el conocimiento humano
    marcará la diferencia
  • 13:44 - 13:48
    porque es la única torre
    de perforación disponible
  • 13:48 - 13:51
    para bombear
    el petróleo oculto en los datos.
  • 13:53 - 13:54
    Gracias.
  • 13:54 - 13:58
    (Aplausos)
Title:
Como los humanos y la IA pueden cooperar para crear mejores empresas
Speaker:
Sylvain Duranton
Description:

He aquí una paradoja: mientras las empresas intentan racionalizar sus negocios utilizando la inteligencia artificial (IA) para tomar decisiones críticas, pueden, inadvertidamente, hacerse menos eficientes. El tecnólogo de negocios Sylvain Duranton aboga por un enfoque "Humano más IA"—usando sistemas de IA junto con los humanos, no en lugar de ellos— y comparte la fórmula específica que las compañías pueden adoptar para emplear exitosamente la IA mientras mantienen a los humanos en el circuito.

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
14:10

Spanish subtitles

Revisions