Como los humanos y la IA pueden cooperar para crear mejores empresas
-
0:01 - 0:03Déjenme compartir una paradoja.
-
0:04 - 0:06Durante los últimos 10 años,
-
0:06 - 0:10muchas compañías han intentado
ser menos burocráticas, -
0:10 - 0:13tener menos reglas centrales
y procedimientos, -
0:13 - 0:16más autonomía para que
sus equipos locales sean más ágiles. -
0:16 - 0:21Y ahora están dando cuerda
a la inteligencia artificial, IA, -
0:21 - 0:23sin darse cuenta de que
esta genial tecnología -
0:23 - 0:27podría hacerlos
más burocráticos que nunca. -
0:27 - 0:29¿Por qué?
-
0:29 - 0:32Porque la IA opera
al igual que las burocracias. -
0:32 - 0:35La esencia de la burocracia
-
0:35 - 0:39es favorecer reglas y procedimientos
sobre el juicio humano. -
0:40 - 0:44Y la IA decide
únicamente según las reglas. -
0:44 - 0:47Muchas reglas inferidas de datos pasados,
-
0:47 - 0:49pero solo reglas.
-
0:49 - 0:53Y si no se involucra el juicio humano
-
0:53 - 0:58la AI traerá una forma aterradora
de nueva burocracia, -
0:58 - 1:01yo la llamo "algocracia"
-
1:01 - 1:05donde la IA tomará más y más
decisiones críticas basada en reglas -
1:05 - 1:07fuera de cualquier control humano.
-
1:08 - 1:10¿Existe un riesgo real?
-
1:11 - 1:12Sí.
-
1:12 - 1:15Lidero un equipo
de 800 especialistas en IA. -
1:15 - 1:19Hemos instalados
más de 100 soluciones de IA personalizadas -
1:19 - 1:21para grandes empresas de todo el mundo.
-
1:21 - 1:27Y veo demasiados ejecutivos corporativos
comportándose como burócratas del pasado. -
1:28 - 1:33Quieren sacar a humanos costosos
y anticuados del proceso -
1:33 - 1:37y confiar solo en la IA
en la toma de decisiones. -
1:37 - 1:41Yo llamo a esto
la "mentalidad de cero humanos". -
1:42 - 1:44¿Y por qué es eso tan tentador?
-
1:45 - 1:50Porque la otra ruta,
"Humano más IA" es larga, -
1:50 - 1:53costosa y difícil.
-
1:53 - 1:56Equipos de negocios, equipos tecnológicos,
equipos de ciencia de datos -
1:56 - 1:58tienen que interaccionar meses
-
1:58 - 2:04para encontrar cómo los humanos
y la IA pueden trabajar mejor juntos. -
2:04 - 2:08Largo, costoso y difícil.
-
2:08 - 2:10Pero la recompensa es enorme.
-
2:10 - 2:14Una encuesta reciente de BCG y MIT
-
2:14 - 2:18muestra que el 18 %
de empresas en el mundo -
2:18 - 2:20son pioneras en IA,
-
2:20 - 2:23haciendo dinero con eso.
-
2:23 - 2:29Esas compañías se enfocan
un 80 % de sus iniciativas de IA -
2:29 - 2:31en efectividad y crecimiento,
-
2:31 - 2:33tomando mejores decisiones
-
2:33 - 2:36no reemplazando humanos con IA
para ahorrar costos. -
2:38 - 2:41¿Por qué es importante
mantener a los humanos involucrados? -
2:42 - 2:47Simplemente porque, dejándola sola,
la IA puede hacer cosas muy tontas. -
2:47 - 2:51A veces sin consecuencias,
como en este tuit. -
2:51 - 2:53"Querida Amazon,
-
2:53 - 2:54compré un asiento de inodoro.
-
2:54 - 2:56Por necesidad, no por deseo.
-
2:56 - 2:57No los colecciono.
-
2:57 - 3:00No soy un adicto a los inodoros.
-
3:00 - 3:02No importa cuán tentador sea el correo,
-
3:02 - 3:04No voy a pensar, 'Oh, adelante, entonces,
-
3:04 - 3:06un asiento de inodoro más,
Trataré yo mismo". -
3:06 - 3:08(Risas)
-
3:08 - 3:12A veces, con más consecuencia,
como en este otro tuit. -
3:13 - 3:15"Tenía la misma situación
-
3:15 - 3:17con la urna funeraria de mi madre".
-
3:17 - 3:18(Risas)
-
3:18 - 3:20"Por meses tras su muerte,
-
3:20 - 3:23recibí mensajes de Amazon,
diciendo: 'Si te gustó eso...' ". -
3:23 - 3:25(Risas)
-
3:25 - 3:28A veces con peores consecuencias.
-
3:28 - 3:33Por ejemplo, una IA rechazando
una solicitud para la universidad. -
3:33 - 3:34¿Por qué?
-
3:34 - 3:36Porque ha "aprendido" de datos pasados,
-
3:36 - 3:40características de los estudiantes
este pasará y este fallará. -
3:40 - 3:42Algunos obvios,
como los exámenes de grado. -
3:42 - 3:47Pero si, en el pasado, los estudiantes
de un código postal dado han fallado, -
3:47 - 3:51es muy probable
que la IA hará de esto una regla -
3:51 - 3:55y rechazará a cada estudiante
con este código postal, -
3:55 - 3:59sin darle a nadie la oportunidad para
demostrar que la regla está equivocada. -
4:00 - 4:02Y nadie puede verificar todas las reglas,
-
4:02 - 4:06porque la IA avanzada
está constantemente aprendiendo. -
4:06 - 4:09Y si los humanos no están involucrados,
-
4:09 - 4:12llega la pesadilla algocrática.
-
4:12 - 4:15¿Quién es responsable?
de rechazar al estudiante? -
4:15 - 4:17Nadie, la AI lo hizo.
-
4:17 - 4:19¿Es justo? Sí.
-
4:19 - 4:22El mismo conjunto de reglas objetivas
se ha aplicado a todos. -
4:22 - 4:26¿Podríamos reconsiderar a este niño
brillante con el código postal incorrecto? -
4:27 - 4:30No, los algoritmos no cambian de opinión.
-
4:31 - 4:33Tenemos una opción aquí.
-
4:34 - 4:36Continuar con algoritmocracia
-
4:36 - 4:39o decidir ir a "Humano más IA".
-
4:39 - 4:41Y para hacer esto,
-
4:41 - 4:44primero tenemos
que dejar de pensar en tecnología -
4:44 - 4:48y debemos comenzar a aplicar
la fórmula secreta. -
4:49 - 4:51Para usar "Humano más IA"
-
4:51 - 4:54el 10 % del esfuerzo es
de codificar algoritmos; -
4:54 - 4:57el 20 % construir tecnología
alrededor de los algoritmos, -
4:57 - 5:01recolectando datos, construyendo IU,
integración en sistemas heredados; -
5:01 - 5:04pero el 70 %, la mayor parte del esfuerzo,
-
5:04 - 5:09se dedica a entrelazar
la AI con personas y procesos -
5:09 - 5:11para maximizar el resultado real.
-
5:12 - 5:17La IA falla cuando se corta en el 70 %.
-
5:17 - 5:20El precio para eso puede ser pequeño,
-
5:20 - 5:24desperdiciando muchos, muchos millones
de dólares en tecnología inútil. -
5:24 - 5:25¿A alguien le importa?
-
5:26 - 5:28O tragedias reales:
-
5:29 - 5:37Las 346 bajas en los accidentes recientes
de dos aviones B-737 -
5:37 - 5:40cuando los pilotos no podían
interactuar adecuadamente -
5:40 - 5:43con un sistema de comando computarizado.
-
5:44 - 5:46Para un exitoso 70 %, el primer paso
-
5:46 - 5:51es asegurarse de que los algoritmos
están codificados por científicos de datos -
5:51 - 5:53junto a expertos en dominios.
-
5:53 - 5:56Tomen, por ejemplo,
el cuidado de la salud. -
5:56 - 5:59Uno de nuestros equipos trabajó
en un nuevo medicamento -
5:59 - 6:00con un pequeño problema
-
6:01 - 6:02Al tomar la primera dosis,
-
6:02 - 6:06algunos pacientes, muy pocos,
tienen ataques al corazón -
6:06 - 6:09Entonces, todos los pacientes,
cuando toman su primera dosis, -
6:09 - 6:12tienen que pasar un día en el hospital
-
6:12 - 6:14para monitorización, por si acaso.
-
6:15 - 6:20Nuestro objetivo era identificar pacientes
que tenían cero riesgo de ataques, -
6:20 - 6:23que podrían pasar el día en el hospital.
-
6:23 - 6:27Utilizamos la IA para analizar datos
de ensayos clínicos, -
6:28 - 6:33para correlacionar la señal del ECG,
composición sanguínea, biomarcadores, -
6:33 - 6:35con riesgo de infarto.
-
6:35 - 6:37En un mes,
-
6:37 - 6:43nuestro modelo podría marcar el 62 %
de los pacientes con riesgo cero. -
6:43 - 6:45Podrían saltarse el día en el hospital.
-
6:46 - 6:49¿Estarían cómodos quedándose en casa
para su primera dosis -
6:49 - 6:51si es que el algoritmo lo dijo?
-
6:51 - 6:52(Risas)
-
6:52 - 6:54Los médicos no.
-
6:54 - 6:56¿Y si tuviéramos falsos negativos,
-
6:56 - 7:02es decir, personas a quienes les dice
la AI pueden quedarse en casa y morir? -
7:02 - 7:03(Risas)
-
7:03 - 7:05Ahí comenzó nuestro 70 %.
-
7:05 - 7:07Trabajamos con un equipo de médicos
-
7:07 - 7:11para verificar la lógica médica
de cada variable en nuestro modelo. -
7:12 - 7:16Por ejemplo, estábamos usando
la concentración de una enzima hepática -
7:16 - 7:17como predictor
-
7:17 - 7:21lo cual para la lógica médica
no era obvio. -
7:21 - 7:24La señal estadística fue bastante fuerte.
-
7:24 - 7:27Pero ¿y si fue un sesgo
en nuestra muestra? -
7:27 - 7:30Ese predictor fue sacado del modelo.
-
7:30 - 7:34También sacamos predictores
para los que los expertos nos dijeron -
7:34 - 7:38que no pueden medirse rigurosamente
por médicos en la vida real. -
7:38 - 7:40Después de cuatro meses
-
7:40 - 7:43teníamos un modelo y un protocolo médico.
-
7:44 - 7:45Ambos fueron aprobados
-
7:45 - 7:48por mis autoridades medicas
en EE. UU. la primavera pasada, -
7:48 - 7:52resultando en mucho menos estrés
para la mitad de los pacientes -
7:52 - 7:54y mejor calidad de vida.
-
7:54 - 7:59Y un alza esperada en las ventas
más de 100 millones para ese fármaco. -
8:00 - 8:04Invertir el 70 % entrelazando
la IA con equipo y procesos -
8:04 - 8:07también significa
construir interfaces potentes -
8:07 - 8:13para humanos y para la IA a fin de juntos
resolver los problemas más difíciles. -
8:13 - 8:18Una vez, nos desafió un minorista de moda.
-
8:19 - 8:22"Tenemos los mejores
compradores del mundo. -
8:22 - 8:27¿Podrías construir un motor de IA que
los venciera al pronosticar las ventas? -
8:27 - 8:31¿Decir cuántas camisas de hombre XL
de gama alta, verde claro, -
8:31 - 8:33tenemos que comprar para el año que viene?
-
8:33 - 8:36Predecir mejor lo que se venderá o no
-
8:36 - 8:38que nuestros diseñadores".
-
8:38 - 8:42Nuestro equipo entrenó un modelo en pocas
semanas, en datos de ventas anteriores, -
8:42 - 8:46y se organizó la competencia
con compradores humanos -
8:46 - 8:47¿Resultado?
-
8:48 - 8:53La IA gana, reduciendo los errores de
pronóstico en un 25 %. -
8:54 - 8:56Los campeones del cero humanos
-
8:56 - 8:59podrían haber intentado implementar
este modelo inicial -
8:59 - 9:02y crear una pelea con todos
los compradores humanos. -
9:02 - 9:03Que les vaya bien.
-
9:03 - 9:08Pero sabíamos que los compradores humanos
tenían ideas sobre tendencias de la moda -
9:08 - 9:11que no se pudieron encontrar
en datos pasados. -
9:12 - 9:15Ahí comenzó nuestro 70 %.
-
9:15 - 9:17Fuimos a una segunda prueba,
-
9:17 - 9:20donde los compradores humanos
estaban revisando cantidades -
9:20 - 9:21sugerida por IA
-
9:21 - 9:24y podían corregirlos si fuera necesario.
-
9:24 - 9:25¿Resultado?
-
9:26 - 9:28Humanos que usan IA...
-
9:28 - 9:29pierde.
-
9:30 - 9:34El 75 % de las correcciones
hechas por un humano -
9:34 - 9:36estaban reduciendo la precisión.
-
9:37 - 9:40¿Era hora de deshacerse
de los compradores humanos? -
9:40 - 9:41No.
-
9:41 - 9:44Era hora de recrear un modelo.
-
9:44 - 9:49donde los humanos no intentarían
adivinar cuando la IA está mal, -
9:49 - 9:54sino donde la IA tomaría una entrada real
de compradores humanos. -
9:55 - 9:57Reconstruimos completamente el modelo.
-
9:57 - 10:03y nos alejamos de nuestra
interfaz inicial, que era, más o menos, -
10:03 - 10:05"¡Oye, humano! Esto es lo que predije,
-
10:05 - 10:07corrige lo que quieras"
-
10:07 - 10:10y se mudó a uno mucho más rico, más como,
-
10:10 - 10:12"¡Hola, humanos!
-
10:12 - 10:14No sé las tendencias para el próximo año.
-
10:14 - 10:17¿Podrían compartir conmigo?
sus mejores apuestas creativas? -
10:18 - 10:19"¡Hola, humanos!
-
10:19 - 10:22Podrían ayudarme a cuantificar
esos pocos artículos grandes? -
10:22 - 10:26No puedo encontrar buenos datos
comparables en el pasado para ellos". -
10:26 - 10:28¿Resultado?
-
10:28 - 10:30"Humano más IA" gana,
-
10:30 - 10:34reduciendo errores
de pronóstico en un 50 %. -
10:36 - 10:39Se tardó un año
en finalizar la herramienta. -
10:39 - 10:42Largo, costoso y difícil.
-
10:43 - 10:45Pero las ganancias y beneficios
-
10:45 - 10:51fueron más de 100 millones de ahorro
por año para ese minorista. -
10:51 - 10:54El 70 % en temas muy delicados
-
10:54 - 10:58también significa que los humanos tienen
que decidir lo que está bien o mal -
10:58 - 11:02y definir reglas
sobre lo que la IA puede o no hacer, -
11:02 - 11:06como establecer límites en precios para
evitar que motores de fijación de precios -
11:06 - 11:10cobren precios escandalosamente altos
a clientes sin educación -
11:10 - 11:12¿Quién los aceptaría?
-
11:13 - 11:15Solo los humanos
pueden definir esos límites. -
11:15 - 11:19no hay manera de que la IA
pueda encontrarlos en datos pasados. -
11:19 - 11:22Algunas situaciones están en la zona gris.
-
11:22 - 11:25Trabajamos con una aseguradora de salud.
-
11:25 - 11:30Desarrolló un motor de IA.
para identificar, entre sus clientes, -
11:30 - 11:32personas que están a punto
de ir al hospital -
11:32 - 11:34para venderles servicios premium.
-
11:35 - 11:36Y el problema es que
-
11:36 - 11:39algunos prospectos los llamó
el equipo comercial -
11:39 - 11:42mientras aún no sabían
-
11:42 - 11:45que tendrían que ir al hospital muy pronto
-
11:46 - 11:48Eres el CEO de esta empresa.
-
11:48 - 11:50¿Paras ese programa?
-
11:51 - 11:52No es una pregunta fácil.
-
11:53 - 11:56Y para abordar esta pregunta,
algunas compañías están formando equipos, -
11:56 - 12:02definen reglas y estándares éticos
para ayudar a equipos empresariales -
12:02 - 12:06y tecnológicos a establecer límites
entre personalización y manipulación, -
12:06 - 12:09personalización de ofertas
y discriminación, -
12:09 - 12:11focalización e intrusión.
-
12:13 - 12:16Estoy convencido de que en cada empresa,
-
12:16 - 12:21aplicar IA donde realmente importa
tiene una recuperación masiva. -
12:21 - 12:24Los líderes empresariales
deben ser valientes -
12:24 - 12:26y seleccionar algunos temas,
-
12:26 - 12:31y para cada uno de ellos, movilizar 10,
20, 30 personas de sus mejores equipos, -
12:31 - 12:34tecnología, IA, ciencia de datos, ética,
-
12:34 - 12:38e ir a través del ciclo completo
10, 20 y 70 % -
12:38 - 12:40de "Humano más IA"
-
12:40 - 12:44si quieren usar IA de manera efectiva
en sus equipos y procesos. -
12:45 - 12:47No hay otra manera.
-
12:47 - 12:52Ciudadanos en economías desarrolladas
ya temen la algoritmocracia. -
12:52 - 12:56Siete mil fueron entrevistados
en una encuesta reciente. -
12:56 - 13:00Más del 75 % expresó preocupaciones reales
-
13:00 - 13:04sobre el impacto de la IA
en la fuerza laboral, en la privacidad, -
13:04 - 13:07sobre el riesgo
de una sociedad deshumanizada. -
13:07 - 13:13Empujar la algoritmocracia crea un riesgo
real de reacción severa contra la IA -
13:13 - 13:17dentro de las empresas
o en la sociedad en general. -
13:17 - 13:20"Humano más IA" es nuestra única opción
-
13:20 - 13:23para traer los beneficios de la IA
al mundo real -
13:24 - 13:25Y al fin,
-
13:25 - 13:29las organizaciones ganadoras
invertirán en conocimiento humano, -
13:29 - 13:32no solo en IA y en datos.
-
13:33 - 13:36Reclutamiento, entrenamiento,
recompensar a los expertos humanos. -
13:37 - 13:40Se dice que los datos
son el nuevo petróleo, -
13:40 - 13:44pero créanme, el conocimiento humano
marcará la diferencia -
13:44 - 13:48porque es la única torre
de perforación disponible -
13:48 - 13:51para bombear
el petróleo oculto en los datos. -
13:53 - 13:54Gracias.
-
13:54 - 13:58(Aplausos)
- Title:
- Como los humanos y la IA pueden cooperar para crear mejores empresas
- Speaker:
- Sylvain Duranton
- Description:
-
He aquí una paradoja: mientras las empresas intentan racionalizar sus negocios utilizando la inteligencia artificial (IA) para tomar decisiones críticas, pueden, inadvertidamente, hacerse menos eficientes. El tecnólogo de negocios Sylvain Duranton aboga por un enfoque "Humano más IA"—usando sistemas de IA junto con los humanos, no en lugar de ellos— y comparte la fórmula específica que las compañías pueden adoptar para emplear exitosamente la IA mientras mantienen a los humanos en el circuito.
- Video Language:
- English
- Team:
closed TED
- Project:
- TEDTalks
- Duration:
- 14:10
![]() |
Lidia Cámara de la Fuente approved Spanish subtitles for How humans and AI can work together to create better businesses | |
![]() |
Lidia Cámara de la Fuente accepted Spanish subtitles for How humans and AI can work together to create better businesses | |
![]() |
Lidia Cámara de la Fuente edited Spanish subtitles for How humans and AI can work together to create better businesses | |
![]() |
Lidia Cámara de la Fuente edited Spanish subtitles for How humans and AI can work together to create better businesses | |
![]() |
Ciro Gomez edited Spanish subtitles for How humans and AI can work together to create better businesses | |
![]() |
Ciro Gomez edited Spanish subtitles for How humans and AI can work together to create better businesses | |
![]() |
Ciro Gomez edited Spanish subtitles for How humans and AI can work together to create better businesses | |
![]() |
Ciro Gomez edited Spanish subtitles for How humans and AI can work together to create better businesses |