0:00:00.865,0:00:02.992 Permitam-me compartilhar um paradoxo. 0:00:04.429,0:00:05.896 Nos últimos dez anos, 0:00:05.920,0:00:09.768 muitas empresas vêm tentando[br]se tornar menos burocráticas, 0:00:09.792,0:00:12.625 ter menos procedimentos[br]e regras principais, 0:00:12.649,0:00:15.894 mais autonomia para que[br]suas equipes locais sejam mais ágeis. 0:00:16.204,0:00:20.790 Agora estão pressionando[br]a inteligência artificial, IA, 0:00:20.814,0:00:23.259 sem saber que essa tecnologia legal 0:00:23.283,0:00:26.885 pode torná-las mais[br]burocráticas do que nunca. 0:00:27.378,0:00:28.529 Por quê? 0:00:28.553,0:00:32.045 Porque a IA funciona como as burocracias. 0:00:32.403,0:00:34.815 A essência da burocracia 0:00:34.839,0:00:39.283 é favorecer regras e procedimentos[br]mais que o julgamento humano. 0:00:39.887,0:00:43.728 A IA decide apenas com base em regras, 0:00:44.062,0:00:46.895 muitas delas deduzidas[br]a partir de dados anteriores, 0:00:46.919,0:00:48.823 mas apenas em regras. 0:00:49.204,0:00:52.934 Se o julgamento humano[br]não for mantido nesse processo, 0:00:52.958,0:00:57.514 a IA trará uma forma aterrorizante[br]de nova burocracia, 0:00:57.538,0:01:00.537 que chamo de "algocracia", 0:01:00.561,0:01:05.061 na qual a IA tomará decisões[br]cada vez mais críticas segundo as regras 0:01:05.085,0:01:07.402 fora de qualquer controle humano. 0:01:08.427,0:01:10.101 Existe um risco real? 0:01:10.514,0:01:11.512 Sim. 0:01:11.538,0:01:14.694 Lidero uma equipe[br]de 800 especialistas em IA. 0:01:14.718,0:01:18.575 Implementamos mais de 100[br]soluções de IA personalizadas 0:01:18.599,0:01:21.066 para grandes empresas em todo o mundo. 0:01:21.417,0:01:27.236 Vejo muitos executivos de empresas[br]se comportando como burocratas do passado. 0:01:27.784,0:01:32.696 Eles querem tirar pessoas[br]dispendiosas e antiquadas do processo 0:01:32.720,0:01:36.585 e confiar apenas na IA[br]para tomar decisões. 0:01:37.244,0:01:41.657 Chamo isso de "mentalidade sem pessoas". 0:01:42.260,0:01:44.378 Por que é tão tentador? 0:01:44.879,0:01:50.283 Porque o outro caminho,[br]"Pessoas mais IA", é longo, 0:01:50.307,0:01:52.916 dispendioso e difícil. 0:01:52.940,0:01:56.233 Equipes de negócios, de tecnologia[br]e de ciência de dados 0:01:56.257,0:01:58.336 precisam repetir um processo por meses 0:01:58.360,0:02:03.628 para criar exatamente um modo como pessoas[br]e IA possam trabalhar melhor juntas. 0:02:04.160,0:02:07.588 Longo, dispendioso e difícil. 0:02:07.891,0:02:09.961 Mas a recompensa é enorme. 0:02:10.343,0:02:13.649 Uma pesquisa recente do BCG e do MIT 0:02:13.673,0:02:18.180 mostra que 18% das empresas do mundo 0:02:18.204,0:02:20.418 são pioneiras em IA, 0:02:20.442,0:02:22.743 ganhando dinheiro com ela. 0:02:23.157,0:02:28.747 Essas empresas concentram[br]80% de suas iniciativas de IA 0:02:28.771,0:02:30.724 em eficácia e crescimento, 0:02:30.748,0:02:32.918 tomando melhores decisões 0:02:32.942,0:02:36.480 sem substituir pessoas por IA[br]para economizar custos. 0:02:38.159,0:02:41.359 Por que é importante[br]manter as pessoas nesse processo? 0:02:42.032,0:02:46.879 Simplesmente porque, sozinha,[br]a IA pode fazer coisas muito idiotas. 0:02:47.363,0:02:50.736 Às vezes, sem consequências,[br]como nesta mensagem: 0:02:51.212,0:02:52.776 "Prezada Amazon, 0:02:52.800,0:02:55.866 comprei um assento sanitário,[br]por necessidade, não por vontade. 0:02:55.895,0:02:59.577 Não os coleciono, nem sou viciado[br]em assentos sanitários. 0:02:59.603,0:03:01.839 Não importa o quão tentador é esse e-mail, 0:03:01.863,0:03:02.932 não vou pensar: 0:03:02.956,0:03:06.376 'Ah, tudo bem, vou me presentear[br]com mais um assento'". 0:03:06.400,0:03:07.744 (Risos) 0:03:07.768,0:03:12.386 Às vezes, com mais consequências,[br]como nesta outra mensagem: 0:03:12.903,0:03:17.180 "Passei pela mesma situação[br]com a urna para cinzas de minha mãe". 0:03:17.197,0:03:18.195 (Risos) 0:03:18.219,0:03:19.604 "Por meses após a morte dela, 0:03:19.628,0:03:23.166 recebi mensagens da Amazon[br]dizendo: 'Se você gostou...'" 0:03:23.190,0:03:25.205 (Risos) 0:03:25.229,0:03:27.757 Às vezes, com consequências piores. 0:03:27.781,0:03:32.511 Vamos considerar que a IA rejeite[br]a inscrição de um aluno para a faculdade. 0:03:32.535,0:03:33.539 Por quê? 0:03:33.559,0:03:36.379 Porque ela "aprendeu",[br]por dados anteriores, 0:03:36.403,0:03:39.585 características de alunos[br]que serão aprovados e reprovados. 0:03:39.609,0:03:41.712 Alguns são óbvios,[br]como notas do vestibular. 0:03:42.069,0:03:47.178 Mas se, no passado, todos os alunos[br]de um determinado local foram reprovados, 0:03:47.202,0:03:50.734 é muito provável[br]que a IA torne isso uma regra 0:03:50.758,0:03:54.528 e rejeite todos os alunos desse local, 0:03:54.552,0:03:59.365 sem dar a ninguém a chance de provar[br]que a regra está errada. 0:03:59.857,0:04:02.373 Ninguém pode verificar todas as regras, 0:04:02.397,0:04:05.849 porque a IA avançada[br]está aprendendo constantemente. 0:04:06.307,0:04:08.633 Se as pessoas forem deixadas de fora, 0:04:08.657,0:04:11.934 vem o pesadelo "algocrático". 0:04:12.466,0:04:15.323 Quem é responsável por rejeitar o aluno? 0:04:15.347,0:04:16.990 Ninguém, a IA rejeitou. 0:04:17.014,0:04:18.688 É justo? Sim. 0:04:18.712,0:04:21.954 O mesmo conjunto de regras objetivas[br]foi aplicado a todos. 0:04:22.367,0:04:26.269 Conseguiríamos reconsiderar[br]esse garoto genial do local errado? 0:04:26.899,0:04:30.010 Não, os algoritmos não mudam de ideia. 0:04:30.974,0:04:32.990 Temos uma escolha aqui: 0:04:33.756,0:04:36.280 continuar com a algocracia 0:04:36.304,0:04:39.169 ou decidir por "Pessoas mais IA". 0:04:39.193,0:04:40.526 Para isso, 0:04:40.550,0:04:43.990 precisamos parar de pensar[br]primeiro na tecnologia 0:04:44.014,0:04:47.846 e começar a aplicar a fórmula secreta. 0:04:48.601,0:04:50.704 Para implantar "Pessoas mais IA", 0:04:50.728,0:04:53.649 10% do esforço[br]é para codificar algoritmos; 0:04:53.673,0:04:57.204 20% para criar tecnologia[br]em torno dos algoritmos, 0:04:57.228,0:05:01.334 coletar dados, criar interface do usuário,[br]integrar-se a sistemas legados; 0:05:01.358,0:05:04.262 mas 70%, a maior parte do esforço, 0:05:04.286,0:05:08.762 consiste em combinar IA[br]com pessoas e processos 0:05:08.786,0:05:11.160 para maximizar resultados reais. 0:05:12.136,0:05:16.770 A IA fracassa ao reduzir os 70%. 0:05:16.794,0:05:19.953 O preço disso pode ser pequeno, 0:05:19.977,0:05:23.962 desperdiçando muitos milhões[br]de dólares em tecnologia inútil. 0:05:23.986,0:05:25.236 Alguém se importa? 0:05:26.153,0:05:28.478 Ou tragédias reais: 0:05:29.137,0:05:32.356 346 vítimas 0:05:32.376,0:05:36.756 dos acidentes recentes[br]de 2 aeronaves B-737, 0:05:36.776,0:05:40.037 em que os pilotos não conseguiram[br]interagir adequadamente 0:05:40.061,0:05:42.528 com um sistema de comando computadorizado. 0:05:43.974,0:05:45.768 Para 70% de sucesso, 0:05:45.792,0:05:49.281 o primeiro passo é garantir[br]que os algoritmos sejam codificados 0:05:49.301,0:05:53.029 por cientistas de dados[br]e especialistas no assunto juntos. 0:05:53.427,0:05:55.625 Considerem, por exemplo,[br]a assistência médica. 0:05:55.649,0:05:58.254 Uma de nossas equipes[br]trabalhou em um novo medicamento 0:05:58.274,0:06:00.586 que apresentava um pequeno problema. 0:06:00.784,0:06:02.283 Ao tomar a primeira dose, 0:06:02.307,0:06:05.791 alguns pacientes, muito poucos,[br]têm ataques cardíacos. 0:06:06.117,0:06:09.252 Assim, todos os pacientes,[br]quando tomam a primeira dose, 0:06:09.276,0:06:11.958 precisam passar um dia no hospital, 0:06:11.982,0:06:14.053 para monitoramento, apenas por precaução. 0:06:14.613,0:06:20.169 Nosso objetivo era identificar pacientes[br]com risco zero de ataques cardíacos, 0:06:20.193,0:06:22.526 que não precisariam[br]passar o dia no hospital. 0:06:22.962,0:06:27.131 Utilizamos a IA para analisar[br]dados de ensaios clínicos, 0:06:28.145,0:06:32.513 para correlacionar eletrocardiograma,[br]composição sanguínea, biomarcadores, 0:06:32.537,0:06:34.747 com o risco de ataque cardíaco. 0:06:35.232,0:06:36.506 Em um mês, 0:06:36.530,0:06:42.561 nosso modelo conseguiu sinalizar[br]62% de pacientes com risco zero. 0:06:42.887,0:06:45.109 Eles não precisariam[br]passar o dia no hospital. 0:06:45.863,0:06:49.355 Vocês ficariam à vontade em casa[br]para sua primeira dose 0:06:49.379,0:06:50.903 se o algoritmo dissesse isso? 0:06:50.927,0:06:51.942 (Risos) 0:06:51.966,0:06:53.616 Os médicos não ficaram. 0:06:53.966,0:06:56.268 E se tivéssemos falsos negativos, 0:06:56.292,0:07:01.521 ou seja, pessoas que a IA[br]permite ficar em casa e que morrem? 0:07:01.545,0:07:02.910 (Risos) 0:07:02.934,0:07:05.386 Nossos 70% começavam por aí. 0:07:05.410,0:07:07.402 Trabalhamos com uma equipe de médicos 0:07:07.426,0:07:11.225 para verificar a lógica médica[br]de cada variável de nosso modelo. 0:07:11.537,0:07:16.106 Por exemplo, usamos a concentração[br]de uma enzima hepática 0:07:16.130,0:07:17.403 como um indicador, 0:07:17.427,0:07:21.125 para o qual a lógica médica não era óbvia. 0:07:21.149,0:07:23.925 O sinal estatístico era bastante forte. 0:07:24.300,0:07:27.133 Mas e se fosse um viés em nossa amostra? 0:07:27.157,0:07:29.957 Esse indicador foi retirado do modelo. 0:07:30.307,0:07:33.752 Também retiramos indicadores[br]para os quais os especialistas disseram 0:07:33.776,0:07:37.712 que não podem ser rigorosamente medidos[br]por médicos na vida real. 0:07:38.371,0:07:40.061 Após quatro meses, 0:07:40.085,0:07:43.156 tínhamos um modelo e um protocolo médico. 0:07:43.514,0:07:45.180 Ambos foram aprovados 0:07:45.204,0:07:48.426 por autoridades médicas dos EUA[br]na primavera passada, 0:07:48.450,0:07:52.156 resultando em muito menos estresse[br]para metade dos pacientes, 0:07:52.180,0:07:53.980 melhor qualidade de vida 0:07:54.355,0:07:56.254 e um aumento esperado nas vendas 0:07:56.276,0:07:58.636 acima de 100 milhões[br]para esse medicamento. 0:07:59.668,0:08:03.866 Setenta por cento combinando IA[br]com equipe e processos 0:08:03.890,0:08:07.461 também significa construir[br]interfaces poderosas 0:08:07.485,0:08:12.794 para pessoas e IA resolverem juntas[br]os problemas mais difíceis. 0:08:13.286,0:08:17.921 Uma vez, fomos desafiados[br]por uma loja de roupas. 0:08:19.143,0:08:21.641 "Temos os melhores compradores do mundo. 0:08:21.665,0:08:26.776 Você poderia criar um mecanismo de IA[br]que os superasse em prever vendas? 0:08:26.800,0:08:30.970 Em informar quantas camisas masculinas GG[br]verde-claras de alta qualidade 0:08:30.990,0:08:33.037 precisamos comprar para o ano seguinte? 0:08:33.061,0:08:35.871 Em prever melhor o que venderá ou não 0:08:35.895,0:08:37.705 do que nossos estilistas?" 0:08:38.434,0:08:40.724 Nossa equipe treinou um modelo[br]em poucas semanas, 0:08:40.744,0:08:42.414 com dados de vendas anteriores, 0:08:42.434,0:08:45.967 e a competição foi organizada[br]com compradores humanos. 0:08:46.347,0:08:47.497 O resultado? 0:08:48.061,0:08:52.743 A IA vence, reduzindo[br]erros de previsão em 25%. 0:08:53.903,0:08:58.736 Campeões sem pessoas poderiam ter[br]tentado implementar esse modelo inicial 0:08:58.760,0:09:01.514 e criar uma briga com todos[br]os compradores humanos. 0:09:01.538,0:09:02.688 Divirtam-se. 0:09:03.205,0:09:04.735 Mas sabíamos 0:09:04.764,0:09:08.335 da percepção de compradores humanos[br]sobre tendências da moda, 0:09:08.355,0:09:11.200 que não poderia ser encontrada[br]em dados anteriores. 0:09:11.701,0:09:14.558 Nossos 70% começavam por aí. 0:09:14.582,0:09:16.526 Fizemos um segundo teste, 0:09:16.550,0:09:19.653 em que compradores humanos[br]reviam quantidades, 0:09:19.677,0:09:21.339 sugeridas pela IA, 0:09:21.363,0:09:23.688 e poderiam corrigi-las se necessário. 0:09:24.180,0:09:25.330 O resultado? 0:09:25.704,0:09:27.821 Pessoas usando IA... 0:09:27.845,0:09:29.252 perde. 0:09:29.795,0:09:33.946 Setenta e cinco por cento[br]das correções feitas por uma pessoa 0:09:33.970,0:09:36.025 reduziram a precisão. 0:09:37.002,0:09:40.176 Era hora de se livrar[br]de compradores humanos? 0:09:40.200,0:09:41.358 Não. 0:09:41.382,0:09:43.999 Estava na hora de recriar um modelo 0:09:44.023,0:09:49.094 em que as pessoas não tentassem[br]adivinhar quando a IA estava errada, 0:09:49.118,0:09:53.660 mas em que a IA recebesse[br]informações reais de compradores humanos. 0:09:54.962,0:09:56.573 Reconstruímos totalmente o modelo 0:09:56.597,0:09:59.285 e nos afastamos[br]de nossa interface inicial, 0:09:59.305,0:10:01.805 que era mais ou menos: 0:10:02.585,0:10:05.022 "Ei, pessoas! É isso que prevejo, 0:10:05.046,0:10:06.807 corrijam o que quiserem", 0:10:06.831,0:10:10.467 e passamos para uma interface[br]muito mais rica, mais como: 0:10:10.491,0:10:12.337 "Ei, pessoas! 0:10:12.361,0:10:14.316 Não conheço as tendências do próximo ano. 0:10:14.340,0:10:17.296 Poderiam compartilhar comigo[br]suas apostas mais criativas?" 0:10:18.063,0:10:19.449 "Ei, pessoas! 0:10:19.473,0:10:22.282 Poderiam me ajudar a quantificar[br]esses poucos grandes itens? 0:10:22.306,0:10:25.623 Não consegui encontrar um bom[br]comparativo no passado para eles." 0:10:26.401,0:10:27.551 O resultado? 0:10:28.195,0:10:30.195 "Pessoas mais IA" vence, 0:10:30.219,0:10:34.138 reduzindo erros de previsão em 50%. 0:10:35.770,0:10:38.728 Levou um ano para finalizar a ferramenta. 0:10:39.073,0:10:42.390 Longo, dispendioso e difícil. 0:10:43.046,0:10:45.252 Mas os lucros e os benefícios 0:10:45.276,0:10:50.616 excederam 100 milhões[br]de economia por ano para essa loja. 0:10:51.459,0:10:54.395 Setenta por cento[br]em assuntos muito confidenciais 0:10:54.419,0:10:58.197 também significam que as pessoas[br]precisam decidir o que é certo ou errado 0:10:58.221,0:11:02.307 e definir regras para o que a IA[br]pode fazer ou não, 0:11:02.331,0:11:05.815 como estabelecer limites de preços[br]para impedir mecanismos de precificação 0:11:05.839,0:11:10.363 de cobrar preços absurdamente altos[br]para clientes sem instrução 0:11:10.387,0:11:11.853 que os aceitariam. 0:11:12.538,0:11:15.101 Somente as pessoas[br]sabem definir esses limites. 0:11:15.125,0:11:18.365 A IA não consegue encontrá-los[br]em dados anteriores. 0:11:19.230,0:11:21.817 Algumas situações se encontram[br]na região intermediária. 0:11:22.135,0:11:24.880 Trabalhamos com um plano de saúde 0:11:24.904,0:11:29.617 que desenvolveu um mecanismo de IA[br]para identificar, entre seus clientes, 0:11:29.641,0:11:32.189 pessoas que estão prestes[br]a serem internadas 0:11:32.213,0:11:34.482 para lhes vender serviços diferenciados. 0:11:34.506,0:11:39.021 O problema é que prováveis clientes[br]foram contatados pela equipe comercial 0:11:39.038,0:11:41.735 embora ainda não soubessem 0:11:41.759,0:11:44.697 que seriam internados em breve. 0:11:45.720,0:11:48.037 Você é o CEO dessa empresa. 0:11:48.061,0:11:49.898 Você interromperia esse programa? 0:11:50.577,0:11:52.490 Não é uma pergunta fácil. 0:11:52.514,0:11:56.077 Para resolver essa questão,[br]algumas empresas criam equipes, 0:11:56.101,0:11:58.418 definem regras e padrões éticos 0:11:58.438,0:12:01.898 para ajudar equipes de tecnologia[br]e negócios a estabelecerem limites 0:12:01.918,0:12:05.514 entre personalização e manipulação, 0:12:05.538,0:12:08.507 personalização de ofertas e discriminação, 0:12:08.531,0:12:10.654 segmentação e invasão. 0:12:12.562,0:12:16.236 Estou convencido[br]de que, em todas as empresas, 0:12:16.260,0:12:20.910 utilizar a IA onde realmente importa[br]oferece um enorme retorno financeiro. 0:12:21.474,0:12:23.625 Líderes de negócios precisam ser ousados 0:12:23.649,0:12:25.625 e selecionar alguns assuntos 0:12:25.649,0:12:30.585 e, para cada um deles, mobilizar 10, 20,[br]30 pessoas de suas melhores equipes, 0:12:30.609,0:12:33.942 de tecnologia, IA,[br]ciência de dados e ética, 0:12:33.966,0:12:38.387 e passar pelo ciclo completo[br]de 10, 20, 70% 0:12:38.411,0:12:40.133 de "Pessoas mais IA", 0:12:40.157,0:12:44.497 se quiserem colocar a IA efetivamente[br]em suas equipes e processos. 0:12:45.006,0:12:46.895 Não há outra maneira. 0:12:46.919,0:12:51.863 Cidadãos de economias desenvolvidas[br]já temem a algocracia. 0:12:52.196,0:12:55.897 Sete mil foram entrevistados[br]em uma pesquisa recente. 0:12:56.157,0:12:59.712 Mais de 75% expressaram preocupações reais 0:12:59.736,0:13:03.673 sobre o impacto da IA[br]na força de trabalho, na privacidade 0:13:03.697,0:13:06.643 e no risco de uma sociedade desumanizada. 0:13:07.157,0:13:12.537 Pressionar a algocracia cria um risco real[br]de reação grave contra a IA 0:13:12.561,0:13:16.664 nas empresas ou na sociedade em geral. 0:13:17.014,0:13:20.299 "Pessoas mais IA" é nossa única opção 0:13:20.323,0:13:23.457 para trazer os benefícios da IA[br]para o mundo real. 0:13:24.038,0:13:29.356 No final, as organizações vencedoras[br]investirão em conhecimento humano, 0:13:29.378,0:13:31.703 não apenas em IA e dados. 0:13:32.792,0:13:36.241 Recrutando, treinando,[br]recompensando especialistas humanos. 0:13:36.800,0:13:39.942 Dizem que os dados são o novo petróleo, 0:13:39.966,0:13:44.037 mas, acreditem, o conhecimento[br]humano fará a diferença, 0:13:44.061,0:13:47.649 porque é a única torre disponível 0:13:47.673,0:13:51.347 para bombear o petróleo oculto nos dados. 0:13:52.633,0:13:53.786 Obrigado. 0:13:53.810,0:13:56.294 (Aplausos)