A sabedoria de aprender com o erro é indiscutível. Organizações que fazem isso bem, no entanto, são extremamente raras. E não é por falta de compromisso com o aprendizado. Gestores na grande maioria das organizações que estudei nos últimos 20 anos — empresas farmacêuticas, de serviços financeiros, de design de produtos, de telecomunicações e de construção; hospitais; e o programa do ônibus espacial da Nasa, entre outros — queriam sinceramente ajudar a organização a aprender com os erros para ter um desempenho melhor no futuro. Em certos casos, gestores e suas equipes tinham dedicado horas e horas a avaliações pós-ação, a post mortens e afins. Mas, vez após vez, esse meticuloso esforço não levou a nenhuma mudança real. O motivo? Esses gestores estavam encarando o erro do jeito errado.
A maioria dos executivos com quem falei acha que errar é ruim (é claro!). Acha, ainda, que aprender com o erro é algo bastante simples: bastaria pedir aos outros que refletissem sobre o que fizeram de errado e exortá-los a evitar erros semelhantes no futuro — ou, melhor ainda, destacar uma equipe para analisar e redigir um relatório sobre o ocorrido e, em seguida, distribuí-lo por toda a organização.
Disseminadíssima, essa ideia é equivocada. Em primeiro lugar, errar nem sempre é ruim. Na vida organizacional, às vezes é ruim, às vezes inevitável e, às vezes, até bom. Em segundo lugar, aprender com o erro organizacional é tudo, menos simples. A maioria das empresas carece da atitude e das atividades necessárias para a eficaz detecção e análise de erros. Além disso, subestima-se a necessidade de estratégias de aprendizado ajustadas ao contexto. Uma organização precisa de saídas novas (e melhores) para ir além de lições superficiais (“Os procedimentos não foram seguidos”) ou deturpadas (“O mercado não estava pronto para nossa espetacular novidade”). Isso significa abandonar velhas crenças culturais e noções estereotipadas sobre o sucesso e abraçar as lições do fracasso. Para o líder, um bom começo é entender como o jogo da culpa interfere no processo.
Jogo da culpa
Na maioria das famílias, organizações e culturas, o erro e a culpa são virtualmente inseparáveis. A certa altura, toda criança descobre que admitir o erro significa pagar por ele. É por isso que tão poucas organizações migraram para uma cultura de segurança psicológica na qual seja possível colher plenamente o benefício de aprender com o erro.
Executivos que entrevistei em organizações diversas como hospitais e bancos de investimento admitem o desconforto: como reagir de forma construtiva ao erro sem promover uma atitude permissiva? Se o pessoal não tiver de pagar pelos erros que comete, como garantir que se esforçará o máximo possível e dará o melhor de si?
Essa preocupação é fundada numa falsa dicotomia. Na realidade, uma cultura na qual admitir e expor o erro é seguro pode — em certos contextos organizacionais, até deve — coexistir com altos padrões de desempenho. Para entender o porquê, veja o quadro “Um espectro de razões para o erro”. Nele, são enumeradas várias causas, do desvio deliberado à refletida experimentação.
Quais dessas causas envolvem ações condenáveis? O desvio deliberado, a primeira da lista, obviamente merece censura. A desatenção, talvez não. Se for produto da falta de esforço, talvez seja censurável. Já se resultar da fadiga na reta final de um turno muito longo, o gerente que programou o turno tem mais culpa do que o trabalhador. Ao avançarmos na lista, fica cada vez mais difícil encontrar atos condenáveis. Um erro decorrente de experimentação refletida que produza informações valiosas pode, na verdade, ser digno de louvor.
Quando peço a executivos que considerem esse espectro e façam uma estimativa do volume de erros realmente condenáveis em suas organizações, a resposta normalmente fica abaixo de 10% — de 2% a 5%, por aí. Já quando pergunto quantos são tratados como censuráveis, respondem (depois de uma pausa ou um risinho) de 70% a 90%. A infeliz consequência é que muitos erros não são expostos e suas lições, perdidas.
Nem todo erro é igual
Uma compreensão sofisticada das causas e do contexto de erros ajudará a evitar o jogo da culpa e a instituir uma estratégia eficaz para que a organização aprenda com o erro. Ainda que numa organização um sem-fim de coisas possa dar errado, é possível dividir o erro em três grandes categorias: evitável, ligado à complexidade e inteligente.
Erros evitáveis em operações previsíveis. A maioria dos erros nessa categoria pode de fato ser considerada “ruim”. Em geral, envolve desvios em relação ao especificado em processos de alto volume bem definidos ou operações de rotina em manufatura e serviços. Com treinamento e apoio adequados, o pessoal pode seguir esses processos de forma reiterada. Quando não o faz, em geral é por desvio, desatenção ou incapacidade. Mas, nesses casos, é possível identificar prontamente as causas e achar soluções. Listas de verificação (como no recente best-seller The Checklist Manifesto, do cirurgião americano Atul Gawande) são uma saída. Outra é o propalado Sistema Toyota de Produção, que incorpora o aprendizado contínuo com erros diminutos (pequenos desvios do processo) a sua abordagem ao aprimoramento. Como bem sabe a maioria dos estudantes de operações, um funcionário na linha de montagem da Toyota que detecte um problema (ou um potencial problema) é instruído a puxar a famosa corda “andon”, o que imediatamente deflagra um processo de diagnóstico e solução do problema. A produção segue normalmente se o problema puder ser sanado em menos de um minuto. Se não, é interrompida — apesar da perda de receita decorrente — até que entendam e resolvam o problema.
Erros inevitáveis em sistemas complexos. Um grande número de erros organizacionais se deve à incerteza inerente à atividade: uma combinação especial de necessidades, pessoas e problemas talvez nunca tenha ocorrido antes. Fazer a triagem de pacientes na emergência d
e um hospital, responder a atos do inimigo no campo de batalha e dirigir uma start-up em rápido crescimento são coisas que ocorrem em situações imprevisíveis. Em organizações complexas como porta-aviões e usinas nucleares, falhas no sistema são um risco permanente.
Embora seja possível evitar erros sérios com a adoção de melhores práticas na gestão da segurança e do risco, incluindo uma completa análise de eventos que porventura ocorram, pequenas falhas em processos são inevitáveis. Considerá-las algo ruim é não só ignorar como um sistema complexo funciona, mas também contraproducente. Evitar falhas importantes significa rapidamente identificar e corrigir pequenas falhas. A maioria dos acidentes em hospitais resulta de uma série de pequenos erros que passaram despercebidos e, infelizmente, se combinaram do jeito errado.
Erros inteligentes na fronteira. Um erro nessa categoria pode ser legitimamente considerado “bom”, pois gera um conhecimento valioso que pode ajudar a organização a saltar à frente da concorrência e garantir o crescimento futuro — razão pela qual Sim Sitkin, professor de administração da Duke University, o chama de erro inteligente. Esse erro ocorre quando a experimentação se faz necessária: quando não é possível saber de antemão a resposta, pois é a primeira — e talvez única — vez em que se produz a situação específica. Descobrir novos medicamentos, criar um negócio radicalmente novo, projetar um produto inovador e testar a reação do público num novo mercado são tarefas que exigem erros inteligentes. Embora “tentativa e erro” seja um termo comum para o tipo de experimentação exigido nessas circunstâncias, o uso é indevido, pois “erro” ali implica que havia um resultado “certo” para começo de conversa. Na fronteira, o tipo certo de experimentação produz erros bons rapidamente. Gerentes que a praticam podem evitar o erro “burro” de conduzir experimentos em escala maior do que o necessário.
Líderes da firma de design de produtos IDEO sabiam disso quando lançaram um novo serviço de estratégia de inovação. Em vez de ajudar um cliente a projetar coisas novas dentro da linha de produtos atual — processo que a Ideo levara à quase perfeição —, o serviço o ajudaria a criar linhas novas, que o lançassem em direções estratégicas inéditas. Ciente de que ainda não sabia como prestar o serviço de forma eficaz, a empresa estreou com um pequeno projeto para uma fabricante de colchões e não anunciou publicamente a criação de um novo negócio.
Embora o projeto tenha dado errado — o cliente não mudou sua estratégia de produtos —, a Ideo aprendeu com o erro e descobriu o que precisava ser feito de outra forma. Uma saída, por exemplo, foi contratar para a equipe gente com MBA mais capaz de ajudar o cliente a criar novos negócios e incorporar à equipe executivos do cliente. Hoje, a área de serviços de inovação estratégica responde por mais de um terço da receita da IDEO.
Tolerar falhas inevitáveis de processo em sistemas complexos e erros inteligentes na fronteira do conhecimento não irá promover a mediocridade. Aliás, tolerância é essencial para qualquer organização que queira se apropriar do conhecimento que esses erros produzem. Mas o erro ainda tem, inerentemente, uma forte carga emocional; levar uma organização a aceitá-lo requer liderança.
Crie uma cultura do aprendizado
Somente um líder pode criar e reforçar uma cultura que neutralize o jogo da culpa e faça com que as pessoas se sintam autorizadas a (e responsáveis por) expor e aprender com o erro (veja o quadro “Como um líder pode criar um ambiente psicologicamente seguro”). Quando algo dá errado, o líder deve fazer questão de que a organização entenda claramente o que ocorreu, em vez de sair buscando o “culpado”. Para isso, é preciso expor reiteradamente todo erro, pequeno ou grande; analisá-los sistematicamente; e buscar, de forma proativa, oportunidades para experimentar.
Um líder também deve mandar a mensagem certa sobre a natureza do trabalho, como lembrar à equipe de P&D que “nosso negócio é a descoberta e, quanto mais depressa errarmos, mais depressa iremos acertar”. Descobri que muitas vezes o gestor não entende ou dá valor a esse ponto sutil, mas crucial. Além disso, pode abordar o erro de um jeito inadequado para o contexto. O controle estatístico de processos, que emprega a análise de dados para avaliar variações injustificadas, não é bom, por exemplo, para detectar e corrigir falhas aleatórias invisíveis, como bugs de software. Tampouco ajuda no desenvolvimento de produtos novos, originais. Por outro lado, embora grandes cientistas intuitivamente sigam o mote da IDEO — “Erre com frequência para acertar mais cedo” —, isso dificilmente contribuiria para o sucesso de uma instalação manufatureira.
Em geral, um contexto ou um tipo de trabalho domina a cultura de uma organização e determina como o erro é tratado ali. Com operações previsíveis e de alto volume, montadoras de veículos naturalmente tendem a ver o erro como algo que pode e deve ser evitado. Mas a maioria das organizações realiza todos os três tipos de trabalho discutidos acima: rotineiro, complexo e de fronteira. Um líder deve garantir que, em cada um, a empresa use a abordagem certa para aprender com falhas. Toda organização usa três atividades essenciais para aprender com o erro: detecção, análise e experimentação.
Detecte o erro
Detectar um erro grande, doloroso e caro é fácil. Em muitas organizações, no entanto, qualquer falha que puder ser ocultada ficará encoberta — enquanto for improvável que cause dano imediato ou óbvio. A meta devia ser expô-la logo cedo, antes que cresça e vire um desastre.
&n
bsp;
bsp;
Pouco depois de sair da Boeing e assumir as rédeas na Ford, em setembro de 2006, Alan Mulally instituiu um novo sistema para detecção de falhas. Pediu que os executivos usassem um código de cores em seus relatórios: verde significava bom, amarelo cautela e vermelho problemas (é uma técnica de gestão comum). Segundo reportagem de 2009 na Fortune, para frustração de Mulally todos usaram o verde ao apresentar suas operações nas primeiras reuniões. Lembrando que a empresa perdera bilhões de dólares no ano anterior, Mulally foi direto ao ponto: “Não há nada que não esteja indo bem?”. Quando um tímido amarelo acompanhou o relato de um problema sério num produto — problema que provavelmente atrasaria o lançamento —, Mulally respondeu ao silêncio sepulcral que se seguiu com aplausos. Depois disso, as reuniões semanais da equipe ficaram coloridas.
Essa história serve para ilustrar um problema fundamental e muito comum: embora haja muitos métodos para expor falhas atuais e iminentes, são tremendamente subutilizados. Adotar a gestão da qualidade total e ouvir a opinião de clientes são técnicas populares para trazer à tona falhas em operações rotineiras. Por meio da detecção precoce, práticas da chamada organização de alta confiabilidade ajudam a prevenir erros catastróficos em sistemas complexos como usinas nucleares. Com 58 centrais de energia nuclear, a Electricité de France é um exemplo nesse quesito. A empresa vai além das exigências regulamentares: monitora religiosamente cada usina para detectar qualquer coisa fora do comum, investiga imediatamente o que descobre e informa todas as outras usinas de eventuais anomalias.
Esses métodos só não são mais disseminados porque muitos “mensageiros” — até os executivos mais graduados — ainda relutam em dar notícias ruins a chefes e colegas. Numa grande fabricante de bens de consumo, um alto executivo (conhecido meu) tinha sérias reservas sobre uma aquisição já em curso quando se juntou à equipe de gestão. Mas, cioso da condição de recém-chegado, calou-se durante conversas em que todos os demais executivos mostravam entusiasmo com o plano. Meses depois, quando a união nitidamente malograra, a equipe se reuniu para analisar o que ocorrera. Com a ajuda de um consultor, cada executivo considerou sua possível contribuição para o malogro. O novo integrante da equipe se desculpou abertamente sobre o silêncio lá atrás e explicou que, diante do entusiasmo de todos, não quisera ser um “desmancha-prazeres”.
Ao estudar erros e outras falhas em hospitais, descobri diferenças consideráveis entre distintas unidades de enfermagem no tocante à disposição desses profissionais de expor problemas. A causa, descobri, era o comportamento de gerentes de nível médio — como reagiam a erros, se incentivavam ou não a discussão aberta de problemas, se aceitavam perguntas, se exibiam humildade e curiosidade. Vi o mesmo padrão em uma ampla gama de organizações.
Um trágico exemplo, que estudei por mais de dois anos, foi a explosão, em 2003, do ônibus espacial Columbia, que matou sete astronautas (veja “Enfrentando a ameaça ambígua”, de Michael A. Roberto, Richard M.J. Bohmer e Amy C . Edmondson, HBR Novembro 2006). Executivos da Nasa passaram cerca de duas semanas minimizando a gravidade do fato de um pedaço de espuma ter se soltado do lado esquerdo da nave no lançamento. Rejeitaram pedidos de engenheiros para esclarecer a questão (o que poderia ter sido feito com a fotografia do ônibus por satélite ou com uma inspeção da área em questão pelos astronautas). Grande, a falha foi basicamente ignorada até o fatal desfecho 16 dias depois. Ironicamente, o fato de os gerentes do programa terem acreditado (de forma infundada) que havia pouco a fazer contribuiu para sua incapacidade de detectar a falha. Análises posteriores sugeriram que podiam, sim, ter tomado medidas frutíferas. Mas, claramente, os líderes não tinham estabelecido a cultura, os sistemas e os procedimentos necessários.
Um desafio é ensinar a indivíduos de uma organização quando declarar derrota num curso de ação experimental. A tendência humana de esperar o melhor e tentar evitar o fracasso a todo custo acaba atrapalhando — e é exacerbada por hierarquias organizacionais. O resultado é que projetos de P&D muitas vezes sobrevivem muito mais do que cientificamente racional e economicamente prudente. Investimos mais dinheiro numa canoa furada, rezando para que saia um coelho da cartola. A intuição pode dizer a engenheiros ou cientistas que um projeto tem falhas fatais, mas a decisão formal de considerá-lo malogrado pode ser adiada por meses.
Novamente, a solução — que não envolve, necessariamente, muito tempo e dinheiro — é reduzir o estigma do insucesso. É o que a Eli Lilly tem feito desde o início da década de 1990 com suas “festas do fracasso”. Nelas, celebra experimentos científicos inteligentes e de alta qualidade que não atingiram os resultados desejados. O evento não custa muito, e realocar recursos valiosos (especialmente cientistas) a novos projetos o mais cedo possível pode poupar milhares e milhares de dólares — e abrir a possibilidade de novas descobertas.
Analise o erro
Quando uma falha é detectada, é essencial ir além das causas óbvias e superficiais e buscar entender a raiz do problema. Isso requer disciplina — melhor ainda, entusiasmo — no uso de análises sofisticadas para assegurar que as lições certas sejam aprendidas e as soluções certas adotadas. A função do líder é garantir que a organização não se limite a seguir em frente após o erro, mas pare para investigar e descobrir as lições nele contidas.
E por que a análise de erros é tão pouco prestigiada? Porque examinar a fundo nossas falhas é emocionalmente desagradável e pode derrubar a autoestima. A maioria de nós, se pudesse decidir, dedicaria pouco tempo à análise de erros ou simplesmente evitaria a tarefa. Outra razão é que a análise de falhas organizacionais exige questionamento e abertura, paciência e aceitação da ambiguidade causal. No entanto, gestores normalmente admiram determinação, eficiência e ação — e são premiados por isso, não pela ponderada capacidade de reflexão. Por isso a cultura certa é tão importante.
O desafio não é só emocional; é também cognitivo. Mesmo sem querer, damos primazia a evidências que confirmem nossas crenças (e não a outras possíveis explicações). Também tendemos a minimizar nossa responsabilidade e a colocar uma culpa indevida em fatores externos ou situacionais quando erramos — e fazer o inverso ao avaliar o erro dos outros (armadilha psicológica conhecida como erro fundamental de atribuição).
Minha pesquisa revelou que a análise de falhas em geral é limitada e ineficaz — mesmo em organizações complexas como hospitais, onde há vidas humanas em jogo. Poucas instituições fazem uma análise sistemática de erros médicos ou falhas em processos para tirar lições desses episódios. Um estudo recente em hospitais da Carolina do Norte, nos Estados Unidos (cujos resultados foram publicados em novembro de 2010 no New England Journal of Medicine), revelou que, depois de mais de uma década de conscientização sobre o impacto de erros médicos — milhares de mortes a cada ano —, a segurança nos hospitais não aumentou.
Por sorte, há reluzentes exceções a essa regra, o que alimenta a esperança de que a aprendizagem organizacional seja possível. Na Intermountain Healthcare, uma rede de 23 hospitais nos estados americanos de Utah e Idaho, sempre que um médico se afasta de protocolos clínicos o desvio é analisado como uma oportunidade para aprimoramento dos protocolos. Permitir desvios e informar a todos se isso produziu ou não resultados melhores incentiva os médicos a aderir ao programa (veja “Na linha de frente, a solução para a saúde”, de Richard M.J. Bohmer, HBR Abril 2010).
Convencer alguém a ir além de razões de primeira ordem (os procedimentos não foram seguidos) para entender razões de segunda e de terceira ordem pode ser um grande desafio. Uma saída, aqui, é se valer de equipes interdisciplinares com competências e perspectivas variadas. Erros complexos, em particular, são resultado de múltiplos eventos ocorridos em distintos departamentos ou disciplinas ou em distintos níveis da organização. Para entender o que aconteceu e tratar de evitar que isso volte a ocorrer é preciso discussão e análise detalhadas, em equipe.
Uma equipe destacada de físicos, engenheiros, especialistas em aviação, líderes navais e até astronautas passou meses analisando a tragédia do Columbia. Esse time estabeleceu, de forma conclusiva, não só a razão de primeira ordem — um pedaço de espuma causara uma avaria na asa esquerda da nave durante o lançamento —, mas também as causas de segunda ordem: a hierarquia rígida e a cultura obcecada com prazos da Nasa tinham tornado particularmente difícil para engenheiros manifestar qualquer preocupação com algo que não fosse totalmente irrefutável.
Promova a experimentação
A terceira atividade crucial para um efetivo aprendizado é produzir erros de forma estratégica — no lugar certo, na hora certa — por meio da experimentação sistemática. Quem faz ciência básica sabe que, embora as experiências que conduz eventualmente possam gerar um gol espetacular, uma grande porcentagem (70% ou mais em certas áreas) não dará em nada. Como essa pessoa se levanta da cama todo dia? Primeiro, porque sabe que errar não é opcional em seu trabalho; é parte de estar na vanguarda da descoberta científica. Segundo, porque muito mais do que a maioria de nós, essa gente entende que todo erro traz informações valiosas e está disposta a consegui-las antes da concorrência.
Em comparação, gestores que lançam um produto ou serviço em caráter piloto — exemplo clássico de experimentação em empresas — normalmente fazem de tudo para garantir que a novidade já saia da prancheta perfeita. Ironicamente, esse afã de acertar pode acabar impedindo o sucesso quando do lançamento oficial. É muito comum os responsáveis por um piloto criarem condições ideais, em vez de representativas. Com isso, o piloto não gera informações sobre o que não vai funcionar.
Logo que o DSL surgiu, uma grande empresa de telecomunicações que chamarei de Telco resolveu lançar a tecnologia de alta velocidade em grande escala para clientes residenciais num importante centro urbano. Foi um desastre absoluto do ponto de vista do atendimento ao cliente. A empresa não conseguiu honrar 75% dos compromissos assumidos; a certa altura, tinha a incrível soma de 12 mil pedidos atrasados. O público ficou frustrado e revoltado; o pessoal do atendimento simplesmente não dava conta de atender a todas as chamadas. O moral do pessoal caiu. Como isso foi acontecer com uma líder do mercado, dona de altos índices de satisfação e uma marca que há muito simbolizava excelência?
Um piloto pequeno e extremamente bem-sucedido num bairro tinha dado a executivos da Telco uma confiança infundada. O problema foi que o teste não reproduzia condições de operação reais: foi montado com atendentes de desenvoltura e qualificação atípicas e realizado numa comunidade de gente instruída, versada em tecnologia. Só que o DSL era uma tecnologia nova em folha e, diferentemente da telefonia tradicional, teria de interagir com computadores e habilidades técnica do público, que variavam muito. Isso acrescentou complexidade e imprevisibilidade ao desafio de prestar o serviço de um jeito que a Telco não entendera plenamente antes do lançamento.
Para a Telco, teria sido mais útil testar a tecnologia com suporte limitado, clientes pouco sofisticados e computadores antigos. Esse piloto teria sido projetado para descobrir tudo o que podia dar errado — em vez de provar que, sob a melhor das condições, tudo daria certo (veja o quadro “Como projetar bons erros”). Naturalmente, os gestores a cargo do teste precisariam ter entendido que seriam premiados não pelo sucesso, mas por produzir erros inteligentes o mais rápido possível.
Em suma, organizações excepcionais são aquelas que, em vez de se limitarem à detecção e à análise de falhas, tentam produzir erros inteligentes com o objetivo expresso de aprender e inovar. Não é que os dirigentes dessas organizações gostem de errar. O que fazem é reconhecer o erro como um necessário subproduto da experimentação. Além disso, sabem que não precisam fazer experimentos dramáticos com grandes verbas. Muitas vezes, um pequeno piloto, um teste de uma nova técnica ou uma simulação serão suficientes.
A coragem para encarar nossas falhas — e as dos outros — é crucial para resolvermos a aparente contradição entre não querer desencorajar a exposição de problemas e criar um ambiente no qual tudo seja permitido. Isso significa que o líder deve pedir ao pessoal que seja corajoso e abra o jogo — e não reagir com fúria ou forte reprovação àquilo que, à primeira vista, pode parecer incompetência. Com mais frequência do que imaginamos, sistemas complexos estão por trás de falhas organizacionais; suas lições e oportunidades de aprimoramento se perdem quando o diálogo é sufocado.
Um gestor sábio entende que o rigor desmedido tem seus riscos. Sabe que só será capaz de descobrir um problema e de ajudar a resolvê-lo se puder ser informado de sua existência. Mas a maioria dos gestores que conheci em meu trabalho de pesquisa, ensino e consultoria é muito mais sensível a um outro risco: o de que uma reação compreensiva à falha simplesmente crie um ambiente de trabalho relapso no qual os erros se multipliquem.
Comum, esse temor devia dar lugar a um novo paradigma — paradigma que reconheça a inevitabilidade do erro nas complexas organizações de trabalho de hoje. Quem detectar, corrigir e aprender com o erro antes dos demais irá triunfar. Já quem ficar chafurdando no jogo da culpa, não.
______________________________
Amy C. Edmondson é titular da cátedra Novartis Professor of Leadership and Management e codiretora da unidade Technology and Operations Management da Harvard Business School, nos EUA.
Nenhum comentário:
Postar um comentário
Os comentários são muito bem vindos e importantes, mas assine com seu Nome