Aviso: este texto foi traduzido com o uso de tradução automática e pode conter erros. Responda a esta pesquisa para nos enviar seus comentários e obtenha mais informações em nossas perguntas frequentes.
Read in English

Apesar dos crescentes investimentos em inteligência artificial (IA) das empresas de hoje, a confiança nos insights fornecidos pela IA pode ser um sucesso ou um fracasso com a diretoria. Os executivos estão apenas resistindo a uma tecnologia nova, desconhecida e ainda não comprovada, ou sua hesitação está enraizada em algo mais profundo? Os executivos há muito resistem à análise de dados para tomada de decisões de alto nível e sempre preferiram confiar na tomada de decisões no nível do intestino com base na experiência de campo para decisões assistidas por IA.

A IA tem sido amplamente adotada para a tomada de decisões táticas de nível inferior em muitos setores - pontuação de crédito, recomendações de upselling, chatbots ou gerenciamento de desempenho da máquina são exemplos em que está sendo implantada com sucesso. No entanto, seu valor ainda não foi comprovado para decisões estratégicas de alto nível - como reformulação de linhas de produtos, mudança de estratégias corporativas, realocação de recursos humanos entre funções ou estabelecimento de relacionamentos com novos parceiros.

Seja IA ou análises de alto nível, os líderes de negócios ainda não estão prontos para apostar seus negócios inteiramente em decisões feitas por máquinas de forma profunda. Um exame das atividades de IA entre organizações financeiras e de varejo por Amit Joshi e Michael Wade da IMD Business School na Suíça constata que “a IA está sendo usada principalmente para fins táticos e não estratégicos - na verdade, encontrar uma visão estratégica coesa de IA de longo prazo é raro”.

Mais de dois em cada três executivos respondendo a uma pesquisa da Deloitte, 67%, dizem que “não se sentem confortáveis” acessando ou usando dados de sistemas analíticos avançados. Em empresas com fortes culturas orientadas por dados, 37% dos entrevistados ainda expressam desconforto. Da mesma forma, 67% dos CEOs em uma pesquisa semelhante da KPMG indicam que muitas vezes preferem tomar decisões com base em sua própria intuição e experiência sobre insights gerados por meio da análise de dados. O estudo confirma que muitos executivos não têm um alto nível de confiança nos dados, análises e IA de sua organização, com incerteza sobre quem é responsável por erros e uso indevido. Cientistas e analistas de dados também veem essa relutância entre os executivos - um pesquisa recente da SAS revela que 42% dos cientistas de dados afirmam que seus resultados não são usados pelos tomadores de decisão de negócios.

Quando os executivos estarão prontos para levar a IA para o próximo passo e confiar nela o suficiente para agir de acordo com recomendações mais estratégicas que afetarão seus negócios? Existem muitos desafios, mas há quatro ações que podem ser tomadas para aumentar a confiança dos executivos na tomada de decisões assistidas por IA:

  1. Crie modelos de IA confiáveis que fornecem insights e recomendações consistentes
  2. Evite vieses de dados que distorcem as recomendações da IA
  3. Certifique-se de que a IA forneça decisões éticas e morais
  4. Ser capaz de explicar as decisões tomadas pela IA em vez de uma situação de caixa preta

Crie modelos confiáveis

A hesitação executiva pode resultar de experiências negativas, como um sistema de IA que fornece resultados de vendas enganosos. Quase todo projeto de IA com falha tem um denominador comum - a falta de qualidade dos dados. No antigo modelo empresarial, os dados estruturados eram predominantes, o que classificou os dados à medida que chegavam da fonte e tornava relativamente fácil colocá-los em uso imediato.

Embora a IA possa usar dados estruturados de qualidade, ela também usa grandes quantidades de dados não estruturados para criar modelos de aprendizado de máquina (ML) e aprendizado profundo (DL). Que os dados não estruturados, embora fáceis de coletar em seu formato bruto, são inutilizáveis, a menos que sejam adequadamente classificados, rotulados e limpos - vídeos, imagens, imagens, áudio, texto e registros - todos precisam ser classificados, rotulados para que os sistemas de IA criem e treinem modelos antes que os modelos possam ser implantados no real mundo. Como resultado, os dados alimentados em sistemas de IA podem estar desatualizados, não relevantes, redundantes, limitados ou imprecisos. Dados parciais alimentados em modelos de IA/ML fornecerão apenas uma visão parcial da empresa. Os modelos de IA podem ser construídos para refletir a maneira como os negócios sempre foram feitos, sem a capacidade de se ajustar a novas oportunidades ou realidades, como vimos com interrupções nas cadeias de suprimentos causadas pelos efeitos de uma pandemia global. Isso significa que os dados precisam ser alimentados em tempo real para criar ou alterar modelos em tempo real.

Não é de surpreender que muitos cientistas de dados gastem metade do tempo na preparação de dados, que permanece como uma tarefa única e significativa na criação de modelos de IA confiáveis que podem fornecer resultados adequados. Para ganhar confiança executiva, contexto e confiabilidade são fundamentais. Existem muitas ferramentas de IA disponíveis para ajudar na preparação de dados - de dados sintéticos a debias de dados e limpeza de dados, as organizações devem considerar o uso de algumas dessas ferramentas de IA para fornecer os dados certos no momento certo para criar modelos de IA confiáveis.

Evite preconceitos de dados

A hesitação executiva pode estar fundamentada na preocupação contínua e justificável de que os resultados da IA estejam levando à discriminação dentro de suas organizações ou afetando os clientes. Da mesma forma, o viés inerente à IA pode estar direcionando as decisões corporativas na direção errada. Se não forem tomados os devidos cuidados para limpar os dados de quaisquer preconceitos, os modelos de IA resultantes sempre serão tendenciosos, resultando em uma situação de “entrada de lixo, saída de lixo”. Se um modelo de IA for treinado usando dados tendenciosos, vai distorcer o modelo e produzir recomendações tendenciosas.

Os modelos e as decisões podem ser tão bons quanto o não viés nos dados. Dados ruins, consciente ou inconscientemente, podem conter informações de preconceito implícito - como preconceitos raciais, de gênero, de origem, políticos, sociais ou outros preconceitos ideológicos. Além disso, outras formas de preconceito que são prejudiciais aos negócios também podem ser inerentes. Existem cerca de 175 identificados preconceitos humanos que precisam de cuidados. Isso precisa ser resolvido por meio da análise dos dados recebidos para vieses e outros traços negativos. Como mencionado acima, as equipes de IA gastam uma quantidade excessiva de tempo preparando formatos e qualidade de dados, mas pouco tempo eliminando dados tendenciosos.

Os dados usados na tomada de decisões de nível superior precisam ser cuidadosamente examinados para garantir aos executivos que são comprovados, confiáveis, autenticados e de fontes confiáveis. Ele precisa ser limpo de práticas discriminatórias conhecidas que podem distorcer os algoritmos.

Se os dados forem extraídos de fontes questionáveis ou não examinadas, eles devem ser eliminados completamente ou devem receber pontuações de confiança mais baixas. Além disso, ao controlar a precisão da classificação, a discriminação pode ser bastante reduzida a um custo incremental mínimo. Essa otimização de pré-processamento de dados deve se concentrar no controle da discriminação, limitar a distorção em conjuntos de dados e preservar a utilidade.

Muitas vezes, presume-se - erroneamente - que os modelos matemáticos da IA podem eventualmente filtrar o viés humano. O risco é que esses modelos, se executados sem verificação, possam resultar em vieses imprevistos adicionais - novamente, devido a dados de entrada limitados ou distorcidos.

Tomar decisões éticas e morais

A hesitação executiva pode refletir o fato de que as empresas estão sob pressão como nunca antes para garantir que seus negócios operem moral e eticamente, e as decisões assistidas por IA precisam refletir valores éticos e morais também. Em parte porque eles querem aparecer como uma empresa com valores éticos e morais e operar com integridade, e em parte por causa das responsabilidades legais que podem surgir da tomada de decisões erradas que podem ser contestadas nos tribunais - especialmente considerando que se a decisão foi tomada por IA ou assistida por IA, ela irá através de uma camada extra de escrutínio.

Há um trabalho contínuo nas instituições de pesquisa e educação para aplicar valores humanos aos sistemas de IA, convertendo esses valores em termos de engenharia que as máquinas possam entender. Por exemplo, Stuart Russell, professor de ciência da computação na Universidade da Califórnia em Berkeley, foi pioneiro em uma ideia útil conhecida como Princípio de Alinhamento de Valor, que essencialmente “recompensa” os sistemas de IA por um comportamento mais aceitável. Os sistemas de IA ou robôs podem ser treinados para ler histórias, aprender sequências aceitáveis de eventos dessas histórias e refletir melhor maneiras bem-sucedidas de se comportar.

É fundamental que trabalhos como os conduzidos por Russell sejam importados para o setor de negócios, pois a IA tem um enorme potencial para distorcer a tomada de decisões que afetam vidas e carreiras. As empresas precisam garantir que haja freios e contrapesos suficientes para garantir que as decisões assistidas por IA sejam éticas e morais.

Ser capaz de explicar as decisões de IA

Os executivos podem ser cautelosos ao absorver as decisões de IA se houver falta de transparência. A maioria das decisões de IA não tem explicabilidade incorporada. Quando uma decisão é tomada e uma ação é tomada que arrisca milhões de dólares para uma empresa, ou envolve a vida/emprego das pessoas, dizer que a IA tomou essa decisão, então estamos agindo de acordo com isso não é bom o suficiente.

Os resultados produzidos pela IA e as ações tomadas com base nisso não podem ser opacos. Até recentemente, a maioria dos sistemas foi programada para reconhecer explicitamente e lidar com situações predeterminadas. No entanto, os sistemas tradicionais não cognitivos atingem uma parede de tijolos ao encontrar cenários para os quais não foram programados. Os sistemas de IA, por outro lado, têm algum grau de capacidade de pensamento crítico incorporado, destinado a imitar mais de perto o cérebro humano. À medida que surgem novos cenários, esses sistemas podem aprender, entender, analisar e agir sobre a situação sem a necessidade de programação adicional.

Os dados usados para treinar algoritmos precisam ser mantidos de forma responsável — por meio de armazenamento seguro, validação, auditabilidade e criptografia. Métodos emergentes, como blockchain ou outras tecnologias de contabilidade distribuída, também fornecem um meio para armazenamento imutável e auditável. Além disso, uma estrutura de governança de terceiros precisa ser implementada para garantir que as decisões de IA não sejam apenas explicáveis, mas também baseadas em fatos e dados. No final do dia, deveria ser possível provar que se um especialista humano, dado o mesmo conjunto de dados, tivesse chegado aos mesmos resultados - e a IA não manipulasse os resultados.

As decisões baseadas em dados por IA são quase sempre baseadas em probabilidades (probabilísticas versus determinísticas). Por causa disso, sempre há um grau de incerteza quando a IA entrega uma decisão. Deve haver um grau de confiança associado ou pontuação na confiabilidade dos resultados. É por esse motivo que a maioria dos sistemas não pode, não será e não deve ser automatizada. Os seres humanos precisam estar no ciclo de decisão para o futuro próximo. Isso torna a dependência das decisões baseadas em máquinas mais difícil quando se trata de setores sensíveis, como saúde, onde 98% de probabilidade de uma decisão não é boa o suficiente.

As coisas ficam complexas e imprevisíveis à medida que os sistemas interagem uns com os outros. “Estamos começando a aceitar que a verdadeira complexidade do mundo supera em muito as leis e modelos que criamos para explicá-la”, de acordo com David Weinberger, Ph.D., afiliado ao Berkman Klein Center for Internet and Society da Universidade de Harvard. Não importa o quão sofisticada a tomada de decisões se torne, o pensamento crítico dos seres humanos ainda é necessário para administrar as empresas atuais. Os executivos ainda precisam ser capazes de substituir ou questionar a saída baseada em IA, especialmente em um processo opaco.

Tarefas para aumentar a confiança dos executivos

Considere os seguintes cursos de ação ao tentar aumentar os níveis de conforto dos executivos em IA:

  • Promova a propriedade e a responsabilidade pela IA além do departamento de TI, de qualquer pessoa que toque no processo. Uma mudança cultural será necessária para impulsionar as decisões éticas para sobreviver na economia de dados.
  • Reconheça que a IA (na maioria das situações) é simplesmente um código que toma decisões com base em dados e padrões anteriores com alguma estimativa do futuro. Todo líder de negócios - assim como os funcionários que trabalham com eles - ainda precisa de habilidades de pensamento crítico para desafiar a produção de IA.
  • Direcione a IA para as áreas em que ela é mais impactante e refine-as primeiro, o que agregará mais valor aos negócios.
  • Investigue e busque as tecnologias mais impactantes.
  • Garanta justiça na IA por meio de maior transparência e máxima observabilidade da cadeia de entrega de decisões.
  • Promova maior conscientização e treinamento para uma IA justa e acionável em todos os níveis e vincule incentivos à adoção bem-sucedida da IA.
  • Revise ou audite os resultados da IA regularmente e sistematicamente.
  • Assuma a responsabilidade e as próprias decisões, e corrija o curso se alguma vez for tomada uma decisão errada - sem culpar a IA.

Inevitavelmente, mais tomadas de decisão assistidas por IA serão vistas na suíte executiva para fins estratégicos. Por enquanto, a IA ajudará os humanos na tomada de decisões para realizar inteligência aumentada, em vez de uma entrega de insights corretos no estilo unicórnio com o apertar de um botão. Garantir que o resultado dessas decisões assistidas por IA seja baseado em insights confiáveis, imparciais, explicáveis, éticos, morais e transparentes ajudará a instilar a confiança dos líderes de negócios nas decisões baseadas em IA por agora e nos próximos anos.