Aviso: este texto foi traduzido com o uso de tradução automática e pode conter erros. Responda a esta pesquisa para nos enviar seus comentários e obtenha mais informações em nossas perguntas frequentes.
Read in English

Muitas organizações vieram ver o imperativo dos negócios de um programa de risco ético de IA. Inúmeras notícias — desde reconhecimento facial defeituoso e discriminatório até violações de privacidade e algoritmos de caixa preta com consequências que alteram a vida — colocaram isso nas agendas de conselhos, CEOs e diretores de dados e análises. O que a maioria dos líderes não entende, no entanto, é que lidar com esses riscos requer aumentar a conscientização sobre eles em toda a organização. Aqueles que entendem isso muitas vezes não sabem como proceder.

Para empresas que usam IA, isso precisa ser uma prioridade máxima. Mais de 50% dos executivos relatam “grande” ou “extrema” preocupação com os riscos éticos e reputacionais da IA em sua organização, dado seu nível atual de preparação para identificar e mitigar esses riscos. Isso significa que construindo um programa de risco ético de IA em que todos são comprados é necessário para implantar a IA em tudo. Bem feito, aumentar a conscientização pode mitigar os riscos no nível tático e se presta à implementação bem-sucedida de um programa de risco ético de IA mais geral.

Construir essa consciência geralmente se decompõe em três problemas significativos.

Primeiro, os diretores de aquisições são uma das maiores — e mais negligenciadas — fontes de riscos éticos de IA. Os fornecedores de IA vendem para a maioria de todos os departamentos da sua organização, mas especialmente RH, marketing e finanças. Se seus agentes de aquisições de RH não souberem como fazer as perguntas certas para examinar produtos de IA, eles podem, por exemplo, importar o risco de discriminar subpopulações protegidas durante o processo de contratação.

Segundo, os líderes seniores geralmente não têm o conhecimento necessário para detectar falhas éticas na IA de sua organização, colocando a empresa em risco, tanto reputacional quanto legalmente. Por exemplo, se uma equipe de produto estiver pronta para implantar uma IA, mas primeiro precisar da aprovação de um executivo que saiba pouco sobre os riscos éticos do produto, a reputação da marca (sem mencionar o executivo) pode estar em alto risco.

Em terceiro lugar, um programa de risco ético de IA requer cientistas e engenheiros de dados experientes. Se eles não entenderem os riscos éticos da IA, eles podem deixar de entender suas novas responsabilidades como articuladas no programa, ou podem entendê-las, mas não entender sua importância, o que, por sua vez, leva a não levá-las a sério. Por outro lado, se você tiver uma organização que entenda os riscos éticos, reputacionais e legais da IA, eles entenderão a importância de implementar um programa que aborde sistematicamente essas questões entre organizações.

Criar bem essa consciência interorganizacional requer trabalho. Ela requer uma mensagem consistente que também seja adaptada às preocupações específicas de cada grupo. Afinal, os interesses e responsabilidades do C-suite são diferentes dos proprietários de produtos e designers que são diferentes dos cientistas de dados e engenheiros - falar no mesmo idioma para todos eles resulta em falar com nenhum deles. A mensagem não pode ser superficial, ou resultará em pessoas acharem que a ética da IA é uma questão de RP ou uma preocupação de nicho. E ele precisa de um líder claro da C-suite responsável por elaborar e supervisionar a execução de uma estratégia que resulte em consciência de toda a organização - esse problema não será levado a sério se a mensagem não vier do topo. Aqui é onde as organizações devem começar.

Como aumentar a conscientização — e obter o buy-in

É crucial garantir que todos os funcionários saibam dos riscos e se sintam direito adquirido no sucesso da IA dentro da organização. Eles não só precisam estar cientes de que esses problemas existem, mas também precisam saber como esses riscos afetam seu trabalho específico e como ele se encaixa na descrição do trabalho. Uma coisa é alguém no RH saber que precisa contratar pessoas certas para o trabalho e como isso pode parecer enquanto também, aliás, está ciente dos riscos éticos da IA. Outra é para essa pessoa ver identificar e mitigar esses riscos como parte de seu trabalho, por exemplo, sabendo que o cumprimento responsável de suas responsabilidades inclui pedir aos fornecedores de IA que forneçam software de contratação para fornecer documentação sobre como eles identificaram e mitigaram os vieses em seus AI.

Aqui estão seis medidas que você pode tomar para criar consciência organizacional e fazer o buy-in da maneira certa.

1. Remova o medo da ética da IA e da IA. Uma barreira que as organizações enfrentam é que pessoas fora da TI podem ser intimidadas pelo tópico. “Inteligência artificial”, “aprendizado de máquina” e “algoritmos discriminatórios” podem parecer conceitos assustadores, o que leva as pessoas a se afastarem completamente do tópico. É crucial para a conscientização organizacional de que as pessoas se familiarizem e se sintam confortáveis com os conceitos, se não os fundamentos técnicos.

Possuir alfabetização básica em IA é, em certo sentido, não muito difícil. Afinal, o aprendizado de máquina é, em essência, aprender pelo exemplo, com o qual todos estão familiarizados. Da mesma forma, ser ruim em algo porque você não tinha exemplos suficientes também é familiar para todos. Se você está comunicando às pessoas como um algoritmo discriminatório pode ser criado, você pode explicar que alguns são o resultado de um software que não tem exemplos suficientes para aprender e, portanto, o software comete erros (por exemplo, não ter exemplos suficientes de rostos de mulheres negras para o seu software de reconhecimento facial resultando em o software ser muito ruim em escolher rostos de mulheres negras). De forma mais geral, muitos dos riscos éticos da IA e suas várias fontes podem ser articulados a um público não técnico e resulta em funcionários com a confiança de que precisam para lidar com os problemas.

Exigir que seus funcionários em RH e marketing tenham uma familiaridade básica com a forma como a IA funciona e como os riscos éticos da IA surgem pode parecer um pedido difícil. No entanto, a maioria das organizações criou uma grande conscientização sobre os riscos de segurança cibernética, o que também implica alfabetização em segurança cibernética, e isso provavelmente parecia uma impossibilidade virtual antes que as empresas se comprometessem a fazer isso acontecer. Mas, se seu pessoal não souber o básico, eles não saberão fazer as perguntas certas (por exemplo, de fornecedores de IA) quando for crucial que eles o façam.

2. Adapte suas comunicações para seu público. Líderes seniores que se veem como administradores da reputação de sua marca estão interessados em evitar riscos que ameaçam essa reputação. Para eles, falando na linguagem de “ética e reputacional risco” é importante para que eles vejam a relevância da ética da IA para suas preocupações e responsabilidades. Os designers de produtos, por outro lado, estão menos preocupados em evitar riscos do que em fazer produtos “legais” e úteis. Explicar como a ética da IA por design melhora seu produto, especialmente para o crescente número de consumidores e cidadãos orientados por valores em geral, pode ser uma maneira altamente eficaz de alcançar esse público. Finalmente, cientistas e engenheiros de dados querem modelos robustos que sejam eficazes. Falar de seu idioma significa explicar como problemas de algoritmos tendenciosos e caixas pretas diminuem o poder da ferramenta e/ou sua adoção. Ninguém quer criar um modelo impreciso ou não utilizado.

Dar exemplos e histórias de IA que deram errado com os quais cada público pode se relacionar também é importante. Isso não precisa apenas envolver desastres de RP. Ele também pode incluir, por exemplo, a incapacidade da Amazon de mitigar suficientemente os vieses em seu software de contratação com inteligência artificial, que admiravelmente levou a Amazon a puxar o plugue no projeto em vez de implantar algo que possa ser prejudicial para os candidatos a emprego e para a marca. Além disso, na medida do possível, você deve usar exemplos específicos para o seu setor. Há casos em que a IA percebeu certos riscos éticos na saúde, mas se você estiver falando com membros de uma fintech, os funcionários se conectarão mais com uma história de uma empresa de pares.

3. Vincule suas tentativas de aumentar a conscientização organizacional para a missão ou propósito da sua empresa. Se ele já está incorporado em sua cultura organizacional qual é sua missão/propósito, integre sua discussão sobre ética da IA com isso. Explique como o gerenciamento de riscos éticos e éticos de IA é uma extensão adicional dessa missão, um conjunto de guardrails em torno do que você (não) está disposto a fazer em busca dessa missão.

Por exemplo, sua missão pode ser fornecer o melhor conselho financeiro possível. Mas você não pode fornecer esse conselho, a menos que as pessoas confiem em você e as pessoas não possam confiar em você se você for negligente na implantação da IA. Quando a IA dá errado, ela dá errado em escala, portanto, comunicar à sua organização que parte de fornecer o melhor aconselhamento financeiro possível implica proteger seus clientes, e que parte de protegê-los requer a implantação ética, responsável ou confiável da IA, a ética da IA não é mais vista como algo aparafusado em suas operações. Em vez disso, você comunica que é uma extensão adicional de sua missão e valores fundamentais.

4. Defina o que a ética da IA significa em sua organização de forma operacional. Uma coisa é dizer que você é “pela privacidade” ou que “respeita a privacidade”. Outra coisa é realmente fazer algo a respeito. Para garantir que seus compromissos de valor ético da IA não sejam vistos como meros RP, vincule esses compromissos a guardrails éticos, por exemplo, “nunca venderemos seus dados a terceiros” ou “sempre anonimizaremos dados compartilhados com terceiros”.

Se você tiver uma declaração ética de IA bem elaborada, ela incluirá esses guardrails, que desempenham um papel duplo. Primeiro, eles comunicam à sua equipe o que você realmente está fazendo (ou planeja fazer) sobre os riscos éticos da IA. E segundo, ele imediatamente comunica que isso não é RP ou algo difuso. Quando os valores são articulados e comunicados de forma que os vincule às ações, essas comunicações são credíveis e memoráveis.

Uma maneira de facilitar seu público a entender como a ética da IA não é confusa e é algo que pode ser implementado é explicar as questões éticas muito reais e difíceis enfrentadas nos cuidados de saúde e as formas como eles enfrentaram esses problemas. Relacionalmente, você pode discutir como o setor de saúde incorporou a mitigação ética de riscos à infraestrutura e ao processo para que eles possam ver que isso pode ser feito.

5. Convide membros confiáveis e influentes em várias funções para se juntar a você em seus esforços. Algumas organizações, como a Microsoft, criaram um sistema de “Campeões de Ética da IA”. São pessoas em toda a organização que são encarregadas de aumentar a conscientização sobre os riscos éticos da IA com suas equipes. Uma característica importante de um programa de Campeão de Ética em IA é que ele capacita líderes que já têm a confiança e o apoio de sua equipe. Além disso, eles conhecem suas respectivas equipes melhor do que, digamos, o Chief Learning Officer ou o Chief Data Officer, ou quem lidera a estratégia de conscientização organizacional.

6. Educar continuamente. Construir consciência organizacional não é algo que você faz em uma tarde de quarta-feira ou em um retiro de fim de semana. Ela requer pontos de contato contínuos e diversos, de palestrantes internos e externos, workshops, boletins informativos e assim por diante. De fato, a IA e as tecnologias emergentes geralmente estão mudando e evoluindo rapidamente, e com essas mudanças surgem novas fontes de risco ético. Para garantir que sua organização não fique muito para trás, educar continuamente seu povo será um baluarte crucial contra a crescente maré de avanços tecnológicos.

Os líderes empresariais sabem que descobrir como desenvolver, adquirir e implantar IA de forma segura e ética é crucial para o crescimento contínuo e manter uma vantagem competitiva. É importante que esse objetivo não seja confundido com um objetivo técnico para cientistas e engenheiros de dados alcançarem. A implantação responsável da IA — seja ela usada para fins internos ou externos — requer conscientização dos riscos éticos da IA e buy-in organizacional para uma estratégia que os mitiga.