Aviso: este texto foi traduzido com o uso de tradução automática e pode conter erros. Responda a esta pesquisa para nos enviar seus comentários e obtenha mais informações em nossas perguntas frequentes.
Read in English

Nos últimos anos, as preocupações com a ética da IA se tornaram comuns. As preocupações e os resultados que todos querem evitar são amplamente acordados e bem documentados. Ninguém quer eliminar a IA discriminatória ou tendenciosa. Ninguém quer ser objeto de uma ação judicial ou investigação regulatória por violações de privacidade. Mas uma vez que todos concordamos que a IA tendenciosa, de caixa preta e violadora de privacidade é ruim, para onde vamos a partir daqui? A pergunta que a maioria dos líderes seniores faz é: Como agimos para mitigar esses riscos éticos?

Agir rapidamente para resolver as preocupações é admirável, mas com as complexidades do aprendizado de máquina, da ética e de seus pontos de interseção, não há soluções rápidas. Para implementar, dimensionar e manter estratégias eficazes de mitigação de riscos éticos de IA, as empresas devem começar com uma compreensão profunda dos problemas que estão tentando resolver. Um desafio, no entanto, é que as conversas sobre a ética da IA podem parecer nebulosas. O primeiro passo, então, deve consistir em aprender a falar sobre isso de maneiras concretas e acionáveis. Veja como você pode definir a mesa para ter conversas sobre ética em IA de uma forma que possa deixar as próximas etapas claras.

Quem precisa estar envolvido?

Recomendamos a montagem de um grupo de trabalho de nível sênior responsável por conduzir a ética da IA em sua organização. Eles devem ter as habilidades, a experiência e o conhecimento certos, de modo que as conversas sejam bem informadas sobre as necessidades do negócio, as capacidades técnicas e o know-how operacional. No mínimo, recomendamos envolver quatro tipos de pessoas: tecnólogos, especialistas em legal/conformidade, especialistas em ética e líderes de negócios que entendem os problemas que você está tentando resolver para usar a IA. Seu objetivo coletivo é entender as fontes de riscos éticos em geral, para o setor do qual são membros e para sua empresa específica. Afinal, não há boas soluções sem uma compreensão profunda do problema em si e dos obstáculos potenciais para as soluções propostas.

Você precisa que o tecnólogo avalie o que é tecnologicamente viável, não apenas no nível por produto, mas também no nível organizacional. Isso ocorre porque, em parte, vários planos de mitigação de riscos éticos exigem diferentes ferramentas e habilidades tecnológicas. Saber onde sua organização está do ponto de vista tecnológico pode ser essencial para mapear como identificar e fechar as maiores lacunas.

Especialistas jurídicos e de conformidade estão lá para ajudar a garantir que qualquer novo plano de mitigação de riscos seja compatível e não redundante com as práticas de mitigação de riscos existentes. As questões jurídicas são particularmente grandes à luz do fato de que não está claro como as leis e regulamentos existentes afetam as novas tecnologias, nem quais novos regulamentos ou leis estão chegando.

Os especialistas em ética estão lá para ajudar a garantir uma investigação sistemática e completa sobre os riscos éticos e de reputação que você deve enfrentar, não apenas em virtude do desenvolvimento e aquisição de IA, mas também dos riscos específicos do seu setor e/ou da sua organização. Sua importância é particularmente relevante porque a conformidade com regulamentações desatualizadas não garante a segurança ética e de reputação de sua organização.

Por fim, os líderes de negócios devem ajudar a garantir que todos os riscos sejam mitigados de forma compatível com as necessidades e metas do negócio. O risco zero é uma impossibilidade, desde que alguém faça alguma coisa. Mas o risco desnecessário é uma ameaça para o resultado final, e as estratégias de mitigação de risco também devem ser escolhidas de olho no que é economicamente viável.

Três conversas para levar as coisas adiante

Quando a equipe estiver no lugar, aqui estão três conversas cruciais para se ter. Uma conversa diz respeito a chegar a um entendimento compartilhado de quais objetivos um programa de risco ético de IA deve buscar. A segunda conversa diz respeito à identificação de lacunas entre onde a organização está agora e onde ela quer estar. A terceira conversa tem como objetivo compreender as fontes dessas lacunas para que elas sejam abordadas de forma abrangente e eficaz.

1) Defina o padrão ético da sua organização para IA.

Qualquer conversa deve reconhecer que a conformidade legal (por exemplo, a lei antidiscriminação) e a conformidade regulatória (com, digamos, GDPR e/ou CCPA) estão em jogo. A questão a ser abordada é: Dado que o conjunto de riscos éticos não é idêntico ao conjunto de riscos legais/regulatórios, o que identificamos como os riscos éticos para nossa indústria/organização e onde nos posicionamos sobre eles?

Há muitas perguntas difíceis que precisam de respostas aqui. Por exemplo, o que, pelas luzes da sua organização, conta como um modelo discriminatório? Suponha, por exemplo, que seu software de contratação de IA discrimine as mulheres, mas discrimina menos do que eles foram historicamente discriminados. Sua referência é suficientemente imparcial “melhor do que os humanos fizeram nos últimos 10 anos”? Ou existe algum outro benchmark que você acha apropriado? Aqueles no setor de carros autônomos conhecem bem essa questão: “Implantamos carros autônomos em escala quando eles são melhores do que o motorista humano médio ou quando são pelo menos tão bons quanto (ou melhores que) nossos melhores motoristas humanos?”

Questões semelhantes surgem no contexto dos modelos de caixa preta. Qual é a posição da sua organização em relação à explicabilidade? Existem casos em que você acha que o uso de uma caixa preta é aceitável (por exemplo, desde que ele teste bem em relação ao benchmark escolhido)? Quais são os critérios para determinar se uma IA com resultados explicáveis é otosa, agradável de se ter ou uma necessidade?

Aprofundar essas questões permite que você desenvolva estruturas e ferramentas para suas equipes de produto e os executivos que dão luz verde à implantação do produto. Por exemplo, você pode decidir que cada produto deve passar por um processo de due diligence de risco ético antes de ser implantado ou mesmo nos estágios iniciais do design do produto. Você também pode definir diretrizes sobre quando, se a qualquer momento, os modelos de caixa preta podem ser usados. Chegar a um ponto em que você possa articular quais são os padrões éticos mínimos que toda a IA deve atender é um bom sinal de que o progresso foi feito. Eles também são importantes para ganhar a confiança de clientes e clientes e demonstram que sua devida diligência foi realizada caso os reguladores investiguem se sua organização implantou um modelo discriminatório.

2) Identifique as lacunas entre onde você está agora e o que seus padrões exigem.

Existem várias “soluções” técnicas ou “correções” para problemas de ética da IA. Vários produtos de software, de grandes tecnologias a startups e organizações sem fins lucrativos, ajudam os cientistas de dados a aplicar métricas quantitativas de justiça aos resultados de seus modelos. Ferramentas como LIME e SHAP ajudam os cientistas de dados a explicar como os resultados são alcançados em primeiro lugar. Mas praticamente ninguém acha que essas soluções técnicas, ou qualquer solução tecnológica nesse sentido, mitigarão suficientemente o risco ético e transformarão sua organização em uma que atenda aos padrões éticos de IA.

Sua equipe de ética em IA deve determinar onde estão seus respectivos limites e como suas habilidades e conhecimentos podem se complementar. Isso significa perguntar:

  1. Qual, exatamente, é o risco que estamos tentando mitigar?
  2. Como a análise quantitativa/de software nos ajuda a mitigar esse risco?
  3. Quais lacunas deixam as análises quantitativas/de software?
  4. Que tipos de avaliações qualitativas precisamos fazer, quando precisamos fazê-las, com base em que as fazemos, e quem deve fazê-las, para que essas lacunas sejam preenchidas adequadamente?

Essas conversas também devem incluir uma peça crucial que é normalmente deixada de fora: que nível de maturidade tecnológica é necessário para satisfazer (algumas) demandas éticas (por exemplo, se você tem a capacidade tecnológica para fornecer explicações que são necessárias no contexto de redes neurais profundas). Ter conversas produtivas sobre quais metas de gerenciamento de risco ético de IA são alcançáveis requer ficar de olho no que é tecnologicamente viável para sua organização.

As respostas a essas perguntas podem fornecer orientações claras sobre as próximas etapas: avaliar quais soluções quantitativas podem ser combinadas com as práticas existentes pelas equipes de produto, avaliar a capacidade da organização para as avaliações qualitativas e avaliar como, em sua organização, essas coisas podem ser casadas de forma eficaz e sem problemas.

3) Compreender as fontes complexas dos problemas e operacionalizar soluções.

Muitas conversas sobre preconceitos na IA começam dando exemplos e falando imediatamente sobre “conjuntos de dados tendenciosos”. Às vezes, isso vai deslizar para a conversa sobre “preconceito implícito” ou “preconceito inconsciente”, que são termos emprestados da psicologia que não têm uma aplicação clara e direta para “conjuntos de dados tendenciosos”. Mas não basta dizer que “os modelos são treinados em conjuntos de dados tendenciosos” ou “a IA reflete nossas ações e políticas discriminatórias sociais históricas”.

O problema não é que essas coisas não sejam (às vezes, muitas vezes) verdadeiras; é que não pode ser o quadro completo. Compreender o viés na IA requer, por exemplo, falar sobre as várias fontes de resultados discriminatórios. Isso pode ser o resultado dos dados do treinamento; mas como, exatamente, esses conjuntos de dados podem ser tendenciosos é importante, se por nenhuma outra razão além disso, a forma como eles são tendenciosos informa como você determina a estratégia ideal de mitigação de viés. Outros problemas são abundantes: como as entradas são ponderadas, onde os limites são definidos e qual função objetivo é escolhida. Em resumo, a conversa em torno de algoritmos discriminatórios tem que ir fundo em torno da fonte. s do problema e como essas fontes se conectam a várias estratégias de mitigação de riscos.

. . .

Conversas produtivas sobre ética devem ser mais profundas do que exemplos gerais descritos por especialistas e não especialistas. Sua organização precisa das pessoas certas na mesa para que seus padrões possam ser definidos e aprofundados. Sua organização deve combinar frutuosamente suas abordagens quantitativas e qualitativas para mitigação de riscos éticos, para que possa fechar as lacunas entre onde está agora e onde deseja que esteja. E deve apreciar a complexidade das fontes de seus riscos éticos de IA. No final das contas, o risco ético da IA não é nebuloso ou teórico. É concreto. E merece e requer um nível de atenção que vai muito além da repetição de manchetes assustadoras.