
Os primeiros dias da inteligência artificial foram recebidos com uma torção muito pública das mãos. Tecnólogos e líderes empresariais respeitados expressaram suas preocupações com o desenvolvimento (responsável) da IA. E o apetite de Hollywood por narrativas distópicas de IA parece não ter fundo.
Isso não é incomum, nem é irracional. A mudança, tecnológica ou não, sempre excita a imaginação. E muitas vezes nos deixa um pouco desconfortáveis.
Mas, na minha opinião, nunca conhecemos uma tecnologia com mais potencial para beneficiar a sociedade do que a inteligência artificial. Agora temos sistemas de IA que aprendem com grandes quantidades de informações complexas e não estruturadas e as transformam em insights acionáveis. Não é irracional esperar que dentro desse crescente corpo de dados digitais — 2,5 exabytes todos os dias — mentem os segredos para derrotar o câncer, reverter as mudanças climáticas ou gerenciar a complexidade da economia global.
Também esperamos que os sistemas de IA apoiem generosamente as decisões que tomamos em nossas vidas profissionais e pessoais em apenas alguns anos. Na verdade, isso já está acontecendo em muitas indústrias e governos. No entanto, se quisermos colher todo o espectro de benefícios sociais e industriais da inteligência artificial, primeiro precisaremos confiar nisso.
A confiança dos sistemas de IA será conquistada ao longo do tempo, assim como em qualquer relacionamento pessoal. Simplificando, confiamos em coisas que se comportam como esperamos. Mas isso não significa que o tempo sozinho resolva o problema da confiança na IA. Os sistemas de IA devem ser construídos desde o início para operar em parcerias baseadas em confiança com pessoas.
O trabalho mais urgente é reconhecer e minimizar o viés. O viés pode ser introduzido em um sistema de IA através dos dados de treinamento ou dos algoritmos. Os dados selecionados que são usados para treinar o sistema podem ter vieses inerentes, por exemplo, em direção a um demográfico específico, seja porque os dados em si estão distorcidos, ou porque os curadores humanos exibiram viés em suas escolhas. Os algoritmos que processam essas informações também podem ter vieses no código, introduzidos por um desenvolvedor, intencionalmente ou não. A comunidade de desenvolvedores está apenas começando a lidar com esse tópico a sério. Mas a maioria dos especialistas acredita que, ao testar completamente esses sistemas, podemos detectar e mitigar o viés antes que o sistema seja implantado.
O gerenciamento de viés é um elemento da maior questão da responsabilidade algorítmica. Ou seja, os sistemas de IA devem ser capazes de explicar como e por que chegaram a uma conclusão específica para que um humano possa avaliar a lógica do sistema. Muitas profissões, como medicina, finanças e direito, já exigem capacidade de auditoria baseada em evidências como prática normal para fornecer transparência na tomada de decisões e gerenciar a responsabilidade. Em muitos casos, os sistemas de IA podem precisar explicar a lógica por meio de uma interação conversacional (em vez de um relatório), para que uma pessoa possa investigar o máximo de detalhes necessário.
Além disso, os sistemas de IA podem e devem ter mecanismos para inserir uma variedade de valores éticos apropriados ao contexto, como a tarefa, o indivíduo, a profissão ou a cultura. Isso não é tão difícil quanto parece. Sistemas éticos são construídos em torno de regras, assim como algoritmos de computador. Essas regras podem ser inseridas durante o desenvolvimento, a implantação ou o uso. E como esses são sistemas de aprendizagem, os pesquisadores acreditam que os sistemas de IA podem, ao longo do tempo, observar o comportamento humano para preencher algumas das lacunas.
Cabe aos desenvolvedores de sistemas de IA responder a essas perguntas de uma forma que satisfaça tanto o setor quanto o público em geral. Isso já é bem compreendido em todo o setor de tecnologia, e é por isso que a IBM está trabalhando em conjunto com alguns de seus concorrentes mais ferozes - incluindo Google, Microsoft, Amazon e Facebook - no “Parceria sobre IA”, uma colaboração única e aberta projetada para orientar o desenvolvimento ético da inteligência artificial.
Líderes empresariais que consideram soluções de inteligência artificial devem incluir confiança e responsabilidade como parte de seus critérios de adoção. Eles devem ser atenciosos sobre como e onde essa tecnologia é introduzida em toda a organização. E eles devem trabalhar com seus fornecedores de tecnologia para identificar quaisquer comportamentos indesejados e corrigi-los, se necessário.
Mas atrasar a implementação da inteligência artificial não é uma opção. Pagamos um preço significativo todos os dias por não saber o que pode ser conhecido: não saber o que há de errado com um paciente, não saber onde encontrar um recurso natural crítico ou não conhecer os riscos ocultos na economia global. Acreditamos que muitas dessas ambiguidades e ineficiências podem ser eliminadas com inteligência artificial.
A inteligência artificial é uma tecnologia inegavelmente poderosa. E, como acontece com qualquer tecnologia poderosa, muito cuidado deve ser tomado em seu desenvolvimento e implantação. Assim como é nossa obrigação aplicar essa tecnologia a problemas complexos e sociais, é nossa obrigação desenvolvê-la de uma forma que engendre confiança e proteja a humanidade. Em outras palavras, construir confiança é essencial para a adoção da inteligência artificial. E acreditamos que sua adoção é essencial para a humanidade.