Artigo

IA Responsável: Do Gerenciamento de Risco ao Impulsionamento do Valor Empresarial

Autor: David Ellison

Resumo

A Lenovo estabeleceu o comitê de IA Responsável e criou seis pilares para a prática de IA Responsável da Lenovo. São eles: diversidade e inclusão, privacidade e segurança, responsabilidade e confiabilidade, explicabilidade, transparência e impacto ambiental e social. As práticas de IA Responsável estão impulsionando o valor empresarial para os clientes.

Introdução

Muitas organizações começaram a ver o valor de mitigar os riscos da IA. Relatos de processos de contratação discriminatórios usando IA até violações de privacidade em reconhecimento facial colocaram a IA nas agendas dos conselhos e nas conversas de CEOs e CIOs. No entanto, esse impulso para a IA ética não pode vir apenas de cima para baixo, ele precisa ser construído de baixo para cima. Somente assim as organizações podem não apenas evitar armadilhas na IA, mas também começar a entregar valor a partir de suas práticas de IA Responsável.

O que é IA Responsável?

IA Responsável abrange uma ampla gama de desafios no espaço da IA. Garante que a IA seja legal, ética, justa, preservadora da privacidade, segura e explicável, para citar alguns dos tópicos abordados.

Na Lenovo, estabelecemos o Comitê de IA Responsável da Lenovo reunindo um grupo de 20 pessoas de diversas origens para decidir os princípios que a IA deve apoiar na organização. Juntos, decidimos que os seis pilares da IA Responsável na Lenovo seriam:

  • Diversidade e Inclusão
  • Privacidade e Segurança
  • Responsabilidade e Confiabilidade
  • Explicabilidade
  • Transparência
  • Impacto Ambiental e Social

Neste artigo, revisaremos cada um desses pilares e os tipos de perguntas que sua organização pode fazer sobre projetos de IA. Tanto projetos internos quanto fornecedores externos passam por um processo de validação com o Comitê de IA Responsável da Lenovo e devem receber aprovação do Comitê para se tornarem uma oferta. Depois de fazer esses compromissos internamente, a Lenovo prometeu externamente manter esses pilares na última seção de Governança Ambiental, Social e Corporativa (ESG) do Relatório Anual.

Seis Pilares da IA Responsável

Embora muitas organizações e governos dividam a IA Responsável em diferentes categorias, todos abrangem os mesmos tópicos básicos. Alguns exemplos incluem Google, Microsoft e União Europeia. Para a Lenovo, cobrimos nossos seis pilares da seguinte forma:

  • Diversidade e Inclusão
  • Privacidade e Segurança
  • Responsabilidade e Confiabilidade
  • Explicabilidade
  • Transparência
  • Impacto Ambiental e Social

Diversidade e Inclusão

Para ser considerada IA Responsável, o projeto de IA deve funcionar para todos os subgrupos de pessoas. Embora o viés da IA raramente possa ser eliminado completamente, ele pode ser efetivamente gerenciado. Essa mitigação pode ocorrer durante o processo de coleta de dados – para incluir um histórico mais diversificado de pessoas no conjunto de dados de treinamento – e também pode ser usado no momento da inferência para ajudar a equilibrar a precisão entre diferentes agrupamentos de pessoas.

Perguntas comuns incluem:

  • Você avaliou e implementou processos para testar e monitorar possíveis vieses durante todo o ciclo de vida do sistema de IA (por exemplo, vieses devido a possíveis limitações decorrentes da composição dos conjuntos de dados usados)?
  • Quando relevante, você considerou a diversidade e representatividade dos usuários finais e/ou sujeitos nos dados?

Privacidade e Segurança

A IA deve proteger a privacidade individual e de grupo, tanto em suas entradas quanto em suas saídas. O algoritmo não deve incluir dados que foram coletados de maneira que viole a privacidade e não deve dar resultados que violem a privacidade dos sujeitos, mesmo quando atores mal-intencionados tentam forçar tais erros. A aplicação da IA também deve ser protegida contra ameaças cibernéticas e ameaças específicas de segurança da IA, como envenenamento de dados.

Algumas perguntas que precisam ser feitas incluem:

  • Você considerou o impacto do sistema de IA no direito à privacidade?
  • Você auditou seu sistema de IA para risco cibernético? Você definiu riscos, métricas de risco e níveis de risco do sistema de IA?

Responsabilidade e Confiabilidade

Alguém deve ser responsável quando a aplicação de IA toma uma decisão. A menos que essas decisões sejam tomadas com antecedência, pode resultar em ninguém assumindo responsabilidade por resultados ruins, o que oferece pouca proteção ao cliente. Além disso, as aplicações de IA devem ser confiáveis. Elas não devem fornecer previsões drasticamente diferentes com base em mudanças mínimas na entrada. Quando falham, o usuário deve ser capaz de reconhecer e reagir à falha, em vez de falhar silenciosamente.

Perguntas a fazer incluem:

  • Você implementou testes de estresse em relação ao seu Sistema de IA (ponto mínimo de falha, ataques adversários, etc)?
  • Você estabeleceu mecanismos que facilitam a auditabilidade do sistema de IA e estabeleceu um quadro de responsabilidade em caso de falha da IA (por exemplo, rastreabilidade do processo de desenvolvimento, a origem dos dados de treinamento e o registro dos processos do sistema de IA, resultados, impactos positivos e negativos)?

Explicabilidade

Muitas aplicações de IA podem ser “caixas-pretas” nas quais a entrada e a saída são conhecidas, mas nada do processo decisório é compreendido. Embora isso possa ser aceitável em certas aplicações de baixo risco, há muitas situações em que a razão para uma decisão ser tomada é quase tão importante quanto a decisão em si. Por exemplo, uma aplicação de diagnóstico de imagem médica que não indica onde no MRI um problema foi detectado é de valor limitado.

  • Você explicou as decisões do sistema de IA aos usuários de forma fácil de entender? Quais algoritmos você usa para melhorar a explicabilidade, se houver?
  • O conjunto de dados que você usou é um conjunto de dados padronizado com descrição suficiente?

Transparência

Muitas vezes é importante saber quais dados foram usados para tomar uma decisão e qual versão de um modelo foi usada para tomar uma decisão. Quando uma aplicação de IA toma uma decisão, o usuário pode solicitar saber exatamente quais dados foram usados para chegar àquela decisão? Se um modelo mais recente é lançado que não funciona bem, a organização pode voltar e corrigir as decisões ruins que o novo modelo fez? Além disso, o usuário sabe que está interagindo com um agente de IA, ou ele fica se perguntando se está lidando com uma pessoa real?

Perguntas a fazer incluem:

  • Você implementou medidas que abordam a rastreabilidade do sistema de IA durante todo o seu ciclo de vida? Você implementou medidas para avaliar continuamente a qualidade dos dados de entrada para a aplicação de IA?
  • Em casos de aplicações interativas de IA (por exemplo, chatbots, robô-advogados), você comunica aos usuários que eles estão interagindo com uma aplicação de IA em vez de um humano?

Impacto Ambiental e Social

Os efeitos de um projeto de IA devem ser avaliados em termos de seu impacto no ambiente e nos sujeitos e usuários. Os resultados das decisões do projeto de IA sobre o ambiente devem ser considerados quando aplicável. Um fator que é aplicável em quase todos os casos é uma avaliação da quantidade de energia necessária para treinar os modelos requeridos. Além disso, normas sociais, como a tomada de decisão democrática, a manutenção de valores e a prevenção do vício em aplicações de IA, devem ser mantidas.

Perguntas que podem ser feitas:

  • Onde possível, você estabeleceu mecanismos para avaliar o impacto ambiental do desenvolvimento, implantação e/ou uso do sistema de IA (por exemplo, a quantidade de energia usada e emissões de carbono)?
  • Você avaliou e tentou mitigar o impacto social do uso do sistema de IA além do usuário final e do sujeito, como partes interessadas potencialmente indiretamente afetadas ou a sociedade em geral?

Impulsionando o Valor Empresarial

Os riscos em não prestar atenção à IA Responsável são bem conhecidos – processos judiciais e má imprensa por práticas discriminatórias ou violações de privacidade, para citar alguns. O que é menos conhecido é que as práticas de IA Responsável podem impulsionar o valor empresarial.

Os clientes estão notando as aplicações de IA que consideram suas circunstâncias, origens e habilidades únicas (Diversidade e Inclusão) e escolhendo usar aplicações que simplesmente funcionam melhor para eles. Eles estão escolhendo aplicações de IA que preservam sua privacidade (Privacidade) e não os expõem a riscos cibernéticos desnecessários (Segurança).

Aplicações de IA nas quais o cliente sabe que alguém está por trás delas (Responsabilidade) e que podem produzir resultados consistentes (Confiabilidade) são mais propensas a serem usadas. Quem quer usar uma aplicação que pequenas mudanças na entrada produzem respostas drasticamente diferentes? O mesmo vale para Explicabilidade e Rastreabilidade – quem quer usar uma aplicação de IA que não pode dizer por que tomou aquela decisão específica e não pode dizer quais dados foram usados para tomar uma decisão?

Finalmente, os clientes estão escolhendo aplicações verdes em vez de ineficientes e desperdiçadoras (Impacto Ambiental) e aplicações que eles acham que estão apoiando o bem comum (Impacto Social). Em resumo, fazer IA Responsável permite alcançar mais clientes e oferecer um serviço melhor aos clientes que você já tem, o que naturalmente impulsionará o resultado final. IA Responsável passou de um bom adicional para necessário em poucos anos.

 

Sobre o autor

David Ellison é o Chefe de Cientista de Dados da Lenovo ISG. Através dos Centros de Descoberta de IA da Lenovo nos EUA e na Europa, ele lidera uma equipe que usa técnicas de IA de ponta para entregar soluções para clientes externos enquanto apoia internamente a estratégia geral de IA para o Grupo de Soluções de Infraestrutura Mundial. Antes de ingressar na Lenovo, ele dirigiu uma empresa internacional de análise e equipamentos científicos e trabalhou como Cientista de Dados para o Serviço Postal dos EUA. Antes disso, obteve um PhD em Engenharia Biomédica pela Universidade Johns Hopkins. Ele tem várias publicações em revistas de alto nível, incluindo duas nos Anais da Academia Nacional de Ciências.

Famílias de produtos relacionados

Famílias de produtos relacionadas a este documento são as seguintes:

Marcas Registradas

Lenovo e o logotipo da Lenovo são marcas registradas ou marcas comerciais da Lenovo nos Estados Unidos, em outros países, ou ambos. Uma lista atual de marcas registradas da Lenovo está disponível na Web em https://www.lenovo.com/us/en/legal/copytrade/.

Os seguintes termos são marcas registradas da Lenovo nos Estados Unidos, em outros países, ou ambos:

Lenovo®

Os seguintes termos são marcas registradas de outras empresas:

Microsoft® é uma marca registrada da Microsoft Corporation nos Estados Unidos, em outros países, ou ambos.

Outros nomes de empresas, produtos ou serviços podem ser marcas registradas ou marcas de serviço de terceiros.

Aproveite todos os recursos computacionais de Edge conectados a devices inteligentes para garantir o processamento e a gestão dos dados gerados da ponta até a nuvem.

Falar com um especialista

IDG_24FY_EDGE

Acompanhe todas as nossas novidades também pelas redes sociais.