Autor: David Ellison
Resumen
Lenovo estableció el comité de IA Responsable y creó seis pilares para la práctica de IA Responsable de Lenovo. Estos son: diversidad e inclusión, privacidad y seguridad, responsabilidad y fiabilidad, explicabilidad, transparencia e impacto ambiental y social. Las prácticas de IA Responsable están impulsando el valor empresarial para los clientes.
Introducción
Muchas organizaciones han comenzado a ver el valor de mitigar los riesgos de la IA. Informes de noticias sobre procesos de contratación discriminatorios usando IA hasta violaciones de privacidad en reconocimiento facial han puesto la IA en las agendas de las juntas y en las conversaciones de los CEOs y CIOs. Sin embargo, este impulso hacia una IA ética no puede venir solo de arriba hacia abajo, debe construirse desde abajo hacia arriba. Solo así las organizaciones no solo pueden evitar las trampas en la IA, sino también comenzar a entregar valor desde sus prácticas de IA Responsable.
¿Qué es la IA Responsable?
La IA Responsable abarca una amplia gama de desafíos en el espacio de la IA. Asegura que la IA sea legal, ética, justa, que preserve la privacidad, sea segura y explicable, por nombrar algunos de los temas cubiertos.
En Lenovo, establecimos el Comité de IA Responsable de Lenovo reuniendo a un grupo de 20 personas de diversos orígenes para decidir los principios que la IA debe apoyar en la organización. Juntos decidimos que los seis pilares de la IA Responsable en Lenovo serían:
- Diversidad e Inclusión
- Privacidad y Seguridad
- Responsabilidad y Fiabilidad
- Explicabilidad
- Transparencia
- Impacto Ambiental y Social
En este artículo, revisaremos cada uno de estos pilares y los tipos de preguntas que su organización puede hacer sobre proyectos de IA. Tanto los proyectos internos como los proveedores externos pasan por un proceso de validación con el Comité de IA Responsable de Lenovo y deben obtener la aprobación del Comité para ser ofrecidos. Después de hacer estos compromisos internamente, Lenovo ha prometido externamente mantener estos pilares en la última sección de Gobernanza Ambiental, Social y Corporativa (ESG) del Informe Anual.
Seis Pilares de la IA Responsable
Aunque muchas organizaciones y gobiernos dividen la IA Responsable en diferentes categorías, todos cubren los mismos temas básicos. Algunos ejemplos incluyen Google, Microsoft y la Unión Europea. Para Lenovo, cubrimos nuestros seis pilares de la siguiente manera:
- Diversidad e Inclusión
- Privacidad y Seguridad
- Responsabilidad y Fiabilidad
- Explicabilidad
- Transparencia
- Impacto Ambiental y Social
Diversidad e Inclusión
Para ser considerada IA Responsable, el proyecto de IA debe funcionar para todos los subgrupos de personas. Aunque el sesgo de la IA rara vez puede eliminarse completamente, se puede gestionar eficazmente. Esta mitigación puede ocurrir durante el proceso de recolección de datos - para incluir un fondo más diverso de personas en el conjunto de datos de entrenamiento - y también se puede usar en el momento de la inferencia para ayudar a equilibrar la precisión entre diferentes agrupaciones de personas.
Preguntas comunes incluyen:
- ¿Evaluaste e implementaste procesos para probar y monitorear posibles sesgos durante todo el ciclo de vida del sistema de IA (por ejemplo, sesgos debido a posibles limitaciones derivadas de la composición de los conjuntos de datos utilizados)?
- ¿Consideraste la diversidad y representatividad de los usuarios finales y/o sujetos en los datos?
Privacidad y Seguridad
La IA debe proteger la privacidad individual y grupal, tanto en sus entradas como en sus salidas. El algoritmo no debe incluir datos que se hayan recopilado de manera que viole la privacidad y no debe dar resultados que violen la privacidad de los sujetos, incluso cuando actores malintencionados intenten forzar tales errores. La aplicación de IA también debe estar protegida contra amenazas cibernéticas y amenazas de seguridad específicas de la IA, como el envenenamiento de datos.
Algunas preguntas que deben hacerse incluyen:
- ¿Consideraste el impacto del sistema de IA en el derecho a la privacidad?
- ¿Auditaste tu sistema de IA para riesgo cibernético? ¿Definiste riesgos, métricas de riesgo y niveles de riesgo del sistema de IA?
Responsabilidad y Fiabilidad
Alguien debe ser responsable cuando la aplicación de IA toma una decisión. A menos que estas decisiones se tomen de antemano, puede resultar en que nadie asuma la responsabilidad de los malos resultados, lo que ofrece poca protección al cliente. Además, las aplicaciones de IA deben ser confiables. No deben proporcionar predicciones drásticamente diferentes basadas en cambios mínimos en la entrada. Cuando fallen, el usuario debe poder reconocer y reaccionar al fallo, en lugar de que falle silenciosamente.
Preguntas a hacer incluyen:
- ¿Implementaste pruebas de estrés con respecto a tu Sistema de IA (punto mínimo de fallo, ataques adversarios, etc)?
- ¿Estableciste mecanismos que faciliten la auditabilidad del sistema de IA y estableciste un marco de responsabilidad en caso de fallo de la IA (por ejemplo, rastreabilidad del proceso de desarrollo, la fuente de los datos de entrenamiento y el registro de los procesos del sistema de IA, resultados, impacto positivo y negativo)?
Explicabilidad
Muchas aplicaciones de IA pueden ser "cajas negras" en las que la entrada y salida son conocidas, pero nada del proceso de toma de decisiones se entiende. Aunque esto puede ser aceptable en ciertas aplicaciones de bajo riesgo, hay muchas situaciones en las que la razón para tomar una decisión es casi tan importante como la decisión determinada. Por ejemplo, una aplicación de diagnóstico de imágenes médicas que no indica dónde en la resonancia magnética se detectó un problema es de valor limitado.
- ¿Explicaste las decisiones del sistema de IA a los usuarios de manera fácil de entender? ¿Qué algoritmos usas para mejorar la explicabilidad, si los hay?
- ¿El conjunto de datos que utilizaste es un conjunto de datos estandarizado con suficiente descripción?
Transparencia
A menudo es importante saber qué datos se utilizaron para tomar una decisión y qué versión de un modelo se usó para tomar una decisión. Cuando una aplicación de IA toma una decisión, ¿puede el usuario solicitar saber exactamente qué datos se usaron para llegar a esa decisión? Si se lanza un modelo más reciente que no funciona bien, ¿puede la organización volver atrás y corregir las decisiones erróneas que hizo el nuevo modelo? Además, ¿sabe el usuario que está interactuando con un agente de IA, o se queda preguntándose si está tratando con una persona real?
Preguntas a hacer incluyen:
- ¿Implementaste medidas que abordan la rastreabilidad del sistema de IA durante todo su ciclo de vida? ¿Implementaste medidas para evaluar continuamente la calidad de los datos de entrada para la aplicación de IA?
- En casos de aplicaciones interactivas de IA (por ejemplo, chatbots, abogados-robot), ¿comunicas a los usuarios que están interactuando con una aplicación de IA en lugar de un humano?
Impacto Ambiental y Social
Los efectos de un proyecto de IA deben evaluarse en términos del impacto que tendrá en el medio ambiente y en los sujetos y usuarios. Los resultados de las decisiones del proyecto de IA sobre el medio ambiente deben considerarse cuando corresponda. Un factor que es aplicable en casi todos los casos es una evaluación de la cantidad de energía necesaria para entrenar los modelos requeridos. Además, se deben mantener normas sociales como la toma de decisiones democrática, el mantenimiento de valores y la prevención de la adicción a aplicaciones de IA.
Preguntas que pueden hacerse:
- ¿Estableciste mecanismos para evaluar el impacto ambiental del desarrollo, despliegue y/o uso del sistema de IA (por ejemplo, la cantidad de energía utilizada y las emisiones de carbono)?
- ¿Evaluaste y trataste de mitigar el impacto social del uso del sistema de IA más allá del usuario final y el sujeto, como las partes interesadas potencialmente afectadas indirectamente o la sociedad en general?
Impulsando el Valor Empresarial
Los riesgos de no prestar atención a la IA Responsable son bien conocidos: demandas y mala prensa por prácticas discriminatorias o violaciones de privacidad, por nombrar algunos. Lo que es menos conocido es que las prácticas de IA Responsable pueden impulsar el valor empresarial.
Los clientes están notando las aplicaciones de IA que consideran sus circunstancias, orígenes y habilidades únicas (Diversidad e Inclusión) y eligiendo usar aplicaciones que simplemente funcionan mejor para ellos. Están eligiendo aplicaciones de IA que preservan su privacidad (Privacidad) y no los exponen a riesgos cibernéticos innecesarios (Seguridad).
Aplicaciones de IA en las que el cliente sabe que alguien está detrás de ellas (Responsabilidad) y que pueden producir resultados consistentes (Fiabilidad) son más propensas a ser utilizadas. ¿Quién quiere usar una aplicación que pequeños cambios en la entrada producen respuestas drásticamente diferentes? Lo mismo ocurre con la Explicabilidad y la Rastreabilidad: ¿quién quiere usar una aplicación de IA que no puede decir por qué tomó esa decisión en particular y no puede decir qué datos se usaron para tomar una decisión?
Finalmente, los clientes están eligiendo aplicaciones verdes en lugar de ineficientes y derrochadoras (Impacto Ambiental) y aplicaciones que creen que están apoyando el bien común (Impacto Social). En resumen, hacer IA Responsable te permite alcanzar más clientes y ofrecer un mejor servicio a los clientes que ya tienes, lo que naturalmente impulsará el resultado final. La IA Responsable ha pasado de ser un buen complemento a necesario en pocos años.
Sobre el autor
David Ellison es el Jefe de Científico de Datos de Lenovo ISG. A través de los Centros de Descubrimiento de IA de Lenovo en EE. UU. y Europa, lidera un equipo que utiliza técnicas de IA de vanguardia para entregar soluciones a clientes externos mientras apoya internamente la estrategia general de IA para el Grupo de Soluciones de Infraestructura Mundial. Antes de unirse a Lenovo, dirigió una empresa internacional de análisis y equipos científicos y trabajó como Científico de Datos para el Servicio Postal de EE. UU. Anteriormente, obtuvo un doctorado en Ingeniería Biomédica de la Universidad Johns Hopkins. Tiene numerosas publicaciones en revistas de alto nivel, incluyendo dos en los Anales de la Academia Nacional de Ciencias.
Familias de productos relacionados
Las familias de productos relacionadas con este documento son las siguientes:
Marcas Registradas
Lenovo y el logotipo de Lenovo son marcas registradas o marcas comerciales de Lenovo en Estados Unidos, otros países, o ambos. Una lista actual de marcas registradas de Lenovo está disponible en la Web en https://www.lenovo.com/us/en/legal/copytrade/.
Los siguientes términos son marcas registradas de Lenovo en Estados Unidos, otros países, o ambos:
Lenovo®
Los siguientes términos son marcas registradas de otras compañías:
Microsoft® es una marca registrada de Microsoft Corporation en Estados Unidos, otros países, o ambos.
Otros nombres de compañías, productos o servicios pueden ser marcas registradas o marcas de servicio de terceros.