
«La gobernanza de IA no es solo una tendencia, es una necesidad para garantizar el desarrollo sostenible de esta tecnología».
Camila Carnés
1. Introducción.
La inteligencia artificial está transformando la manera en que trabajamos, tomamos decisiones y nos relacionamos con la tecnología. Desde modelos de recomendación hasta sistemas de automatización en sectores críticos, su impacto es innegable. Sin embargo, para que la IA sea un verdadero motor de innovación, debe desarrollarse y usarse con responsabilidad, garantizando transparencia, equidad, cumplimiento normativo y sobre todas las cosas, respetando los derechos humanos fundamentales.
Como especialista en gobernanza de IA y protección de datos en Latinoamérica, veo a diario como empresas y organismos buscan equilibrar el potencial de la IA con los desafíos regulatorios que plantean normativas de protección de datos como la LGPD en Brasil, la Ley Federal de Protección de Datos en México, la Ley de Protección de datos en Colombia o Argentina, entre otras. En paralelo, marcos internacionales como el NIST AI Risk Management Framework, la norma ISO/IEC 42001 y el EU AI Act están sentando las bases de una gobernanza efectiva a nivel global así como respecto de proyectos de ley sobre IA emergentes en toda la región.
2. ¿Por qué es clave la gobernanza de IA?
Porque nos permite asegurar que los sistemas de IA sean:
1) Transparentes y explicables para generar confianza en usuarios y reguladores.
2) Éticos y justos para mitigar sesgos y discriminación algorítmica.
3) Seguros y resilientes ante ataques y vulnerabilidades.
4) Conformes con la normativa vigente para evitar sanciones y proteger derechos fundamentales.
3. Buenas prácticas en gobernanza de IA.
3.1. Transparencia y explicabilidad.
La IA no puede ser una «caja negra». Para que los sistemas sean auditables y comprensibles, es clave seguir marcos como el NIST AI RMF y la ISO/IEC 42001, documentando decisiones algorítmicas y asegurando trazabilidad en los modelos. Además, todos los proyectos de ley sobre IA en LATAM, cuentan con el requisito de explicabilidad y transparencia, algunos accionables que destaco son:
- Documentar contrataciones de terceros.
- Documentar risk assessments de cada proyecto.
- Adoptar metodologías de explicabilidad apropiadas al nivel de riesgo del modelo.
- Establecer canales de comunicación con stakeholders para brindar información accesible y comprensible sobre el uso de IA.
- Permitir auditorías y validaciones para garantizar la trazabilidad y confiabilidad de los modelos.
- Documentar modelos de IA con información clara sobre su diseño, entrenamiento y decisiones.
3.2. Privacidad desde el diseño.
Las leyes de protección de datos de Latinoamérica exigen que cualquier desarrollo, incluidos los de IA, garanticen la privacidad desde su concepción. Aplicar Privacy by Design, realizar Evaluaciones de Impacto en la Privacidad (DPIAs), disponibilizar declaraciones de privacidad que contemplen todas las finalidades, brindarle a los usuarios la posibilidad de ejercer sus derechos ARCO y minimizar la recolección de datos son pasos esenciales para cumplir con las regulaciones locales.
3.3. Mitigación de sesgos y equidad.
El EU AI Act clasifica los sistemas de IA según su nivel de riesgo y enfatiza la necesidad de mitigar sesgos algorítmicos. Auditorías continuas y uso de datos representativos son estrategias clave para evitar discriminación y sesgos en los modelos. Algunas recomendaciones son:
- Evaluar y corregir sesgos algorítmicos en las fases de entrenamiento y despliegue.
- Implementar auditorías periódicas para verificar el impacto de los modelos en distintos grupos poblacionales.
- Garantizar la diversidad en los conjuntos de datos y ajustar algoritmos para evitar discriminación.
- Seguir las recomendaciones del EU AI Act para sistemas de alto riesgo.
3.4. Gestión de riesgos.
Estándares internacionales como el NIST AI Risk Management Framework y la norma ISO/IEC 42001 establecen la necesidad de un marco de gobernanza con roles y responsabilidades claras. Los especialistas en riesgos sabemos que el riesgo 0 no existe, la mejor manera de gestionarlos es estar preparados para mitigarlos de la mejor manera posible, para eso, recomiendo:
- Definir una política de gestión de riesgos en IA basada en impacto y criticidad.
- Desarrollar un ciclo de vida de gestión de riesgos con procesos de monitoreo continuo.
- Desarrollar un catálogo de riesgos que contenga mitigantes y acciones claras de prevención.
- Implementar mecanismos de supervisión que incluyan auditorías internas y externas.
- Definir responsables para cada etapa del proceso.
3.5. Seguridad y robustez.
La seguridad en IA no es opcional. Implementar controles alineados con ISO/IEC 27001 y marcos de ciberseguridad del NIST ayuda a prevenir ataques, algunas recomendaciones son:
- Implementar protocolos de seguridad alineados con ISO/IEC 27001 y NIST Cybersecurity Framework.
- Proteger los modelos contra ataques adversos y manipulación de datos.
- Realizar pruebas de robustez y resiliencia antes del despliegue en producción.
- Asegurar la disponibilidad de un plan de respuesta ante incidentes de IA
- Desarrollar una política de incidentes de seguridad y privacidad.
3.6. Cumplimiento normativo y auditoría.
Desde el EU AI Act hasta las regulaciones emergentes en Latinoamérica, indican que las empresas deben asegurar que sus sistemas de IA sean auditables y cumplan con estándares globales y locales. La documentación clara y la supervisión regulatoria son fundamentales para evitar riesgos. Otro punto clave dentro de las empresas es promover la capacitación y concienciación en ética y cumplimiento en IA. Desde mi experiencia recomiendo:
- Mantener documentación detallada sobre decisiones, procesos y versiones de modelos de IA.
- Implementar mecanismos de auditoría continua para verificar la conformidad con normativas internacionales y locales.
- Crear un comité de gobernanza de IA para supervisar el cumplimiento y evaluar riesgos emergentes.
- Asegurar la alineación con marcos regulatorios en evolución en LATAM y marcos internacionales que servirán como base.
4. El futuro de la IA y de las personas, depende de cómo la gobernemos hoy.
Estamos viviendo un momento bisagra, similar al que se vivió con la creación de internet o de las máquinas y como pasa con todo lo nuevo, es difícil aprender a usarlo y más aún hacerlo de la mejor manera. En este momento es clave hacer red y compartir experiencias porque en un mundo donde la regulación y la tecnología evolucionan a gran velocidad, conectar con colegas nos permite aprender de quienes han abierto camino en el sector, compartir estrategias para afrontar desafíos regulatorios e inspirarnos y empoderarnos mutuamente para seguir impulsando el cambio.
Las empresas deben trabajar en conjunto con equipos legales, técnicos y de negocio para construir una IA confiable y alineada con los valores éticos y normativos. La gobernanza de IA no es solo una tendencia, es una necesidad para garantizar el desarrollo sostenible de esta tecnología.
¿Cómo está abordando tu organización la gobernanza de IA?
¡Sigamos la conversación!
Este artículo es de propiedad de su autora Camila Carnés y como tal goza de la correspondiente protección de derecho de autor, de acuerdo a los términos de la Ley 11.723 de Propiedad Intelectual (ARG). El contenido de este artículo es exclusiva responsabilidad de la autora y no refleja ni compromete la posición ni la opinión de la compañía para la cual trabaja ni las organizaciones que representa.
Todocompliance.com reserva para sí el derecho a usar, copiar y reproducir total o parcialmente el contenido del presente, no obstante, no asume responsabilidad alguna por la veracidad, corrección y/o actualización del mismo. Queda prohibida su reproducción sin autorización previa y expresa de Todocompliance.com.