Responsabilidad y ética en el desarrollo de la IA

Responsabilidad y ética en el desarrollo de la IA
Blanca Lilia Ibarra
Blanca Lilia Ibarra

La columna de Blanca Lilia Ibarra Cadena

Cuando la innovación tecnológica es exponencial y permanente, y su uso está cada vez más presente en nuestras vidas, los esfuerzos por construir marcos regulatorios bajo los principios de una buena gobernanza, requieren de un enfoque multidisciplinario, abierto, transparente e inclusivo para fomentar la innovación y el progreso, y para garantizar su desarrollo ético y responsable.

Ese es el caso de la inteligencia artificial, cuyo uso ha modificado rápidamente diversas actividades: desde temas relacionados con nuestra salud, educación, economía, relaciones laborales y el medio ambiente, hasta en tareas de seguridad nacional y defensa.

Es cierto que la IA representa oportunidades significativas pero también trae consigo desafíos que requieren una atención ética y regulatoria cuidadosa. Por ello, crear marcos regulatorios de su ecosistema es un tema que debe ser prioritario en la agenda mundial. Pues si bien se han visto sus primeros frutos con las recientes aprobaciones de iniciativas en Europa, aún queda un largo camino para conformar esquemas de colaboración y coordinación con otros países y regiones del mundo.

En el caso de nuestro país, la Alianza Nacional para la Inteligencia Artificial y la UNESCO han establecido sinergias para liderar los esfuerzos en la materia e identificar políticas, principios y estándares que permiten fomentar la innovación y el progreso tecnológico al tiempo que se protegen los derechos y valores humanos fundamentales.

Como parte de ess esfuerzos por regular la IA se creó la Metodología de Evaluación del Estadío de Preparación (Readiness Assessment Methodology, RAM por sus siglas en inglés), un trabajo liderado por la Senadora Alejandra Lagunes, Gabriela Ramos de la UNESCO, y por María Elena Estavillo de Centroi, que unió a organizaciones nacionales e internacionales, organismos autónomos, autoridades y actores interesados para brindar un diagnóstico sobre las necesidades de regulación y estándares éticos, así como los diseños de esquemas de gobernanza que tiene México en la Inteligencia Artificial.

Este documento permite a México sumarse a los más de 60 países que utilizan esta metodología, y puede resumirse en cuatro recomendaciones y líneas de acción:  1) La elaboración de un mapa funcional del ecosistema; 2) La integración de un marco jurídico para la IA que parta de la consideración de las normas existentes aplicables; 3) Crear el diseño institucional y de gobernanza de la IA que responda a los objetivos y las necesidades de las políticas públicas y la regulación; y 4) Publicar la Estrategia Nacional de Inteligencia Artificial, que debe considerar la ciberseguridad y un enfoque ético incluyente que coloque en el centro a las personas considerando su sostenibilidad ambiental, la atención de las nuevas demandas educativas y laborales, así como la necesidad del impulso a la infraestructura.

Entre las fortalezas identificadas en el reporte “México: Evaluación del estadio de preparación de la inteligencia artificial de UNESCO” podemos citar: el marco jurídico vigente en materia de derechos humanos, principalemente en materia de protección de datos personales y privacidad; la existencia de los organismos autónomos, el sistema nacional de información y estadística y la activa colaboración de la sociedad civil, el sector privado, los gobiernos locales y el Poder Legislativo. 

Sin duda, este análisis propone soluciones tangibles para mejorar el desarrollo, el uso de la IA y el conocimiento que debemos tener del entorno, así como las mejoras regulatorias, la creación de un diseño institucional y la Estrategia Nacional para promover una innovación tecnológica más ética y transparente.

 

@bl_ibarra