Sustitución de Capacidades por la Inteligencia Artificial aplicadas en las Políticas Públicas: Riesgos y Dilemas Éticos

Autor principal:
Edgar Alejandro Ruvalcaba Gómez (Universidad de Guadalajara)
Programa:
Sesión 1, Sesión 1
Día: lunes, 22 de julio de 2024
Hora: 10:30 a 12:15
Lugar: ROMEROS (340)

Actualmente estamos viviendo cambios socio-tecnológicos que muestran cómo las máquinas están sustituyendo capacidades humanas. Esto hace pertinente analizar diversas capacidades humanas que la IA está sustituyendo en el sector público. La IA se está configurando como un desarrollo tecnológico que está generando cambios disruptivos en la sociedad. Este desarrollo tecnológico se está implementando en el sector público con la intención de mejorar los servicios y las capacidades de los funcionarios para brindar eficiencia y efectividad en la gestión pública, así como para resolver problemas públicos que requieren el uso de tecnologías avanzadas. Sin embargo, existe una amplia gama de capacidades que la IA puede realizar y que los funcionarios públicos perciben y aplican de diferentes maneras. 

La adopción de la IA en el sector público representa un desafío organizacional que cada vez toma mayor relevancia, esto debido a las transformaciones que se enfrentan ante el desarrollo tecnológico de capacidades por parte de las máquinas, así como las habilidades de los servidores públicos para el manejo y uso de las aplicaciones de IA. En esta transformación se enfrentan desafíos y dilemas éticos, así como una serie de riesgos que deben ser analizados para ser minimizados. Las administraciones públicas están viviendo una transformación en la manera de gestionar y resolver los problemas públicos, la IA está incrementando las capacidades de automatización de actividades y optimización de procesos de interés público, lo que implica la necesidad de repensar la pertinencia sobre qué actividades deben estar a cargo de máquinas y cuáles deben seguir siendo gestionadas por servidores públicos, esto hace necesario herramientas y marcos analíticos que valoren los riesgos y los aspectos éticos.

Este trabajo tiene como objetivo describir y analizar algunas categorías en torno a las nuevas capacidades de IA en el sector público. El aporte de esta investigación consiste en combinar un marco de referencia de capacidades de la IA aplicada al sector público, y un marco de referencia de valores y principios éticos. El marco de referencia para las categorías analíticas de capacidades incluye dos tipo de capacidades a) Sistemáticas, y b) Axiológicas. Por un lado, los factores sistemáticos están relacionados con el análisis y comportamiento de los datos, incluidas las capacidades de: seguimiento, análisis, interacción, recuerdo y anticipación. Por otro lado, los factores axiológicos se refieren a los impactos de los valores, la ética y las decisiones, incluidas las capacidades de: actuar, sentir, moralizar, crear y decidir. Esta categorización de las capacidades de IA en el sector público arroja luz sobre la percepción de los funcionarios públicos sobre la implementación de este desarrollo tecnológico.

Abordar la ética de la IA es una cuestión urgente. Introducir principios éticos en el desarrollo de la IA significa construir una IA al servicio de la humanidad. La IA es una herramienta y su impacto, ya sea bueno o malo, depende de la configuración que se le otorgue. Ha surgido el concepto de Algor-ética, que refiere la necesidad de una ética que pueda ser entendida por las máquinas. Organizaciones internacionales que están abordando el análisis de la ética en la IA: UNESCO, OEDC, Comisión Europea, BID, C Minds (así como gobiernos, empresas, universidades). La IA puede ayudar mucho, pero junto con sus múltiples ventajas, estas tecnologías también generan riesgos y desafíos, derivados del uso poco ético y malicioso de la tecnología.

Como referencia a un marco ético aplicado a la IA se toman los principios para el desarrollo ético de la IA: 1. Respeto de la autonomía humana: el diseño y programación debe respetar, la vida y los derechos humanos sin ningún tipo de discriminación. 2. Transparencia: principalmente a la explicabilidad y la trazabilidad de dichos sistemas. 3. Responsabilidad y rendición de cuentas: clara asignación de responsabilidades ante los posibles daños y perjuicios que estos puedan ocasionar. 4. Robustez y seguridad: la IA exige que los algoritmos sean suficientemente seguros, fiables y sólidos para operar de manera precisa y segura, y para resolver errores o incoherencias durante todas las fases del ciclo de vida útil de los dispositivos. Y, 5. Justicia y no discriminación: el diseño de sistemas de IA debe contar con la participación de todos los grupos de interés se relacionen. Este trabajo busca hacer una contribución para la construcción de un marco analítico de referencia que combine la transformación de capacidades y elementos éticos.

Palabras clave: Capacidades, Inteligencia Artificial, Políticas Públicas, Ética, Gobierno