Inicio ↗︎ | Esquema ↗︎ | Brain dump ↗︎ | Recursos ↗︎

Nombre Brenda Georgina Tafoya Olvera
Universidad ITESM
Escuela Escuela de Gobierno y Transformación Pública
Fecha Marzo 2025

Abstract

<aside> <img src="/icons/clipping_orange.svg" alt="/icons/clipping_orange.svg" width="40px" />

Este ensayo examina críticamente el uso de sistemas de inteligencia artificial (IA) en políticas públicas, a partir del estudio de caso del escándalo de los subsidios infantiles en los Países Bajos. A través del lente de la ética del cuidado, la responsabilidad colectiva y la transparencia algorítmica, se argumenta que los sistemas automatizados no son neutrales y, cuando se implementan sin supervisión ética ni participación comunitaria, pueden reproducir y amplificar injusticias estructurales. El texto propone trascender los marcos regulatorios reactivos para adoptar un enfoque de responsabilidad generativa, basado en la co-gobernanza entre gobiernos, sociedad civil, empresas tecnológicas, academia y comunidades afectadas. Inspirado en la metáfora de “crianza tecnológica” de Ted Chiang, se plantea que desarrollar IA ética exige el mismo compromiso que formar ciudadanos: cuidado constante, deliberación colectiva y supervisión moral. Como propuesta concreta, se sugiere la creación de Alianzas de Gobernanza Algorítmica con Responsabilidad Compartida (AGARC), con capacidad vinculante para auditar, rediseñar o suspender sistemas algorítmicos según principios de justicia, equidad y empatía.

</aside>


Disclaimer: Este ensayo fue elaborado con asistencia parcial de ChatGPT (versión GPT-4.5; OpenAI, 2025), Claude (versión 3.0; Anthropic, 2025) y DeepSeek (versión X; DeepSeek AI, 2025), los cuales fueron utilizados para recopilar información, estructurar el contenido y revisar la coherencia del argumento.

Introducción: La Paradoja de la Crianza Tecnológica

La metáfora más provocadora sobre el desarrollo de sistemas inteligentes no proviene de la ingeniería ni de la filosofía, sino de la literatura especulativa. En El ciclo de vida de los elementos de software, Ted Chiang replantea la creación de IA consciente como un acto de crianza colectiva: "Su desempeño será mejor si durante su desarrollo hubo personas que se preocuparon por ellas". Esta analogía biopolítica, lejos de ser un ejercicio retórico, refleja una paradoja fundacional de nuestra era: diseñamos sistemas cuyas decisiones afectarán a millones, pero seguimos tratando su desarrollo como un problema técnico antes que socioético.

La magnitud de este desafío se revela al confrontar lo que Brian Christian denomina el problema de la alineación: construir Inteligencia Artificial que no solo optimicen funciones de costo, sino que encarnen valores sociales complejos en contextos dinámicos. Los algoritmos actuales toman decisiones en márgenes de opacidad técnica y fragmentación normativa. Estos no son errores técnicos, sino síntomas de un vacío ético estructural.

Este ensayo argumenta que superar esta crisis requiere trascender los marcos regulatorios reactivos para adoptar un paradigma de responsabilidad generativa —un enfoque que integre tres dimensiones críticas: (1) transparencia radical en los procesos de aprendizaje de los modelos, (2) auditoría algorítmica continua, y (3) gobernanza multinivel basada en principios de cuidado colectivo. Como advierte Chiang, otorgar a las IA responsabilidades importantes exige resolver dilemas ontológicos: ¿Qué constituye dignidad en sistemas no biológicos? ¿Cómo codificar empatía en arquitecturas de sistemas de datos?

El análisis se estructura en tres actos reflexivos. Primero, deconstruiremos el mito de la neutralidad algorítmica mediante casos paradigmáticos en políticas públicas. Segundo, propondremos un marco de evaluación que integre la ética del cuidado con las necesidades técnicas y operativas del desarrollo de IA —donde cada iteración del modelo requiera "certificados de cuidado" firmados por equipos multidisciplinarios. Finalmente, replantearemos la noción misma de responsabilidad en IA, no como un costo a minimizar sino como un proceso de maduración técnica y moral simultánea.

Al igual que criar un niño requiere toda una aldea, desarrollar IA éticas exige movilizar epistemologías diversas: desde ingenieros de datos hasta antropólogos urbanos, desde reguladores hasta comunidades afectadas. La alternativa es clara: o cultivamos sistemas inteligentes con la misma dedicación que formamos ciudadanos, o normalizaremos una tecnocracia donde la opacidad algorítmica sustituya al contrato social.

Marco Teórico: Responsabilidad y ética del cuidado en el desarrollo de la IA

Teorías y Principios Éticos Fundamentales

El desarrollo de sistemas de inteligencia artificial con implicaciones públicas exige un enfoque ético que supere los marcos tradicionales de eficiencia técnica. En este ensayo se retoman cuatro corrientes clave para construir una aproximación compleja y situada: la ética del cuidado, la deontología, la responsabilidad colectiva y la ética de la información. Estas perspectivas permiten evaluar no solo los resultados de los sistemas algorítmicos, sino también los procesos, vínculos humanos y estructuras de poder implicadas en su diseño e implementación.

Teoría o Principio Ético Descripción Aplicación en IA Limitaciones / Críticas
Ética del cuidado (Gilligan, Binns) Enfatiza la empatía, la atención a las necesidades concretas y la responsabilidad hacia los más vulnerables. Propone relaciones éticas basadas en el cuidado más que en normas abstractas. Diseño de sistemas sensibles al contexto, con monitoreo continuo. Inspirada en la idea de “crianza tecnológica” de Ted Chiang, exige acompañamiento, adaptación y compasión hacia los afectados por la IA. Difícil de operacionalizar en entornos masivos; puede entrar en tensión con modelos de negocio basados en eficiencia. Requiere institucionalización del cuidado algorítmico.
Deontología (Kant) Sostiene que existen deberes éticos universales que deben respetarse más allá de las consecuencias, como la equidad, la dignidad y los derechos. Garantía de principios como la transparencia, no discriminación y protección de datos. Base de regulaciones como el GDPR o la AI Act. Puede entrar en conflicto con objetivos de eficiencia; traducir principios abstractos a implementaciones técnicas concretas sigue siendo un desafío.
Responsabilidad colectiva (Arendt, Young) La responsabilidad no es solo individual, sino compartida entre todos los actores que participan en un sistema. Justificación de auditorías multinivel y marcos de gobernanza colaborativa. Permite identificar responsabilidades directas, indirectas, epistémicas y sistémicas. Difícil de aplicar en entornos complejos con muchos actores. Puede diluir la rendición de cuentas si no hay mecanismos claros de atribución y supervisión.
Ética de la información (Floridi) Considera los datos y sistemas de información como objetos morales. Exige el diseño ético desde el inicio (ethics by design). Evaluación de la legitimidad del uso de datos, especialmente sensibles. Promueve sistemas que respetan la privacidad, minimizan sesgos y hacen auditable el tratamiento de la información. Requiere cambios estructurales en el diseño y desarrollo de IA. Puede entrar en conflicto con intereses comerciales o modelos extractivos de datos.

Conceptos Clave

El desarrollo ético de sistemas de IA requiere comprender distintos niveles de responsabilidad: