Revista Iberoamericana de Derecho, Cultura y Ambiente

Revista Iberoamericana de Derecho, Cultura y Ambiente
RIDCA - Edición Nº8 - Derechos de las Personas con Discapacidad

Natalia Mendoza. Directora

Diciembre de 2025

Por Miguel Gliksberg[1]

Resumen

El artículo analiza cómo las tecnologías digitales y la inteligencia artificial (IA)[2]  pueden instrumentarse para derribar barreras estructurales que afectan a las personas con discapacidad, en consonancia con el modelo social de la discapacidad. Asimismo, advierte sobre el riesgo de que la digitalización profundice las desigualdades si no se diseña con criterios de accesibilidad, participación y equidad. Se proponen estrategias de política pública —diseño universal, participación co-creativa, evaluación algorítmica y canales alternativos— y se subraya el rol indelegable del Estado como garante de la igualdad real. La reflexión articula fundamentos jurídicos y culturales e incluye una lectura simbólica de la obra de Frida Kahlo como pedagogía de la visibilidad.

Abstract

This article examines how digital technologies and artificial intelligence (AI) can be harnessed to remove structural barriers faced by persons with disabilities under the social model, while warning that digitization can entrench inequalities if accessibility, participation and equity are not central to design. Policy recommendations include universal design, co-creative participation, algorithmic auditing and alternative channels, emphasizing the State’s non-delegable role as guarantor of substantive equality. The analysis combines legal and cultural arguments and reads Frida Kahlo’s work as a pedagogy of visibility.

 

 

  1. Introducción

La transformación digital -fenómeno en constante profundización- irrumpió de forma abrupta y con una fuerza tan desafiante y prometedora como arrolladora y amenazante. Reconfiguró las relaciones sociales e institucionales y atraviesa, en forma simultánea, los modos de producir, comunicar, educar, habitar el espacio público y ejercer derechos. 

Las tecnologías digitales y la Inteligencia Artificial (en adelante IA) son herramientas que permiten ampliar y potenciar las posibilidades de autonomía, acceso y participación de las personas con discapacidad: interfaces adaptativas, asistentes de voz, sistemas de atención automatizada con rutas accesibles, lectores de pantalla, subtitulado automático, traducción en tiempo real y personalización de entornos digitales, entre muchas otras innovaciones. 

Si se orientan con planificación y criterio, viabilizan un ecosistema institucional más permeable a la convivencia en diversidad, sensible y empática en la percepción de las necesidades, la interacción con las personas y la toma de decisiones y definición de políticas públicas.

A pesar de ello, el proceso de transformación digital encierra una espada de Damocles: la tecnología no es neutra. Postula valores, reproduce lógicas y (re)configura relaciones de poder y, si está mal diseñada, amplifica desigualdades preexistentes y consolida formas de exclusión. En el caso de que la revolución digital se limite a la digitalización sin establecer criterios de accesibilidad, participación y equidad, el riesgo es exponencial; desde quedar fuera de un trámite, de un servicio o de una plataforma, hasta la imposibilidad de ejercer efectivamente derechos aun cuando normativamente estén garantizados. 

En consecuencia, la pretensión de favorecer la inclusión [3] puede transformarse en el uso de la tecnología como instrumento de segregación: la digitalización de la desigualdad. Esta tensión entre una promesa emancipadora y el riesgo de profundización de las desigualdades sobrevuela el campo de la discapacidad. Tal vez, uno de los hitos más relevantes fue el pasaje del modelo médico-rehabilitador al modelo social de la discapacidad, que supuso un cambio de conceptualización pero también un giro político. La discapacidad dejó de ser comprendida como propia del individuo (como un déficit de su cuerpo y/o de su mente), para ser entendida como el resultado de la interacción entre las personas y un entorno plagado de barreras físicas, comunicacionales, culturales, jurídicas y tecnológicas. 

Desde esta perspectiva, la persona no “porta” la discapacidad, es la sociedad la que la produce al diseñar sistemas, normas, procedimientos y dispositivos que no contemplan la diversidad humana.

En este marco de ideas, la importancia del rol de la tecnología y de la IA adquiere una densidad singular: ¿Diseñamos tecnologías que derriban barreras o que las refuerzan bajo nuevas apariencias? ¿Utilizamos la IA como una herramienta de ampliación de derechos o como un filtro opaco que clasifica, excluye y jerarquiza sin control social? ¿La digitalización del Estado está pensada desde la experiencia real de las personas con discapacidad o desde la lógica abstracta de la eficiencia técnica?

En este artículo, se propone explorar formas de maximizar las ventajas que ofrecen las tecnologías y la IA para derribar barreras estructurales en clave con el modelo social de la discapacidad y, al mismo tiempo, indagar en las formas de prevenir que estos procesos se limiten a una mera digitalización que profundice la exclusión. 

La hipótesis que se sostiene es que, sin una orientación democrática de la innovación tecnológica, sin participación de las personas con discapacidad en el diseño de las soluciones y sin salvaguardas institucionales robustas, la transformación digital profundizará las desigualdades. La noción de desigualdad digital no se agota en la falta de acceso a dispositivos o conectividad. También se manifiesta en la imposibilidad de comprender interfaces complejas, en la ausencia de ajustes razonables, en los sesgos[4] algorítmicos, en la eliminación de canales presenciales sin alternativas accesibles y en la automatización de decisiones sin mecanismos de revisión humana. 

Si el diseño no es universal -donde la diversidad no es considerada desde el inicio-, la tecnología deja de ser una aliada y se convierte en una frontera invisible.

En este punto, la obra de Frida Kahlo sirve de hilo simbólico para pensar la accesibilidad, la visibilidad y el derecho a la diferencia. La artista expuso su cuerpo herido, su dolor y su identidad para afirmar existencia; pintó la fragilidad sin ocultarla y la convirtió en lenguaje y política. Sus autorretratos no buscan suavizar el dolor, obligan a mirarlo. De algún modo, su obra anticipa una pedagogía de la visibilidad que en tiempos actuales nos permite repensar la discapacidad en la era digital

Lo que no se diseña para ser visto, accesible y comprendido, queda una vez más fuera del campo de lo socialmente reconocible.

Del mismo modo en que Frida Kahlo desafió los cánones estéticos y corporales de su época, el modelo social de la discapacidad desafía los cánones tecnológicos que reproducen entornos pensados para un sujeto estándar que no existe. La accesibilidad no es un gesto decorativo, es una intervención política sobre el modo en que se distribuyen el poder, la palabra y la participación.

Desde el plano jurídico, esta exigencia encuentra sustento en la Convención sobre los Derechos de las Personas con Discapacidad, que impone a los Estados la obligación de garantizar el acceso a la información, a las comunicaciones y a las tecnologías en condiciones de igualdad [5]. A ello, se suma el desafío cultural e institucional de transformar la lógica misma con la que se conciben los sistemas digitales públicos.

Por esta razón, este trabajo articula una mirada interdisciplinaria que combina el derecho, la gestión pública, la tecnología y una lectura cultural de la discapacidad. Se discuten estándares técnicos, pero sobre todo se interroga el sentido político de la transformación digital. 

La IA introduce un nuevo nivel de complejidad, sus decisiones pueden ser rápidas, masivas y opacas; sus sesgos, invisibles; y sus errores, sistemáticos. Sin auditorías, sin trazabilidad[6] y sin derechos de revisión, puede reproducir exclusiones a una escala inédita.

En este contexto, el rol del Estado aparece como indeclinable e indelegable. No basta con adoptar tecnologías disponibles en el mercado, es imprescindible conducir estratégicamente su incorporación, regular su funcionamiento, evaluar sus impactos en derechos, promover la participación social en su diseño y garantizar canales alternativos para aquellos que no puedan o deseen interactuar por vía digital. 

La accesibilidad debe constituirse en el principio rector de toda política de innovación pública. Se abre así un campo de preguntas que atraviesan el corazón mismo de la democracia digital: ¿Qué ciudadanía tenemos si la innovación no escucha a quienes históricamente han sido excluidos? ¿Qué justicia es posible cuando los algoritmos deciden sin comprender la singularidad de los cuerpos, de las trayectorias y de las vulnerabilidades?

A partir de estas preguntas, el artículo se organiza en tres secciones centrales: en primer lugar, se realiza el análisis de las tecnologías y la IA como herramientas concretas para derribar barreras; en segundo término, se identifican los riesgos específicos que supone la digitalización de la desigualdad; y, finalmente, se abordan las políticas públicas necesarias para garantizar que la transformación digital evite ser escenario de exclusión y se convierta en un verdadero camino hacia una sociedad más accesible, justa y digna.

 

 

  1. Cómo usar tecnologías e IA para derribar barreras

La accesibilidad digital es la nueva frontera 

de los derechos fundamentales

La tecnología puede liberar o establecer patrones de dominación. En cada nuevo avance técnico —la imprenta, la electricidad, internet, los datos, la IA— se renueva la expectativa de ampliar capacidades humanas, pero también se profundiza el riesgo de potenciar desigualdades preexistentes. 

En el ámbito de la diversidad funcional, las herramientas y desarrollos tecnológicos pueden convertirse en puentes de acceso a derechos o en nuevos dispositivos de exclusión, según el modo en que sean concebidos, diseñados, regulados e implementados.

En su obra “Árbol de Esperanza, mantente fuerte” (1946) , Frida Kahlo contrapone su fragilidad física y su fuerza vital al mostrar, en dos versiones de sí misma, a la víctima y a la heroica sobreviviente que toma las riendas de su destino. 

Pensar el uso de tecnologías y la IA para derribar barreras exige abandonar una mirada ingenuamente instrumental (de “aplicar tecnología” a problemas sociales) y comprender que cada sistema tecnológico posee una concepción implícita de sujeto, de cuerpo, de productividad y de ciudadanía. Bajo este prisma, la pregunta central trasmuta desde qué puede hacer la IA hacia para quién, desde qué valores, bajo qué reglas y con qué impactos sociales y jurídicos se implementa.

II.1. De las barreras físicas a las barreras algorítmicas

El debate sobre accesibilidad suele estar ceñido a la eliminación de barreras arquitectónicas: rampas, ascensores, señalización y transporte. En la actualidad, limitar la agenda a derribar esas barreras resulta insuficiente puesto que existe un entorno digital: portales web del Estado, sistemas de turnos, expedientes electrónicos, plataformas de salud, educación virtual, sistemas de compras públicas e IA aplicada a trámites, evaluaciones y decisiones.

En este ecosistema en donde prima la virtualidad emergen nuevas formas de exclusión:

  • Plataformas incompatibles con lectores de pantalla.
  • Sistemas de reconocimiento facial que fallan sistemáticamente en personas con determinadas condiciones corporales.
  • Asistentes virtuales inaccesibles para personas con discapacidad auditiva.
  • Formularios digitales imposibles de completar sin destrezas motrices finas.
  • Algoritmos de evaluación que penalizan trayectorias laborales interrumpidas por razones de salud.

Estos nuevos muros no son visibles como una escalera sin rampa, pero su efecto es igualmente limitante y expulsan simbólicamente a las personas del espacio donde hoy se ejerce gran parte de la ciudadanía. La accesibilidad, en la era digital, deja de ser una cuestión edilicia para convertirse en un problema multidisciplinar que involucra lo tecnológico, jurídico, político y ético.

II.2. Accesibilidad digital como derecho humano y deber estatal

Desde la entrada en vigencia de la Convención sobre los Derechos de las Personas con Discapacidad[7], la accesibilidad dejó de ser una política opcional para convertirse en una obligación jurídica exigible. El acceso a la información, a las tecnologías de la información y la comunicación, a los servicios digitales del Estado y a los sistemas de administración de justicia forma parte del contenido esencial del derecho a la igualdad real de oportunidades.

Esto implica un giro copernicano para dejar de pensar que las personas deben adaptarse a la tecnología y, en cambio, diseñar la tecnología acorde a la diversidad humana. De tal forma, la accesibilidad digital no se peticiona como un “plus” de responsabilidad social empresaria ni una cortesía institucional, se exige como una condición estructural de legitimidad democrática

Un Estado que digitaliza sus servicios sin garantizar la accesibilidad reproduce una forma contemporánea de exclusión; es claro que no impide formalmente el acceso, pero lo vuelve materialmente imposible.

II.3. Tecnologías de apoyo para ampliar la autonomía

Las llamadas tecnologías de apoyo representan uno de los campos más fértiles para derribar barreras en clave de convivencia en diversidad funcional. En lugar de concebir a la persona con discapacidad como objeto de asistencia, se promueve la autonomía asistida por tecnología.

Entre algunos desarrollos relevantes, pueden citarse:

  • Asistentes de voz que permiten gestionar trámites, redactar textos, acceder a información judicial o administrativa sin necesidad de interacción visual o motriz compleja.
  • Sistemas de subtitulado automático y transcripción en tiempo real, que habilitan el acceso a audiencias, clases, capacitaciones y contenidos públicos a personas sordas o con hipoacusia.
  • Lectores inteligentes de imágenes, documentos y entornos, que transforman información visual en información sonora.
  • Dispositivos de accesibilidad cognitiva, con interfaces simplificadas, pictogramas y navegaciones guiadas.
  • Exoesqueletos, prótesis robóticas, dispositivos de movilidad aumentada, que redefinen los límites mismos de la corporalidad y la autonomía física.

Estas tecnologías no “corrigen” los cuerpos, sino que expanden posibilidades. Desplazan el eje desde la rehabilitación hacia el empoderamiento. La autonomía deja de ser pensada como independencia absoluta para concebirse como interdependencia tecnológicamente mediada.

II.4. Entre la personalización de apoyos y el riesgo de nuevos sesgos

La IA introduce un potencial inédito: la capacidad de adaptar dinámicamente los sistemas a cada persona, en lugar de exigir que la persona se adapte a sistemas rígidos. En este punto, la IA puede ser una aliada formidable para la diversidad funcional:

Interfaces que se ajustan automáticamente a las capacidades visuales, cognitivas o motrices del usuario.

  • Sistemas de aprendizaje personalizados para personas con neurodivergencias.
  • Herramientas de predicción de apoyos para anticipar necesidades razonables de adaptación.
  • Asistentes legales inteligentes que permiten comprender textos jurídicos complejos en lenguaje claro, con lectura en voz, traducción automática y explicaciones progresivas.

Sin embargo, el escenario dista de ser ideal, porque los algoritmos aprenden de datos del pasado sesgados por la discriminación. Si esos sesgos no son corregidos activamente, la IA reproduce desigualdades y, además, las legitima bajo una apariencia de neutralidad técnica.

En clave de diversidad funcional, esto se traduce en riesgos concretos:

Algoritmos de selección laboral que penalizan trayectorias no lineales.

  • Sistemas de evaluación de productividad incompatibles con apoyos razonables.
  • Plataformas de scoring social, crediticio o previsional que patologizan la diferencia.

Por ello, la implementación de IA accesible exige gobernanza algorítmica democrática: explicabilidad, auditoría, participación de las personas con discapacidad en el diseño, control público de los criterios y revisión permanente de impactos.

II.5. Diseño universal para pensar la diversidad desde el origen

Uno de los principios más transformadores es el del diseño universal, que propone concebir productos, entornos, programas y servicios que puedan ser utilizados por todas las personas, en la mayor medida posible, sin necesidad de adaptaciones posteriores.

Este principio invierte la lógica tradicional:

  • No se diseña para el “usuario promedio”.
  • No se agregan parches de accesibilidad después.
  • No se crean versiones “especiales”.
  • Se diseña desde el inicio para la pluralidad de cuerpos, sentidos, ritmos, lenguajes y capacidades

La accesibilidad deja de ser un costo adicional y se convierte en una condición estructural de calidad del diseño. En el ámbito del Estado y del Poder Judicial, esto implica portales web accesibles desde su arquitectura, sistemas de expediente electrónico navegables para todas las personas, plataformas de turnos con múltiples canales de acceso e IAs entrenadas con datos[8] representativos de la diversidad social. El diseño universal derriba barreras y desarma la lógica de la excepción.

II.6. El Estado como garante frente al capitalismo de la exclusión digital

Uno de los peligros de la transformación digital es ser patentada bajo una lógica exclusivamente mercantil. El mercado innova en busca de la rentabilidad, la cual no siempre se alinea con la reparación de derechos vulnerados. Si el Estado se limita a adoptar soluciones privadas sin regulación, la tecnología puede convertirse en un factor de estratificación social: accesibilidad para quienes pueden pagarla y exclusión para quienes no.

En este punto, el rol estatal es indelegable:

  • Como regulador, al imponer estándares obligatorios de accesibilidad.[9]
  • Como diseñador de políticas públicas orientadas a la convivencia en diversidad funcional.[10]
  • Como comprador estratégico al incorporar cláusulas de accesibilidad en contrataciones públicas.[11]
  • Como productor de tecnologías públicas, abiertas, auditables y centradas en derechos.[12]

La accesibilidad digital no puede quedar librada a la buena voluntad del proveedor, debe integrar el núcleo duro de la legalidad administrativa contemporánea.

II.7. De la inclusión a la convivencia tecnológica

Aquí se manifiesta con claridad el límite del paradigma de la “inclusión” tecnológica. Incluir suele significar agregar un módulo accesorio, un botón alternativo, una versión simplificada o una excepción para “usuarios con discapacidad”.

En cambio, pensar en convivencia tecnológica en diversidad funcional supone algo radicalmente distinto: no diseñar para incorporar después, no tolerar la diferencia desde un centro inalterado, no agregar parches a sistemas que ya nacieron excluyentes. Supone, en cambio, asumir que la diversidad es la condición del mundo digital.

II.8. La tecnología no sustituye a la política

Ninguna tecnología derriba barreras por sí sola. Ningún algoritmo es neutral. Ningún sistema inteligente reemplaza la responsabilidad del Estado. La accesibilidad no es un problema técnico, es un problema político, jurídico y cultural

La IA puede amplificar derechos o puede consolidar injusticias, puede habilitar convivencias nuevas o profundizar segregaciones invisibles. La diferencia no está en el código, hay que buscarla en el proyecto de sociedad que se inscribe en ese código.

Las tecnologías e IA no son meros instrumentos, son espacios donde hoy se juega la dignidad. Derribar barreras en la era digital implica refundar la relación entre técnica, derecho y diversidad humana. Así como la rampa se convirtió en símbolo, hoy la accesibilidad digital es la nueva frontera de los derechos fundamentales. Incluir a quien quedó afuera del sistema tecnológico no puede ser la meta de una sociedad madura, es urgente transformar el sistema para que la diversidad deje de ser una nota al pie y pase a ser su arquitectura principal. Y es una de las tareas más profundas y más políticas de nuestra época.

III. Riesgos: cómo la IA puede digitalizar la desigualdad

La promesa de neutralidad se transforma 

en una nueva forma de exclusión

En el apartado anterior, se planteó el potencial emancipador de las tecnologías y de la IA para derribar barreras. Ahora es turno de adentrarse en la zona oscura, en la posibilidad latente de que se digitalice la desigualdad preexistente y se reproduzca bajo una apariencia de neutralidad técnica

Los códigos se presenta como objetivos, eficientes y racionales, pero el lenguaje de los datos y los algoritmos pueden legitimar lógicas de exclusión. La transformación digital no asegura justicia. Por el contrario, puede convertirse en un nuevo dispositivo de gobierno de las desigualdades, más silencioso, veloz y difícil de impugnar. Y en el campo de la diversidad funcional, cuando los sistemas aprenden de un mundo diseñado sin considerar a ciertos cuerpos, tienden a confirmar su inexistencia estadística.

III.1. Algoritmos discriminatorios

Los sistemas de IA no piensan, aprenden de datos históricos atravesados por desigualdades sociales, económicas, corporales y simbólicas. En consecuencia, el resultado es tan previsible como grave: los algoritmos reproducen la lógica del promedio como si fuera universal

Y esas medias aritméticas se han calculado sin contemplar las personas con discapacidad expulsadas del empleo, subrepresentadas en la educación, invisibilizadas en los registros administrativos o tratadas como excepciones.

En este contexto, los modelos tienden a:

  • Priorizar trayectorias laborales lineales, con penalización de las interrupciones por razones de salud.
  • Interpretar como riesgo lo que simplemente es diferencia funcional.
  • Negar beneficios, cupos, accesos o recursos por desviarse de patrones estadísticos dominantes.
  • Excluir automáticamente a quienes no encajan en perfiles de productividad estandarizada.

Como resulta evidente, se genera una nueva forma perversa de discriminación, en la que la intencionalidad se diluye pero el resultado excluyente persiste. La estructura de datos sesgados invisibiliza necesidades, produce denegación de derechos y deniega apoyos y ajustes razonables. De esta forma, la desigualdad deja de ser una falla del sistema para convertirse en su producto normalizado.

III.2. Frida Kahlo frente al algoritmo

La figura de Frida Kahlo que atraviesa este escrito es una interpelación frontal al imaginario tecnológico de la normalidad y la idea de cuerpo estándar sobre el que se entrenan los sistemas de IA. El cuerpo de Frida, atravesado por el dolor físico, la diferencia, la fragilidad y la auto-representación decidida, no se ajusta a ningún promedio estadístico

Frida se pinta una y otra vez porque su cuerpo ha sido fragmentado, medicalizado, intervenido, pero en lugar de ocultarlo, lo convierte en lenguaje político y estético. Contrariamente al algoritmo que tiende a “limpiar” la desviación como ruido, Frida convierte el dolor en centro de la escena. Pensar la IA desde Frida es preguntarse qué sucede con los cuerpos que no entran en la curva normal de los datos. Lo que no entra en el dato, muchas veces, no entra tampoco en la decisión automatizada.

En su obra “Sin esperanza” (1945), Frida aparece inmovilizada en una cama hospitalaria, obligada a alimentarse a través de un embudo que derrama sobre su cuerpo una mezcla abrumadora de sustancias sin que se tome en cuenta su voluntad. La escena es una metáfora de la imposición externa sobre el cuerpo: procedimientos, diagnósticos y prescripciones que lo atraviesan sin preguntarle nada. 

Frente al algoritmo, la obra revela la intuición decisiva de que cuando el sistema define desde afuera qué necesita un cuerpo —qué debe consumir, cómo debe funcionar, qué parámetros debe cumplir—, la autonomía se vuelve precaria. Sin esperanza nos recuerda que, así como Frida resistía la lógica médica que pretendía normalizarla, los cuerpos que no encajan en el molde estadístico corren el riesgo de ser tratados por la IA como excepciones que deben ser corregidas, en lugar de sujetos plenos que deben ser comprendidos.

III.3. Opacidad algorítmica

Entre los mayores riesgos de la IA aplicada a la gestión pública, al empleo, a los beneficios sociales o al acceso a servicios es la opacidad de las decisiones automatizadas. La llamada “caja negra algorítmica” impide saber qué variables se tomaron en cuenta, el peso que tuvo cada una, los modelos de predicción que se utilizaron y los sesgos estructurales incorporados.

Este fenómeno produce una mutación silenciosa del Estado de Derecho. Cuando una decisión es tomada o prefiltrada por un algoritmo opaco, nos enfrentamos a una forma nueva de indefensión al ignorar la causalidad de la exclusión y carecer de herramientas para impugnarla. Para las personas con discapacidad, este problema se magnifica si el sistema no reconoce su singularidad funcional porque la denegación se vuelve prácticamente imposible de revertir.

Por estas razones, es importante entender que no existe automatización válida sin explicabilidad, trazabilidad y revisión humana. El derecho a ser oído, el debido proceso y la tutela judicial efectiva no pueden ser absorbidos por un proceso de cálculo inaccesible a la comprensión humana.

III.4. Efectos de desplazamiento

La IA puede digitalizar la desigualdad por lo que decide y por lo que reemplaza. La automatización masiva de trámites, turnos, consultas, cobros, reclamos y gestiones desemboca en el cierre progresivo de canales humanos de atención.

Desde un punto de vista económico y administrativo, esto redunda en modernización, eficiencia y reducción de costos, pero desde la perspectiva de la diversidad funcional, puede implicar la eliminación de espacios accesibles físicos, la pérdida de intermediaciones humanas que permiten adaptar respuestas y la exclusión directa de quienes no pueden utilizar dispositivos digitales (sea por barreras cognitivas, sensoriales, económicas o tecnológicas).

El efecto de desplazamiento por el que el canal digital pasa de ser una opción a volverse el único medio de comunicación, se presenta como un avance tecnológico pero también se convierte en una puerta que se cierra. Diseñar sistemas sin canales humanos es diseñar sin contemplar la diversidad funcional.

III.5. La discriminación que no se ve

La discriminación algorítmica tiene una particularidad inquietante. Nadie “rechaza” explícitamente a la persona; simplemente, el sistema “no la selecciona”, “no la prioriza”, “no la detecta”, “no la reconoce”, “no la predice”. Bajo la pseudo normalidad estadística, se genera un hostigamiento que no se nombra.

Esto produce una mutación profunda en los mecanismos de exclusión. Antes, el conflicto era visible, identificable, denunciable; ahora, la desigualdad es un resultado técnico.

La violencia simbólica del algoritmo no grita, susurra en lenguaje matemático. Y por eso resulta más difícil de combatir.

III.6. Salvaguardas necesarias

Frente a este escenario, resulta indispensable abandonar cualquier ingenuidad tecnocrática. La IA no puede operar como un poder autónomo, desprendido de controles democráticos. Por eso, para evitar que se convierta en un vector de digitalización de la desigualdad, son imprescindibles salvaguardas jurídicas específicas:

  1. a) Evaluaciones de Impacto en Derechos: antes de implementar sistemas de IA en ámbitos sensibles (empleo, salud, justicia, seguridad social, educación) deben realizarse análisis de riesgos de discriminación, impactos en grupos vulnerables y efectos indirectos de exclusión.
  2. b) Supervisión independiente: se requieren auditorías externas, veedurías especializadas y participación activa de organizaciones de personas con discapacidad. No resulta aceptable que los organismos que diseñan los sistemas sean los únicos encargados de controlarlos.
  3. c) Derecho a revisión humana significativa: toda persona debe tener garantizado que una decisión automatizada pueda ser revisada por un ser humano con poder real de modificarla. La IA puede asistir, pero no reemplazar la responsabilidad humana.
  4. d) Registros procesables y trazabilidad algorítmica: sin registro, sin log y sin trazabilidad, no hay control posible. Auditar algoritmos exige memoria técnica accesible.

Bajo esta lógica emprenderemos el camino hacia una arquitectura jurídica de la IA con enfoque en derechos.

III.7. El riesgo de una nueva deshumanización digital

El mayor peligro de la IA es que olvide que decide sobre vidas humanas. Cuando la persona se reduce a vector de datos, a perfil de comportamiento y a puntuación de riesgo, su cuerpo desaparece del campo de lo jurídicamente visible. 

La forma más peligrosa de desigualdad es aquella que ya no se reconoce como tal porque se disfraza de eficiencia. Y, obviamente, la diversidad funcional se transforma en un ruido que estorba el modelo.

La justicia -también la justicia algorítmica- no opera sobre promedios, se ocupa de resolver conflictos de personas, trabaja sobre singularidades. La verdadera pregunta es con qué reglas, bajo qué controles y con qué proyecto de humanidad pensamos usar la IA. Porque si el mundo digital se limita a replicar la normalidad excluyente del mundo analógico, la transformación será solo tecnológica, pero no democrática.

IV. Políticas públicas y gobernanza

De la accesibilidad como promesa 

a la accesibilidad como obligación activa

En los dos apartados anteriores se analizó, por un lado, el potencial emancipador de la tecnología y la IA para derribar barreras, y por el otro, su capacidad de reproducir desigualdades bajo formas nuevas y opacas. 

En este apartado, se trabajará sobre la gobernanza pública. Los beneficios y los riesgos de la transformación digital dependen de decisiones políticas, marcos regulatorios, capacidades estatales y modelos de gestión concretos.

El rol del Estado es impostergable e indelegable. La accesibilidad digital no puede quedar librada al mercado, a la innovación aislada o a la buena voluntad de los actores tecnológicos. Se trata de una obligación activa, estructural y permanente, que forma parte del contenido esencial del derecho a la igualdad real de oportunidades y que debe integrarse a los sistemas de calidad institucional con los que el Estado organiza, controla y mejora sus políticas públicas.

IV.1. De la accesibilidad como valor a la accesibilidad como deber jurídico 

Durante mucho tiempo, la accesibilidad fue presentada como un valor deseable, una cualidad ética del diseño o una buena práctica administrativa. En la actualidad, a la luz del constitucionalismo contemporáneo y del derecho internacional de los derechos humanos, debe ser comprendida como una obligación jurídica positiva del Estado, exigible, controlable y pasible de responsabilidad institucional.

La Convención sobre los Derechos de las Personas con Discapacidad consagra un cambio de paradigma al imponer a los Estados el deber de eliminar barreras, garantizar accesos en igualdad de condiciones, adoptar medidas de acción positiva y asegurar que las tecnologías de la información y la comunicación sean accesibles desde su diseño.

Como se nota, no alcanza con evitar la discriminación directa; el mandato es transformar activamente entornos, sistemas y políticas públicas para que la diversidad funcional no quede expulsada de los nuevos espacios de ciudadanía digital.

El modelo social de la discapacidad proporciona el sustento teórico. La exclusión reside en el entorno y un entorno digital inaccesible no es una falla técnica, es lisa y llanamente una forma específica de violencia estructural institucionalizada.

En este punto, los sistemas de gestión de calidad pueden aportar una herramienta decisiva bajo el lema de que lo que no se planifica, no se controla y lo que no se controla, no se mejora. Desde esta perspectiva, la accesibilidad deja de ser una aspiración abstracta para convertirse en un requisito de calidad de los procesos públicos.

IV.2. Gobernar la tecnología

Uno de los errores más frecuentes del discurso tecnocrático es presentar la regulación como un obstáculo para la innovación. En cambio, desde una perspectiva de derechos y de calidad institucional, la ausencia de reglas públicas claras deriva en que la innovación se organice exclusivamente en torno a la rentabilidad y no en torno a la justicia social.

Gobernar la tecnología no significa neutralizarla. Lo que se pretende es orientarla en función de fines constitucional y convencionalmente legítimos. En materia de accesibilidad digital, esto supone que el Estado debe:

  • Definir estándares obligatorios, no opcionales.
  • Establecer mecanismos de control, auditoría y certificación.
  • Garantizar instancias de participación ciudadana.
  • Imponer consecuencias jurídicas efectivas ante los incumplimientos.

Desde la lógica de normas internacionales de calidad como la ISO 9001:2015, gobernar es asumir liderazgo, identificar riesgos, establecer procesos, medir resultados y propender a la mejora continua. Un Estado que incorpora accesibilidad sin sistema, sin indicadores y sin responsables no gobierna y se enfrenta al peligro inminente de administras la exclusión sin advertirla.

IV.3. Instrumentos operativos

La obligación estatal de garantizar la accesibilidad digital no se agota en declaraciones programáticas. Requiere instrumentos operativos específicos, verificables y sostenidos en el tiempo, integrados a los sistemas de planificación, control y evaluación de la gestión pública.

  1. a) Certificación WCAG para sitios y aplicaciones públicas: la adopción obligatoria de las Pautas de Accesibilidad al Contenido Web (WCAG) asegura estándares técnicos mínimos, introduce criterios objetivos de evaluación, permite auditorías cruzadas y visibiliza incumplimientos estructurales. La accesibilidad deja así de ser una promesa abstracta y se convierte en un resultado medible, plenamente compatible con el enfoque de calidad basado en procesos, resultados y mejora continua.
  2. b) Contratación pública con cláusulas de accesibilidad: cuando el Estado exige accesibilidad en sus compras protege derechos en sus propios servicios, empuja al sector privado a elevar estándares e introduce criterios de justicia social en la lógica del gasto público.
  3. c) Programas de alfabetización digital accesible: la accesibilidad técnica es condición necesaria, pero no suficiente. Se deben implementar programas diseñados desde lenguaje claro, diversidad cognitiva y soportes múltiples para garantizar que la conectividad y los dispositivos sean efectivamente aprovechables.
  4. d) Observatorios de inclusión digital con indicadores desagregados: uno de los mayores déficits es la falta de datos públicos sobre exclusión digital. Resulta imprescindible contar con observatorios que generen indicadores específicos sobre discapacidad y barreras. Lo que no se mide, no se gobierna.

IV.4. La accesibilidad digital como política de Estado

Uno de los riesgos recurrentes es encapsular la accesibilidad en áreas específicas de “discapacidad”, como si se tratara de una política social particular. Esta lógica refuerza la marginalidad del tema. La accesibilidad digital, en cambio, debe ser comprendida como una política de Estado transversal, que atraviese a todos los servicios públicos -justicia, salud, educación, seguridad social, empleo, contrataciones públicas y plataformas digitales- y forme parte del núcleo duro de la calidad institucional, con presupuesto, estándares obligatorios e indicadores que aseguren su cumplimiento efectivo.

No hay política pública digital legítima si no es accesible. Y no hay accesibilidad real si se la relega a programas aislados sin presupuesto estructural, sin indicadores de desempeño y sin inserción en los sistemas de calidad institucional.[13]

IV.5. Gobernanza democrática de la IA

La gobernanza de la IA no puede agotarse en órganos técnicos cerrados. Si la IA decide sobre derechos, debe ser gobernada bajo reglas democráticas y de calidad institucional. Esto exige la participación efectiva de las personas con discapacidad en el diseño, testeo y evaluación de sistemas; el control institucional independiente de los algoritmos y la responsabilidad jurídicamente exigible por los daños producidos.

No existe IA compatible con los derechos humanos si no existe, al mismo tiempo, responsabilidad humana institucionalizada. Gobernar la tecnología con estándares de calidad, derechos humanos y responsabilidad institucional es una de las formas más complejas —y también más decisivas— de gobernar la justicia.

V. Discusión: Frida Kahlo, visibilidad y política pública

Frida Kahlo nunca pintó sueños, retrató su realidad, pintó su dolor para hacerlo visible. Ofreció su cuerpo herido como territorio político. Cada corsé, cada cicatriz, cada herida expuesta en su obra no pide indulgencia, afirma existencia. Frida no pide ser mirada, obliga a mirar, y en ese gesto hay una pedagogía de la verdad que transforma. 

Tomarla como hilo conductor para pensar la accesibilidad digital no es un recurso estético, es una toma de posición, porque Frida encarna el pasaje decisivo del cuerpo silenciado al cuerpo que irrumpe en la escena pública sin pedir permiso.

En su obra “El abrazo de amor del Universo” (1949), Frida se coloca en el centro de una red de miradas, fuerzas y cuidados que la sostienen sin ocultarla. Su cuerpo aparece frágil pero visible, afirmado en la escena como parte inseparable del mundo, sin pedir permiso para existir. Esta obra convierte la exposición de la vulnerabilidad en un acto político y nos obliga a pensar la accesibilidad digital como una disputa por aparecer. Durante siglos, la exclusión operó alejando determinados cuerpos, silenciando voces y dejando trayectorias sin plataforma. La accesibilidad irrumpe justamente donde el ocultamiento se vuelve estructural en clave tecnológica. 

En la actualidad, los sistemas digitales deciden quién aparece o queda fuera, quién accede o no, quién participa o se vuelve invisible. La accesibilidad es una disputa por la visibilidad política en la que quien no accede, no participa; quien no participa, no existe y quien no existe, no cuenta. 

Por eso, no se trata de caridad digital, es reconocimiento de dignidad, de voz y de derecho a intervenir. Como Frida Kahlo, las políticas públicas no pueden esconder la herida bajo una supuesta neutralidad. Las heridas no se ocultan, se muestran para transformar; digitalizar sin mostrar las barreras es apenas cambiar su forma. Cada trámite inaccesible, cada interfaz ilegible, cada sistema que descarta al usuario que sale del promedio traduce en código la vieja arquitectura de la exclusión. 

La transformación digital solo es emancipadora si se gobierna, se orienta y se vuelve verificable. Sin estándares, control y calidad institucional, la promesa tecnológica se convierte en una nueva trampa de exclusión. La accesibilidad, como en la obra de Frida, no busca armonía, busca verdad. No embellece la diferencia, la integra como condición de origen. No corrige al final, diseña desde el comienzo. No adapta las personas a los sistemas, transforma los sistemas para que quepan las personas.

La accesibilidad no es un favor ni una excepción, es una forma contemporánea de la igualdad. No se trata de ocultar el dolor para ser aceptados, debemos construir un mundo donde ya no sea necesario esconderlo para existir. 

VI. Conclusión

La transformación digital redefine la manera en que las personas acceden a derechos, participan de la vida pública y se hacen visibles en la escena social. No es un fenómeno neutro ni inevitable, es un campo de decisiones institucionales con eje en el principio de la igualdad. 

La tecnología puede abrir puertas o puede cerrarlas con la misma contundencia; puede expandir la dignidad humana o reproducir las antiguas formas de exclusión. Por eso, la accesibilidad digital es una política de Estado que determina quién existe dentro del sistema y quién queda, una vez más, fuera de plano.

A lo largo de este escrito se sostuvo que la accesibilidad digital es un derecho sustantivo y una obligación jurídica, pero también un estándar de calidad institucional en donde lo accesible es legítimo y lo inaccesible no lo es. No hay ciudadanía digital sin accesibilidad, porque lo que no es accesible -sea una plataforma, un formulario, un algoritmo o un trámite- no es efectivamente público. 

La irrupción de la IA y los sistemas automatizados pueden personalizar apoyos como nunca antes, pero también pueden amplificar sesgos, invisibilizar diferencias y expulsar a quienes no encajan en un promedio bajo estándares estadísticos. Automatizar sin control es permitir que la desigualdad se vuelva código y por eso, la IA requiere la supervisión humana a partir de instituciones que supervisen, expliquen, auditen, corrijan y respondan. La gobernanza democrática de la IA es, en esencia, una forma contemporánea de gobernar los derechos.

En este recorrido, la figura de Frida Kahlo funcionó como hilo conceptual para pensar la relación entre cuerpo, visibilidad y política pública. Y en este punto, es alusiva su obra “Autorretrato con mono y loro” (1942), en donde la persona artista se presenta de frente, sin adornos y sin dramatización, sosteniendo una mirada firme y tranquila sobreel espectador y alredor, los animales que la acompañan afirman su presencia. Es un autorretrato sin artificios, donde la verdad no se explica, se muestra.

Este gesto de visibilidad es esencial para comprender lo que está en juego en la accesibilidad digital. Frida no aparece suavizada ni corregida para encajar en un ideal estético; aparece como es, reclamando el derecho a ocupar su lugar en el mundo

De igual modo, la accesibilidad no exige adaptaciones, requiere espacios donde todas las personas puedan estar sin pedir permiso y sin ser obligadas a ajustar su singularidad para ser reconocidas por la tecnología. Muchas veces, la exclusión digital opera por omisión. Lo inaccesible desaparece y lo que desaparece deja de formar parte del debate público, de la decisión institucional y de la vida democrática. 

Por eso, la accesibilidad no es una amabilidad tecnológica, es una disputa por la visibilidad política. La transformación digital solo es emancipadora si se gobierna, si se orienta y si se vuelve verificable, con estándares claros, control independiente y calidad institucional.

En este punto y a riesgo de ser redundantes, podemos concluir que no habrá ciudadanía digital igualitaria sin accesibilidad real; no habrá accesibilidad real sin sistemas de calidad institucional y no habrá justicia tecnológica sin gobernanza democrática de la IA. El resto es simplemente administración de desigualdad. 

La accesibilidad —como el autorretrato de Frida— es un acto de presencia. Y en esa presencia se juega el núcleo de la igualdad. Construir una arquitectura digital accesible no es modernizar, es hacer justicia.

Notas

[1] Miguel Gliksberg es bachiller nacional bilingüe en ciencias y letras y bachiller internacional, licenciado en economía (UBA), abogado (UBA), magíster en derecho, master di Il livello in Administración de Justicia Unitelma Sapienza, Diplomado en Relaciones de Consumo (CFJ), en Derecho Procesal Administrativo (CFJ) y en Derecho Procesal Penal, Contravencional y de Faltas de la CABA (EEyN, UNSAM). Asimismo, es Auditor Líder de Sistemas de Gestión de Calidad IRAM, reconocido por IQNet Academy. Actualmente se desempeña como Director General de Supervisión Legal, de Gestión y Calidad Institucional, secretario letrado ad hoc en la Presidencia del Consejo de la Magistratura de la Ciudad Autónoma de Buenos Aires.

[2] Se denomina Inteligencia artificial (abrev.: IA) a un sistema informático asistido por máquina, diseñado para funcionar con distintos grados de autonomía, que tiene capacidad de adaptarse estando ya operativo y, a partir de los datos que recolecta, puede deducir objetivos explícitos o implícitos, como predicciones, contenidos, recomendaciones o decisiones que pueden influir en entornos físicos o virtuales.

[3] El concepto de inclusión tiene intenciones nobles pero paradójicamente puede ser un término discriminador. Ello, porque conserva una estructura semántica que delimita un adentro y un afuera, un centro que incluye y una periferia que es incluida. De esta forma, establece una asimetría de poder que reconfigura la separación y discriminación bajo formas más socialmente aceptables. En contraposición, hablar de convivencia en diversidad funcional supone abandonar la lógica de la excepción en pos de una ética en la que no haya personas a adaptar sino un entramado social a transformar. En vez de aceptar al diferente, se asume que lo diverso es la condición misma de lo humano. 

[4]  Un sesgo es la tendencia sistemática hacia errores u resultados injustos en las predicciones de un modelo, causada por datos desbalanceados, diseño defectuoso o decisiones algorítmicas.

[5]  El artículo 1 de la Convención establece que su propósito es promover, proteger y asegurar el goce pleno y en condiciones de igualdad de todos los derechos humanos y libertades fundamentales por todas las personas con discapacidad, y promover el respeto de su dignidad inherente. En tanto, el artículo 9 se refiere a la accesibilidad, entre los que se incluye la obligación de los Estados de promover formas adecuadas de asistencia y apoyo a las personas con discapacidad para asegurar su acceso a la información (inciso f) y promover el acceso de las personas con discapacidad a los nuevos sistemas y tecnologías de la información y las comunicaciones, incluida Internet (inciso g), entre otros. La Convención puede consultarse en https://www.argentina.gob.ar/sites/default/files/derechoshumanos_publicaciones_colecciondebolsillo_15_derechos_personas_discapacidad.pdf 

[6] La trazabilidad es la posibilidad de seguir paso a paso qué datos, qué decisiones intermedias y qué transformaciones hicieron los sistemas de IA para generar un resultado.

[7] Sanción: 21/05/2008, BO Nº 31.422, 9/06/2008

[8] Los datos (oficiales) abiertos —también denominados “información del sector público” y “Open Data”— son aquellos recopilados, generados o financiados por organismos públicos y que pueden reutilizarse para cualquier fin sin coste alguno.

[9] En el ordenamiento jurídico argentino, el rol regulador del Estado en materia de accesibilidad encuentra un fundamento directo en la Convención sobre los Derechos de las Personas con Discapacidad (CDPD), de jerarquía constitucional (Ley N° 27.044), específicamente en sus artículos 3, 9 y 21, que imponen a los Estados Parte la adopción de medidas apropiadas para asegurar el acceso de las personas con discapacidad, en igualdad de condiciones con las demás, al entorno físico, la información, las comunicaciones y los sistemas y tecnologías de la información. En tanto, la Ley Nacional N° 22.431 y sus normas reglamentarias establecen la obligación estatal de remover barreras físicas, comunicacionales y tecnológicas. En materia digital, por Disposición 6/2019 la Oficina Nacional de Tecnologías de Información (ONTI) aprobó las Pautas de Accesibilidad para Contenidos Web del Estado argentino (basadas en las WCAG 2.0 del W3C), de cumplimiento obligatorio para los sitios web de la Administración Pública Nacional, consolidando así un estándar técnico-jurídico mínimo en materia de accesibilidad digital. En el ámbito local, la Constitución de la Ciudad Autónoma de Buenos Aires, en su artículo 42, impone al Estado el deber de garantizar la igualdad real de oportunidades para las personas con discapacidad, lo que habilita la exigibilidad de estándares obligatorios también en los entornos digitales y tecnológicos.

[10]  El deber estatal de diseñar políticas públicas orientadas a la convivencia en diversidad funcional se desprende del modelo social de la discapacidad receptado por la Convención sobre los Derechos de las Personas con Discapacidad, que impone un enfoque de derechos humanos, transversalidad y accesibilidad universal en todas las políticas públicas (artículos 1, 3, 4 y 9). En el plano nacional, el Plan Nacional de Discapacidad y el Plan Nacional de Accesibilidad constituyen instrumentos de planificación estratégica que obligan a incorporar la perspectiva de discapacidad en las políticas de salud, educación, empleo, tecnologías y acceso a la justicia. En el ámbito de la Ciudad Autónoma de Buenos Aires, conforme lo dispuesto en el artículo 42 de la Constitución local, se promueve a través de distintas normativas la protección integral de los derechos de las Personas con Discapacidad, a partir de la acción positiva del Estado en el diseño de políticas públicas, bajo un enfoque de autonomía, participación social y eliminación de barreras, lo que habilita una lectura superadora del paradigma de la inclusión hacia un modelo de convivencia estructural en diversidad funcional.

[11]En Argentina el Decreto N° 312-PEN/10, que reglamenta los artículos 7° y 8° de la Ley Nacional N° 22.431, incorpora disposiciones aplicables directamente al Régimen de Contrataciones aprobado por el Decreto Delegado N° 1023/01, que comprenden la obligación de cumplir con un cupo mínimo de personal con discapacidad en las prestaciones de contratos que tengan por objeto la tercerización de servicios, estén o no comprendidos dentro del mencionado Decreto N° 1023/01. Además, establece que deberá incluirse en los pliegos de bases y condiciones particulares que el proponente deberá contemplar en su oferta la obligación de ocupar a personas con discapacidad, en una proporción no inferior al 4% de la totalidad del personal afectado y, en caso de empate de ofertas, deberá considerarse en primer término la empresa que tenga contratadas a personas con discapacidad y en el caso en que en la totalidad de las empresas igualadas hubiera personal con discapacidad, se priorizará, a igual costo, las compras de insumos y provisiones de aquellas empresas que contraten o tengan en su planta de personal el mayor porcentaje de personas con discapacidad empleadas. Asimismo, en las contrataciones en el ámbito local, a través de la Disposición N° 333-GCABA-DGCYC-2023 el Ministerio de Hacienda y Finanzas del GCBA induce explícitamente al cumplimiento del artículo 42 de la Constitución de la Ciudad Autónoma de Buenos Aires. 

Desde el Consejo de la Magistratura de la CABA se impulsó y recientemente se sancionó la Ley CABA N° 6.647 que modifica la Ley N° 31 y establece que se impulsará la incorporación de políticas de inclusión de mujeres, personas con discapacidad, personas mayores y personas humanas o jurídicas que hayan obtenido certificados o sellos que respondan a criterios sociales. 

[12] El rol del Estado como productor de tecnologías públicas centradas en derechos encuentra sustento en los principios de gobierno abierto, transparencia, acceso a la información pública y soberanía tecnológica. A nivel nacional, la Ley N° 27.275 de Acceso a la Información Pública, la Ley N° 25.326 de Protección de Datos Personales establecen un marco que exige que los sistemas tecnológicos estatales sean abiertos, auditables, seguros y respetuosos de los derechos fundamentales. Los sistemas de IA deben ser confiables, explicables y con enfoque en derechos humanos, incluyendo la no discriminación por motivos de discapacidad. En el ámbito local, la CABA ha consolidado un modelo propio de gobierno digital con normativa sobre datos abiertos, transparencia algorítmica e interoperabilidad, lo que refuerza el deber de producir tecnologías públicas accesibles, controlables socialmente y alineadas con el paradigma de convivencia en diversidad funcional.

[13] La Convención sobre los Derechos de las Personas con Discapacidad establece la accesibilidad digital como obligación estatal y condición para el ejercicio efectivo de derechos. En el ámbito local, el proceso de digitalización del Poder Judicial de la Ciudad Autónoma de Buenos Aires y su apuesta por sistemas interoperables, accesibles y abiertos —como surge del desarrollo del Expediente Judicial Electrónico (EJE) y la plataforma SIJ— refuerzan la necesidad de concebir la accesibilidad como política pública transversal y no como programa sectorial. Véase: Genoveva M. Ferrero, “Interoperabilidad en sistemas. Experiencias latinoamericanas”, Sistemas Judiciales, Nº 24, CEJA, 2020.

Buscar

Edición

Número 8

Diciembre de 2025

Número 7

Marzo de 2025

Número 6

15 de diciembre de 2024

Edición Especial 

Derecho Penal y Criminología

Alberto Pravia, Director

Número 5

15 de julio de 2024

Edición Especial

22 de febrero de 2024

Antártida Argentina:  120 años

de Presencia Ininterrumpida

Número 4

20 de diciembre de 2023

Número 3

15 de julio de 2023

Número 2

20 de diciembre de 2022

Número 1

15 de junio de 2022

Portada

Sobre la Revista

Capacitaciones Recomendadas

Diplomatura en

Derecho Antártico, Gestión y

Logística Antártica Ambiental

AIDCA – Universidad de Morón

Dirección: Dr. Javier A. Crea y

GB (R) Edgar Calandín

Coordinación: Dra. María de

los Ángeles Berretino

Modalidad: Virtual

Diplomatura en

Narcotráfico y Criminalidad

Organizada y Trasnacional

UNSTA

Dirección: Dr. Alberto Pravia

y Mg. Mario A. Herrera

Modalidad: Virtual

¡MUY PRONTO!

Diplomatura en

Misiones de Paz en el Derecho

a la Seguridad Internacional

AIDCA – Universidad de Morón

Dirección: Dr. Javier A. Crea y

GB (R) Edgar Calandín

Coordinación: Dra. María de

los Ángeles Berretino

Modalidad: Virtual

Informes: info@aidca.org

Publicaciones Recomendadas

Javier Alejandro Crea

María de los Ángeles

Berretino

Tratado de Derecho Antártico.

La gestión polar ambiental en

el marco de los Derechos

Humanos

Javier A. Crea

Mauricio H. Libster

Derecho Penal Ambiental.

El Acceso a la Justicia y la  

integración a los Objetivos del 

Desarollo

¿Te interesa recomendar la Revista Iberoamericana de Derecho, Cultura y Ambiente de AIDCA?

REVISTA IBEROAMERICANA DE DERECHO, CULTURA Y AMBIENTE
ASOCIACIÓN IBEROAMERICANA DE DERECHO, CULTURA Y AMBIENTE – AIDCA
Dirección: Paraná 264, Piso 2º, Oficinas 17 y 18. Ciudad Autónoma de Buenos Aires. Argentina
Código Postal:C1017AAF
Teléfono: (5411) 60641160
E-mail: info@aidca.org
Website: www.aidca.org