lunes, agosto 4, 2025

La Inteligencia Artificial y la Libertad de Expresión: ¿Dónde Están los Límites Jurídicos?

Share

La Inteligencia Artificial y la Libertad de Expresión: ¿Dónde Están los Límites Jurídicos?

En los últimos meses, la irrupción de la inteligencia artificial (IA) en la generación de contenidos ha desatado un intenso debate jurídico y social en América Latina y el mundo. El auge de herramientas capaces de crear textos, imágenes y videos indistinguibles de los realizados por humanos plantea desafíos inéditos para la protección de la libertad de expresión, el derecho a la información y la responsabilidad legal de los emisores de mensajes.

Recientemente, un tribunal en España admitió a trámite una demanda contra una empresa tecnológica tras la difusión viral de un video “deepfake” en el que se atribuían declaraciones falsas y difamatorias a una figura pública. El material, generado por IA y distribuido masivamente en redes sociales, provocó daños reputacionales y abrió la puerta a una discusión clave: ¿quién responde jurídicamente por los contenidos creados y difundidos por sistemas automáticos?

La libertad de expresión, consagrada en la mayoría de las constituciones latinoamericanas y en tratados internacionales como la Convención Americana sobre Derechos Humanos, protege el derecho de toda persona a buscar, recibir y difundir informaciones e ideas de toda índole. Sin embargo, este derecho no es absoluto y puede estar sujeto a responsabilidades ulteriores, especialmente para proteger la reputación de terceros y el orden público.

Hasta ahora, la jurisprudencia ha tendido a eximir de responsabilidad a los proveedores de servicios de internet por contenidos generados por usuarios, salvo que hayan tenido conocimiento efectivo de su ilicitud y no hayan actuado diligentemente para retirarlos. Pero, ¿qué ocurre cuando el contenido es generado por una IA autónoma y no por un usuario humano?


  • La legislación actual no reconoce personalidad jurídica a los sistemas de IA, lo que dificulta atribuirles responsabilidad directa.

  • Responsabilidad objetiva del operador
    Algunos juristas proponen que las empresas que desarrollan o implementan IA deberían responder objetivamente por los daños causados por sus sistemas, dado el riesgo inherente y la dificultad de controlar sus resultados.

  • Libertad de expresión vs. derecho al honor
    El uso de IA para crear “deepfakes” o noticias falsas pone en jaque el equilibrio entre la libertad de expresión y la protección del honor y la imagen, especialmente cuando la detección de la falsedad resulta compleja para el público general.

  • Deberes de transparencia y trazabilidad
    Se plantea la necesidad de exigir a los proveedores de IA mecanismos de trazabilidad y advertencias claras sobre el origen artificial de los contenidos, para evitar la manipulación informativa.

Abogados constitucionalistas sostienen que la regulación debe evolucionar para no obstaculizar la innovación, pero sí establecer límites claros frente a los riesgos de la desinformación y la afectación de derechos fundamentales. Por su parte, organizaciones de periodistas y defensores de la libertad de expresión advierten sobre el peligro de una sobrerregulación que termine restringiendo el debate público legítimo.

El desafío jurídico de la inteligencia artificial en el ámbito de la comunicación es ineludible. El debate está abierto: ¿hasta dónde debe llegar la responsabilidad de los operadores de IA? ¿Cómo garantizar la protección de derechos sin menoscabar la libertad de expresión? La respuesta requerirá una revisión profunda de los marcos normativos y, sobre todo, un diálogo interdisciplinario entre juristas, tecnólogos y la sociedad civil.

Read more

Local News