En este nuevo episodio del teatro de la legalidad nos enfrentamos a un dilema tan moderno como absurdo: la inteligencia artificial como creadora de cosas que nunca existieron ni existirán, y las posibles sanciones –o la falta de ellas– que podrían o no ameritar.
Este debate se torna aún más intrigante cuando observamos cómo la justicia, en su solemne y arcaico entendimiento, se enfrenta a las nuevas realidades impuestas por la tecnología. Tomemos como ejemplo la reciente jurisprudencia del Tribunal Electoral del Poder Judicial de la Federación (TEPJF), que hace una semana, decidió embarcarse en este barco sin brújula.
El tribunal tuvo que enfrentar un caso insólito: una fotografía de un niño que no existe, usada en una propaganda política. Morena, siempre alerta a cualquier resquicio de ofensa al espíritu de la ley (sic), denunció al PAN porque su candidata había utilizado esta imagen creada enteramente por inteligencia artificial.
La Sala Especializada, en su infinito afán de proteger lo inimaginable, dictaminó que esta propaganda electoral vulneraba los derechos de la infancia. Y aquí es donde empieza el absurdo, o no.
El TEPJF, demostrando una peculiar lucidez, revirtió la decisión y determinó que no hay violación posible al interés superior de la niñez cuando no hay niñez de por medio.
En esta nueva era de la justicia, la realidad es un espectro amplio y descontrolado. ¿Qué pasa cuando no hay un sujeto afectado, solo una construcción digital? Siguiendo esta lógica, podríamos inferir que la pornografía infantil no es ilegal, mientras sea generada enteramente con inteligencia artificial. Después de todo, ¿quién está siendo explotado? No hay cuerpos, no hay almas, no hay daño. Una aberración moral para muchos, pero una legalidad tecnocrática para otros.
La imagen no corresponde a ninguna persona identificable; ergo, no puede haber un derecho vulnerado porque el sujeto simplemente no existe. ¿Alguien podría alegar un daño a la honra de un unicornio morado o de una sirena en su hogar? La respuesta lógica es no, pero ¿quién dice que la lógica no está sobrevalorada?
Entonces, ya estando aquí, una vaga lista de derechos no aplicables por falta de sujetos afectables. ¿Existen los discursos de odio si lo escribió una IA? Pensemos: si una inteligencia artificial genera un texto de odio dirigido a nadie en particular, ¿quién se siente ofendido? ¿Puede una máquina tener odio, o simplemente está siguiendo patrones aprendidos de la vasta bajeza humana?
Vamos, ¿se puede vulnerar la privacidad de una persona ficticia? Si un algoritmo decide crear a «Gabriela Calderón», con una vida imaginaria llena de escándalos y amores imposibles, ¿deberíamos proteger la identidad de esa pobre de la misma manera que protegemos la nuestra? ¿Y qué hay de las calumnias? ¿Podríamos enjuiciar a una IA por crear noticias falsas sobre políticos de realidades alternas?
El caso se torna fascinante cuando la Sala Superior del TEPJF revoca la decisión inicial, ordenando al Instituto Nacional Electoral (INE) que modifique los lineamientos de propaganda electoral para establecer mecanismos de verificación para imágenes generadas por IA. ¿Qué fregados piensan hacer?
Aquí, la justicia da un tímido paso hacia el futuro, pero se queda a medio camino: reconoce el problema, pero aún no entiende del todo qué hacer con él. ¿Regulamos la producción de imágenes irreales? ¿Nos adentramos en el mundo de los derechos inexistentes? ¿O simplemente aceptamos que hay nuevas reglas en este juego de sombras digitales?
Es evidente que la justicia –esa dama ciega que tantea con la espada de la razón– se encuentra en un terreno desconocido. Y en este nuevo territorio, donde la inteligencia artificial crea realidades alternativas que nunca serán, se plantea una cuestión crucial: ¿cómo regulamos aquello que no es, pero podría haber sido? ¿Cómo sancionamos a una sombra por proyectar lo que nuestra imaginación jamás concibió?