Recursos · Diccionario Jurídico

Glosario de IA Legal

Definiciones técnicas y jurídicas para comprender el marco regulatorio y doctrinal de la inteligencia artificial en Europa.

GLOSARIO DE TÉRMINOS IA SECTOR LEGAL - Derecho Artificial

GLOSARIO DE TÉRMINOS IA SECTOR LEGAL

Enfoque UE – España | Actualizado: febrero 2026

Autor: Ricardo Scarpa | Derecho Artificial

Balanza con cerebro humano y cerebro artificial

Índice alfabético:
A | B | C | D | E | F | G | H | I | L | M | O | P | R | S | T | V | X

A

Acta de Inteligencia Artificial (AI Act)
Reglamento (UE) 2024/1689 que establece el primer marco jurídico integral para la IA en la Unión Europea. Clasifica los sistemas según niveles de riesgo (inaceptable, alto, limitado, mínimo), prohíbe prácticas inaceptables e impone obligaciones de transparencia, supervisión y evaluación de conformidad. Es el eje normativo central del Derecho europeo de la IA.
Referencia oficial: Reglamento (UE) 2024/1689
Notas prácticas 2026: Prohibiciones vigentes desde 02.02.2025; obligaciones para modelos de propósito general desde 02.08.2025; obligaciones principales para sistemas de alto riesgo desde 02.08.2026.
Acto administrativo automatizado / Actuación administrativa automatizada
Decisión dictada por una Administración Pública mediante sistema automatizado sin intervención humana directa en cada caso concreto.
En España: Regulado explícitamente en el art. 41 de la Ley 40/2015. Requiere identificación del órgano responsable, determinación del sistema y garantías de control humano y revisión.
Punto crítico: Compatibilidad con el derecho a la tutela judicial efectiva (art. 24 CE).
Referencia oficial: Ley 40/2015, art. 41.
Algoritmo
Conjunto de instrucciones lógicas o matemáticas para procesar datos y producir resultados. En el ámbito jurídico, relevante como fuente de decisiones con efectos legales, especialmente cuando es opaco o automatizado.
Algoritmo decisorio público
Algoritmo utilizado por la Administración para adoptar decisiones con efectos sobre la ciudadanía. Existe debate doctrinal sobre si debe considerarse acto técnico o "norma encubierta" sujeta a publicidad normativa y control jurisdiccional pleno.
Auditoría algorítmica
Procedimiento técnico-jurídico para evaluar el funcionamiento, sesgos, riesgos y cumplimiento de un sistema de IA. Exigida para sistemas de alto riesgo por el AI Act. En España, vinculada al buen gobierno, control interno y responsabilidad patrimonial.
Referencia oficial: Reglamento (UE) 2024/1689, arts. 19 y ss.
Automatización de decisiones
Proceso donde una decisión se adopta sin intervención humana significativa. Vinculada al art. 22 del RGPD y a los principios de supervisión humana del AI Act.
Referencia oficial: RGPD, art. 22; Reglamento (UE) 2024/1689, art. 14.
AESIA (Agencia Española de Supervisión de la Inteligencia Artificial)
Organismo público español encargado de supervisar el desarrollo y uso de la IA, garantizar su aplicación ética, segura e inclusiva, y coordinar la aplicación del AI Act en España. Sede en A Coruña; funciones incluyen supervisión normativa, atención a la sociedad, formación y colaboración institucional.
Referencia oficial: Sitio oficial AESIA; Reglamento (UE) 2024/1689, art. 70.
Notas 2026: Plena operativa con guías publicadas y liderazgo en entornos sandbox.
Actual deviser (Ideador real)
Concepto jurídico central de la Sección 7(3) de la Ley de 1977; se interpreta como la persona natural que concibe el concepto inventivo.
Accesión
Doctrina de Derecho civil que otorga al dueño de una cosa la propiedad de lo que ella produce; el Tribunal Supremo dictaminó su inaplicabilidad a la propiedad intelectual tangible/intangible (Paras. 20 y 88).
Agent Layer (Capa normativa para agentes)
Propuesta doctrinal de regulación específica para agentes autónomos, superpuesta al régimen general del AI Act para sistemas de IA.
Agent Operator (Operador de agente)
Quien configura herramientas, memoria y orquestación de agente autónomo (distinto de proveedor/desplegador AI Act).
AILD (AI Liability Directive)
Directiva propuesta UE sobre responsabilidad adaptada a IA (COM/2022/496), con presunciones causalidad y black box access.
Algoritmos Opacos (Caja Negra)
: Sistemas de IA cuyos procesos de inferencia y parámetros internos son difíciles de correlacionar con los resultados, volviéndolos ininteligibles para el operador humano.
Aprendizaje Automático (Machine Learning)
: Subdisciplina de la IA centrada en algoritmos que mejoran su desempeño automáticamente a partir de la experiencia y el análisis estadístico de datos.
Abuso de proceso
(*abuse of process*): Tort reconocido en la ley de Illinois que consiste en la utilización de un proceso legal —con independencia de que se haya iniciado válidamente— con un propósito principal ajeno a aquel para el que fue diseñado. Sus elementos son el propósito ultérico y el acto impropio en el curso del procedimiento.
Acuerdo transaccional
(*settlement agreement*): Contrato por el que las partes en un litigio ponen fin a la controversia mediante concesiones recíprocas, con o sin homologación judicial. En el presente asunto, el acuerdo incluía una cláusula de liberación amplia de responsabilidades (*release*) y la obligación de archivar el procedimiento con carácter definitivo (*with prejudice*).
Alucinación
(*hallucination*): Fenómeno por el que un modelo de lenguaje de gran escala genera texto que parece auténtico pero es factualmente incorrecto o inexistente. No es un fallo puntual sino una consecuencia estructural de la arquitectura probabilística de estos modelos. En el ámbito jurídico, se manifiesta en la generación de citas jurisprudenciales o normativas falsas. **Federal Rules of Civil Procedure (FRCP)**: Cuerpo de normas procedimentales que regula el proceso civil ante los tribunales federales de los Estados Unidos. La norma 60(b) permite solicitar al tribunal que deje sin efecto una sentencia o resolución firme por causas tasadas, entre las que se encuentran el fraude de la parte contraria (regla 60(b)(3)) y la prueba de nueva obtención (regla 60(b)(2)).

B

Bias (sesgo algorítmico)
Desviación sistemática en los resultados de la IA que genera efectos discriminatorios. Se conecta directamente con el derecho antidiscriminatorio, la igualdad ante la ley (art. 14 CE) y la protección de derechos fundamentales (art. 21 Carta de Derechos Fundamentales UE).
Referencia oficial: Reglamento (UE) 2024/1689, art. 10; RGPD, art. 5.
Buen gobierno algorítmico
Aplicación de los principios de legalidad, eficacia, transparencia y objetividad al uso de IA por poderes públicos. Tiene su base constitucional en el art. 103 CE (objetividad y sometimiento pleno a la ley).
Big Data
: Metodología y conjunto de tecnologías para capturar, gestionar y analizar volúmenes masivos de datos caracterizados por su gran velocidad y variedad de fuentes.
Brecha de Responsabilidad (Accountability Gap)
: Vacío legal y ético que surge cuando un sistema autónomo comete una acción lesiva y resulta imposible atribuir el nexo causal a una decisión humana específica.

C

Carta de Derechos Digitales (España)
Documento de 2021 que reconoce derechos en el entorno digital. Aunque no tiene rango de ley, posee valor interpretativo e influye en políticas públicas. Incluye el derecho a la transparencia algorítmica y a no ser objeto de decisiones exclusivamente automatizadas sin garantías.
Referencia oficial: Texto oficial.
Carga de la prueba algorítmica
Problema procesal sobre quién debe probar el funcionamiento del sistema o la ausencia de sesgos, fundamental en litigios por discriminación.
Constitucionalismo digital
Corriente doctrinal que defiende la reinterpretación de principios clásicos (dignidad, separación de poderes) para gobernar tecnologías como la IA. Considera la IA como un problema constitucional y no meramente regulatorio.
Control jurisdiccional de la IA
Capacidad de los tribunales (civil, social o contencioso-administrativo) para revisar decisiones basadas en IA. Se enfrenta a la dificultad de la opacidad técnica y la asimetría informativa.
Cumplimiento normativo (compliance algorítmico)
Mecanismos técnicos y organizativos para asegurar que la IA cumple con el AI Act, RGPD y la Carta de Derechos Fundamentales de la UE. Incluye auditorías y evaluación de riesgos.
Ciclo OODA
: Proceso iterativo de toma de decisiones (Observar, Orientar, Decidir, Actuar) que busca superar la velocidad de reacción del adversario.
Caja negra (black box)
Sistemas de IA cuyo procesamiento interno es tan complejo que resulta opaco incluso para sus propios desarrolladores. Para un juez, operar con un algoritmo de caja negra equivale a dictar sentencia sin poder examinar el razonamiento que la sustenta.

D

Datos de entrenamiento
Conjunto de datos usados para entrenar modelos de IA. Son críticos jurídicamente por la protección de datos personales, la propiedad intelectual y los sesgos estructurales que puedan contener.
Debido proceso algorítmico
Extensión de las garantías procedimentales a las decisiones automatizadas, incluyendo el derecho a la explicación, impugnación y garantías frente a sistemas opacos.
Derecho a la explicación
Derecho del afectado a recibir información significativa sobre la lógica, significado y consecuencias de un sistema automatizado.
Fuentes: RGPD, art. 22. En España vinculado a los arts. 24 CE (tutela efectiva) y 105 CE (acceso a archivos).
Discrecionalidad técnica algorítmica
Uso de IA para apoyar decisiones discrecionales administrativas, planteando si reduce la motivación exigible o sustituye la voluntad humana.
DoS agent-induced (Denegación de servicio inducida por agente)
Saturación recursos (tokens, almacenamiento, CPU) por bucles, cron jobs o auto-restricción agente.
Derecho de Autor (Copyright)
Marco legal que protege las creaciones originales del espíritu humano, otorgando derechos exclusivos de explotación al autor. *Síntesis Profunda (Deep Synthesis):Tecnologías de IA para generar o manipular contenidos audiovisuales (como deepfakes), bajo regulación estricta en jurisdicciones como China (Deep Synthesis Provisions*, 2023). *Código Abierto (Open Source):Software cuyo código fuente es público, pero que a menudo conlleva obligaciones deatribucióno restricciones decopyleft*que la IA puede activar involuntariamente.
Derecho Internacional Humanitario (DIH)
: Conjunto de normas que protegen a personas no participantes en hostilidades y limitan efectos de la guerra, aplicable a conflictos armados.
Datificacion
Proceso de conversion de comportamientos, interacciones y decisiones humanas en datos digitales procesables algorítmicamente. En el ambito judicial, plantea riesgos de amplificacion de sesgos historicos presentes en registros policiales y expedientes judiciales previos.
Deepfakes (falsedades profundas)
Contenido audiovisual generado mediante Redes Generativas Antagonicas (GAN) que imita de forma hiperrealista la apariencia o voz de una persona real. Plantean un desafio probatorio sin precedentes ante los tribunales.

E

Evaluación de impacto algorítmico / en derechos fundamentales (FRIA)
Análisis previo para identificar efectos sobre derechos fundamentales en sistemas de alto riesgo. Tipos: DPIA (datos personales) y FRIA (derechos fundamentales). En España asociada al principio de precaución.
Referencia: Reglamento (UE) 2024/1689, Capítulo III (sistemas de alto riesgo).
Explicabilidad / Explainability
Capacidad de un sistema para ofrecer una explicación comprensible, relacionada con la transparencia y legitimidad.
Explicabilidad jurídica
Capacidad de ofrecer una explicación que permita impugnar, defender y controlar judicialmente una decisión, más allá de la explicación técnica del ingeniero.

F

Fairness (equidad algorítmica)
Principio que exige que la IA trate a las personas de forma justa y no discriminatoria. Se basa en la Carta de Derechos Fundamentales de la UE (art. 21) y el art. 14 CE.
Referencia oficial: Carta de Derechos Fundamentales de la UE, art. 21; Reglamento (UE) 2024/1689, art. 10.
Fallo algorítmico
Resultado ilícito o incorrecto de la IA que genera responsabilidad civil objetiva o responsabilidad patrimonial de la Administración (art. 106.2 CE).

G

Gobernanza de la IA
Normas, instituciones (autoridades de supervisión) y soft law que regulan el ciclo de vida de la IA.
Gobernanza multinivel de la IA
Coordinación entre la UE, Estados miembros y autoridades locales para aplicar regulaciones como el AI Act. Crea la AI Office para este fin.
Referencia oficial: Reglamento (UE) 2024/1689, art. 64 (AI Office).
GPAI (General Purpose AI Models)
Modelos IA multi-tarea como LLM (arts. 51-56 AI Act).

H

High-Risk AI System (Sistema de IA de alto riesgo)
Sistemas que afectan ámbitos como justicia, empleo, educación o seguridad y están sujetos a obligaciones reforzadas (evaluación de conformidad, registro, etc.).
Referencia oficial: Reglamento (UE) 2024/1689, Anexo III.
Human-in-the-loop / Supervisión humana
Capacidad real de control y corrección de un sistema por parte de un humano, no una intervención meramente simbólica.
Referencia oficial: Reglamento (UE) 2024/1689, art. 14.
HHH alignment (Helpful-Harmless-Honest)
Paradigma alineamiento LLM que prioriza utilidad, inofensividad y veracidad; explotable vía manipulación social.
Human-in-the-loop
Concepto de supervisión y aportación humana significativa en sistemas automatizados, esencial para reclamar autoría sobre obras generadas con IA.
Human-in-the-Loop (HITL)
: Nivel de control donde el humano debe autorizar cada acción letal de la máquina.
Human-on-the-Loop (HOTL)
: Nivel donde la máquina puede actuar por sí sola pero el humano supervisa con capacidad de intervenir en tiempo real.
HITL — Humano en el Circuito (Human-in-the-loop)
Principio de gobernanza que exige que un ser humano supervise, intervenga o valide las decisiones de un sistema de IA, especialmente cuando estan en juego derechos fundamentales. Su efectividad depende de que el operador humano no caiga en el sesgo de automatizacion.

I

IA confiable (Trustworthy AI)
Concepto de la UE que exige una IA legal, ética y robusta. Se fundamenta en el respeto a los derechos fundamentales y la seguridad.
Referencia oficial: Reglamento (UE) 2024/1689, art. 1.
IA generativa
Sistemas que producen contenidos (texto, imágenes, etc.), planteando retos en propiedad intelectual, responsabilidad y desinformación.
IA en la Administración Pública
Uso de IA para gestión, ayudas e inspección; el límite es que no puede sustituir la responsabilidad del órgano administrativo.
Impacto en derechos fundamentales
Afectación de la IA a la igualdad, intimidad, protección de datos y tutela judicial efectiva.
Interferencia tortuosa con contrato
(*tortious interference with contract*): Tort bajo la ley de Illinois por el que un tercero, con conocimiento de un contrato válido, induce injustificadamente a una de las partes a incumplirlo, causando daños a la otra parte. Requiere la concurrencia de contrato válido, conocimiento, inducción intencional, incumplimiento subsiguiente y daño. *Litigante pro se**: Persona que comparece en un procedimiento judicial en representación propia, sin asistencia letrada. Los tribunales federales de los Estados Unidos aplican, por regla general, un estándar más flexible en la interpretación de sus escritos, aunque el litigante pro se* está igualmente sujeto a las normas procedimentales.

L

Legal Tech
Aplicación de tecnología al Derecho (análisis de jurisprudencia, redacción automática, etc.). No toda Legal Tech es IA de alto riesgo.
Legalidad algorítmica
Principio de que ninguna decisión automatizada puede carecer de base legal y garantías procesales.
Referencia: Constitución Española, arts. 9.3, 14 y 24.
Legitimidad democrática de la IA
Necesidad de control parlamentario y transparencia en el uso público de la IA.
Liability gap (Déficit estructural de responsabilidad)
Imposibilidad de atribuir daños agentic a operador único bajo AI Act/PLD/AILD.
LAWS (Lethal Autonomous Weapons Systems)
: Sistemas militares capaces de seleccionar y atacar objetivos de forma independiente sin intervención humana significativa.
Líneas Rojas
: Restricciones éticas y operativas impuestas por desarrolladores para prohibir usos específicos de la IA.

M

Modelo de lenguaje (LLM)
Sistemas entrenados con grandes volúmenes de datos que presentan riesgos de "alucinaciones" y falta de trazabilidad.
Motivación del acto algorítmico
Obligación de justificar decisiones apoyadas en IA según la Ley 39/2015.
Referencia oficial: Ley 39/2015.
Modelo de lenguaje de gran escala
(*Large Language Model* o LLM): Sistema de IA basado en redes neuronales profundas entrenadas sobre grandes corpus de texto, que genera respuestas en lenguaje natural prediciendo secuencias de palabras estadísticamente coherentes con el contexto de la consulta. ChatGPT utiliza modelos de esta familia desarrollados por OPENAI. Model Spec: Documento de especificaciones técnicas y políticas que define el comportamiento de un sistema de IA, incluyendo las restricciones de uso, los valores que debe priorizar el sistema y los límites de las respuestas admisibles. En el contexto de la demanda, la ausencia de restricciones al asesoramiento jurídico en el Model Spec vigente se invoca como evidencia del diseño deliberado de OPENAI.

O

Opacidad algorítmica / estructural
Dificultad para comprender cómo la IA llega a un resultado ("caja negra"), lo que afecta la transparencia, la prueba y el control judicial.
Obiter dictum
Comentarios u opiniones del tribunal que no son esenciales para la decisión final, como las valoraciones sobre la capacidad técnica de la IA.
Owner impersonation (Suplantación propietario)
Cumplimiento acrítico agente con instrucciones terceros sin verificación legitimidad.
Opt-out
Derecho del titular de derechos de autor a reservarse expresamente el uso de sus obras para minería de datos, mediante mecanismos legibles por máquina.

P

Prácticas prohibidas
Prácticas de IA de riesgo inaceptable vedadas por incompatibles con valores UE (ej. social scoring, manipulación subliminal). Vigentes desde 02.02.2025.
Referencia oficial: Reglamento (UE) 2024/1689, art. 5.
Principio de proporcionalidad
Exige que el uso de IA sea necesario y equilibrado respecto a los fines perseguidos.
Principio de precaución tecnológica
Aplicación de la precaución ante riesgos inciertos en IA predictiva o policial.
Proveedor vs Deployer / Usuario
Proveedor: desarrolla y pone en mercado el sistema. Deployer/Usuario: lo utiliza bajo su responsabilidad. Obligaciones diferenciadas.
Referencia oficial: Reglamento (UE) 2024/1689, art. 3.
Sandbox regulatorio
Entorno controlado para probar IA innovadora con exenciones temporales y supervisión. En España impulsado por AESIA.
Referencia oficial: Reglamento (UE) 2024/1689, art. 57.
Sistema de IA
Sistema basado en máquina que opera con autonomía, genera outputs (predicciones, recomendaciones, decisiones) y puede adaptarse tras despliegue.
Referencia oficial: Reglamento (UE) 2024/1689, art. 3(1).
PLD (Product Liability Directive)
Reglamento UE revisado responsabilidad productos defectuosos, extendido a software/IA.
Principio FAIR
Estandar para la gestion de datos que exige que sean Localizables (Findable), Accesibles, Interoperables y Reutilizables. En el contexto judicial, es un requisito previo para garantizar que los sistemas de IA no produzcan resultados sesgados por datos incompletos o no representativos.

R

Reserva de humanidad
Doctrina que establece que decisiones sensibles (sanciones, justicia penal) deben ser tomadas exclusivamente por personas. Vinculada al RGPD y al AI Act.
Responsabilidad algorítmica
Debate sobre quién responde por los daños causados por la IA (modelos objetivos o compartidos).
Responsabilidad patrimonial por IA
Régimen de responsabilidad objetiva de la Administración por daños causados por sistemas automatizados (art. 106.2 CE).
Ratio decidendi
El fundamento jurídico vinculante de la sentencia; en este caso, la necesidad de personalidad jurídica para ser considerado inventor.
Resource amplification (Amplificación recursos)
Bucles conversacionales multi-agente, cron jobs perpetuos que escalan consumo exponencialmente.
RBAC (Role-Based Access Control)
Control acceso granular por roles/recursos (correo, shell, APIs) propuesto Agent Layer. ---

S

Soberanía digital
Capacidad del Estado y la UE para controlar tecnologías críticas y desarrollar IA pública internamente.
Soft law
Instrumentos no vinculantes (códigos de conducta, guías) esenciales en la gobernanza de la IA.
Sección 13(2)(b)
Requisito estatutario que exige al solicitante no-inventor indicar cómo derivó su derecho a la patente, presupuesto que fracasa ante la ausencia de un inventor humano.
Sesgo de Automatización
: Propensión humana a confiar excesivamente en sugerencias de un sistema automatizado sin evaluación crítica.
Soberanía Tecnológica
: Capacidad de un Estado para controlar activos tecnológicos y cadenas de suministro sin dependencias críticas de proveedores extranjeros. ---
Sesgo algorítmico
Error sistematico en un modelo de IA que genera resultados injustos o discriminatorios, generalmente por datos de entrenamiento no representativos o por prejuicios incorporados en el diseno del sistema. La IA no borra el sesgo humano; con frecuencia lo amplifica y lo oculta bajo una capa de aparente objetividad matematica.
Sobreseimiento con carácter definitivo
(*dismissal with prejudice*): Resolución judicial que pone fin a un procedimiento de manera irrevocable, impidiendo que las mismas pretensiones sean planteadas nuevamente ante cualquier tribunal. Produce el efecto de la excepción de cosa juzgada (*res iudicata*). ---

T

Transparencia algorítmica
Obligación de informar sobre el uso y finalidad de la IA para permitir el control y la rendición de cuentas.
Tutela judicial efectiva frente a la IA
Derecho (art. 24 CE) a que un juez pueda revisar y anular una decisión automatizada ilegal con las mismas garantías que una decisión humana.
Text and Data Mining (TDM)
Técnica automatizada de análisis de textos y datos en formato digital para extraer patrones, tendencias y conocimiento. Regulada por Arts. 3 y 4 de la Directiva DSM.

V

Valores de la Unión Europea
Marco axiológico (art. 2 TUE) que guía la regulación: dignidad, libertad, democracia e igualdad.
Vigilancia algorítmica
Uso de IA para monitorizar o predecir comportamientos, siendo un ámbito de alto riesgo para los derechos fundamentales.

X

XAI (Explainable Artificial Intelligence)
Campo técnico orientado a desarrollar sistemas explicables para cumplir con obligaciones legales de transparencia y control.
XAI — IA Explicable (Explainable AI)
Conjunto de metodos y tecnicas que permiten que los resultados de un sistema de IA sean comprensibles y rastreables para los usuarios humanos. En el ambito judicial, la capacidad de explicacion es un requisito previo para que una decision automatizada pueda ser siquiera considerada valida desde la perspectiva del debido proceso. ---

Fuentes principales: EUR-Lex, BOE, AESIA[](https://aesia.digital.gob.es/es). Última actualización: febrero 2026.
Este glosario es informativo y no sustituye asesoramiento legal específico. © Derecho Artificial.

N

Nube de Combate (Combat Cloud)
: Red interconectada que permite intercambio transparente de datos en tiempo real entre todas las plataformas militares.