La Unión Europea refuerza la responsabilidad por productos defectuosos ante los nuevos riesgos tecnológicos
La Directiva (UE) 2024/2853 moderniza el régimen de responsabilidad civil para garantizar una protección reforzada de los consumidores en un entorno marcado por la innovación tecnológica y la inteligencia artificial

Es necesario examinar las palancas de la responsabilidad civil por productos defectuosos, incluyendo la definición y requisitos de producto defectuoso, los tipos de daños indemnizables, la carga de la prueba, el régimen de responsabilidad objetiva, las causas de exoneración, los operadores económicos responsables, la indemnización por daños morales, las limitaciones o exclusiones de responsabilidad y la prescripción y la caducidad de cara a las reclamaciones. Asimismo, se abordan las implicaciones prácticas de la nueva Directiva, especialmente en lo relativo a la ampliación del círculo de responsables, la protección reforzada de los consumidores, la gestión de los nuevos riesgos emergentes y el nuevo aseguramiento que requiere planteamientos acordes con los cambios legales operados y la nueva realidad social y económica.
Claves del nuevo régimen de responsabilidad por productos defectuosos
- 1ª. Producto Defectuoso. Un producto se considera defectuoso cuando no ofrezca la seguridad que una persona tiene derecho a esperar y que se exige en virtud del Derecho de la Unión o nacional. Al valorar el carácter defectuoso de un producto, se tienen en cuenta todas las circunstancias, incluyendo su presentación, características, uso razonablemente previsible, y el momento en que fue introducido en el mercado o puesto en servicio.
- 2ª. Seguridad de productos y derecho a Indemnización. La normativa de seguridad de productos en Europa y España se fundamenta en la obligación de comercializar únicamente productos seguros, facilitando así un elevado nivel de protección para los consumidores y el derecho a la reparación del daño. Así, toda persona física que sufra daños causados por un producto defectuoso tiene derecho a una indemnización. Este derecho también puede ser ejercido por una persona que sea sucesora o se haya subrogado en el derecho de la persona perjudicada, o por una persona que actúe en nombre de una o varias personas perjudicadas
- 3ª. Tipos de Daños Indemnizables. La indemnización cubre los daños por muerte o lesiones corporales, incluidos los daños a la salud psicológica reconocidos médicamente, daños a bienes (excepto el propio producto defectuoso y bienes utilizados exclusivamente con fines profesionales), y la destrucción o corrupción de datos que no se utilicen con fines profesionales. También se cubren los daños morales derivados de estos daños, en la medida en que puedan ser indemnizados con arreglo al Derecho nacional
- 4ª. Carga de la Prueba y responsabilidad objetiva Se exige al demandante que demuestre el carácter defectuoso del producto, el daño sufrido y el nexo causal entre ese carácter defectuoso y el daño. Sin embargo, se presume el carácter defectuoso del producto en ciertas condiciones, como cuando el demandado no exhibe las pruebas pertinentes o cuando el producto no cumple los requisitos obligatorios de seguridad.
Como su considerando segundo proclama: “La responsabilidad objetiva de los operadores económicos sigue siendo el único medio de abordar adecuadamente el problema de un reparto justo del riesgo inherente a la producción técnica moderna.”
- 5ª. Exención de Responsabilidad. Los operadores económicos no serán responsables de los daños causados por un producto defectuoso si demuestran que no introdujeron el producto en el mercado, que el defecto no existía en el momento de la introducción, que el defecto se debe a que el producto cumple requisitos legales, o que el estado de los conocimientos científicos y técnicos no permitía detectar el defecto en el momento de la introducción
- 6ª. Operadores Económicos Responsables. La responsabilidad recae sobre el fabricante del producto defectuoso, el fabricante de un componente defectuoso, el importador del producto o componente defectuoso, el representante autorizado del fabricante, y, en ausencia de estos, el prestador de servicios logísticos. También se considera responsable a cualquier persona que modifique sustancialmente un producto fuera del control del fabricante y lo comercialice posteriormente.
- 7ª. Indemnización por daños morales. Según la Directiva los daños morales son indemnizables. En el artículo 6, apartado 2, se especifica que el derecho a indemnización cubre todas las pérdidas materiales derivadas de los daños mencionados en el apartado 1, y también los daños morales derivados de esos daños, en la medida en que puedan ser indemnizados con arreglo al Derecho nacional. Además, el artículo 5 de la misma directiva garantiza que toda persona física que sufra daños causados por un producto defectuoso tenga derecho a una indemnización de conformidad con la directiva. Esto incluye la posibilidad de reclamar indemnización por daños morales, siempre que estos sean consecuencia de los daños materiales cubiertos por la directiva.
- 8ª. Exclusión o limitación de la Responsabilidad. La responsabilidad de un operador económico no puede ser limitada o excluida por una disposición contractual o por el Derecho nacional en relación con la persona perjudicada.
- 9ª. Riesgos del Desarrollo como causa de exoneración de responsabilidad. Según el artículo 11, apartado 1, letra e), de la Directiva, los operadores económicos no serán responsables de los daños causados por un producto defectuoso si demuestran que el estado objetivo de los conocimientos científicos y técnicos en el momento en que el producto fue introducido en el mercado, puesto en servicio o durante el período en el que el producto estaba bajo el control del fabricante no permitía detectar el carácter defectuoso. Aunque -como veremos más adelante- se deja un amplio margen a su regulación nacional por parte de los Estados miembros de la Unión Europea de cara a establecer excepciones a esta exoneración.
- 10ª. Aparición de la Inteligencia artificial en la responsabilidad de productos. El Reglamento (UE) 2024/1689 del Parlamento Europeo y del Consejo, de 13 de junio de 2024, por el que se establecen normas armonizadas en materia de inteligencia artificial, en adelante RIA («DOUE» núm. 1689, de 12 de julio de 2024), es el factor más novedoso en materia de responsabilidad de productos supone la irrupción del desarrollo tecnológico y el empleo cada vez más generalizado de la Inteligencia Artificial (IA). Nos encontramos ante una sociedad muy distinta a la del año 1985, de forma que se requieren mormas en materia de responsabilidad civil de productos diferentes para riesgos diferentes caracterizados por el desarrollo tecnológico.El RIA introduce una serie de ajustes y precisiones en el régimen de responsabilidad civil por productos defectuosos, especialmente en lo que respecta a los sistemas de IA. La normativa europea reconoce que la complejidad, opacidad y autonomía de los sistemas de IA pueden dificultar la identificación de la relación entre el daño y el comportamiento que lo causa, lo que podría dejar a las víctimas sin una indemnización adecuada. Por ello, se considera necesario adaptar los regímenes de responsabilidad civil para evitar situaciones en las que las personas que sufran daños por sistemas de IA queden desprotegidas En este contexto, la Directiva 2024/2853/UE, que deroga la anterior Directiva 85/374/CEE, amplía el concepto de producto defectuoso para incluir explícitamente los programas informáticos, como los sistemas de IA, independientemente de su modo de suministro o uso. Esto significa que los desarrolladores y proveedores de sistemas de IA pueden ser considerados responsables como fabricantes si el sistema de IA es defectuoso y causa daños. El nuevo panorama valora las consecuencias de la capacidad del producto para aprender o adquirir nuevas características tras su introducción en el mercado, lo que es especialmente relevante para los sistemas de IA. Esta capacidad de aprendizaje de los sistemas de IA está ligado al problema de la llamada «caja negra» en el contexto del Reglamento Europeo de la IA, que se refiere a la opacidad inherente de muchos sistemas de IA, especialmente aquellos que emplean técnicas avanzadas como el aprendizaje automático y el aprendizaje profundo. Esta opacidad implica que resulta extremadamente difícil, o incluso imposible, determinar con precisión qué elementos del sistema, qué código, entrada o decisión han provocado un resultado concreto, especialmente cuando ese resultado es lesivo o causa un daño. La complejidad y autonomía de estos sistemas, junto con la intervención de múltiples agentes a lo largo de su ciclo de vida, agravan esta dificultad, ya que la trazabilidad de las acciones específicas hasta decisiones humanas concretas se ve seriamente limitada. En el contexto de la inteligencia artificial y el aprendizaje automático, el término «caja negra» se refiere a sistemas o modelos cuyo funcionamiento interno no es fácilmente comprensible o interpretable por los seres humanos. Esto significa que, aunque el modelo puede producir resultados precisos o decisiones, no es claro cómo ha llegado a esas conclusiones. La «caja negra» es especialmente relevante en el ámbito del sesgo algorítmico, pues si un algoritmo es opaco, es difícil identificar y corregir sesgos que puedan estar presentes en los datos de entrenamiento o en el propio modelo. Esto puede llevar a decisiones injustas o discriminatorias, ya que los usuarios y desarrolladores no pueden ver los procesos internos que contribuyen a los resultados. El RIA aborda la problemática del sesgo algorítmico imponiendo obligaciones de calidad y representatividad de los datos, estableciendo mecanismos de gobernanza y gestión de riesgos, permitiendo el tratamiento excepcional de datos sensibles bajo garantías estrictas y exigiendo transparencia, auditabilidad y documentación para asegurar la identificación, mitigación y prevención de sesgos en los sistemas de IA de alto riesgo. El problema puede surgir cuando el sesgo algorítmico quede oculto en la “caja negra” a la que nos referimos anteriormente. El sesgo de los algoritmos, se refiere -por ejemplo- a la presencia de errores sistemáticos en los sistemas de IA que pueden afectar negativamente a la salud, la seguridad o los derechos fundamentales de las personas, especialmente cuando estos sesgos derivan de los conjuntos de datos utilizados para entrenar, validar o probar los modelos de IA. El sesgo puede surgir tanto de los datos históricos empleados, que reflejan discriminaciones existentes en la sociedad, como de la propia configuración y funcionamiento de los algoritmos, perpetuando y amplificando desigualdades, en particular hacia colectivos vulnerables o minorías. El RIA establece requisitos específicos para la identificación, mitigación y prevención de sesgos en los sistemas de IA de alto riesgo. En primer lugar, exige que los conjuntos de datos de entrenamiento, validación y prueba sean pertinentes, suficientemente representativos y, en la mayor medida posible, carezcan de errores y estén completos en vista de la finalidad prevista del sistema. Además, estos conjuntos de datos deben tener propiedades estadísticas adecuadas, especialmente en lo que respecta a las personas o colectivos sobre los que se aplicará el sistema de IA, y deben contemplar las características del entorno geográfico, contextual o funcional donde se utilizará Para abordar el sesgo, la normativa obliga a los proveedores de sistemas de IA de alto riesgo a implementar prácticas de gobernanza y gestión de datos que incluyan la evaluación de posibles sesgos y la adopción de medidas adecuadas para detectarlos, prevenirlos y mitigarlos. Si es estrictamente necesario para garantizar la detección y corrección de sesgos, se permite el tratamiento de categorías especiales de datos personales, siempre bajo estrictas garantías de protección de derechos y libertades fundamentales, como la seudonimización, la limitación de acceso y la eliminación de los datos una vez corregido el sesgo. La responsabilidad civil en materia de IA prevé que, en caso de sistemas de IA de alto riesgo, el operador será objetivamente responsable de los daños causados, sin que pueda eximirse alegando diligencia debida o funcionamiento autónomo del sistema. Esto supone un régimen de responsabilidad objetiva, más estricto que el tradicional, para los sistemas de IA que puedan causar daños significativos de manera aleatoria y más allá de lo razonablemente esperable En cuanto a la relación entre ambos regímenes, el Reglamento de IA establece que, si el operador de un sistema de IA es también el productor del sistema, prevalecerá el régimen del Reglamento de IA sobre la Directiva de productos defectuosos. Sin embargo, si el operador inicial es considerado productor según la Directiva, se le aplicará esta última. El RIA y la Directiva 2024/2853/UE sobre responsabilidad por daños causados por productos defectuosos interactúan de manera complementaria en el ámbito de la responsabilidad civil derivada del uso de sistemas de inteligencia artificial (IA). Ambos instrumentos establecen regímenes de responsabilidad que pueden aplicarse en función de la naturaleza del daño, el tipo de sistema de IA y la posición de los sujetos implicados (operador, productor, usuario, etc.) La responsabilidad civil en materia de IA prevé que, en caso de sistemas de IA de alto riesgo, el operador será objetivamente responsable de los daños causados, sin que pueda eximirse alegando diligencia debida o funcionamiento autónomo del sistema. Esto supone un régimen de responsabilidad objetiva, más estricto que el tradicional, para los sistemas de IA que puedan causar daños significativos de manera aleatoria y más allá de lo razonablemente esperable En cuanto a la relación entre ambos regímenes, el Reglamento de IA establece que, si el operador de un sistema de IA es también el productor del sistema, prevalecerá el régimen del Reglamento de IA sobre la Directiva de productos defectuosos. Sin embargo, si el operador inicial es considerado productor según la Directiva, se le aplicará esta última. El RIA y la nueva Directiva de responsabilidad por daños causados por productos defectuosos interactúan de manera complementaria en el ámbito de la responsabilidad civil derivada del uso de sistemas de IA. Ambos instrumentos establecen regímenes de responsabilidad que pueden aplicarse en función de la naturaleza del daño, el tipo de sistema de IA y la posición de los sujetos implicados (operador, productor, usuario, etc.). La interacción entre ambos instrumentos legales se resuelve en cada caso atendiendo a la naturaleza del daño, la posición de los sujetos implicados y el tipo de sistema de IA. El RIA se centra en la responsabilidad del operador y en los sistemas de alto riesgo, mientras que la Directiva 2024/2853/UE regula la responsabilidad objetiva del fabricante o productor por productos defectuosos, incluidos los sistemas de IA considerados productos. La prevalencia de uno u otro régimen depende de la coincidencia entre las figuras de operador y productor, así como del tipo de daño y de la cadena de responsabilidad involucrada.


