Propuesta de Directiva sobre responsabilidad en Inteligencia Artificial Responsable (IAR)

Responsabilidad en Inteligencia Artificial

El día 28 de septiembre de 2022 la Comisión Europea publicó la Propuesta de Directiva del Parlamento Europeo y del Consejo relativa a la adaptación de las normas de responsabilidad civil extracontractual a la inteligencia artificial. Nos parece que es obligado comentar este asunto, teniendo en cuenta la atención constante que hemos prestado a la inteligencia artificial responsable (IAR).


En este primer artículo sobre el tema daremos cuenta de la finalidad, el contexto, el alcance y los aspectos sustanciales de la responsabilidad civil en materia de IA que regulará la futura Directiva; dejando para otro posterior artículo los aspectos procesales.


A) Finalidad de la Directiva: establecer requisitos uniformes para la RC


El objetivo de la Directiva consiste en establecer requisitos uniformes para determinados aspectos de la responsabilidad civil extracontractual por los daños causados con mediación de sistemas de IA. En este sentido, da continuidad a la Resolución del Parlamento Europeo 2020/2014 (INL) (de la que dimos noticia en la entrada de este blog de 17.10.2021 sobre las “Finanzas digitales (Fintech): Inteligencia artificial, responsabilidad civil y seguro:  La Resolución del Parlamento Europeo, de 20 de octubre de 2020, sobre el “Régimen de responsabilidad civil en materia de inteligencia artificial”).


Conviene comenzar por constatar que, dado que la Directiva parte de la base del respeto a los sistemas nacionales de responsabilidad civil que presentan variaciones entre los Estados miembros de la UE; su alcance resulta eminentemente procesal y, más en concreto, en materia de prueba. Como así consta desde su art.1.1 que comienza diciendo: “La presente Directiva establece normas comunes sobre: a) la exhibición de pruebas relativas a sistemas de inteligencia artificial (IA) de alto riesgo con el fin de permitir a los demandantes fundamentar sus demandas de responsabilidad civil extracontractual subjetiva (basada en la culpa) por daños y perjuicios; b) la carga de la prueba en el caso de demandas de responsabilidad civil extracontractual subjetiva (basada en la culpa) interpuestas ante tribunales nacionales por daños y perjuicios causados por sistemas de IA”.


En este sentido, las herramientas de “probática” que utiliza la Directiva y, especialmente, las presunciones de causalidad eficiente que veremos no son nuevas; sino que pueden encontrarse en los sistemas legislativos nacionales (por ejemplo, en nuestro Código Civil y en nuestra LEC).


Por lo tanto, estas herramientas nacionales constituyen puntos de referencia útiles sobre cómo abordar las cuestiones planteadas por la IA en relación con las normas de responsabilidad en vigor de manera que se interfiera lo menos posible en los diferentes regímenes jurídicos nacionales.


En términos generales, La Comisión Europea opina que esta Directiva sobre responsabilidad en materia de IA adaptará el Derecho privado a las necesidades de la transición a la economía digital.


B) Contexto normativo: la inserción de la Directiva sobre responsabilidad en materia de IA en el sistema normativo de la IA de la UE


a) El punto de partida: un análisis coste/beneficio de la inteligencia artificial (IA) 


El punto de partida del sistema normativo de la IA en la UE reside en asumir un análisis coste/beneficio de la inteligencia artificial («IA») porque:


a.1) Por un lado, la IA es un conjunto de tecnologías facilitadoras que puede aportar una amplia gama de beneficios en todo el espectro de la economía y la sociedad y alberga un gran potencial para el progreso tecnológico y permite nuevos modelos de negocio en muchos sectores de la economía digital.


a.2) Por otro lado, la IA puede generar riesgos y perjudicar intereses y derechos protegidos por el Derecho de la Unión o nacional. Por ejemplo, el uso de la IA puede incidir negativamente en una serie de derechos fundamentales, como la vida, la integridad física, la no discriminación y la igualdad de trato.


b) Los dos tipos de instrumentos normativos de la regulación europea de la IA


Por lo anterior, para conseguir un balance adecuado el sistema normativo de la IA en la UE establecerá dos tipos de instrumentos:


b.1) Disposiciones generales, como el Reglamento (UE)…/… del Parlamento Europeo y del Consejo [Ley de IA] (actualmente, en fase de Propuesta de Reglamento por el que se establecen normas armonizadas en materia de inteligencia artificial (Ley de Inteligencia Artificial),  COM(2021) 206 final) que establece requisitos destinados a reducir los riesgos para la seguridad y los derechos fundamentales. En este ámbito, la Directiva sobre responsabilidad en materia de IA viene a cubrir una laguna regulatoria que surge de que los requisitos establecidos en Ley de IA están destinados a reducir los riesgos para la seguridad y los derechos fundamentales y, por lo tanto, tienen por objeto prevenir, hacer un seguimiento y abordar los riesgos para, así, hacer frente a las preocupaciones sociales; previendo, en particular, autorizaciones, controles, seguimiento y sanciones administrativas en relación con los sistemas de IA con el fin de evitar daños. La laguna regulatoria surge porque los requisitos establecidos en Ley de IA no ofrecen ayuda individual a quienes han sufrido daños causados por la IA ya que no prevén la indemnización de la persona perjudicada por los daños causados por una información de salida producida por un sistema de IA, o por la no producción de una información de salida.


b.2) Disposiciones especiales o sectoriales de seguridad de los productos aplicables también a las máquinas y sus partes y accesorios y a los equipos radioeléctricos basados en IA, como las Propuestas de Reglamento del Parlamento Europeo y del Consejo relativo a la seguridad general de los productos (COM[2021] 346 final) y de Reglamento del Parlamento Europeo y del Consejo relativo a las máquinas y sus partes y accesorios (COM[2021] 202 final).


La inserción de esta Directiva sobre responsabilidad en materia de IA en el sistema normativo de la IA de la UE se refleja en las remisiones constantes de su articulado a la Ley de IA empezando por las propias definiciones (art.2) de “sistema de IA” como “un sistema de IA tal como se define en [el artículo 3, apartado 1, de la Ley de IA]; de “sistema de IA de alto riesgo” como “un sistema de IA de alto riesgo de los mencionados en [el artículo 6 de la Ley de IA]”; de “proveedor” como “un proveedor tal como se define en [el artículo 3, apartado 2, de la Ley de IA]; y de “usuario” como “un usuario tal como se define en [el artículo 3, apartado 4, de la Ley de IA]”.


En este sentido, interesa recordar que el art.3.1 de la Propuesta de Reglamento por el que se establecen normas armonizadas en materia de inteligencia artificial (Ley de Inteligencia Artificial) define el “Sistema de inteligencia artificial (sistema de IA)” como “el software que se desarrolla empleando una o varias de las técnicas y estrategias que figuran en el anexo I y que puede, para un conjunto determinado de objetivos definidos por seres humanos, generar información de salida como contenidos, predicciones, recomendaciones o decisiones que influyan en los entornos con los que interactúa”.


Vemos como esta definición de sistema de IA -que resulta manifiestamente mejorable tanto en términos lógicos como lingüísticos (entre otras cosas, para evitar barbarismos)- recurre a una imagen cibernética integrada, implícitamente, por tres fases que son: la entrada de información bruta desde el exterior del sistema, el procesamiento de información de dicha información por el sistema mediante técnicas digitales y algorítmicas y la salida de la información elaborada o neta hacia el exterior.


Para conocer el ámbito de aplicación de esta Directiva (inclusiones y exclusiones), así como otros aspectos sustanciales de la misma (el triángulo de requisitos, acto negligente, daño causado y la relación de causalidad eficiente) se puede acceder al artículo completo en el blog del autor a través de este enlace.

Leave A Reply