Fig. I A. C9.4-1- Personalidad electrónica o jurídica de la robótica: ¿una ficción? (Imagen de Chetraruc en Pixabay ). URL: https://cdn.pixabay.com/photo/2017/05/21/18/53/artificial-intelligence-2332004_960_720.jpg
eu-ai-alliance-3_0.png

|Autor: Juan Antonio Lloret Egea |Miembro de la Alianza Europea para la IA |https://orcid.org/0000-0002-6634-3351|© 2019. Licencia de uso y distribución: [ Los estados de la inteligencia artificial (IA) | The states of artificial intelligence (AI) ] Creative Commons CC BY 4.0 |Escrito: 25/11/2019. Actualizado: 25/11/2019 |DOI: 10.6084/m9.figshare.11130992|

La responsabilidad civil, y también la penal, en la inteligencia artificial envuelve aspectos técnicos y legislativos complejos; y es abono de discusiones y problemas futuros en el marco de la UE y a nivel mundial. La discusión ex ante es necesaria para la ciudadanía europea y los estamentos envueltos a presente y a futuro. La sensibilidad y la solidaridad (y también los derechos y obligaciones) de nuestra sociedad hay que activarlas ahora, y avisar de su despiste y de su letargo; una sociedad que está saturada de información que nos provoca serias ausencias en los foros latentes del debate europeo. En aras de contribuir al análisis sobre la necesidad de definir a la Inteligencia Artificial (IA) como una entidad con personalidad jurídica, o ente jurídico, y la responsabilidad posterior que conllevaría tal decisión, extractaremos y analizaremos elementos que consideramos importantes del Informe del Grupo de Expertos en Responsabilidad y Nuevas Tecnologías – Formación de Nuevas Tecnologías. 2019… Y nos resulta muy relevante especialmente uno de los ‘hallazgos’ del informe, denominado Liability for Artificial Intelligence and other emerging digital technologies (Responsabilidad por la inteligencia artificial y otras tecnologías digitales emergentes):

No es necesario dar a los dispositivos o sistemas autónomos una personalidad jurídica, ya que el daño que pueden causar puede y debe ser atribuible a personas u organismos existentes [C9.4.-1] .

(Report from the Expert Group on Liability and New Technologies – New Technologies Formation. 2019)

¿Hemos de considerar a este informe de los expertos europeos como una referencia en las políticas de la UE futuras?


Resumen ejecutivo del informe


Advertencia: nótese que la redacción del informe en origen es en inglés, y que por tanto la traducción nuestra ha de considerarse sólo a modo de información para propiciar el debate y la reflexión. Y no supone, ni representa, lo que dice el informe. Por este motivo se adjunta el artículo embebido al final, para que prevalezca su naturaleza y su idiosincrasia real y con el ánimo de no interpretar y contribuir a errores.


La inteligencia artificial y otras tecnologías digitales emergentes, como el Internet de las cosas o las tecnologías de contabilidad distribuida, tienen el potencial de transformar nuestras sociedades y economías para mejor. Sin embargo, su despliegue debe venir con suficientes garantías, para minimizar el riesgo de daño que estas tecnologías pueden causar, como lesiones corporales u otros daños. En la UE, las normas de seguridad del producto, aseguran que este sea el caso.

Sin embargo tales regulaciones no pueden excluir completamente la posibilidad de daños resultantes del funcionamiento de estas tecnologías. Si esto sucede, las víctimas buscarán una compensación. Por lo general, lo hacen sobre la base de los regímenes de responsabilidad civil de derecho privado, en particular el derecho extracontractual, posiblemente en combinación con el seguro. Sólo la responsabilidad estricta de los productores por productos defectuosos, que constituye una pequeña parte de este tipo de regímenes de responsabilidad, está armonizada a nivel de la UE por la Directiva de Responsabilidad del Producto, mientras que todos los demás regímenes, aparte de algunas excepciones en sectores específicos o bajo legislación especial, están regulados por los propios Estados miembros.

En su evaluación de los regímenes de responsabilidad existentes a raíz de las tecnologías digitales emergentes, la Formación de Nuevas Tecnologías del Grupo de Expertos ha concluido que los regímenes de responsabilidad vigentes en los Estados miembros garantizan al menos la protección básica de las víctimas cuyo daño es causado por la operación de tales nuevas tecnologías.

Sin embargo, las características específicas de estas tecnologías y sus aplicaciones, incluida la complejidad, la modificación a través de actualizaciones o el autoaprendizaje durante la operación, la previsibilidad limitada y la vulnerabilidad a las amenazas de ciberseguridad, pueden hacer que sea más difícil ofrecer a estas víctimas un reclamo de indemnización en todos los casos donde esto parece justificado. También puede darse el caso de que la asignación de responsabilidad sea injusta o ineficiente. Para rectificar esto, es necesario realizar ciertos ajustes en los regímenes de responsabilidad nacional y de la UE.

A continuación se enumeran los hallazgos más importantes de este informe sobre cómo deben diseñarse los regímenes de responsabilidad civil y, cuando sea necesario, modificarse, a fin de enfrentar los desafíos que las tecnologías digitales emergentes traen consigo.

Los 10 elementos que este informe nos arroja como ‘hallazgos’son los siguiente:

  1. Una persona que opera una tecnología permitida que, sin embargo, conlleva un mayor riesgo de daño a otros, por ejemplo, robots impulsados ​​por IA en espacios públicos, debe estar sujeta a una responsabilidad estricta por los daños resultantes de su funcionamiento.
  2. En situaciones donde un proveedor de servicios que garantiza el marco técnico necesario tiene un mayor grado de control que el propietario o usuario de un producto o servicio real equipado con IA, esto debe tenerse en cuenta para determinar quién opera principalmente la tecnología.
  3. A una persona que utiliza una tecnología que no representa un mayor riesgo de daño para los demás se le debe exigir que cumpla con los deberes de seleccionar, operar, monitorear y mantener adecuadamente la tecnología en uso y, en su defecto, debe ser responsable por el incumplimiento de dichos deberes. si tiene la culpa
  4. Una persona que utiliza una tecnología que tiene un cierto grado de autonomía no debería ser menos responsable del daño resultante que si dicho daño hubiera sido causado por un auxiliar humano.
  5. Los fabricantes de productos o contenido digital que incorporen tecnología digital emergente deberían ser responsables de los daños causados ​​por defectos en sus productos, incluso si el defecto fue causado por cambios realizados en el producto bajo el control del productor después de haber sido comercializado.
  6. Para situaciones que exponen a terceros a un mayor riesgo de daños, el seguro de responsabilidad civil obligatoria podría brindar a las víctimas un mejor acceso a la indemnización y proteger a los posibles torturadores contra el riesgo de responsabilidad.
  7. Cuando una tecnología en particular aumenta las dificultades para demostrar la existencia de un elemento de responsabilidad más allá de lo que se puede esperar razonablemente, las víctimas deben tener derecho a la facilitación de la prueba.
  8. Las tecnologías digitales emergentes deben venir con funciones de registro, cuando sea apropiado en las circunstancias, y la falta de registro, o de proporcionar un acceso razonable a los datos registrados, debe dar lugar a una inversión de la carga de la prueba para no perjudicar a la víctima.
  9. La destrucción de los datos de la víctima debe considerarse como daño, compensable bajo condiciones específicas.
  10. No es necesario dar a los dispositivos o sistemas autónomos una personalidad jurídica, ya que el daño que pueden causar puede y debe ser atribuible a personas u organismos existentes.

Fondos de compensación


Los fondos de compensación se pueden usar para proteger a las víctimas de daños que tienen derecho a una compensación de acuerdo con las normas de responsabilidad aplicables, pero cuyas reclamaciones no se pueden satisfacer.
 Si los regímenes de responsabilidad descritos anteriormente (responsabilidad estricta del productor y del operador y responsabilidad basada en la culpa del infractor) funcionan correctamente, no hay necesidad de establecer nuevos tipos de fondos de compensación, financiados y operados por el estado u otras instituciones y con el objetivo de compensar a las víctimas por las pérdidas sufridas como resultado de operar tecnologías digitales emergentes.
Sin embargo, es aconsejable garantizar que en las áreas donde se introduce el seguro de responsabilidad civil obligatorio, también existe un fondo de compensación para reparar el daño causado por una tecnología no identificada o no asegurada. El artículo 10 de la Directiva de seguros de automóviles puede servir de modelo para dicho plan.
Como la piratería es una amenaza grave para los usuarios de tecnologías basadas en software y las reglas tradicionales de la ley de responsabilidad civil a menudo pueden resultar insuficientes debido a la incapacidad de la víctima para identificar al torturador, puede ser aconsejable introducir un esquema de compensación sin culpa equivalente al aplicable a las víctimas de delitos violentos, en la medida en que un delito cibernético constituya un delito equivalente a este último.
Por lo tanto, las personas que han sufrido lesiones personales graves como resultado del delito cibernético podrían ser tratadas de la misma manera que las víctimas de delitos violentos.

Conclusión

Muchos eran los informes que en la era nuclear indicaban que la probabilidad de un inciente relacionado con esta tecnología atómica era ínfima y casi despreciable. Hasta que la realidad se impuso de forma descarada, error humano tras error humano, y de forma ex post hemos corregido aquellas extrañas decisiones apresuradas. La mayor de las veces alejándonos de esta tecnología. Es tiempo de aprender de las experiencias del pasado y no aligerar el paso.

12 de diciembre de 1952.- El primer accidente nuclear serio tiene lugar en la planta de Chalk River, en Ottawa (Canadá), al fundirse parcialente el núcleo, sin causar daños personales. En mayo de 1958, un incendio en esa planta produjo una fuga radiactiva” [C9.4.-2] .

“En la historia de la energía nuclear ha habido numerosos incidentes. Los considerados más graves teniendo en cuenta la Escala Internacional de Eventos Nucleares (INES) han sido el producido en la central de Three Mile Island, en Pensilvania (EE UU), en 1979 y el de Chernóbil, en 1986, el peor accidente nuclear de la historia hasta ahora. Ambos se produjeron por fallos humanos. En España, el accidente más grave ha sido el de la central de Vandellós I, en Tarragona” [C9.4.-2] .

Pero en el otro extremo las inquietudes lógicas de otros (sobre una hipotética personalidad electrónica) consideran que ésta pudiera servir como coraza o salvaguarda para exonerar de la responsabilidad real a las personas; y hacerlas imunes ante la justicia, culpando en última instancia de hechos punibles a las máquinas y no a los hombres. En este sentido nos encontramos, por ejmplo, con “OPEN LETTER TO THE EUROPEAN COMMISSION ARTIFICIAL INTELLIGENCE AND ROBOTICS” y su rechazo a la personalidad robótica: “La creación de un estado legal de una ‘persona electrónica’ para robots ‘autónomos’, ‘impredecibles’ y de ‘autoaprendizaje’ se justifica por la afirmación incorrecta de que la responsabilidad por daños sería imposible de probar”. [C9.4.-3] Y también ante la opinión contraria y experta del profesor Griseri: “Dar derechos a los robots es una idea peligrosa” [C9.4.-4]

Por lo tanto nos encontramos ante un puzle que hay que resolver… y las piezas están ahora encima de la mesa y necesariamente hay que manejarlas. La pregunta final pudiera ser ésta:

¿Cuántos grados de libertad tenemos realmente para afrontar decisiones humanas afectadas por el pasado e influenciadas por un futuro incierto?

Ante esa pregunta mía, mi respuesta coincide con los expertos: “No es necesario dar a los dispositivos o sistemas autónomos una personalidad jurídica, ya que el daño que pueden causar puede y debe ser atribuible a personas u organismos existentes “.

Pero coincide sólo de momento, porque también considero que la realidad de la inteligencia artificial actualmente está más próxima a la ciencia ficción que a lo verídico propiamente. El grado de alerta nuestro es importante.



Bibliografía


[C9.4.-1]. Liability for Artificial Intelligence and other emerging digital technologies (2019). Report from the Expert Group on Liability and New Technologies – New Technologies Formation. [Recuperado (25/11/2019) de https://ec.europa.eu/transparency/regexpert/index.cfm?do=groupDetail.groupMeetingDoc&docid=36608 ]

[C9.4.-2]. Los accidentes nucleares más graves de la historia. (2011). El País (agencias). [Recuperado (25/11/2019) de https://elpais.com/internacional/2011/03/12/actualidad/1299884412_850215.html

[C9.4.-3]. OPEN LETTER TO THE EUROPEAN COMMISSION ARTIFICIAL INTELLIGENCE AND ROBOTICS. [Recuperado (25/11/2019) de http://www.robotics-openletter.eu/]

[C9.4.-4]. Griseri, P. (2017). Giving rights to robots is a dangerous idea. The Guardian. [Recuperado (25/11/2019) de https://www.theguardian.com/technology/2017/jan/16/giving-rights-to-robots-is-a-dangerous-idea ]

© 2019. Licencia de uso y distribución / License for use and distribution: [ Los estados de la inteligencia artificial (IA) | The states of artificial intelligence (AI) ] Creative Commons CC BY 4.0 |ISSN 2695-3803|