¿Quién es responsable de los daños de los drones automáticos?

Tuve una discusión sobre drones para uso civil, por ejemplo, autos que se manejan solos sin un humano al volante, dispositivos de transporte que transportarían productos que de otro modo comprarías en el supermercado directamente a tu hogar, y robots que recolectan basura de las calles todo por ellos mismos.

El tema más controvertido fue quién asume la responsabilidad por los daños causados ​​por un dron de este tipo. Una lista de posibles candidatos eran:

  • ya que los drones actuan por si solos, el propio drone
  • el desarrollador de ese código que funciona mal
  • la empresa que vende el dron
  • el dueño del dron

No estoy de acuerdo con ninguna de esas posibilidades por sí mismas, pero estoy de acuerdo con algunas en algunos niveles.

Creo que no existe una intención malévola para un dron, por lo que cada daño sería un accidente . Por lo tanto, dudo que podamos tratar a un dron como un humano y llevarlo a juicio.

Entonces, un accidente podría ser causado por una fuerza mayor , por ejemplo, debido a un desastre natural, o reducirse a una falla técnica .

En caso de falla técnica, sería culpa de la empresa por no probar el dispositivo lo suficiente o del desarrollador por cometer un error. Luego, se determinaría la gravedad si se trató de un descuido algo comprensible o un acto de negligencia grave.

Creo que la verdadera pregunta que se esconde allí es: ¿Qué tipo de estándar de seguridad queremos aplicar como sociedad en tales dispositivos sin obstaculizar demasiado la innovación? ¿O no los queremos en absoluto?

Si una empresa o un desarrollador debe temer una compensación elevada por los daños, ¿no sería la elección racional no construir esos drones?

¿No está considerando deliberadamente el uso de drones en la guerra, la defensa y la vigilancia, como en las zonas fronterizas entre Afganistán y Pakistán? ¿Es decir, solo está considerando el uso de drones en el ámbito doméstico y civil?
Aquí hay algunas cosas relacionadas: plato.stanford.edu/entries/technology/#DevEthTec . Y, sin que yo tenga más pensamientos al respecto, podría hacer una analogía con los niños dañando cosas. :)
Debo haberme saltado tu primera oración "Tuve una discusión sobre drones para uso civil", así que estás hablando de la esfera doméstica :).
También creo que los drones que se usan en la guerra son operados por humanos, no automáticamente.

Respuestas (3)

A mis ojos, la respuesta es más simple de lo que uno podría pensar:

  • Si el daño es causado por una falla del hardware o del software enviado con el robot, la empresa que vende el dron debe ser responsable (dentro de la garantía). Que la empresa quiera demandar al desarrollador depende de la empresa y del contrato que haya firmado el desarrollador. Este caso corresponde al típico caso de garantía en el que un automóvil producido con defectos provoca un daño.

  • Si el daño se debe a que algunas piezas se han desgastado y el propietario no se ocupó de ello (después de la garantía), el propietario puede ser responsable. Esto corresponde a que el propietario de un automóvil no cuide sus neumáticos, lo que provoca un accidente.

Para el siguiente punto es importante distinguir diferentes casos de controlador:

  • Control remoto: si el robot es un dron y está controlado a distancia por un humano, el operador es responsable de cualquier daño. Corresponde a un tipo conduciendo un coche.

  • Control estático autónomo: si el robot está ejecutando un software de reparación que no se vio afectado por ninguna causa externa, entonces la empresa puede ser responsable de los daños. Corresponde a un producto roto.

  • Aprendiz autónomo supervisado: si el robot es capaz de aprender, entonces el usuario que enseña al robot es confiable si se puede demostrar que otros robots que fueron entrenados de una mejor manera no causan ningún daño. Esto corresponde a neumáticos no desgastados solo del lado del controlador. Si el robot está condenado a fallar, es decir, causa un daño independiente del entrenamiento, entonces la empresa es responsable del daño. Corresponde a un producto roto

  • Aprendiz autónomo no supervisado: si el robot está condenado a fallar, es responsabilidad de las empresas. Si se puede probar una "mala influencia" del propietario en el comportamiento del robot, entonces el propietario es responsable. Si este no es el caso, el daño fue causado por una constelación imprevista en el entorno del robot por lo que aprendió un mal comportamiento por lo que nadie es responsable (el robot debe ser reiniciado o destruido). Esto es similar a un desastre natural.

Aunque útil, esto no responde a la pregunta, sino que se asemeja a una mera opinión legal . Es decir, solo aborda la ley actual, mientras que la pregunta parece centrarse en cómo debería ser la ley futura.
Punto 1: ¿por qué lo que usted llama una opinión legal no es una respuesta a una pregunta con un toque jurídico? Punto 2: ¿por qué la ley futura no debe parecerse a la actual? Por cierto. No soy abogado sino investigador en el campo de la neuroinformática y el núcleo de mi respuesta es que no necesitamos una nueva cualidad de responsabilidad porque los robots se comportan como herramientas/máquinas o como niños/animales y ya son parte de fuera de la ética/leyes.
Dije "se parece", no "es". Si su punto es que la ley actual está perfectamente bien con respecto a las "innovaciones de drones", entonces está bien para mí (aunque podría incluirlo explícitamente en su respuesta; tal vez también podría comentar cuándo se aplica la ley de herramientas y cuándo se aplica la ley de niños). aplica). PD: La expresión "nuestra ética" parece algo polémica.
Yo diría que una opinión legal es exactamente lo que se busca - la pregunta no es "¿A quién debemos responsabilizar?", sino "¿Quién ES responsable?", que es una pregunta para el tribunal.

Estoy de acuerdo con todos los puntos de Brandli, pero solo me gustaría agregar otro tema de culpa o causa: la sociedad . Además de los fabricantes de una máquina peligrosa y los usuarios irresponsables de una máquina potencialmente peligrosa, también podemos señalar con el dedo al gobierno o la cultura que permite que ocurra cualquiera de esas situaciones.

Ejemplos de cómo se maneja esto ya:

  • La autoridad de transporte no otorgará licencias de conducir a personas cuya vista sea tan mala que las convierta en un peligro para los demás.

  • Probablemente existan restricciones sobre la propiedad de armas para personas con problemas de salud mental.

Sin embargo, la regulación es una restricción a la libertad, por lo que debe hacerse con mucho cuidado. La idea de compensación-castigo parece un enfoque más liberal. Aunque la cultura de demandar por daños también tiene sus desventajas, y estoy seguro de que hay un debate allí.

¡Gran pregunta! Para culpar a alguien, el caso legal tendría que demostrar que fue negligente.

Supongo que el ejemplo de un automóvil autónomo chocando contra algo, el caso legal para la 'víctima' sería que la compañía que programa el automóvil debería haber considerado tales situaciones y fue negligente al permitir que su automóvil circulara sin tal consideración. No digo que eso se mantendría, habría casos de prueba, etc., ya que es una situación nueva para el mundo, pero probablemente ese sería el argumento.

La conclusión es que si una empresa lanza un dispositivo al mundo, no puede absolverse de la responsabilidad si las cosas salen mal. Solo en el caso de que se use incorrectamente, o no según lo previsto por el fabricante, la responsabilidad recaerá en la persona que opera el dispositivo.

Entonces, en cada caso, supongo que los equipos legales establecerían por qué ocurrió el incidente y quién hizo algo que condujo a ese comportamiento. ., ya sea el fabricante del dron, la empresa/persona que lo opera/programa, o tal vez alguien jugando con él mientras está fuera de casa.

En pocas palabras: sí, las empresas que lanzan dispositivos al mundo tienen que asumir sus responsabilidades y pagar el precio si no muestran la debida diligencia. Nada nuevo allí.