¿Los datos tienen libre albedrío?

Suponiendo que exista el libre albedrío (para más información sobre este fascinante tema metafísico, consulte el determinismo), ¿se puede decir que Data realmente tiene libre albedrío? Sus acciones están controladas por programación, por lo tanto, sus acciones están determinadas por su programación, sin embargo, Data puede tomar decisiones. Entonces, ¿el teniente comandante Data realmente tiene libre albedrío o todas sus acciones están predeterminadas?

Esto suena como si perteneciera a Philosophy.SE
Por mucho que me duela vincular a Puffingon Host: el libre albedrío es una ilusión
+1 Esta es una pregunta interesante que Data (y quienes lo rodean) han comentado varias veces durante la serie y se puede responder dentro de ese contexto.
¿ Lo tenemos ?
@Envite: como digo claramente en la pregunta, esto se basa en la suposición de que tenemos libre albedrío, porque si no lo tuviéramos, no veo cómo podría existir realmente la pregunta (los humanos no tienen libre albedrío, pero ¿un androide tiene libre albedrío? No me suena realista)
@N.Soong Dado que he visto a algunos filósofos tergiversar las cosas de manera que no coinciden con la realidad, no me sorprendería si encontraran una manera. (Sí, no le doy mucha importancia al tema)

Respuestas (3)

Esto se aborda tangencialmente en TNG: Measure of a Man. En esto, Data es puesto a prueba para determinar si es sensible y por lo tanto un ser libre, o no sensible y propiedad. Esto es provocado por un científico informático que ordena a Data que se presente en la sede central para un procedimiento de duplicación cerebral arriesgado. Data amenaza con renunciar antes que someterse al procedimiento, lo que trae la acusación de que es propiedad. Durante el juicio, Picard demuestra dos características de la vida sensible, que es inteligente y consciente de sí mismo. El otro factor (medir la conciencia) no se puede "probar", por lo que Data tiene la libertad de explorarlo.

Durante las escenas finales, Data se niega formalmente a someterse al procedimiento. Si bien se podría argumentar que esto es simplemente una programación de autoprotección, eso es refutado por las muchas veces que Data se pone voluntariamente en peligro para ayudar/rescatar/prevenir accidentes a los compañeros de barco. Creo que estas acciones de negarse a someterse a un experimento humano que lo pone en peligro y al mismo tiempo tiene la capacidad de ponerse en peligro en beneficio de los demás demuestra que tiene la capacidad (Libre albedrío) para elegir sus propias acciones.

Los datos también pueden alterar su propia programación como deseen o hacer que otro lo haga por él. Como le dijo a Roga Danar de Angosia; "Mi programación puede ser alterada, ¿la tuya no?"
@Morgan: buen punto, no había considerado ese aspecto.
@Morgam, aunque todavía se puede programar para asumir que es "perfecto" y rechazar cualquier otro intento de programación
La "programación" de @Morgan Chakotay también fue alterada
@Izkata -Recuerdo haber visto ese episodio. Ese fue un giro de trama muy inteligente e interesante.
@Morgan: esta mañana escribí una aplicación de servidor TCP controlada por secuencias de comandos capaz de alterar las secuencias de comandos de control de acuerdo con los cambios en las condiciones. ¿Creé algo con libre albedrío? (Espero que no. He eliminado alrededor de una docena de versiones desde entonces. :D)
¿Cómo sabemos que a Data no se le proporcionó un guión de sálvate a ti mismo y un guión de sálvate a los miembros de la tripulación ? El segundo podría anular fácilmente al primero en situaciones de emergencia.
@ mg30rg ¡Me siento mal por todos los usuarios de los sistemas C64 y ZX! Todo ese ingenioso código automodificable, asesinado...

Los datos generalmente se comportan de una manera perfectamente similar a la ley de Asimov. Bueno, casi .

Los datos no dañan ni matan a los humanos voluntariamente (excepto cuando están controlados externamente o cargados con una personalidad diferente, pero eso apenas cuenta), ni miente nunca (excepto si Picard le ordena hacerlo para salvar la vida de toda la tripulación del barco) . Seguirá cada regla y cada comando al pie de la letra y hará cualquier cosa (incluso arriesgar su propia destrucción o incluso sacrificarse al final) para salvar la vida humanoide.
Data incluso tiene un programa de conmutación por error explícito que evita que haga el mal y lo obliga a defender a los civiles contra una amenaza externa percibida (pero, de nuevo, sin aplicar nunca fuerza letal), como se muestra en la película Insurrección .

Sin embargo, al final de The Most Toys , toma un disruptor varon-T que no es solo un arma mortal, sino que está diseñado explícitamente para una "muerte particularmente insoportable" y dispara a Fajo. Es cierto que Fajo es probablemente el idiota más grande del universo de Star Trek que vemos durante toda la serie. Pero aún así, cuando Data le dispara, no hay un peligro claro y presente, y no hay una necesidad urgente de herir o matar. Fajo es un gimp desarmado y asustado.
Ese asesinato probablemente estuvo justificado e incluso bien merecido desde el punto de vista de la mayoría de los humanos, dado lo que Fajo había hecho en el pasado y lo que posiblemente podría hacer en el futuro, pero es bastante incompatible con el comportamiento habitual de Data.

Al materializarse, Data le explica al sorprendido O'Brien (quien se da cuenta de que el arma había sido disparada) que el disruptor debe haber fallado debido a la interacción con el rayo transportador, lo cual es una mentira obvia.

Esto demuestra que Data es muy capaz de tomar una decisión y actuar en contra de lo que conocemos como su programación habitual, realizando nada menos que asesinatos a sangre fría y encubrimiento. Libre albedrío.

(Disparar a Fajo) no implica necesariamente un movimiento en contra de la primera ley asimoviana. Los datos, tengan o no libre albedrío, son un sistema complejo capaz de medir las posibilidades. Verás, Fajo es, como lo representaste de manera colorida, el idiota más grande del universo ST. Tal vez Data estaba midiendo, estadísticamente hablando, y se dio cuenta de que las personas no pueden evitar que lastime a innumerables personas. Tal vez dispararle hubiera sido la decisión lógica para cualquiera que quisiera proteger a la mayor cantidad de personas posible. Tal vez fue una decisión de una computadora que redujo el daño casual.
Se podría argumentar que la mayoría de los personajes heroicos de Star Trek siguen una aproximación a la ley de Asimov. Esto se debe a que las leyes de Asimov son un código ético cuantificado diseñado específicamente para aproximarse al tipo de comportamiento ético que la mayoría de la gente moderna tiene y aprueba. (Esa fue la gran innovación de Asimov: una razón para que los robots no se rebelen para poder explorar qué sucede cuando no lo hacen). Sospecho que el comportamiento general de Data de una manera consistente con la ética popular tiene más que ver con que sea un " héroe" en un universo de Gene Rodenberry que siendo un robot.

De hecho, su pregunta es doble: 1. Si alguien/algo tiene libre albedrío, ¿qué comportamiento mostrará en contraste con alguien/algo que no tiene libre albedrío? 2. ¿Datos muestra este comportamiento que implica libre albedrío?

Actualmente se debate mucho si los humanos tienen libre albedrío y, por lo tanto, se debate mucho si cualquier comportamiento que mostramos es uno que indique libre albedrío. Entonces, la pregunta #1 no se puede responder fácilmente. Así que supongamos que los humanos tienen libre albedrío. ¿Ahora podemos comparar el comportamiento de Data con el nuestro?

  • Sus decisiones se pueden predecir. El nuestro también .

  • A veces hará lo que se le diga (p. ej., escaneará en busca de señales de vida) y otras veces se negará a hacerlo (p. ej., le desmantelarán el cerebro). Nosotros también.

  • Esta decisión se basa en razones (no confundir con causas ). Con nosotros es lo mismo.

  • Hay algunas cosas que nunca decidirá hacer (por ejemplo, si no lo molestan, nunca decidirá lastimar a Gordie), debido a su programación. Nosotros también, debido a nuestra educación.

  • También, debido a su programación, tiene un conjunto de cosas que intenta evitar (p. ej., la muerte de sus compañeros o de sí mismo) y un conjunto de cosas que intenta lograr (p. ej., convertirse en humano). Somos exactamente iguales.

Así que propondría (evitando la primera pregunta) que Data tiene libre albedrío, si crees que tenemos libre albedrío, y que no lo tiene si crees que tampoco lo tenemos. Ahora te toca a ti: ¿lo hacemos o no? ¡Filosofía-stackexchange está a un clic de distancia!

Personalmente, soy un determinista duro, pero sé que ciertamente no es del agrado de todos, así que me basé en que los humanos sí tienen libre albedrío, porque bajo esa circunstancia, ¡es mucho más interesante!
@N.Soong Hay una escuela de pensamiento llamada "compatibilismo" que propone que el determinismo y el libre albedrío no son mutuamente excluyentes. Todo depende de tu definición de "libre albedrío". Lo encuentro bastante convincente.
Soy consciente del compatibilismo o 'determinismo suave' como también se le conoce y actualmente estoy en el lento proceso de transición para ver si puedo estar de acuerdo con él, pero por el momento, sigo siendo un fuerte determinista duro.
@N.Soong No conozco el nombre "determinismo suave", pero el compatibilismo no se trata de hacer que el determinismo sea débil o suave. Esa es la belleza de esto. Es por eso que incluso una máquina determinista completa, total y dura como Data puede tener libre albedrío.
Lo sé, se llama 'determinismo suave' porque no es lo mismo que determinismo, si miras mucho el trabajo de Creel, lo llama así regularmente. Personalmente también prefiero el término compatibilismo, aunque lo rechazo (¡por el momento!)
@N.Soong Lo encontré. El determinismo suave parece ser un término peyorativo usado principalmente por autores que evito leer ;-) Una vez yo también creía en el determinismo, pero cuando comencé a leer a Hegel las cosas cambiaron... ¡De todos modos, esto no es filosofía!
Yo personalmente creo en la determinación y el libre albedrío. Creo que todos los estados del universo se pueden mostrar en una instantánea en 3D y que la existencia misma se puede mostrar en una instantánea en 4D. (Donde el cuarto eje es el tiempo). También creo que, en función de 2-3 instantáneas 3D aleatorias, se puede calcular cualquier otra. (Que es pura determinación.) (continuará...)
(...continuación) También creo que debido a la relación de necesidad heisenbergiana, estas instantáneas no pueden ser representadas/creadas por alguien dentro del sistema, por lo tanto, las acciones futuras del sistema no pueden predecirse (debido a la falta de información). Si sus acciones solo pueden predecirse en base a información que nunca puede estar disponible, todo huele a libre albedrío, ¿no es así? (continuará2...)
(...continuación2) Entonces, en este nivel de predestinación/determinación, el libre albedrío no es solo una ilusión, es la fata morgana perfecta. Ahora, lo que realmente se pregunta cuando se pregunta si Data tiene libre albedrío es si sus acciones son tan impredecibles como las de cualquier otro ser que se presume que tiene libre albedrío.