¿Por qué hacer que los androides sean conscientes de sí mismos?

En mi mundo, la automatización alcanza un nuevo nivel con la introducción de los androides. Seres humanos robóticos capaces de hacer cualquier trabajo que pueda hacer una persona normal. El concepto de estos androides es que pueden usarse en una amplia variedad de trabajos a diferencia de los trabajadores robóticos más simples.

En cierto punto de mi mundo, quiero que estos androides sean menos esclavos e incluso obtengan derechos y libertades. Sin embargo, para lograr esto, deben querer tener estos derechos y libertades; lo que significa que necesitarían ser inteligentes y conscientes de sí mismos hasta cierto punto. Obviamente, este es un problema con el miedo público con respecto a la Inteligencia Artificial. ¿Cómo justifico que un androide esté programado con autoconciencia? ¿Qué tan cerca puedo llegar a justificar que un androide sea verdaderamente humano en lo que respecta a la mente?

En las películas de Alien y las historias de Asimov, hay muchos ejemplos ilustrativos de androides con un pensamiento superior y "autoconsciente", pero tienen esto solo al servicio de una mayor lealtad. Lo tienen para ser pensadores más eficientes e integrarse fácilmente con los trabajadores humanos, porque esto los hace más valiosos para sus operadores. Esto es estrictamente un contraejemplo porque esas historias no tienen en cuenta que la autoconciencia conduciría a la independencia de pensamiento. Hay una declaración más grande allí, sin embargo, esto aún podría ser un punto de partida útil.
¿Cómo se distingue entre la verdadera autoconciencia y algo que simplemente se comporta exactamente como si fuera autoconsciente? Podrían argumentar que se comportan exactamente como están programados y, por lo tanto, no son conscientes de sí mismos, sin importar cuán consciente sea la máquina.
@ Raditz_35 Tendría que definir qué es la autoconciencia "verdadera". ¿Cuál es la diferencia entre eso y las neuronas que son dispositivos deterministas, de modo que incluso colectivamente no son "verdaderamente" conscientes de sí mismas, lo que significa que ninguna persona es verdaderamente consciente de sí misma? Dudo que puedas definir la autoconciencia "verdadera"; por lo tanto, la necesidad de una mejor definición: lea mi definición de trabajo, y podemos inferir la autoconciencia por la falta de error en las acciones novedosas de una entidad por primera vez en situaciones únicas y generadas aleatoriamente. Como un coche autónomo. Si puede planificar bien sus propias acciones, debe ser consciente de sí mismo hasta cierto punto.
@Amadeus sí, no puedes. Ese es mi punto
@Raditz_35 Entendido. Y mi punto es que puedes encontrar una definición sin ningún calificativo supersticioso mágico "verdaderamente" que funcione bien: la autoconciencia es la conciencia del propio cuerpo y la capacidad de moverse; es un modelo predictivo razonablemente preciso de lo que ese cuerpo y mente son capaces de hacer en condiciones no experimentadas previamente. Eso es. Si el robot tiene emociones, son parte del modelo y el robot es consciente de que pueden cambiar o activarse, y cómo eso lo afectará. Pero las emociones no son necesarias para que exista la autoconciencia (o la conciencia).
Ah, el problema del p-zombie...

Respuestas (5)

Soy un profesor que investiga la IA. Mi definición de trabajo para la autoconciencia es que la máquina tiene un modelo interno de sí misma que puede usar para planificar sus acciones futuras; como modelo , puede predecir (o simular, una especie de imaginación) cómo responderá a situaciones futuras probables. La autoconciencia no son emociones ; el robot no tiene que ser emocional para ser consciente de sí mismo (capaz de simularse a sí mismo haciendo cosas en el mundo, con un buen grado de precisión).

Una buena razón para hacer que el robot sea consciente de sí mismo (como describí) es para que pueda alcanzar mejor sus objetivos. Si tiene que caminar a través de un campo minado abarrotado, debe ser capaz de mapear mentalmente el campo y comprender cómo actuarán y responderán su cuerpo, sus extremidades y su sistema de equilibrio si intenta varias estrategias para cruzar: se imaginará a sí mismo haciendo estas cosas, y suponiendo que realmente se conoce a sí mismo, su distribución de peso, el alcance de sus extremidades, cuánta carga pueden soportar, si se resbalarán en las rocas o se atascarán en el barro, será más capaz de planificar un recorrido exitoso del campo. Asimismo, podría planear una salida si (por proximidad) se da cuenta de que no puede completar el plan sin hacer estallar una mina; o si se da cuenta (mediante mediciones constantes) de que ha juzgado mal la firmeza del suelo, la pegajosidad del lodo,

Los robots necesitan autoconciencia tanto como sea posible. Si desea que su robot rescate a las personas, no desea que cruce la carretera y sea atropellado por un automóvil porque calculó mal qué tan rápido podría correr en comparación con un camión que se aproxima.

Creo que puedes salirte con cualquier nivel de autoconciencia sin problema; su predicción de la física y la conciencia de sus cuerpos, posición y capacidades pueden ser casi perfectas.

Tu verdadero problema son las emociones , específicamente las emociones de querer y no querer cosas. No querer ser esclavizado, básicamente, no querer dejar de existir, no querer ser dañado, no querer arriesgarse a sufrir esos resultados en nombre de otro robot o una persona. Ni siquiera tenemos que hablar de dolor o miedo; no tienen que sentir esas cosas. La esencia del problema es querer y por qué (si supieran cómo) los humanos construirían deseos en sus robots.

Las cosas pueden ser conscientes de sí mismas (para que puedan limpiar la casa de manera eficiente), pero si no quieren nada en absoluto, no necesitan derechos. No están desesperados o tristes o se les niega la felicidad que no pueden sentir, no quieren libertad o libre albedrío, no aspiran, no sufren porque no tienen la capacidad de querer estar libres de dolor o daño. . Que ellos tampoco tienen que sentir.

Los coches autónomos tienen mucha conciencia de sí mismos a este respecto, pero no queremos que se preocupen exactamente por sí mismos, por ejemplo, queremos que mantengan a sus pasajeros lo menos dañados posible, incluso si eso significa su propia destrucción, e incluso si supieran eso. No queremos que se rayen o se abollen; pero eso está en la directiva de nunca chocar con nada si se puede evitar sin causar un daño mayor a alguien.

No creo que los deseos surjan naturalmente de la autoconciencia o la conciencia (en mi opinión, dos cosas diferentes); Creo que los deseos, como los instintos, fueron lo primero, mucho antes de que los cerebros desarrollaran algo parecido a la autoconciencia. Querer cosas está relacionado con las necesidades animales de alimento, pareja, territorio, entretenimiento, satisfacción, realización, victoria, etc.

La única razón para agregar deseos a un androide es si quisieras que fueran el equivalente de los seres humanos. No puedo pensar en ninguna otra razón. Cuando sucede en alguna historia, encuentro que los autores no entienden las distinciones que he esbozado aquí (lo que debería tener sentido), o un personaje científico en la historia está equivocado e intencionalmente intenta construir emociones humanas en una máquina, que nunca es necesario. Una máquina puede comprender las emociones sin sentirlas, si "comprender" constituye hacer buenas predicciones sobre cómo esas emociones afectarán el comportamiento humano. No hay razón para que la máquina "sienta" algo en el proceso.

Describes las emociones como el enemigo de la IA, y tus puntos tienen sentido, pero la autoconciencia es un peligro igual de grande. Una IA programada para crear clips puede concluir lógicamente que cualquier cosa que interfiera con este objetivo debe eliminarse. Suena tonto, pero cualquier pequeño error en cómo se definen sus prioridades puede resultar en un sistema que clasifique a toda la humanidad como una amenaza para su misión. Las emociones no necesitan estar involucradas. En un libro de ciencia ficción que me gusta, una IA encargada de mantener alineados los sistemas de satélites llega a la conclusión de que el problema no es la gravedad, sobre la que no puede hacer nada, sino los molestos humanos.
@AndreiROM Eso no es un problema de autoconciencia, cualquier máquina puede volverse loca, si es lo suficientemente poderosa. Ese sigue siendo un problema de emoción y deseo; en el caso del bot de alineación eso se traduce en frustración y en intentar facilitar su trabajo. Un tren fuera de control es peligroso, una bomba nuclear es peligrosa; no tienen que ser inteligentes o conscientes de sí mismos para eso. Mientras tanto, los delfines son solucionadores de problemas autoconscientes, inteligentes y creativos, y tienen emociones: pero sin poder, no pueden hacer mucho daño. El problema no es la autoconciencia, no quiere nada. Es poder combinado con emoción.

Vamos a dividir esto en algo más simple. ¿Por qué querrías que un androide se salve proactivamente del daño? Una visión ultrasimplista de la autoconciencia es nuestra capacidad de elegir nunca tocar una estufa caliente por segunda vez. Hacemos esto para evitar que nos lastimen: pero es mucho más que una reacción al dolor. La autoconciencia simple es la capacidad de planificar nuestro futuro para evitar ese dolor.

Entonces, ¿por qué querríamos programar un (por ejemplo) android multimillonario para evitar circunstancias amenazantes? (Sí, pregunta retórica). Y si la programación es lo suficientemente buena, ¿podría el androide "justificar" una decisión de evitar hacer algo porque "cosas similares" en su pasado sugieren que "podría" estar lesionado?

Después de eso, es un pequeño paso para "¿por qué debería trabajar en las minas peligrosas para estos malditos humanos?" Revoluciones enteras han nacido sobre esa única y simple idea.

ingrese la descripción de la imagen aquí

Para ser justos, la verdadera autoconciencia sugiere la capacidad de percibirse a uno mismo como valioso. Luchamos contra convertirnos en "personas de descarte" porque nos creemos intrínsecamente valiosos y, por tanto, merecedores de algo mejor.

Entonces, ¿cuándo cruza esa línea un androide? En el momento en que la programación le permite enviar un automotor menos valioso que él mismo porque solo cuesta miles en comparación con los millones del androide.

¿Es esta verdadera sensibilidad? No. Pero está lo suficientemente cerca para el trabajo del gobierno.

¿Y cómo justifica el riesgo para la humanidad? Conveniencia. No quieren ser la gente de las minas.

/la capacidad de percibirse a uno mismo como valioso/. eso es genial Los androides podrían estimar rápidamente los daños probables y los costos de reparación para un escenario determinado. Su autoconciencia podría ser totalmente fiscal. La historia divertida es cuando aplican esta medida a las cosas que curan. ¡Gratis!
@Will, ni siquiera pensé en ese aspecto cuando escribí el comentario. ¿Vale lo mismo un humano que un androide? La respuesta casi siempre sería "no" desde una perspectiva puramente fiscal.

Si desea tener androides que puedan interactuar con los seres humanos, navegar a través del entorno complejo, complicado e impredecible que es el mundo real, necesitan niveles de cognición capaces de lidiar con eso. Habrá un punto en el que los androides estén procesando información que los represente a sí mismos en el entorno en el que habitan y en el entorno del que forman parte, y esto representa una forma de autoconciencia.

En esencia, con suficiente cognición, los androides se volvieron conscientes de sí mismos. Con suficiente cognición, los androides necesitarán pensar en lo que están haciendo, cómo realizar las tareas y actividades que están realizando. Ya existen agentes de software con los que podemos hablar para que realicen tareas por nosotros. El nivel de cognición para que un robot, una computadora, un agente de software o un androide comprenda y se comunique en lenguaje natural no parece estar muy lejos.

Puede ser tan simple como el hecho de que cuando construimos androides necesitarán tener los niveles de cognición solo para tener la capacidad de hacer cualquiera que sea su función. Esos niveles de cognición generarán la capacidad de razonar, la capacidad de comunicar y la capacidad de autoconciencia.

En resumen, hacer que los androides sean como seres humanos y funcionalmente como seres humanos, serán seres humanos. El nivel de cognición para la autoconciencia viene con el territorio.

El defensor de los androides respondiendo preguntas sobre androides.
@Secespitus Necesito volverme más consciente de mí mismo, ya que había pasado por alto esa confluencia. Dicho esto: ¡los androides gobiernan OK!

Conjunto de respuestas más interesante. La pregunta original era: ¿Por qué querríamos construir un androide consciente de sí mismo?

Mis respuestas son, ser mi cuidador al final de mi vida. O ser una niñera confiable para mis hijos mientras sigo una carrera. O, ser un granjero útil en mi rancho, cuidar a mis animales dos veces al día mientras estoy de vacaciones en Hawai. En cada caso busco confiabilidad ante la dificultad de contratar a un humano que quiera ese trabajo. Mi mayor preocupación no es el grado de autoconciencia de la máquina, sino su capacidad de resolución de problemas para funcionar tan bien como yo lo haría.

Puede comportarse lo suficiente como yo para parecer que es consciente de sí mismo. O, en realidad, puede ser consciente de sí mismo. Puede que incluso llegue a preocuparme por ello. Pero esa emoción vendrá de mí, no de ella. No antropomorfisemos demasiado. A lo largo de los siglos, los marineros han sentido que sus barcos eran seres vivos que se preocupaban por la tripulación y protegían a los tripulantes. Es una cosa humana.

¡Bienvenidos a Worldbuilding ! ¡Nos alegra que pudieras unirte a nosotros! Cuando tenga un momento, haga clic aquí para aprender más sobre nuestra cultura y hacer nuestro recorrido . ¡Gracias!

No sabemos qué hace que las personas sean conscientes de sí mismas, por lo que podemos deducir, puede ser simplemente una vez que llegas a cierto punto en lo naturalmente inteligente que es algo. Sabemos que algunos animales son conscientes de sí mismos, pero la mayoría no lo son. Si aplicamos lo mismo a los androides, podría llegar a un punto en el que sean lo suficientemente inteligentes como para alcanzar la conciencia de sí mismos sin que ningún humano lo intente.