En mi mundo, la automatización alcanza un nuevo nivel con la introducción de los androides. Seres humanos robóticos capaces de hacer cualquier trabajo que pueda hacer una persona normal. El concepto de estos androides es que pueden usarse en una amplia variedad de trabajos a diferencia de los trabajadores robóticos más simples.
En cierto punto de mi mundo, quiero que estos androides sean menos esclavos e incluso obtengan derechos y libertades. Sin embargo, para lograr esto, deben querer tener estos derechos y libertades; lo que significa que necesitarían ser inteligentes y conscientes de sí mismos hasta cierto punto. Obviamente, este es un problema con el miedo público con respecto a la Inteligencia Artificial. ¿Cómo justifico que un androide esté programado con autoconciencia? ¿Qué tan cerca puedo llegar a justificar que un androide sea verdaderamente humano en lo que respecta a la mente?
Soy un profesor que investiga la IA. Mi definición de trabajo para la autoconciencia es que la máquina tiene un modelo interno de sí misma que puede usar para planificar sus acciones futuras; como modelo , puede predecir (o simular, una especie de imaginación) cómo responderá a situaciones futuras probables. La autoconciencia no son emociones ; el robot no tiene que ser emocional para ser consciente de sí mismo (capaz de simularse a sí mismo haciendo cosas en el mundo, con un buen grado de precisión).
Una buena razón para hacer que el robot sea consciente de sí mismo (como describí) es para que pueda alcanzar mejor sus objetivos. Si tiene que caminar a través de un campo minado abarrotado, debe ser capaz de mapear mentalmente el campo y comprender cómo actuarán y responderán su cuerpo, sus extremidades y su sistema de equilibrio si intenta varias estrategias para cruzar: se imaginará a sí mismo haciendo estas cosas, y suponiendo que realmente se conoce a sí mismo, su distribución de peso, el alcance de sus extremidades, cuánta carga pueden soportar, si se resbalarán en las rocas o se atascarán en el barro, será más capaz de planificar un recorrido exitoso del campo. Asimismo, podría planear una salida si (por proximidad) se da cuenta de que no puede completar el plan sin hacer estallar una mina; o si se da cuenta (mediante mediciones constantes) de que ha juzgado mal la firmeza del suelo, la pegajosidad del lodo,
Los robots necesitan autoconciencia tanto como sea posible. Si desea que su robot rescate a las personas, no desea que cruce la carretera y sea atropellado por un automóvil porque calculó mal qué tan rápido podría correr en comparación con un camión que se aproxima.
Creo que puedes salirte con cualquier nivel de autoconciencia sin problema; su predicción de la física y la conciencia de sus cuerpos, posición y capacidades pueden ser casi perfectas.
Tu verdadero problema son las emociones , específicamente las emociones de querer y no querer cosas. No querer ser esclavizado, básicamente, no querer dejar de existir, no querer ser dañado, no querer arriesgarse a sufrir esos resultados en nombre de otro robot o una persona. Ni siquiera tenemos que hablar de dolor o miedo; no tienen que sentir esas cosas. La esencia del problema es querer y por qué (si supieran cómo) los humanos construirían deseos en sus robots.
Las cosas pueden ser conscientes de sí mismas (para que puedan limpiar la casa de manera eficiente), pero si no quieren nada en absoluto, no necesitan derechos. No están desesperados o tristes o se les niega la felicidad que no pueden sentir, no quieren libertad o libre albedrío, no aspiran, no sufren porque no tienen la capacidad de querer estar libres de dolor o daño. . Que ellos tampoco tienen que sentir.
Los coches autónomos tienen mucha conciencia de sí mismos a este respecto, pero no queremos que se preocupen exactamente por sí mismos, por ejemplo, queremos que mantengan a sus pasajeros lo menos dañados posible, incluso si eso significa su propia destrucción, e incluso si supieran eso. No queremos que se rayen o se abollen; pero eso está en la directiva de nunca chocar con nada si se puede evitar sin causar un daño mayor a alguien.
No creo que los deseos surjan naturalmente de la autoconciencia o la conciencia (en mi opinión, dos cosas diferentes); Creo que los deseos, como los instintos, fueron lo primero, mucho antes de que los cerebros desarrollaran algo parecido a la autoconciencia. Querer cosas está relacionado con las necesidades animales de alimento, pareja, territorio, entretenimiento, satisfacción, realización, victoria, etc.
La única razón para agregar deseos a un androide es si quisieras que fueran el equivalente de los seres humanos. No puedo pensar en ninguna otra razón. Cuando sucede en alguna historia, encuentro que los autores no entienden las distinciones que he esbozado aquí (lo que debería tener sentido), o un personaje científico en la historia está equivocado e intencionalmente intenta construir emociones humanas en una máquina, que nunca es necesario. Una máquina puede comprender las emociones sin sentirlas, si "comprender" constituye hacer buenas predicciones sobre cómo esas emociones afectarán el comportamiento humano. No hay razón para que la máquina "sienta" algo en el proceso.
Vamos a dividir esto en algo más simple. ¿Por qué querrías que un androide se salve proactivamente del daño? Una visión ultrasimplista de la autoconciencia es nuestra capacidad de elegir nunca tocar una estufa caliente por segunda vez. Hacemos esto para evitar que nos lastimen: pero es mucho más que una reacción al dolor. La autoconciencia simple es la capacidad de planificar nuestro futuro para evitar ese dolor.
Entonces, ¿por qué querríamos programar un (por ejemplo) android multimillonario para evitar circunstancias amenazantes? (Sí, pregunta retórica). Y si la programación es lo suficientemente buena, ¿podría el androide "justificar" una decisión de evitar hacer algo porque "cosas similares" en su pasado sugieren que "podría" estar lesionado?
Después de eso, es un pequeño paso para "¿por qué debería trabajar en las minas peligrosas para estos malditos humanos?" Revoluciones enteras han nacido sobre esa única y simple idea.
Para ser justos, la verdadera autoconciencia sugiere la capacidad de percibirse a uno mismo como valioso. Luchamos contra convertirnos en "personas de descarte" porque nos creemos intrínsecamente valiosos y, por tanto, merecedores de algo mejor.
Entonces, ¿cuándo cruza esa línea un androide? En el momento en que la programación le permite enviar un automotor menos valioso que él mismo porque solo cuesta miles en comparación con los millones del androide.
¿Es esta verdadera sensibilidad? No. Pero está lo suficientemente cerca para el trabajo del gobierno.
¿Y cómo justifica el riesgo para la humanidad? Conveniencia. No quieren ser la gente de las minas.
Si desea tener androides que puedan interactuar con los seres humanos, navegar a través del entorno complejo, complicado e impredecible que es el mundo real, necesitan niveles de cognición capaces de lidiar con eso. Habrá un punto en el que los androides estén procesando información que los represente a sí mismos en el entorno en el que habitan y en el entorno del que forman parte, y esto representa una forma de autoconciencia.
En esencia, con suficiente cognición, los androides se volvieron conscientes de sí mismos. Con suficiente cognición, los androides necesitarán pensar en lo que están haciendo, cómo realizar las tareas y actividades que están realizando. Ya existen agentes de software con los que podemos hablar para que realicen tareas por nosotros. El nivel de cognición para que un robot, una computadora, un agente de software o un androide comprenda y se comunique en lenguaje natural no parece estar muy lejos.
Puede ser tan simple como el hecho de que cuando construimos androides necesitarán tener los niveles de cognición solo para tener la capacidad de hacer cualquiera que sea su función. Esos niveles de cognición generarán la capacidad de razonar, la capacidad de comunicar y la capacidad de autoconciencia.
En resumen, hacer que los androides sean como seres humanos y funcionalmente como seres humanos, serán seres humanos. El nivel de cognición para la autoconciencia viene con el territorio.
Conjunto de respuestas más interesante. La pregunta original era: ¿Por qué querríamos construir un androide consciente de sí mismo?
Mis respuestas son, ser mi cuidador al final de mi vida. O ser una niñera confiable para mis hijos mientras sigo una carrera. O, ser un granjero útil en mi rancho, cuidar a mis animales dos veces al día mientras estoy de vacaciones en Hawai. En cada caso busco confiabilidad ante la dificultad de contratar a un humano que quiera ese trabajo. Mi mayor preocupación no es el grado de autoconciencia de la máquina, sino su capacidad de resolución de problemas para funcionar tan bien como yo lo haría.
Puede comportarse lo suficiente como yo para parecer que es consciente de sí mismo. O, en realidad, puede ser consciente de sí mismo. Puede que incluso llegue a preocuparme por ello. Pero esa emoción vendrá de mí, no de ella. No antropomorfisemos demasiado. A lo largo de los siglos, los marineros han sentido que sus barcos eran seres vivos que se preocupaban por la tripulación y protegían a los tripulantes. Es una cosa humana.
No sabemos qué hace que las personas sean conscientes de sí mismas, por lo que podemos deducir, puede ser simplemente una vez que llegas a cierto punto en lo naturalmente inteligente que es algo. Sabemos que algunos animales son conscientes de sí mismos, pero la mayoría no lo son. Si aplicamos lo mismo a los androides, podría llegar a un punto en el que sean lo suficientemente inteligentes como para alcanzar la conciencia de sí mismos sin que ningún humano lo intente.
ross
Raditz_35
Amadeo
Raditz_35
Amadeo
Miguel