¿Cómo escribo desde un punto de vista no personal?

Estoy escribiendo una novela con un elenco coral. Cada capítulo está narrado desde el punto de vista de una persona diferente. Algunos de los capítulos tratan sobre una máquina no sensible que se comunica con los personajes humanos. No es un androide sensible como R2D2 de Star Wars o la máquina asesina de las películas Terminator o Data de Star Trek. No es más consciente de sí mismo que una máquina muy sofisticada, pero muchas de sus acciones y comunicaciones impulsan la trama y las decisiones de los otros personajes.

Este personaje nunca se volverá consciente durante la historia. Nunca tendrá sentimientos de la forma en que su computadora portátil nunca los tiene.

¿Cómo escribiría desde su punto de vista?

Editar para agregar:

  • Este personaje solo parece inteligente y sensible.
  • No comprende los motivos humanos.
  • Considera que las solicitudes humanas son desconcertantes incluso cuando las comprende.
  • Parece extremadamente inteligente porque tiene acceso a cantidades extraordinarias de conocimiento e incluso puede juntar ese conocimiento de manera impredecible.
Si en realidad no es consciente, ¿cómo puede considerar desconcertantes las solicitudes humanas?
@Thomo "Baffling" no se define de la misma manera para una computadora no inteligente que para un humano. Si escribe una fórmula con un error en Excel, se puede decir que Excel está "desconcertado" y mostrará un cuadro de diálogo con un mensaje de error. Esencialmente, le ha dado a Excel una instrucción que no puede seguir. Entonces "entiende" la solicitud (instrucción), pero no puede ejecutarla. Por lo tanto, el desconcierto de la computadora no inteligente.
Interesante, nunca he oído desconcertante definido así. Lo que describiste siempre se ha llamado error, generalmente el resultado de una fórmula incorrecta que Excel no puede ejecutar. Es una cosa de sí/no. El operador puede tener razón pero la sintaxis es incorrecta, no está desconcertado, simplemente no puede calcularlo. La palabra considerar se presta para describir la sensibilidad, algo así como HEX en Discworld, algo que el OP parece no querer.
@Thomo Si ingresa fórmulas incorrectas en una hoja de cálculo de Excel, espero que el programa de Excel diga que es un error. Excel no se dejará desconcertar. Imagina un programa como Siri, pero con acceso a enormes cantidades de conocimiento en todo el mundo. Siri no es sensible, pero parece estar bien informada. Aprende que algunas solicitudes siguen ciertos patrones, lo que lleva a la máquina a reunir el conocimiento de maneras inusuales y luego obtener información. Y la máquina podría aprender lo suficiente como para preguntar: "¿Cómo supieron los humanos que me condujeran por esta migaja de pan de bits de conocimiento a esta percepción?"
@RichS Excel fue el ejemplo dado por Lauren. Sin embargo, Siri es básicamente lo mismo, cuantificas tu argumento y responde dentro de un conjunto predeterminado de parámetros. El OP no quiere un programa sensible o una IA, simplemente pregunté que si quieren evitar la sensibilidad, entonces es imposible que el programa "considere" el comportamiento.
@Thomo Sé lo que quiere el OP. Sugerencia: verifique el nombre de usuario del OP.
El punto sigue en pie. Una máquina no sensible no puede, como usted dice, "aprender a preguntar ¿Cómo supieron los humanos que me condujeran por esta migaja de conocimiento a esta percepción?". Porque una vez que lo hace, se vuelve consciente.
"Hmmmm. Eso no tiene sentido para mí. Pero entonces, eres muy pequeño. Tal vez tengas razón".

Respuestas (4)

Algunos puntos de vista posibles:

  • Un narrador omnisciente que describe lo que hace y dice la máquina.
  • Uno de los seres conscientes cercanos, cuando haya alguno disponible para observar las acciones o comunicaciones importantes de la máquina.
  • Informes de alguien que junta las comunicaciones y acciones de la máquina a partir de la evidencia disponible después del hecho.

Escríbalo como entradas de datos y respuestas.

INPUT: USER 1 enters room
RESPOND Y/N? Y
OUTPUT_$content: {greeting}; {Salutation: 'Good'} {TOD: 1415, 'afteroon'};
INPUT: USER 1 response {"Good afternoon yourself. Did you finish compiling that report?"}
SEARCH_DB6b.46: report {SMITH, CHARLES: activities prior 72 hours};
LOCATED
COMPLETE Y/N? N
ET COMPLETION: 4.7 hours
OUTPUT_$content: {apology}; {report SMITH, CHARLES} {STATUS};

y así.

Supongo que esto podría funcionar para cierto lector, pero me saltaría cuando llegué a esto.
@KenMohnkern Sí, puede ser un gusto adquirido, y yo mismo haría esos capítulos cortos. Pero creo que sería la representación más precisa del pensamiento de la máquina desde la perspectiva de la máquina.
Un gusto muy adquirido. Al igual que Ken, me lo saltaría porque se vuelve demasiado difícil de leer. Incluso un capítulo corto sería demasiado largo, en mi opinión, y tendrías que tener cuidado si incluye un desarrollo importante. Como el sujetalibros de un capítulo (es decir, comenzar y terminar con un pasaje), puedo verlo posiblemente funcionando, con el resto del capítulo desde el punto de vista de un observador que observa cómo reacciona a diferentes situaciones, ¿quizás?
Como antiguo arquitecto de software, definitivamente me saltaría un capítulo que dijera eso.
+1 porque es una idea genial... pero definitivamente tendría que ser un solo capítulo y muy corto. O podría haber un momento de esto y luego el resto se traduce a un inglés más cotidiano.

No necesitas pensar demasiado en esto. Los lectores aceptarán cualquier realidad que les presente siempre que sea consistente.

Simplemente cree un conjunto de reglas para la IA del robot y luego escriba el carácter como lo haría con un humano. Por ejemplo:

  • Solo puede usar 100 palabras básicas y frases clave.
  • Solo procesará el mundo como datos sin procesar. No ve colores ni humanos; solo ve formas y movimiento.
  • Nunca hace un juicio personal sobre el mundo. Solo llega a conclusiones lógicas basadas en sus parámetros programados.

El hecho de que esté expresando sus pensamientos en inglés y no en código binario realmente no importa. Los lectores no cuestionarán su sensibilidad siempre y cuando sigas las reglas de su IA.

Lo que debe tener en cuenta es que una máquina realmente no tiene sensibilidad. Así que no puedes expresar verdaderamente sus pensamientos en palabras sin darle una apariencia de conciencia humana. Pero así como vemos cosas en la pantalla de una computadora traducidas del código, los lectores también asumirán que las palabras en inglés que leen son traducciones del código.

¿Cuál es el propósito de su historia para darle a la máquina POV? ¿Por qué el lector necesita meterse dentro de la "cabeza" de la máquina?

Si desea mostrar las limitaciones de la máquina, puede hacerlo con un POV humano luchando para que la máquina entienda.

Ahora, si tiene la intención de que la máquina cometa un error importante en algún momento, entonces puedo ver usando el POV de la máquina.