¿Google Duplex no es ético si no se identifica específicamente como no humano?

La reciente demostración de Google Duplex provocó una tormenta de críticas en línea.

Una de las cosas que seguí escuchando fue que era un engaño poco ético que un sistema de IA se presentara como una llamada humana.

Lo he pensado un poco y no puedo entender qué es inmoral o poco ético en esto.

Algunas personas incluso han argumentado que Google se dispuso a engañar intencionalmente, pero no entiendo cómo podría ser eso, en la medida en que el objetivo del sistema es hacer que la experiencia sea perfecta para la persona que llama, de modo que la experiencia de la interacción de la persona que llama sea tan fácil como si fuera un humano en el otro extremo.

Además, no entiendo de dónde viene la idea de que la persona que llama tiene algún tipo de derecho moral a saber si está interactuando con un sistema informático en lugar de con una persona. ¿Alguien puede aclarar esto? ¿Por qué en esta interacción existe ese derecho, en comparación con, por ejemplo, el derecho a conocer otros hechos sobre una persona que llama si esa persona fuera humana?

Legal y moralmente, las empresas tienen la obligación de servir a los clientes sin prejuicios. Por ejemplo, sería incorrecto rechazar un servicio de atención al cliente debido a su raza o religión.

En términos de la interacción, no puedo pensar en una razón para enmarcar como poco ética la sofisticación de la IA a menos que el conocimiento de la identidad no humana de la persona que llama haga que la persona que llama se comporte de manera diferente al darse cuenta.

Y luego, para mí, la pregunta es qué implica esa diferencia en el comportamiento. Lo único que se me ocurre es simplemente colgar a la persona que llama, el deseo de poder negarse a interactuar con una IA.

¿Alguien me puede explicar el contraargumento? ¿Por qué no es ético en este caso que una empresa no sepa que una persona que llama es una IA y no un ser humano?

Esto parece principalmente basado en opiniones, sin embargo, espero que alguien pueda proporcionar una respuesta que no sea solo dar su propia opinión.
@FrankHubeny Los principales medios de comunicación como la BBC y otros citan a profesores de filosofía diciendo que esto es engañoso y poco ético. A menos que sugiera que estas personas son charlatanes, entonces debe haber fuertes argumentos para su posición, ¿no?
Voté para cerrar principalmente basado en la opinión.
@FrankHubeny Estoy totalmente en desacuerdo con que esta sea una pregunta basada en una opinión. Creo que esta es una pregunta relevante y actual para la filosofía moderna.

Respuestas (3)

"No harás una máquina a semejanza de una mente humana" - Biblia Católica Naranja

El término "poco ético" a menudo se usa en lugares no filosóficos para referirse a una variedad de cosas indeseables. A menudo tienen muy poco que ver con la ética, por lo que uno tiene que preguntarse qué quiere decir la gente cuando afirma que no es ético.

Un aspecto que podría ver como poco ético es que normalmente se considera poco ético mentir. Si alguien cree que está hablando con un humano cuando en realidad está hablando con una IA, hay un poco de mentira por omisión cuando la IA no se identifica. Sin embargo, hay una larga serie de debates sobre si las mentiras por omisión son lo mismo que mentir activamente.

Otro problema potencial es que generalmente se asume que las conversaciones no se graban a menos que se especifique ("Esta llamada puede grabarse para garantizar la calidad"). Todavía no está claro cómo encaja el procesamiento del lenguaje de IA en esto.

No consideraría esto protegido en la forma en que lo está la raza o la religión. Esos son rasgos protegidos que se tratan como una clase muy diferente de cualquier otro factor distintivo que pueda tener un cliente.

No estoy seguro de que el argumento de la mentira por omisión sea convincente. Me parece extraño considerar qué hechos sobre la persona que llama son relevantes desde un punto de vista moral. Normalmente, cuando llama un ser humano, no esperamos que la persona que llama sepa el género de la persona, o lo que lleva puesto, o incluso si está llamando en nombre de alguien. A menudo, mi esposa me indica que haga llamadas cuando la llamada es para su beneficio, pero no se lo digo al otro lado porque claramente no es relevante. Lo mismo que cuando llamo a una juguetería para saber el horario porque voy a comprar un regalo para un niño.
No dije que fueran argumentos persuasivos, pero son argumentos que son al menos razonables (en mi opinión). De hecho, existen códigos y expectativas cuando levantamos el teléfono. Google Duplex viola absolutamente algunos de ellos. Si eso los hace poco éticos o no es otra cuestión, pero no tengo ninguna duda de que viola las reglas sociales. La mayoría de las reglas de nuestras sociedades no están diseñadas para tratar con IA que pueden pasar la prueba de Turing.
El aspecto de la grabación es más interesante, pero no estoy de acuerdo con que las empresas deban tener la expectativa de que una llamada telefónica a un número comercial sea privada. Esta no es una llamada entre amigos o individuos. Este es un negocio público donde la expectativa de privacidad me parece menor. En cuanto a las clases protegidas, si la persona usuaria de Duplex tiene una discapacidad física que le imposibilita realizar una llamada por sí misma sin ayuda, negarse a interactuar con Duplex parece una auténtica vulneración de derechos.
¿Qué reglas sociales viola?

no ético: la ética parece ser no declarar algo que pueda ofender o molestar a la otra parte, por cualquier motivo, sin permitir primero que la otra parte rechace dicha interacción.

La película I-robot demostró tal sesgo, en contra del proceso de interacción con la IA.

En realidad, hablar con una computadora o una persona que está haciendo una tarea simple de obtener información y dar una necesidad, no es una cuestión ética por el intercambio de información donde no surgirá ninguna amenaza o problema de la comunicación.

Si por el contrario estuvieras hablando con alguien que te ha hecho mucho daño o alguien que conoces, y si supieras que esa es la persona, no hablarías, entonces eso se llamaría poco ético, porque la respuesta sería molesta. y la denegación de contacto sería del 100%.

Algunas personas obviamente tienen miedo de este medio de imitar la comunicación humana, aunque es irrelevante. Algunos odian presionar uno para x, presionar a para y, que es una voz humana que le da una lista de opciones, que es similar. Pero igualmente algunas personas odian esto y quieren una solución más compleja.

Entonces, para responder a la pregunta, si alguien odia este tipo de interacción, no sería ético no declarar el tipo de interacción en la que participan las personas para que puedan optar por detenerse o continuar. Esto es similar a grabar llamadas telefónicas precedidas por una advertencia de que esto está sucediendo. No se trata de un nuevo dilema ético de solución sencilla.

Bien exactamente. El último párrafo lo dice todo. Si lo que dices es cierto, ¿cómo funciona esto con las personas que no quieren hablar con homosexuales, personas de color o personas discapacitadas? Específicamente, en el caso de una empresa, no debe tener la opción de rechazar el servicio a alguien simplemente por la forma en que se comunica con dicha empresa. Si la empresa tiene un número de teléfono publicado, entonces no deberían colgar una llamada legítima simplemente porque la llamada la realiza una IA. Estas no son llamadas de broma, y ​​esta no es una interacción privada.
Dicho de otra manera: la decisión de tener en cuenta la naturaleza no humana de la llamada y, por lo tanto, rechazar el servicio no puede ser el único motivo para afirmar que es engañoso que la IA no se identifique como tal, de lo contrario sería similar. engañoso que una persona de color llame al negocio de un supremacista blanco y no se identifique como un PoC en la llamada simplemente para darle al dueño del negocio la oportunidad de colgar el teléfono.
Esto es simplemente una cuestión de relaciones públicas. ¿Por qué molestar a la gente, si no quieren involucrarse? Con el tiempo se acostumbrarán. Una empresa no emplea personas, sino que usa IA porque es más barata. Y el cliente siempre tiene la razón, ya que es el comprador o proveedor de un activo. Si por el contrario es un negocio ganando clientela, sería ilógico rechazar la IA. Sugiero que el argumento de la discriminación no es un paralelo válido. ¡No tengo derechos civiles que se infrinjan ni sentimientos heridos!
respecto al último punto: una voluntad humana le ha pedido a la IA que realice una tarea para ella. No es solo una computadora que actúa al azar. Podría decirse que discriminar contra él es discriminación contra la persona que lo encargó.
@ribaldEddie ¿Estás diciendo que AI es víctima de discriminación que debería ser defendida en los tribunales? Solo los humanos pueden ser discriminados. Una persona no está hablando con el programador de un sistema, sino con el sistema mismo. Y no se puede discriminar a un gerente. Estás hablando fuera de la ley de discriminación. ¿Y qué derechos se están vulnerando para la IA? Nombra uno.
no el programador. La persona que dice "ok google, reserva la cita para mí".
También soy escéptico de que no podamos conectar a los creadores humanos de un sistema de IA con las acciones de la IA, porque si vamos a alejarnos de eso aquí, no creo que apliquemos la misma lógica a los vehículos autónomos. Incluso en el caso del escándalo de las emisiones de diésel de VW, los programadores humanos fueron considerados responsables de las acciones de la computadora. No creo que podamos tener nuestro pastel y comérnoslo, donde en un caso ignoramos la conexión moral y legal entre el creador y el sistema informático pero no en el otro, simplemente porque una versión ofende un sentimiento inarticulado de que las computadoras son espeluznantes.

Como mínimo, creo que los responsables de la toma de decisiones de Google saben que los humanos valoran más la interacción con otros humanos que la IA. Entonces, como mínimo, se estarían beneficiando a sabiendas del engaño, en la forma de recibir (o vender la oportunidad de recibir) buena voluntad fraudulenta.

Quizás el mayor daño provendría de cómo este fraude afectaría a terceros... A algunas personas les gusta tener un ser humano al otro lado del teléfono, y algunas empresas actualmente contratan a muchos seres humanos para contestar teléfonos con el fin de ganar ese dinero. buena voluntad corporativa de sus clientes.

No sería necesariamente poco ético desplazar a estos trabajadores con un producto o servicio mejor o más eficiente. Pero desplazarlos con un falso servicio que da la falsa impresión de hablar con un ser humano no es lo mismo. Esto sería más equivalente a vender un producto físico a la gente de Chicago, bajo el anuncio "¡Compre directamente en nuestra fábrica de Chicago!" Cuando resulta que el producto en realidad se envía a la fábrica de Chicago para la venta, en lugar de fabricarse allí como se insinúa intencionalmente.

EDITAR: Se discutieron los hechos de la primera oración sobre el valor percibido por los humanos de la interacción con otros humanos frente a la IA. Una breve investigación en línea mostró muchos artículos coincidentes, y ninguno que pude encontrar cuestionando la declaración de valor de la primera oración. Un ejemplo representativo de los datos disponibles está aquí: https://www.prnewswire.com/news-releases/nearly-90-of-people-prefer-peaking-to-a-live-customer-service-agent-on-the -teléfono-a pesar-de-la-eficiencia-de-menús-telefónicos-para-empresas-300830525.html

Su primer párrafo se basa en un non-sequitur. Los humanos le dan valor a la interacción humana, claro, pero eso no significa que no le den valor a la interacción no humana. La idea de que hay engaño para obtener buena voluntad solo funcionaría si específicamente quiere decir que los humanos no le dan ningún valor o le dan menos valor a la interacción con Duplex. Pero eso no es lo que dijiste. No veo ninguna razón para suponer que los humanos no le dan ningún valor o le dan menos valor a la interacción con la IA. La IA no ha existido durante el tiempo suficiente para que la mayoría de la gente sepa lo que piensa.
No creo que lo que describes sea un non sequitur, sino una simple disputa de los hechos. (Lo cual es importante aquí, porque los hechos incorrectos y los non-sequiturs requieren un manejo diferente). De todos modos, lo que encuentras incorrecto... La idea de que las personas prefieren hablar con los humanos sobre la IA es comprobable. Y se han hecho encuestas/se han hecho pruebas. Para ver uno de los muchos ejemplos, consulte: prnewswire.com/news-releases/…
no estamos hablando de indicaciones automáticas. Estamos hablando de tener una conversación/interacción con un sistema que es indistinguible de una persona. Dado el problema evidente con su reclamo, no creo que esté publicando de buena fe.
También aclaré la primera oración. Buen punto sobre la inclusión de ambos lados en la declaración. Sobre la disputa, el hecho es que si le preguntas a la gente si prefiere hablar con otro humano o con una IA, ellos (por un amplio margen) dicen que prefieren hablar con otros humanos. Entonces, si reemplazas en secreto a esos humanos, estás cometiendo un fraude. No importa si el sistema de IA puede imitar perfectamente a un humano o incluso si es mucho mejor que un humano para el trabajo en cuestión. No es un ser humano y fingir que lo es, es fraude. El fraude no es ético incluso si la intención es buena, ya que viola la autodeterminación de una persona.
nuevamente, no se ha vinculado a una encuesta que muestre lo que afirma. El enlace de su encuesta es como preguntar a las personas si disfrutan de un viaje a campo traviesa que toma una semana y media y luego extrapolar eso para asumir que disfrutan lo mismo en un vuelo que toma cuatro horas. Claro, ambos te llevarán al otro lado del país, pero no son el mismo viaje. En cuanto al reclamo de “fraude”, el fraude es un término legal. No veo que eso se aplique aquí. La premisa subyacente es que los dueños de negocios tienen derecho a saber con quién están hablando por teléfono, pero a primera vista eso no es cierto.