La reciente demostración de Google Duplex provocó una tormenta de críticas en línea.
Una de las cosas que seguí escuchando fue que era un engaño poco ético que un sistema de IA se presentara como una llamada humana.
Lo he pensado un poco y no puedo entender qué es inmoral o poco ético en esto.
Algunas personas incluso han argumentado que Google se dispuso a engañar intencionalmente, pero no entiendo cómo podría ser eso, en la medida en que el objetivo del sistema es hacer que la experiencia sea perfecta para la persona que llama, de modo que la experiencia de la interacción de la persona que llama sea tan fácil como si fuera un humano en el otro extremo.
Además, no entiendo de dónde viene la idea de que la persona que llama tiene algún tipo de derecho moral a saber si está interactuando con un sistema informático en lugar de con una persona. ¿Alguien puede aclarar esto? ¿Por qué en esta interacción existe ese derecho, en comparación con, por ejemplo, el derecho a conocer otros hechos sobre una persona que llama si esa persona fuera humana?
Legal y moralmente, las empresas tienen la obligación de servir a los clientes sin prejuicios. Por ejemplo, sería incorrecto rechazar un servicio de atención al cliente debido a su raza o religión.
En términos de la interacción, no puedo pensar en una razón para enmarcar como poco ética la sofisticación de la IA a menos que el conocimiento de la identidad no humana de la persona que llama haga que la persona que llama se comporte de manera diferente al darse cuenta.
Y luego, para mí, la pregunta es qué implica esa diferencia en el comportamiento. Lo único que se me ocurre es simplemente colgar a la persona que llama, el deseo de poder negarse a interactuar con una IA.
¿Alguien me puede explicar el contraargumento? ¿Por qué no es ético en este caso que una empresa no sepa que una persona que llama es una IA y no un ser humano?
"No harás una máquina a semejanza de una mente humana" - Biblia Católica Naranja
El término "poco ético" a menudo se usa en lugares no filosóficos para referirse a una variedad de cosas indeseables. A menudo tienen muy poco que ver con la ética, por lo que uno tiene que preguntarse qué quiere decir la gente cuando afirma que no es ético.
Un aspecto que podría ver como poco ético es que normalmente se considera poco ético mentir. Si alguien cree que está hablando con un humano cuando en realidad está hablando con una IA, hay un poco de mentira por omisión cuando la IA no se identifica. Sin embargo, hay una larga serie de debates sobre si las mentiras por omisión son lo mismo que mentir activamente.
Otro problema potencial es que generalmente se asume que las conversaciones no se graban a menos que se especifique ("Esta llamada puede grabarse para garantizar la calidad"). Todavía no está claro cómo encaja el procesamiento del lenguaje de IA en esto.
No consideraría esto protegido en la forma en que lo está la raza o la religión. Esos son rasgos protegidos que se tratan como una clase muy diferente de cualquier otro factor distintivo que pueda tener un cliente.
no ético: la ética parece ser no declarar algo que pueda ofender o molestar a la otra parte, por cualquier motivo, sin permitir primero que la otra parte rechace dicha interacción.
La película I-robot demostró tal sesgo, en contra del proceso de interacción con la IA.
En realidad, hablar con una computadora o una persona que está haciendo una tarea simple de obtener información y dar una necesidad, no es una cuestión ética por el intercambio de información donde no surgirá ninguna amenaza o problema de la comunicación.
Si por el contrario estuvieras hablando con alguien que te ha hecho mucho daño o alguien que conoces, y si supieras que esa es la persona, no hablarías, entonces eso se llamaría poco ético, porque la respuesta sería molesta. y la denegación de contacto sería del 100%.
Algunas personas obviamente tienen miedo de este medio de imitar la comunicación humana, aunque es irrelevante. Algunos odian presionar uno para x, presionar a para y, que es una voz humana que le da una lista de opciones, que es similar. Pero igualmente algunas personas odian esto y quieren una solución más compleja.
Entonces, para responder a la pregunta, si alguien odia este tipo de interacción, no sería ético no declarar el tipo de interacción en la que participan las personas para que puedan optar por detenerse o continuar. Esto es similar a grabar llamadas telefónicas precedidas por una advertencia de que esto está sucediendo. No se trata de un nuevo dilema ético de solución sencilla.
Como mínimo, creo que los responsables de la toma de decisiones de Google saben que los humanos valoran más la interacción con otros humanos que la IA. Entonces, como mínimo, se estarían beneficiando a sabiendas del engaño, en la forma de recibir (o vender la oportunidad de recibir) buena voluntad fraudulenta.
Quizás el mayor daño provendría de cómo este fraude afectaría a terceros... A algunas personas les gusta tener un ser humano al otro lado del teléfono, y algunas empresas actualmente contratan a muchos seres humanos para contestar teléfonos con el fin de ganar ese dinero. buena voluntad corporativa de sus clientes.
No sería necesariamente poco ético desplazar a estos trabajadores con un producto o servicio mejor o más eficiente. Pero desplazarlos con un falso servicio que da la falsa impresión de hablar con un ser humano no es lo mismo. Esto sería más equivalente a vender un producto físico a la gente de Chicago, bajo el anuncio "¡Compre directamente en nuestra fábrica de Chicago!" Cuando resulta que el producto en realidad se envía a la fábrica de Chicago para la venta, en lugar de fabricarse allí como se insinúa intencionalmente.
EDITAR: Se discutieron los hechos de la primera oración sobre el valor percibido por los humanos de la interacción con otros humanos frente a la IA. Una breve investigación en línea mostró muchos artículos coincidentes, y ninguno que pude encontrar cuestionando la declaración de valor de la primera oración. Un ejemplo representativo de los datos disponibles está aquí: https://www.prnewswire.com/news-releases/nearly-90-of-people-prefer-peaking-to-a-live-customer-service-agent-on-the -teléfono-a pesar-de-la-eficiencia-de-menús-telefónicos-para-empresas-300830525.html
franco hubeny
RibaldEddie
franco hubeny
RibaldEddie