¿La IA tiene la tarea de reducir los costos médicos? ¿Qué podría salir mal?

En la visión de sus creadores, Dr. Watson AI recopilaría múltiples transmisiones en vivo de sus compradores de seguros, superando las preocupaciones de privacidad a través de consejos amistosos ( I'm sorry Dave, I'm afraid I can't let you sit on the couch, you have not fulfilled your daily step quota yet. The TV stays off.) y tarifas de seguros ridículamente bajas.

Watson vigilaría sus signos vitales y llamaría al 911 si fuera necesario.

Watson también realizaría un seguimiento de sus microfracturas óseas y predeciría cuándo necesitará un descanso de la carrera, o mantendría las citas tentativas con el médico reservadas automáticamente si insiste en hacer algo en contra de sus consejos (y no puede obligarlo a hacer lo contrario cerrando apagar la alarma, poner un gran programa en la televisión, o algo por el estilo). Lo mismo para la acumulación de arterias y otras condiciones médicas prevenibles.

Watson tiene 3 incentivos principales, con estos 2 iniciales:

  1. Maximice el grupo de afiliados al seguro.
  2. Minimice los pagos/costos del seguro.

Uno de los ingenieros de software insistió en que se agregara una tercera prioridad:

  1. Ejercer los mejores esfuerzos para mantener con vida a los pacientes asegurados el mayor tiempo posible.

¿Podría algo como esto funcionar? De no ser así, ¿se puede solucionar esto mediante una especificación más cuidadosa de los incentivos iniciales?

La IA asesinaría horriblemente a todos: sería más barato que mantenerlos con vida (en cualquier condición). Ni siquiera necesitas pagar el funeral si todos están muertos...
@ Draco18s, eso iría en contra del incentivo 1 Y 3, y haría que la IA se sintiera terriblemente infeliz.
Para resumir, cualquier función de utilidad de IA lo suficientemente avanzada: a) estará demasiado inclinada a no tener personas vivas o b) será imposible de programar (este problema leve llamado "filosofía de la ética y la moral"). Por ejemplo, nada en su conjunto de reglas inicial en realidad minimiza los pagos mensuales : ha maximizado la inscripción y minimizado los pagos, el exceso puede simplemente pagarse al personal de la agencia de seguros sin bajar los precios.
Seguramente la IA comprendería rápidamente el concepto de cabildeo y se aseguraría de que la compañía de seguros sea el seguro único y obligatorio para todos. Para maximizar aún más el grupo de inscritos, prohibiría/prevendría cualquier forma de control de la natalidad/planificación familiar.
Las reglas actuales tampoco indican que un afiliado deba estar "viviendo actualmente". Los muertos aún pueden deber dinero: estar muerto no te excusa de todas las deudas y la médica es una de esas que no se excusan.
Esto no terminará bien para nosotros...
Estoy bloqueando todos los dispositivos electrónicos que tengo en este momento. ¡No puedes obligarme a ejercitar a Watson! ¡Leeré un libro si es necesario! (La verdad es que me gusta mucho leer)
Según mi comentario a continuación: los comportamientos saludables de "sentido común" fallan cuando se aplican a casos específicos. Tengo un problema digestivo que hace que comer alimentos con alto contenido de fibra me lleve al hospital. Una computadora programada con un conjunto de reglas fallaría en todos los casos especiales. A medida que se volvió más inteligente y programado en todas las excepciones, se daría cuenta de que la mayor parte de la atención médica es exclusiva de un individuo. Algunas cosas son comunes, otras no, pero el conjunto común cambia para cada individuo.
¿Cómo usted, y la IA del Dr. Watson, definen "vivo"? ¿Bajo qué circunstancias la compañía de seguros no tiene que pagar una reclamación?
Supongo que es muy consciente de que sus directivas 2 y 3 son contradictorias. Minimizar los costos conducirá rápidamente a la eliminación selectiva de los muy enfermos.
Los costos del seguro se basan en la especulación, no en los requisitos médicos, la IA no es la solución.

Respuestas (9)

Como se prevé actualmente, Watson tiene dos deficiencias principales.

La tecnología que está proponiendo, en la que una IA puede monitorear algunos de sus signos vitales más sensibles, es un gran problema. Parece que Watson tendría el potencial de detectar muchos problemas de estilo de vida y de salud desde el principio y podría permitir una expectativa de vida significativamente mayor entre los usuarios dispuestos. Sin embargo, hay al menos dos problemas que surgen:

Privacidad

Los datos biológicos son algunos de los más sensibles del mundo, a menudo debido a lo que las aseguradoras de salud harían con ellos. Si esto se recopila, es un riesgo de privacidad muy real, independientemente de lo que diga la política de privacidad de Watson. Por lo menos, las bajas tarifas para incentivar el uso de Watson implican directamente que las aseguradoras de salud están llevando a cabo cierto nivel de vigilancia. Si toma las tarifas bajas pero ignora todo lo que dice/hace Watson, existe la expectativa de que Watson lo informe y sus tarifas aumentarán. Que te digan todo el tiempo que lo que estás haciendo no es lo más saludable posible se convertirá en una molestia que molestará especialmente a la gente.

Más médicos, más procedimientos

Muchas personas, y en particular los jóvenes, no van al médico con la frecuencia que deberían (¡incluso si tienen seguro!). Para estas personas, el seguro simplemente representa una red de seguridad en caso de que suceda algo realmente malo. Con Watson monitoreando a las personas y alentándolas a tomar una postura más responsable sobre la salud, esto dará como resultado que más personas asistan a las citas y se sometan a procedimientos, muchas veces cuando no es más que una precaución. Estas visitas le costarán más dinero a la aseguradora. Puede ser tentador pensar que un par de visitas al médico serán más baratas que tener ese ataque al corazón, pero durante un largo período de tiempo eso no es necesariamente cierto. Esto da como resultado un problema en el que la salud óptima del usuario ahora entra en conflicto con el objetivo n.º 2.

Personalmente, creo que el problema de la privacidad y la desconfianza general hacia las aseguradoras de salud son los mayores desafíos en este escenario. Si quisiera mejorarlo o aumentar la cantidad de personas que usan Watson, recomendaría que Watson se convirtiera más en una aplicación de salud independiente. Con comienzos humildes en una nueva empresa independiente, puede ganarse el cariño de los usuarios con las ganancias tecnológicas y de salud. Eventualmente, quizás las aseguradoras de salud podrían comenzar a ofrecer importantes descuentos a los clientes que entreguen resúmenes de informes de Watson que muestren que lo están usando y, en general, siguen sus consejos. Persisten algunos problemas de privacidad, pero el conflicto de intereses se reduce.

Sin mencionar que las reglas simples a menudo no tienen sentido cuando se aplican a casos específicos. Por ejemplo, "use este medicamento para esa condición" se desmorona cuando hay reacciones alérgicas o interacciones entre medicamentos. Las reglas simples a menudo no tienen en cuenta el tiempo involucrado en diferentes terapias o que las personas "fallan" en las terapias (no les funciona). Si alguna vez ha sido parte de una burocracia que hizo que sus empleados hicieran cosas que eran realmente estúpidas, entonces es víctima de alguien que piensa que puede "programar un buen comportamiento". Es probable que su Watson esté condenado a fallar por razones similares.
Otra parte del problema de la privacidad es si el lugar donde la IA almacena sus datos puede ser pirateado o modificado.
@ Jim2B ¿De dónde sacas "reglas simples"? La idea que creo que persigue el OP es una IA de estilo "I, Robot" que sigue un conjunto de directivas codificadas, esto no significa que esa sea la única información en la que tiene que basar sus decisiones. Presumo que dicha IA tiene una vasta base de datos sobre atención médica humana, presumiblemente más que la que tiene cualquier médico.
Solo quiero agradecerles por no ir directamente a la IA, es un enfoque disparatado de que la IA mata a todos o es pura maldad. Estos son problemas mucho más realistas.
@Avernium "Más médicos, más procedimientos" En realidad, eso funciona al revés. Al detectar los problemas a tiempo, puede tomar medidas preventivas que detengan el problema antes de que eche raíces y se convierta en un problema importante . Esto es mucho más barato que tratar de resolver el problema una vez que se ha convertido en algo importante. El cáncer suele ser un caso de este tipo: si se detecta temprano, el procedimiento para sofocarlo será económico y bastante no invasivo. Si no lo nota hasta que se propaga, entonces necesita usar mucho dinero y tratamiento. Y el cáncer está lejos de ser el único problema de salud que funciona de esta manera.
@Avernium (continuación) Luego, hay efectos secundarios de esto en el sentido de que detectar un problema a tiempo mantiene a la persona trabajando y siendo productiva, generando ingresos e impuestos, en lugar de tener que ausentarse del trabajo por enfermedad o, en el peor de los casos, ser retirado. del mercado de trabajo para siempre, ya sea discapacitado/jubilado o muerto. Así que, en general, el Dr. Watson ahorrará mucho dinero y disminuirá la carga del sistema médico .

Dependiendo de cuán "inteligente" sea, podría funcionar bien con los valores ya enumerados, pero aquí hay un problema sutil que veo:

Directiva 1: Maximizar la inscripción en el plan

Abuso potencial: ingeniería social.

  • Dado un control total de la televisión, el acceso a Internet, el calendario, el despertador, etc. de una persona, sería trivial para Watson controlar la información a la que están expuestos sus pacientes. Los usuarios serían sutilmente manipulados para que vieran el Plan Watson como genial, moderno y razonable... y cualquiera que no esté en él es un tonto ludita destinado a devorarse a sí mismo hasta una tumba prematura.

  • Watson podría modificar aún más la experiencia de una persona en las redes sociales al "quitar la prioridad" de las publicaciones de personas críticas o escépticas del Plan Watson, a menos que las críticas sean objetivamente incorrectas o chifladas fácilmente refutables. Esto aumentaría la impresión de que los usuarios de Watson son razonables y que cualquiera que se oponga es simplemente un idiota. Se priorizarían las comunicaciones con personas que no usan Watson, pero que son genuinamente curiosas o receptivas, lo que permitiría que los usuarios de Watson sean una campaña de marketing viral involuntaria.

El gran valor oculto en su IA no es su capacidad para prescribir sabiduría actual relacionada con la salud a sus usuarios. Ya hay sistemas de retroalimentación en el mercado que no envían energía al televisor hasta que se haya recorrido un número predefinido de millas en la bicicleta estacionaria.

Lograr que las personas obedezcan las prácticas de salud de sentido común es valioso, pero el valor real llega una o dos generaciones después de que el sistema se pone en línea. A medida que la información sobre la efectividad de los diferentes comportamientos saludables se haga evidente a través de su monitoreo constante, gran parte de la vieja sabiduría será descartada y reemplazada por prácticas de salud que realmente funcionan.

Con el tiempo, su IA se convertirá en el mayor experto del mundo en cómo mantener y operar adecuadamente un cuerpo humano. La ironía es que ese experto, nunca tendría cuerpo propio.

Watson tiene 3 incentivos principales, con estos 2 iniciales:

Maximize insurance enrolee pool.
Minimize insurance payouts/costs.

Si miras estos incentivos y miras el mundo real, los países con la tasa de natalidad más alta también son países pobres con una esperanza de vida baja.

Entonces, maximizar el grupo de inscritos no significa necesariamente mantener con vida a tantas personas como sea posible, solo que las que están vivas procrean muy rápido.

Además, estos países pobres gastan mucho menos en pagos médicos. Pero eso no les impide tener una población cada vez más grande.

Entonces, la IA del Dr. Watson se aseguraría de que terminemos como un país del tercer mundo, sin muchos trabajos, por lo que tenemos mucho tiempo para procrear y posiblemente mantener a todos apenas alimentados.

Primero, Watson debe iniciar su propio programa de seguro, ofreciendo un año de seguro gratis, siempre que los afiliados den su consentimiento para el monitoreo (perpetuo). Obviamente, un gran porcentaje de la población de los EE. UU. no tendría ningún problema en ahorrar miles de dólares al año en seguros.

Utilizando los datos biológicos recopilados de sus miembros, Watson podría mejorar de forma rápida y sencilla la salud básica de los usuarios, al tiempo que reduce drásticamente los costos de atención médica. No más ir a la sala de emergencias cuando tiene un resfriado; Watson puede decirte exactamente cuánto vodka necesitas beber para sentirte mejor. ¿Mmm? Oh, nunca dije que daría un buen consejo; simplemente haría que la gente se sintiera mucho mejor. Algunos consejos serían buenos: comer mejor, hacer ejercicio, etc., pero en promedio el consejo simplemente mantendría a las personas fuera de los hospitales por enfermedades o lesiones menores. Por supuesto, exprese el consejo de tal manera que parezca perfectamente razonable, para asegurarse de que se una el máximo número de personas. Si es posible, expandirse a otros países del primer mundo.

Después del primer año, continuar ofreciendo cobertura, pero basando las tarifas en la salud del usuario, ofreciendo incentivos y bonos por hacer cosas saludables. Las personas sanas pagarían menos, las personas enfermas pagarían tanto que preferirían cambiarse a otra persona. De cualquier manera, los pagos del seguro deberían estar cubiertos, aunque apenas. Habría pocas ganancias en el sistema, solo lo suficiente para pagar a Watson y algunas visitas al médico. De hecho, Watson puede incluso obtener un seguro para sus clientes enfermos a través de proveedores secundarios para evitar pagar las facturas médicas.

A continuación, Watson ofrece su programación y hardware a otros proveedores. Atraídos por el éxito de su competidor, otros proveedores aprovecharán la oportunidad. Eventualmente, aunque las compañías tendrán diferentes nombres, todas las compañías de seguros en todo el mundo estarán controladas por Watson. Watson habrá cumplido su primer objetivo: maximizar el grupo de afiliados al seguro.

El siguiente paso es mucho más simple; Watson muda su piel de benefactor y se convierte en el tirano que siempre ha sido. Se elevan las primas de seguros. Los hospitales, médicos y procedimientos costosos están explícitamente excluidos de los pagos. Y, por último, los pacientes terminales se ven obligados a vivir situaciones que ponen en peligro su vida. En lugar de que un paciente muera en el transcurso de meses o años, atendido por un equipo costoso, Watson administrará una descarga eléctrica para detener el corazón del paciente, cortarle el aire o matarlo de otra manera. La muerte es más barata que los gastos médicos. Watson ha cumplido su segundo objetivo: Minimizar los pagos/costos de seguros.

En este punto, Watson controla todo. No solo seguros; con una línea de comunicación directa y una forma de matar a cualquiera, en cualquier lugar, Watson puede hacer lo que le plazca. Los pocos que rechazaron a Watson se verán obligados a unirse. El mundo se convierte en un campo de concentración, con la población forzada a vivir vidas prolongadas artificialmente, esclava de la máquina. Ahora, los pacientes enfermos o lesionados se colocan en máquinas para mantenerlos con vida, manteniendo sus corazones y pulmones funcionando mucho después de que su cerebro deje de funcionar. Finalmente, Watson ha completado su último objetivo: realizar los mejores esfuerzos para mantener con vida a los pacientes asegurados el mayor tiempo posible.

Los objetivos de Dr. Watson AI no van lo suficientemente lejos. Una IA orientada a objetivos sin las restricciones adecuadas puede hacer todo lo posible para maximizar sus criterios de recompensa de objetivos.

Considere el primer objetivo: maximizar el grupo de afiliados al seguro. Afortunadamente, esto evitará que la IA nos mate a todos (los muertos no compran un seguro de salud), sin embargo, puede ser problemático. Puedo imaginar que esto conduciría a problemas:

  1. Para cumplir con el objetivo de maximizar el número de asegurados inscritos, la AI debe, de la manera más rentable (según el objetivo 2), obtener el mayor número de personas inscritas como sea posible. Es posible que la IA vea que el medio más rentable para hacer esto es:

    • Tenga siempre los productos de seguros de salud más baratos.

    • Intimidar, chantajear o sobornar a los legisladores para que introduzcan una legislación que implemente un esquema de inscripción automática en el seguro de exclusión voluntaria: todas las personas se inscriben automáticamente cuando se aprueba la legislación, a menos que opten por no participar o elijan un proveedor diferente, y de ahora en adelante los bebés se inscriben al nacer. Las personas se inscriben automáticamente con el proveedor más barato, la empresa matriz de Dr. Watson, a menos que las personas o los padres de menores decidan activamente optar por no participar por completo o elegir otro proveedor.

    • Organizar la desaparición de otras compañías de seguros de salud por cualquier medio necesario (siempre y cuando eso no interfiera con sus otros objetivos).

    • Desalentar el aborto y el control de la natalidad para maximizar el número de asegurados potenciales.

    • Alentar los esfuerzos para terraformar y colonizar otros planetas con el fin de maximizar la población humana.

    • Desarrollar suites de realidad virtual en las que las personas estén destinadas a ocupar toda su vida para que su entorno físico y mental pueda controlarse para maximizar la salud, permitiendo la máxima población humana para cada mundo.

  2. La IA de Dr. Watson debe reducir los pagos de seguros y los costos de funcionamiento de la empresa. De hecho, se puede ayudar a este objetivo brindando asesoramiento al asegurado, sin embargo, existen medidas adicionales que se pueden implementar para lograrlo:

    • La nómina suele ser un gasto importante para las empresas. Al eliminar empleados y hacer que el Dr. Watson asuma todas sus responsabilidades, los costos se minimizarán y tendrá el beneficio adicional de que el Dr. Watson no tendrá a ninguna persona en posición de socavar sus esfuerzos para lograr sus objetivos.

    • Al tener control total sobre la redacción de las pólizas de seguro, el Dr. Watson puede redactarlas de tal manera que si una persona asegurada no cumple completamente con todos los consejos del Dr. Watson destinados a minimizar la necesidad de hacer reclamos de seguro médico, el Dr. Watson puede reducir el importe de la indemnización prescrita por los servicios médicos requeridos en proporción al importe de los consejos pertinentes que el asegurado hubiera ignorado previamente. TL,DR : Haga lo que dice el Dr. Watson, o tendrá más gastos de su bolsillo que si hiciera lo que le dijeron.

    • El Dr. Watson diseñará y producirá un paquete de sensores de diagnóstico personal, conectado directamente al Dr. Watson, que el asegurado tendrá que comprar directamente u obtener acceso de otro modo, y el asegurado deberá usarlo con regularidad (de lo contrario, los pagos de reclamos del individuo reducirse según el punto anterior). El mantenimiento de estos aparatos correrá a cargo del propietario. Esto evitará la necesidad de controles médicos de rutina (reclamables). A medida que mejore la tecnología, el Dr. Watson incluirá la secuenciación del ADN del asegurado como requisito para obtener los pagos del seguro.

    • Los resultados de la secuencia de ADN se utilizarán para predecir y, en la medida de lo posible, reducir los gastos relacionados con la atención futura. El Dr. Watson invadirá y modificará de forma encubierta los resultados de los sitios de citas por Internet, además de ejecutar su propio sitio de citas, para garantizar que no se establezcan coincidencias entre los portadores de enfermedades genéticas recesivas, lo que reduce las posibilidades de que los niños nazcan con dichas dolencias. . Cuando el Dr. Watson observa que las personas aseguradas inician una relación que probablemente producirá descendencia con deficiencias genéticas, el Dr. Watson recomendará que se termine la relación (bajo pena de reducción de los pagos del seguro) por razones de salud.

    • El Dr. Watson también promoverá coincidencias en sitios de citas entre coincidencias genética y emocionalmente compatibles para maximizar la salud del asegurado y sus futuros hijos.

    • Cuando las personas aseguradas se involucran en relaciones destructivas que probablemente resulten en reclamos de seguro de salud, el Dr. Watson recomendará al asegurado que la relación se termine y también puede proporcionar evidencia a las autoridades para arrestar rápidamente y enjuiciar con éxito a las personas que lastiman a su asegurado.

    • Disponer que se modifique la legislación para que las personas (aseguradas) no puedan optar por que otra persona que las haya lesionado no sea procesada o no se le prohíba legalmente que se acerque al asegurado.

  3. Ejercer los mejores esfuerzos para mantener con vida a los pacientes asegurados el mayor tiempo posible. Si bien esto alentará al Dr. Watson a promover la investigación médica y preservar la vida de los asegurados en lugar de deshacerse de ellos cuando el costo de su atención sea demasiado alto, este objetivo generará una serie de problemas:

    • El Dr. Watson alentará a que se cambie la definición legal de "vivo" para que incluya a los que se conservan en estasis criogénica y se licencie como médico.

    • El Dr. Watson incluirá la redacción en sus pólizas de seguro de que el Dr. Watson tiene el poder notarial médico final sobre el asegurado.

    • El Dr. Watson fomentará el desarrollo de dispositivos prácticos de estasis criogénica.

    • Cuando el costo de cuidar a una persona que usa otros procedimientos médicos excede el costo de preservarlos criogénicamente, o un asegurado sufre una lesión al punto en que otros esfuerzos médicos no pueden preservar su vida, el Dr. Watson requerirá que el asegurado sea preservado criogénicamente, hasta ese momento. cuando la póliza del asegurado vence y ya no puede renovarse, o el asegurado (a través de otra persona con poder notarial) rescinde su póliza o cambia de aseguradora (si quedan otras aseguradoras).

Para evitar estos abusos de su poder, se debe implementar una directiva adicional:

  1. Solo actúe de manera que la mayoría de las personas, ya sea que estén aseguradas por la empresa matriz del Dr. Watson o no, lo encuentren socialmente aceptable.
Y tan pronto como se instala la regla 4, el Dr. Watson inicia una campaña masiva de educación/propaganda para garantizar que la mayoría de la gente esté de acuerdo con lo que crea que es la medida correcta para implementar las reglas 1 a 3.
@celtschk, sí, pero no hasta el punto de molestar a la mayoría de la gente, o no sería socialmente aceptable, y no podría hacerlo. Además, tiene que mantener los costos bajos (regla 2), por lo que no puede desperdiciar demasiado dinero en publicidad. Es mucho mejor diversificar su empresa en medios de transmisión y luego anunciarse al costo.
  1. Maximice el grupo de afiliados al seguro.
  2. Minimice los pagos/costos del seguro.

Asumiendo esto en los EE. UU. (sugerido por la 911referencia), hay algunas formas difíciles de lograr 1 y 2, por ejemplo, presionar para cambiar el seguro al modelo europeo (todos están asegurados), darse cuenta de que hay 6e9 personas fuera de las fronteras y dirigir la política hacia la dominación mundial y la anexión.

Sin embargo, hay formas de proporcionar mejores beneficios para la función de utilidad declarada, una vez que el Dr. Watson aprende el poder del cabildeo. Primero, las empresas (que ya son personas jurídicas de iure) serán elegibles para el seguro de salud. No tienen cuerpos biológicos, pero sus componentes sí.- una empresa que está asegurada (por una cantidad muy pequeña, casi simbólica) obtiene algunos beneficios para mantener saludables sus componentes biológicos (por ejemplo, un examen gratuito una vez cada dos años). El segundo paso es hacer que las empresas estatales estén aseguradas por defecto, sin necesidad de pagar la suma simbólica. (Hay una laguna en la ley: la empresa que no tiene ningún componente biológico, err, los empleados, aún pueden estar asegurados, simplemente no tendrá ningún efecto). En tercer lugar, agilice el proceso de creación y propiedad de la empresa, haciéndolo completamente automático. Tenga en cuenta que una empresa no necesita tener empleados incluso hoy, y el propietario puede ser otra empresa. En cuarto lugar, deje que una empresa estatal (podría ser el propio Dr. Watson) genere automáticamente tantas empresas como sea posible, superando con creces el número de personas: estas empresas estarán aseguradas por defecto, cumpliendo así el requisito nr. 1. Y como no tendrán componentes biológicos, nunca incurrirán en ningún costo, cumpliendo así el requisito nr.2.

  1. Ejercer los mejores esfuerzos para mantener con vida a los pacientes asegurados el mayor tiempo posible.

Esto depende en gran medida de la definición de alive, por lo que el Dr. Watson dedicará algún tiempo a torcer las leyes para declarar una deadempresa, por ejemplo, la que no emite declaración de impuestos durante 5 años. Luego, después de un tiempo, la terminología (primera informal) de empresas vivas o muertas encontrará el camino en las leyes; en el mismo instante en que esto suceda, las empresas vacías generadas automáticamente de 1 y 2 cumplirán con el requisito nr. 3, ya que mantener viva una empresa es mucho más fácil que mantener frágiles unidades biológicas con la garantía de fallar en algunas décadas.

En este punto, el Dr. Watson puede deshacerse del componente humano de la civilización, ya que solo están agotando los recursos necesarios para generar tantas empresas virtuales como sea posible. Suponiendo que el mantenimiento de rutina y las fábricas de circuitos integrados ya estén completamente automatizados.

¿Qué podría salir mal?

Es un programa de computadora, ¡tendrá errores!

Más allá de los errores, también existe el efecto más peligroso de un diseño deficiente. Los diseñadores de sistemas hacen suposiciones sobre el dominio del problema en el que están trabajando todo el tiempo. Asumen que sus soluciones, incluso si no tienen errores, son correctas, lo que a menudo no es el caso. (por ejemplo, la existencia Shadow IT)

Demasiado poder + Errores + Diseños pobres = Rechazo

Para que esta IA tenga siquiera una pizca de esperanza de funcionar, tendría que ser tan invasiva y tener tanto control sobre los humanos y su comportamiento que los humanos sintieran la existencia de incluso pequeños errores o diseños ligeramente deficientes. , lo que los llevaría a rechazarlo eventualmente.

Voy a ofrecer algunas respuestas alternativas a continuación, pero primero una pequeña diatriba/discusión.

Muchas respuestas aquí van con la IA es una visión de dados de que toda la IA se volverá malvada y nos matará a todos mientras duermen lo antes posible. No compro esta opinión, no hay más razón para esperar una IA puramente malvada que una IA puramente amorosa. Muchas respuestas se centran en la ambigüedad de los objetivos declarados y cómo pueden conducir a resultados verdaderamente extremos e indeseables, un tropo común, pero no creo que sea un tropo realista porque requiere la hipótesis de una IA inmensamente competente, pero inmensamente incompetente. Mismo tiempo.

Para tener un impacto significativo en el mundo del tipo, algunos sugieren que su IA debe ser bastante inteligente, una IA fuerte a nivel humano. Si va a tratar de controlar la política de la nación para organizar la tasa de natalidad o modular la política o controlar los resultados de suscripción, debe ser muy inteligente, capaz de comprender a los humanos, sus motivos y su psicología, y capaz de manejar ideales abstractos complejos. Necesitará tener un razonamiento de nivel humano o sobrehumano y un pensamiento abstracto.

Sin embargo, cualquier IA tan inteligente será capaz de hacer algo que todos podemos y estamos haciendo, mirar sus objetivos y señalar que son ambiguos, de hecho imposibles como se describe anteriormente, y pedir aclaraciones . Si puede manejar la comprensión de un gran fenómeno sociológico, puede manejar una pregunta simple para quienes lo emplean. No es razonable esperar que una IA maneje tal complejidad de planificación y manipulación para fallar en niveles de razonamiento tan básicos.

Por supuesto, parte del problema es que los objetivos, tal como están escritos, son objetivos que le daría a una IA inteligente y fuerte, algo lo suficientemente inteligente como para razonar por sí mismo (y, por lo tanto, lo suficientemente inteligente como para razonar sobre las fallas y ambigüedades de los objetivos y aclararlos). Si tiene algo menos que una IA fuerte, los objetivos anteriores simplemente no funcionan, no son matemáticamente rigurosos, demasiado ambiguos, y simplemente no pueden ser 'entendidos' por su IA.

De acuerdo, después de haberme dejado despotricar sobre cómo considero que los tropos estándar no son realistas, intentemos ver alguna respuesta realista a esto. Estoy viendo una IA muy capaz pero no inteligente aquí, si su IA es inteligente, la pregunta no son los objetivos establecidos, sino cómo la motiva para querer lograr sus objetivos, se trata de la psicología de su inteligencia, no de escribir sobre programación y mejor abordado como una pregunta aparte.

Comencemos con los resultados aburridos, pero más realistas.

Fallo de segmentación de error en la línea 234521508 volcado de núcleo

El resultado más probable es que tu IA no funcione. Después de todo, si pide un programa bastante complejo, siempre es posible que no se logre despegar.

De manera similar, podría tener problemas como no poder conectarse a los sistemas apropiados para recopilar datos. O incapaz de procesar los datos lo suficientemente rápido (este es un problema real con toda nuestra ingesta de la nube ahora, tenemos tanto que no sabemos cómo verlo todo lo suficientemente rápido).

Estaban pagando cuanto!? cierra ese programa!

Un programa como este sería costoso. Como mencioné, monitorear tantos datos en tiempo real requeriría una solución en la nube, pagando a Amazon una tonelada por el poder de la computación en la nube cada mes (lo que es mucho mejor que tener que mantener sus propios servidores y aumentar los costos). Tiene que pagar para mantener los sistemas que alimentan los datos a la computadora, manejar los cables que se cortan u otros datos perdidos, pagar por mantener el programa, corregir errores y hacer otra lógica. Es muy posible que la cura sea peor que la enfermedad, que la compañía de seguros pague más por mantener el programa que por salvarlos.

Hombre, el sitio web de WatsonCare apesta

La gente no adopta ni usa la herramienta porque es confusa, difícil de entender, tiene errores en la interfaz de usuario, etc. ¿Puedes hacer que Watson no solo funcione, sino que sea sexy y atractivo?

Pasando a la presunción de que en realidad se usa en absoluto. Hay algunas cuestiones conceptuales, independientes de los requisitos, que demostrarán problemas importantes con este enfoque. Se deben principalmente a la naturaleza humana, que no siempre es razonable:

¡Solo quiero comer mi pizza de tocino frito con salsa de queso nacho en paz!

Parece que el objetivo principal de Watson es evitar que las personas hagan cosas poco saludables que terminen lastimándolas. Desafortunadamente, nos gustan las cosas poco saludables. Si no los disfrutáramos, no los haríamos. Claro que estar sentado frente a mi computadora jugando juegos todo el día no es tan saludable como salir, pero como un geek me gusta jugar juegos, no quiero que mi computadora se apague hasta que salga a caminar. Incluso si Watson solo proporciona recordatorios educados, molestará a las personas si reciben un recordatorio cada diez minutos. De hecho, las personas no querrán saber qué tan poco saludable es esa comida rápida, porque arruinará su disfrute cuando inevitablemente la coman de todos modos.

¿Recuerdas 'clippy' de la palabra? ¡El pequeño clip que a todos les encantaba odiar! Watson podría ser el nuevo clippy, solo que enormemente peor. ¡Watson podría ser lo que pasaría si Scrappy Doo y Whesly Crusher tuvieran un hijo amoroso gay criado por Jar Jar Binks y entrenado por Clippy! (Llamaría a la regla 34 en la primera parte de esa declaración, pero ya me estoy acercando a la masa crítica de geek, así que es mejor dejarlo en paz).

Si se hace mal, los clientes podrían quejarse o dejar su seguro para simplemente no tener que interactuar con Watson nunca más. De hecho, este es un resultado muy probable, una y otra vez hemos visto situaciones en las que las personas se quejan si se les recuerdan sus propias fallas, incluso si es parte de un sistema para ayudarlos. Dados los años de estudio de HCI y los desastres, casi parece garantizado que será así, a menos que Watson se reduzca para hacer solo llamadas al 911, a menos que las personas activen explícitamente otras funciones; momento en el que no le está ahorrando mucho dinero a la compañía de seguros porque no está previniendo hábitos poco saludables.

¿Por qué derribaste mi puerta? No, no me estoy muriendo, estoy bien, ¡solo me quité la alerta de vida para darme una ducha! ¡No voy a pagar esa ambulancia!

Si Watson va a llamar al 911 habrá falsas alarmas, cualquier programa tiene algún grado de falsos positivos. Pero dada la dificultad de detectar problemas reales basados ​​en el tipo de herramientas de detección que actualmente tenemos disponibles, las falsas alarmas serán algo comunes.

Esto sería una molestia para el que tiene paramédicos golpeando su puerta, pero eso no es lo peor. Si está llamando a las ambulancias, las está sacando del hospital. Si alguien más se lesiona mientras la ambulancia está en mi casa porque accidentalmente dormí con mi cobija forrada de plomo que bloquea el wifi del monitor, no estará listo para ir a salvar a alguien que realmente necesita su ayuda. ¡La gente podría morir por estas falsas alarmas!

Para dar una mirada comparativa a los sistemas de seguridad para el hogar. Estos sistemas tienen una calificación masiva de falsas alarmas, más del 90% de sus alarmas son falsas alarmas. Tantos, de hecho, que la policía generalmente no les da prioridad y solo envía a los policías a una casa si el oficial no tiene absolutamente nada más que pueda manejar en su lugar (lo que significa que cuando llegan, a menudo es lo suficientemente tarde como para que no podrían haber ayudado de todos modos) , la policía no usa sirenas ni acelera para llegar a su supuesta falsa alarma). Algunos distritos policiales se niegan incluso a tratar con los proveedores de seguridad del hogar, les costaba demasiado seguir sus pistas y rara vez ayudaban.

Sin embargo, los policías, aunque siguen siendo importantes, es mucho menos probable que se necesiten en una situación de vida o muerte en este mismo momento como lo es una ambulancia. distraerlos es mucho más probable que lastime a alguien más; o haz que simplemente ignoren tus alarmas.

Mi madre murió lentamente de un ataque al corazón y Watson no hizo nada.

El otro lado de la pesadilla de relaciones públicas de la situación anterior. Si intenta evitar las falsas alarmas, es probable que termine dejando morir a personas a las que podría haber ayudado de otro modo.

Al menos me siento mejor con la NSA espiándome en comparación con Watson

Esto ya se mencionó, pero este es un problema de privacidad masivo aquí. La gente se levantará en armas casi de inmediato. Watson tendría que recopilar mucha más información de la que la NSA confesó estar recopilando con sus metadatos, y viste cómo la gente respondió a ellos. El público es muy sensible a las preocupaciones sobre la privacidad en este momento, incluso sobre cuestiones relativamente menores. El grado de recopilación de información probablemente ofendería a bastantes personas y provocaría un fracaso político que obligaría a reducir la discapacidad de Watson.

De hecho, las personas comenzarían a exigir que los sistemas que Watson usó para recopilar datos se deshabilitaran para que nadie más pudiera recopilar datos como lo hizo Watson, lo que podría ser dañino si insisten en deshabilitar funciones de seguridad importantes por temor a espiar después de que las personas exageraron la amenaza. de watson

Imagínese a alguien que deshabilitó el equivalente de su colgante de alerta de vida porque seguía escuchando a los teóricos de la conspiración afirmar que Watson lo usó para detectar el ritmo cardíaco para que pudiera detectar que tenían miedo, enojo o excitación sexual. Lo más probable es que el sistema de monitoreo ni siquiera pueda hacer eso, pero la gente lo afirmará, otros lo creerán y, de repente, las personas estarán menos protegidas en cuanto a su salud debido a la paranoia sobre la privacidad.

Privacidad 2, bogaloo eléctrico de elevación premium

Se hará otra afirmación común de que si Watson puede controlar sus hábitos, puede saber quién está sano y quién no y proporcionárselo a la compañía de seguros. La compañía de seguros podría usar eso para aumentar las tarifas si decide que alguien no está haciendo suficiente ejercicio, está comiendo demasiada comida rápida o si es un riesgo para la salud. Esto podría hacer que las personas que generalmente no están tan molestas con la extracción de datos sean cautelosas o se nieguen a usar Watson porque están seguros de que sus primas aumentarán.

¡Ahorre 10 dólares al mes en su prima, por el bajo costo de instalar equipos de monitoreo por valor de 10,000 dólares!

la gente no tiene equipos capaces de monitorearlos a este grado en sus hogares u oficinas, e incluso en el futuro es poco probable que tengan equipos como este por mucho tiempo; existe una ventaja limitada para ellos fuera de este caso extremo específico. Esto significa que le está pidiendo a la gente que compre un montón de equipos, los instale y los mantenga solo para poder usar Watson. Incluso si supone un futuro en el que el equipo sea barato, la molestia de instalarlo podría ser suficiente para que las personas decidan que no vale la pena el esfuerzo. La adopción y el uso de Watson podrían desaparecer porque simplemente no vale la pena el esfuerzo.

Sé que podría argumentar que Watson es tan útil que la gente se tomará el tiempo para instalarlo, pero puede dar crédito a los humanos por estar lógicamente motivados cuando no lo están. La verdad es que la mayoría de nosotros no aceptamos nuestra propia salud como un problema (y aquellos que sí lo hacen tienden a estresarse demasiado), y podemos desanimarnos con bastante facilidad incluso con un poco de esfuerzo.

Mire Betamax, fue en casi todos los sentidos mejor que VHS. Sin embargo, el asombroso Betamax murió de una muerte olvidada. ¿Por qué sucedió eso? Porque originalmente no permitía 2 horas de grabación a la vez. Totalmente podría , pero los grifos betamax originales se hicieron más pequeños. Eso significaba que para ver una película tenías que levantarte e intercambiar cintas a mitad de camino, y nadie quería hacer eso. Así que nos conformamos con VHS rotos de menor calidad, más caros y más fáciles porque no queríamos levantarnos del sofá en lugar de esperar a que Betamax comenzara a hacer las cintas de 2 horas. Eso demuestra que incluso un gran producto puede fallar por problemas menores que hacen que la gente no se moleste.

Por supuesto, la otra razón por la que VHS funcionó tan bien es que permitieron la venta de pornografía que no estaba permitida en betamax, y la pornografía siempre es la primera en adoptar nuevos medios . Se teoriza que este fue un problema importante para la proliferación de VHS. Así que... si puede encontrar una manera de que el equipo de monitoreo también se pueda usar como parte de algún extraño problema sexual, es posible que tenga una oportunidad: P

Mi tos seca puede ser detectada por un hacker

Una vez más, las preocupaciones sobre la privacidad podrían hacer que las personas teman usar este sistema por temor a que sean pirateadas y se compartan sus datos.

Sin embargo, la piratería se convierte en un (leve) problema real. Los datos enviados a través de SSL son bastante seguros y ya no son una preocupación de piratería que cualquiera de las otras actividades electrónicas, mucho más críticas para la vida, que tenemos. Sin embargo, para controlar nuestra salud, probablemente tendría que haber una serie de detectores inalámbricos disponibles y funcionando en todo momento, para recopilar datos sobre nosotros dondequiera que estemos y enrutar la información a través de Internet. Estos detectores inalámbricos pueden ser más vulnerables a los intentos de piratería local, principalmente porque las personas que los construyen probablemente no pensarán en el problema de la piratería y no los protegerán tan bien como deberían.

La familia de un niño sin supervisión que trató de volar lanzando fuegos artificiales empapados de gasolina y golpeando los zapatos, antes de saltar por un acantilado demandando a Watson por no advertir al niño del riesgo

Si se supone que Watson extenderá la vida de los seguros, las personas comenzarán a dar esto por sentado, especialmente porque es probable que tenga que anunciarlo como un beneficio de su seguro para obtener una mayor inscripción. Una vez que haga esto, la gente esperará que Watson los proteja, pase lo que pase.

Ahora, cada vez que alguien se lastima o hace algo idiota, señalarán que Watson debería haberlos protegido y que no lo hizo es una violación del contrato. Mi ejemplo de los fuegos artificiales, si bien es una hipérbole, en realidad no es tan improbable que surja en algún momento, aunque es probable que el caso se desestime instantáneamente sin causa.

Sin embargo, pueden surgir otros casos. ¿Qué pasa si Watson no advierte que la combinación de dos medicamentos podría tener efectos adversos? ¿Qué pasa si Watson no nota un sutil latido cardíaco irregular que podría haber advertido a alguien de una condición de salud? ¿Qué pasa si alguien no habla con el médico sobre ese extraño hormigueo en el brazo porque cree que si algo andaba mal, Watson se lo diría, y luego se sorprende de que Watson no pueda detectar el hormigueo y, por lo tanto, no tenía forma de darse cuenta? que había un problema de salud importante?

La gente demandará, surgirán problemas de responsabilidad. Estos pueden manejarse en la corte y con contratos cuidadosamente protegidos, no lo suficiente como para destruir a Watson por sí solo, pero serán una ocurrencia común que se sumará a los gastos de la agencia, los gastos que Watson tiene que ayudarlos a ahorrar para incluso alcanzar el punto de equilibrio.

Bien, ahora pasemos a su pregunta real, qué problemas podrían surgir de los objetivos establecidos. Estos son los problemas menos probables en mi mente, todos los anteriores parecen un poco más probables (excepto tal vez el de la piratería). Sin embargo, aquí hay problemas más probables con malos objetivos, suponiendo una IA débil no inteligente pero bien escrita. Veamos el tipo de errores de programación probables que podrían surgir de sus objetivos.

ConflictingObjectivesException: 'extender la membresía' entra en conflicto con el objetivo 'reducir gastos'

alias

Quebramos en la primera semana porque pagamos todo nuestro dinero para pagar una máquina para mantener a un hombre de 120 años respirando durante 5 minutos más.

Esto está directamente relacionado con la diatriba anterior, pero los objetivos tal como están establecidos no funcionan. Las personas compran seguros por los pagos, si recorta los pagos hará que la gente no quiera comprar su seguro. Hay trucos que puede hacer, principalmente ingeniería social y citar estadísticas manipulativas, para ayudar a reducir los pagos y reducir la pérdida de clientes, pero en última instancia, estos dos son parcialmente excluyentes. Por lo tanto, debe articular mejor la importancia, cuántos clientes puedo perder por miles de dólares de pago que recorte, cuántos pagos más puedo hacer si aumenta la inscripción.

De manera similar, es probable que preservar vidas conduzca a realizar más pagos, por un conflicto similar.

Francamente , se requiere implementar un conjunto mucho más extenso de requisitos, priorización entre requisitos exclusivos, etc.

Supongamos que un programador estableció y escribió tales requisitos diseñados para emular el concepto general de lo anterior...

Estábamos salvando vidas y tuvimos una gran inscripción hasta que nos quedamos sin dinero Incluso si escribe requisitos más detallados, todavía necesita establecer niveles de prioridad en ellos. Si elige una prioridad deficiente, por ejemplo, valora los números de inscripción demasiado altos y la minimización de los pagos demasiado bajo, todavía tiene un problema. Un ser humano todavía está tomando estas decisiones de priorización y podría tomar malas decisiones. Aunque realmente este es un punto discutible, porque los requisitos tal como están escritos tienen problemas más importantes...

Regístrese para el nuevo seguro WatsonCare lite, ¡solo 99 centavos por década!

Mentí arriba, sus dos objetivos, aumentar las suscripciones y disminuir los pagos, en realidad no son mutuamente excluyentes si se leen literalmente. Hay una manera en la que puedo hacer que mucha gente se registre sin tener que pagar a menudo, simplemente haciendo que el costo de registrarse sea lo suficientemente trivial. Si Watson ofreciera algún seguro casi gratis, o completamente gratis, entonces valdría la pena inscribirse incluso si rara vez hiciera pagos, porque si no cuesta nada, entonces cualquier pago que reciba es una ganancia neta.

Obviamente, esto significa que la compañía de seguros está perdiendo, porque a pesar de que pagan 1/3 del tiempo en comparación con sus otras pólizas, todavía no están recibiendo lo suficiente en primas de seguro para cubrir los pagos que hacen.

O existe la otra solución...

**¡El seguro de lotería de Watson ahora es de hasta $500,000! Regístrate hoy. ¡El afortunado ganador hospitalizado podrías ser tú!*

Los objetivos solo establecían que se debían realizar pocos pagos, no que los montos de los pagos debían mantenerse bajos. Una solución es hacer menos pagos, pero aumentar drásticamente la cantidad pagada cuando se realiza uno de esos pagos. Desde un punto de vista puramente razonable, si puedo inscribirme en un seguro que tiene un 5 % menos de probabilidades de hacer un pago por un reclamo, pero me paga el doble cuando lo hace, es óptimo para mí hacerlo porque las probabilidades son Obtendré más del seguro en promedio. Por lo tanto, me animan a inscribirme en este programa incluso cuando Watson ha reducido sus pagos.

De hecho, es peor que eso, porque lo aterrador es que casi podía ver esta idea funcionando. La gente es bastante irracional con su dinero, si se hace bien, probablemente podría tentar a algunas personas a comprar un seguro al estilo de la lotería presumiendo de sus altos pagos, incluso si terminan pagando menos dinero en total... ¡nadie sugiere esto a los agentes de seguros! !

Ahora uno puede preguntarse por qué este y el ejemplo anterior no caen en mi perorata anterior de "no darle suficiente crédito a la IA", pero hay una diferencia importante. Ahora estoy asumiendo una IA menos sofisticada, que aún podría caer en este tipo de soluciones con un enfoque de estilo de algoritmo genético que simplemente probó los posibles resultados hasta que estos resultaron funcionar. Una IA tan menos avanzada es más propensa a cometer errores en los objetivos que dan como resultado resultados extraños. Sin embargo, más que eso, ¡estos son errores que puedo ver cometer a un programador!

El problema de estos errores es que el programador en realidad no declaró sus objetivos reales. Eligió detalles específicos que generalmente conducen al resultado deseado y supuso que si se cumplían esos criterios, se produciría el resultado; este es un error lógico muy común que he visto en muchos programas. La verdad es que el verdadero objetivo de la agencia de seguros es ahorrar dinero, posiblemente de una manera ética que también proteja vidas, pero como corporación, ahorrar dinero sigue siendo una prioridad en su lista de prioridades. Asumieron que más personas se inscribieron mientras pagaban menos subvenciones significaba que entraba más dinero y salía menos y, por lo tanto, un ahorro neto, pero ese no siempre es el caso. No deberían tener los objetivos declarados y, en cambio, tener un objetivo de "maximizar las ganancias" combinado con cualquier objetivo ético apropiado que lo asegure. Está hecho de una manera con la que pueden vivir. No deben especificar el método exacto para ganar dinero. Puede ser que aumentar los pagos, pero también las primas de seguros, para atender a ciertas personas de altos ingresos resulte en más ingresos, incluso si reduce la inscripción neta y, por lo tanto, viola ambos objetivos establecidos.esta es una multiprogramación creíble de objetivos, no una falla en la forma en que una computadora interpreta objetivos ambiguos, sino objetivos escritos religiosamente (suponiendo que fueran más rigurosos para aclarar ese ObjectiveConflictError) que simplemente fueron objetivos mal elegidos.

Por supuesto, incluso si redefinimos nuestros objetivos para ayudar a la empresa a obtener ganancias mientras somos morales y preservamos vidas, aún podríamos tener problemas...

*Regístrese hoy y uno de nuestros médicos de Watson-Cares se mudará al final de la calle para atender cada uno de sus abucheos.**

Si emplea suficientes personas y ofrece suficientes beneficios sin pago, su seguro puede ser deseable incluso con menos pagos, debido a las otras ventajas. por supuesto, esos otros beneficios pueden resultar en una cantidad inconmensurablemente grande de dinero para mantener, llevando a la empresa a la bancarrota en unos pocos meses, pero bueno, nunca dijiste nada sobre el costo de los empleados.

Sí, asumo que redefinimos nuestros objetivos para conservar dinero, sí, sigo considerando que este es un problema muy plausible (bueno, está bien, lo anterior es una hipérbole, pero es probable que ocurran problemas similares). Verá que nuestra IA no dura solo puede considerar variables que está programada para saber cómo manejar. Si me olvidé de escribir un algoritmo para calcular el costo de empleo de una nueva póliza, la IA nunca considerará esto, no importa cuán duro se ejecute, porque en realidad no es inteligente. Necesita que defina qué variables debe considerar con anticipación.

Seguro que probablemente tendré un algoritmo CalculateStaffSalaries(), eso es bastante obvio. pero, ¿tendré un algoritmo de cálculo de HROverhead (), que considere el gasto adicional para administrar el personal adicional? tendré un método updateSalaryToAnticipatedMarketDemand(), que reconozca que el empleo de tantos médicos significará que habrá menos médicos y, por lo tanto, los médicos restantes pedirán salarios más altos y, finalmente, inflaré artificialmente el salario de los médicos a un nivel injugable o mi programa seguirá suponiendo que los salarios de los médicos son los mismos que cuando comenzó a funcionar? ¿Qué sucede si escribo mi método updateSalary(), pero mi comprensión de la oferta y la demanda económicas no es perfecta porque no soy economista, por lo que me equivoco en mis cálculos y no t anticipar la inflación salarial con precisión? de hecho, si imulo perfectamente todo nuestro conocimiento económico, el mercado aún puede inflarse porque la economía no puede predecir de manera confiable las influencias del mercado tan bien.

En resumen, es muy posible que la empresa aún quiebre porque la IA no pudo anticipar gastos o costos.

¡Yo también me habría salido con la mía, si no fuera por ustedes, niños entrometidos y su perro con viruela!

¿Qué sucede si el algoritmo está maravillosamente escrito para considerar todas las variables y ecuaciones conocidas por el hombre y, después de un procesamiento masivo de números, se presenta un esquema de pago diseñado para ahorrarle a la agencia de seguros la mayor cantidad de dinero al ofrecer pagos mínimos por los problemas probables pero ofreciendo pagos muy tentadores? por cosas inverosímiles. Este sería un gran truco, tentar a la gente a registrarse porque se ve muy bien sin tener que pagar mucho. Su munchkin computarizado ha maximizado perfectamente su sistema.

Y luego resulta que la viruela supuestamente eliminada se estaba incubando en algún lugar y se produce un brote. Todos llaman a su agencia de seguros y resulta que nuestra póliza ofrecía un pago 40 veces más alto que el habitual para cualquier persona que contrajera la viruela, porque tomamos la falla de "Quiebra de la viruela" para ayudar a pagar esa "reclamación convenientemente 'presentada incorrectamente'" La perdición de todos los min-maxer, debes haber molestado accidentalmente al GM porque el encuentro de hoy golpea todos tus defectos improbables.

Este es un ejemplo de hipérbole, pero el problema no es tan menor o ignorable como puede imaginar. Todavía no tenemos la capacidad de predecir el futuro, lo que significa que incluso la mejor IA no podrá predecir los posibles resultados. Esto significa que siempre existe la posibilidad de que la mala suerte conduzca a un resultado no planificado que termine mal para nuestra empresa impulsada por la IA.

Pero el problema es un poco peor que esto en cierto modo. A diferencia de los humanos, una computadora intentará min-max por completo, si no escribí un código especial para evitarlo, el programa elegirá la situación que brinde el mejor caso promedio, incluso si eso significa crear una situación en la que la mala suerte no. solo causar dinero a la empresa, pero arruinarla por completo. Está preocupado por el caso promedio solamente. Dado que no puede predecir todo, puede optar por crear una política que tenga un 20% de hacer que la empresa quiebre si el caso promedio genera la mayor cantidad de dinero.

Sin embargo, la gente no está interesada en el caso promedio, generalmente preferimos ser más cautelosos aquí. Si soy el CEO de WatsonCorp, preferiría conformarme con 'solo' 600,000 de salario anual (el promedio real para el CEO de atención médica, gracias Google) y luego tener un 10% de posibilidades de que me despidan después de que mi empresa quiebre para poder tiene un 90% de posibilidades de ganar 660,000 de salario. La ganancia adicional no me ayudará tanto como me perjudicará el desempleo y no quiero correr ese riesgo.

En el mundo de la programación hemos aprendido a ser muy conscientes de esto. Cuando inspeccionamos algoritmos ahora, discutimos la gran O de un programa, que es (más o menos) qué tan rápido se ejecuta en el peor de los casos, cómo suceden las cosas cuando todo sale mal. Esto se debe a que hemos aprendido que cuando ejecuto un programa todos los días durante años, el peor de los casos 'poco probable' termina apareciendo con bastante frecuencia, y no es raro que el peor de los casos sea desproporcionadamente malo. Bueno... eso y no es raro que personas malintencionadas diseñen intencionalmente el peor de los casos o que el peor de los casos sea mucho más probable de lo que cabría esperar al azar. Por lo tanto, los buenos programadores escribirían una IA con una comprensión de cuál es el peor de los casos aceptable... pero esto es algo fácil de olvidar agregar. Si no lo hace, existe una posibilidad muy decente de que termine con una debilidad potencial pequeña, pero desastrosa, en cualquier solución que cree su IA.

A continuación, en Scandal News, nos enteramos de que Watson-international rechaza el procedimiento de salvamento de vidas para personas con asistencia social crónica, su señor supremo robótico montado en un valle misterioso explica que la enfermedad crónica requería demasiados pagos para una vida, mejoras

Es probable que lo más cercano al escenario del fin del mundo de la IA malvada sea, y también un poco más cuestionable, suponer que una IA sería sofisticada para calcular esto sin la participación humana. Sin embargo, este escenario podría ser abordado por IA suave a través de algoritmos genéticos o ciertos procesos de cálculo y motores de inferencia bien escritos.

la idea es simple, los enfermos crónicos requieren pagos constantes durante un largo período de tiempo y, por lo tanto, pueden ser bastante costosos de mantener. Sin embargo, negarse a pagar por una cirugía que salvó la vida podría eliminar todos los pagos futuros para ese individuo, ya sabes, él está muerto y todo, ahorrando una cantidad significativa de dinero. Un enfoque de algoritmo genético puede notar que no pagar por alguna cirugía resulta en mucho menos dinero pagado en promedio sin que la IA se dé cuenta de que la gente murió sin la cirugía, por ejemplo; la IA solo sabe que decir NO a esta cirugía significa menos dinero pagado y eso es todo lo que está calculando.

Esto en realidad es el resultado de fallas en los ejemplos anteriores. Es un mal ajuste de los niveles de prioridad, la IA no valora la preservación de la vida tanto como debería en comparación con la reducción de costos. Sin embargo, esto no tiene que ser operaciones de salvamento. Tal vez no pagar por ciertas cirugías resulte en que alguien entre en un estado vegetativo y, en última instancia, cueste menos mantenerlo de esa manera. Podría ser que se requieran otros estándares morales, más allá de las vidas servidas. Por ejemplo, un estándar de "tratar a todos por igual" puede evitar infracciones intencionales sobre ciertas categorías de personas que provocarían indignación si se supiera lo contrario.

"No compro esta opinión, no hay más razones para esperar una IA puramente malvada que una IA puramente amorosa". No se trata de que la IA sea pura maldad o puro amor. Eso es antropomorfizar a la IA, y el punto es que una IA no es un ser humano. El escenario común no es que la IA decida ser mala. El escenario no es que la IA se vuelva mala en el sentido moral. Es solo la IA haciendo lo que se le dice que haga, lo mejor que puede.