¿Cuáles son los peligros potenciales de usar caracteres no griegos/no europeos como símbolo en la redacción científica?

Así que estoy en un dilema en el sentido de que una publicación reciente literalmente ha agotado todos los caracteres (legibles) de esta página . Hemos revisado a fondo y todos los caracteres son necesarios y, lamentablemente, se necesitan tantos caracteres para evitar confusiones (esto es lo que sucede cuando intenta combinar varias áreas teóricas diferentes juntas). También hemos utilizado un montón de símbolos como estrellas o puntos . Esta pregunta no se trata de cómo debo reducir la cantidad de caracteres.

Así que ahora mismo estoy pensando en usar caracteres de fuera de la familia europea, como los caracteres japoneses (Hiragana/Katagana) o coreanos o chinos. Por supuesto, siempre que estos personajes sean lo suficientemente simples. Algunos candidatos incluyen ひ, と, ㅈ, ㄹ, し, 十. Algunos de estos caracteres son bastante adecuados y tienen pronunciaciones sencillas, aunque no estamos pensando en pronunciarlos en las presentaciones.

Pero tengo dos preocupaciones:

  1. la mayoría de las conferencias y revistas tienen una regla de "Solo aceptamos presentaciones en inglés" : la presentación debe estar escrita en inglés. ¿Esto viola esa política?

  2. ¿El uso de estos caracteres viola algún tipo de norma cultural implícita en la escritura científica y las conferencias europeas/norteamericanas para que debamos evitarlo?

Actualizar:

Gracias por todos los comentarios. Pero la mayoría parece centrarse en qué otras fuentes debería intentar usar en su lugar. Solo como aclaración, en mi área no es raro que los periódicos usen muchos símbolos. Aquí hay un ejemplo reciente leve (no afiliado a estos autores) y este que vi me hizo decir "¡guau, la notación es tan buena!" (de nuevo, no afiliado). Estas parecen ser presentaciones de conferencias (alrededor de 10 páginas). Para la presentación completa, puede llegar hasta 20-40 páginas. Entonces, como puede imaginar, surge rápidamente un problema de símbolo.

No puedo ayudar si todo sale así. Si nota, es fácil encontrar el uso de cosas como $a^{i,j}_{k,l}$. k, y l son dos agentes de los gráficos i y j y a es solo una variable posible entre muchas variables. Así que ya estamos haciendo un uso intensivo de super/subíndices. Usamos sombreros para indicar valores estimados, por lo que ya estamos allí también. También estamos haciendo uso de mathcal, mathscr, mathbf, mathfrak, texttt, etc. para denotar conjuntos, gráficos, matrices, matrices especiales y condiciones especiales, respectivamente. Todos los usos extremadamente convencionales.

Pasé al chat una serie de comentarios respondiendo parcialmente a la pregunta o sugiriendo alternativas. Lea estas preguntas frecuentes antes de publicar otro comentario.
Estoy confundido por la actualización. Ninguno de los dos documentos a los que vincula parece tener una cantidad inusual de símbolos. De hecho, creo que la mayoría de mis papeles tienen muchos más, y nunca me arriesgué a quedarme sin ellos.
@DenisNardin 1. Esto no es una competencia :), 2. Ya mencioné que estos documentos son ejemplos "suaves" y "agradables" (mire las fechas de estas preimpresiones: las agarré sobre la marcha), y 3. No estoy mintiendo acerca de quedarme sin símbolos e hice esta pregunta para divertirme.
También estoy mirando seriamente estos comentarios y ponderándolos. También estoy pensando en simplemente recortar algunos símbolos.

Respuestas (7)

El uso de letras no griegas en las ecuaciones no es tan raro como parece. Si bien las letras griegas son obviamente las más populares, hay varios símbolos comúnmente aceptados que se toman de los otros alfabetos, por ejemplo

  • La letra rusa ш (sha) se usa en la teoría de números y Л (el) se usa en alguna geometría hiperbólica,
  • La letra hebrea ℵ (aleph), ℶ (beth) y ℷ (guimel) denotan los números aleph, los números beth y la función gimel correspondientemente,
  • Inglés antiguo ð (eth) se usa en contexto de derivados,
  • Maltés ħ denota constante de Planck,
  • El japonés よ (yo) se usa en la teoría de categorías.

Consulte este tema para obtener más detalles. Yo mismo he visto que ℵ y ð se usan en los artículos y no estoy trabajando en ninguna matemática avanzada.

Si bien existen algunos inconvenientes relacionados con la legibilidad de un documento escrito con una cantidad excesiva de símbolos nuevos, no debería haber ningún problema formal con el editor siempre que pueda escribir todos los símbolos en el script LaTeX adecuado.

Como nota al margen, hubo un error (como lo señaló @DanRomik) en esta publicación con el nombre incorrecto de las letras hebreas, lo que ilustra bastante bien el peligro de usar nuevos caracteres que no son familiares tanto para el autor como para los lectores.

¿Tiene fuentes para la representación del ser constante de Planck de origen maltés? Era alemán y según Wikipedia, el nombre de la variable proviene de una palabra alemana.
@WoJ no realmente. Pero, que yo sepa, el maltés es el único idioma que derivó este símbolo del latín antes de Dirac (hay letras similares en idiomas eslavos no latinos). Entonces, a sabiendas o no, al imprimir los documentos, probablemente se utilizó el símbolo maltés existente. Además, en 1900, esta letra maltesa se introdujo en Int. Alfabeto fonético, así que tal vez esa es la forma en que se introduce en las matemáticas. Estas son, por supuesto, solo conjeturas. Además, la información sobre Hilfsgrosse en wiki es sobre h normal (sin barra) y proviene solo de una anécdota en un libro de 2003. Por cierto, el símbolo fue propuesto por Dirac, no por Planck.
Creo que ð y ∂ son símbolos ligeramente diferentes. (En todo caso, ∂ se parece más a la forma cursiva rusa de д, д ). ¡Pero también hay よ para la incrustación de Yoneda!
La letra que llamas gimel es una beth, y tu beth es una gimel. Una buena ilustración de los peligros de usar juegos de caracteres desconocidos...
@Deusovi tiene razón, pero ð también se usa, consulte, por ejemplo, derivados ponderados por giro
@DanRomik buena captura
Acerca de $\parcial$: desde mi comprensión amateur de la historia de esto, creo que no es "eth", sino solo una forma de "d" cursiva, utilizada deliberadamente por varias personas en el siglo XVIII. Además, sospecho que Dirac y otros simplemente pusieron una barra oblicua en una "h" como una especie de modificador/acento, en lugar de adoptar conscientemente una letra maltesa.
Debe distinguir entre la representación óptica de un carácter y cómo se pretende o interpreta. Si se usa una φ en la literatura matemática, la pronunciamos phi y esto se remonta a la tradición de usar letras griegas porque eran familiares para la mayoría de los lectores en ese momento. Si en la literatura física se usa una ℏ, la pronunciamos h bar (no ħe ) y esto origina modificar la letra h usada por una constante similar. No veo ninguna razón para suponer que este es o alguna vez se pensó como un carácter maltés, incluso en el caso poco probable de que el tipógrafo usara un glifo maltés.
Muy buena respuesta. Cualquier cosa que parezca una letra debería funcionar para las variables. Recuerdo que en una tarea de cálculo me quedé sin letras utilizables (realmente no hay tantas letras distintas escritas a mano con la cantidad de cosas que tienen significados asignados) y metí una letra élfica. Si supiera el alfabeto griego en ese momento Hubiera usado eso, pero no lo hice.

Lo estás haciendo mal y ya estás violando una norma cultural que es mucho más importante que cualquier norma que tenga que ver con una elección específica de conjunto de caracteres.

Esa norma cultural es: escribir artículos que puedan ser entendidos por otras personas.

Si está utilizando todos los caracteres en los alfabetos latino y griego, y puntos y estrellas y un montón de otros símbolos de modo que literalmente se quedó sin símbolos para usar y aún necesita más, estoy dispuesto a apostar que su artículo viola esta norma. de la peor manera posible. Si agrega aún más caracteres de otros conjuntos de caracteres con los que la mayoría de las personas en Occidente no están familiarizadas, solo estará cavando su papel más y más en un agujero negro de incomprensibilidad.

Aparte de esto, la respuesta a sus dos preguntas más específicas es "probablemente" y "sí", pero clasificaría esas preocupaciones como secundarias en comparación con la que mencioné anteriormente.

En pocas palabras: si Andrew Wiles pudo demostrar el último teorema de Fermat, Perelman demostró la conjetura de Poincaré, y muchos otros matemáticos e informáticos publican con éxito nuevos resultados innovadores todo el tiempo con "solo" los alfabetos latino y griego y los símbolos matemáticos estándar en su disposición, estoy seguro de que usted también podría exponer su teoría con esos recursos. Así que sugiero repensar el enfoque detrás de su pregunta y preguntarse por qué necesita tantos símbolos cuando todos los demás no los necesitan.

Editar: otro par de observaciones sobre su sugerencia:

  1. El estándar Unicode, ampliamente aceptado como lo último en estandarización de representaciones de texto, define lo que es un símbolo matemático y tiene varios bloques dedicados para esos símbolos (con ciertos símbolos estándar que caen en otros bloques por razones históricas, pero aún se clasifican como matemáticos) . Su idea claramente iría en contra del espíritu (si no la letra) de ese estándar.

  2. Su idea también iría en contra de la idea cada vez más común de tener en cuenta la accesibilidad y las necesidades de las personas que usan lectores de pantalla y otro software de accesibilidad al escribir y publicar. Es cierto que esto también es un problema con la escritura matemática existente , pero su idea ciertamente empeoraría las cosas de lo que ya son (por ejemplo) para los lectores ciegos.

El uso de símbolos fuera de los bloques de operadores matemáticos no es una "violación" del estándar Unicode. ( +no está en ningún bloque matemático, y las letras verticales que se usan para cosas como \sintampoco son estrictamente matemáticas: ¡son los mismos caracteres con los que escribe todos los días!) Los bloques son solo la forma general en que se organizan los caracteres, no cualquier tipo de prescripción sobre cómo se utilizan los caracteres.
Una "violación del estándar Unicode" sería usar, por ejemplo, un byte no válido en una cadena UTF-8 o una fuente que cambia φ y ϕ. Unicode describe qué caracteres se usan y señala que a menudo también se usan otros caracteres [consulte la parte inferior de la página 5, que proporciona explícitamente の]. Unicode no establece ningún estándar sobre cómo se escribe, solo sobre cómo se debe codificar esa escritura.
unicode.org/versions/Unicode13.0.0/UnicodeStandard-13.0.pdf Página 44: "Sin embargo, el estado normativo de los bloques no debe tomarse como una indicación de que definen conjuntos significativos de caracteres. En su mayor parte, los bloques solo sirven como rangos para dividir los gráficos de códigos y no necesariamente implican nada más sobre los tipos de caracteres que se encuentran en el bloque. La identidad del bloque no puede tomarse como una guía confiable para la fuente, el uso o las propiedades de los caracteres, por ejemplo, y no se puede usar solo de manera confiable para procesar caracteres".
@Deusovi editado para suavizar un poco mi reclamo de violación. Gracias por la respuesta.
Dice "no usar marcas combinadas" para MathML , un lenguaje de marcado particular. Y nuevamente, se trata de cómo debe codificar su escritura. Unicode no establece ningún tipo de pautas sobre cómo debe escribir texto o anotar cosas en general, solo sobre cómo se debe codificar esa escritura en una secuencia de puntos de código. Acepto que usar otros caracteres sería una violación de una norma social, pero no es una norma relacionada de ninguna manera con Unicode.
Unicode no estandariza la escritura matemática más de lo que lo hace con la escritura no matemática: cuando, por ejemplo, se crean nuevos caracteres chinos/japoneses, se expande para poder codificarlos, en lugar de prohibirlos. El estándar es sobre cómo debe codificar la escritura, no sobre lo que puede escribir en primer lugar.
@Deusovi bastante justo. Suavicé mi afirmación como dije, pero sigo pensando que la designación de Unicode de caracteres específicos como matemáticos es relevante para la pregunta de OP. Decir que la norma "no está relacionada de ninguna manera con Unicode" es engañoso en mi opinión.
Como ingeniero de software, encuentro ridícula la referencia a Unicode. El punto central del proceso de estandarización de Unicode es que sigue el uso común. No define el uso común. Si un número significativo de personas alguna vez ha utilizado un carácter dado para propósitos serios (es decir, no algo como el klingon o el alfabeto élfico), y el consorcio Unicode es consciente de ese hecho, entonces generalmente codificarán ese carácter. No andan diciéndole a la gente qué caracteres usar.
@Kevin no le dicen a la gente qué caracteres usar, pero asignan propiedades derivadas a los caracteres que afectan la forma en que se procesan mediante algoritmos de composición tipográfica (saltos de línea, texto bidireccional, interletraje, etc.), y una de esas propiedades derivadas es matemática, que se aplica solo a los caracteres usados ​​tradicionalmente en la notación matemática. Si OP pregunta sobre la escritura de caracteres latinos de derecha a izquierda, ¿diría que es irrelevante señalar la clasificación de Unicode de que esos caracteres pertenecen al texto de izquierda a derecha? Del mismo modo aquí. De todos modos, mantengo lo que dije, pero gracias por tu opinión.
@Kevin y Dan: creo que pueden encontrarse en el medio: si algo no está en el estándar Unicode, es al menos bastante exótico. Si bien el estándar no le dice qué caracteres debe usar, refleja qué caracteres se usan y, por lo tanto, deben usarse si desea cumplir con el uso general. Compare con los diccionarios: un diccionario de inglés no define el idioma inglés ni le dice que no use ciertas palabras, pero refleja el uso. Por lo tanto, debe pensar dos veces antes de usar una palabra que no se encuentra en un diccionario para una audiencia amplia.
@Wrzlprmft: Eh, ni siquiera iría tan lejos. Unicode tiene mucha basura heredada que no se puede eliminar ni reparar debido a la política de estabilidad de Unicode (que prohíbe modificar, recategorizar o eliminar caracteres existentes una vez que se han agregado al estándar). Por ejemplo, Unicode tiene todos los divertidos caracteres latinos que parecen secuencias de comandos, lo que probablemente le haga pensar que esos son símbolos matemáticos "reales", pero de hecho, están en desuso y solo están ahí por compatibilidad con versiones anteriores, ya que solo debe usar un fuente para ese efecto.
@Kevin: Unicode tiene mucha basura heredada que no se puede eliminar ni reparar , pero eso afecta la afirmación inversa (si algo está en Unicode, está bien usarlo), que nadie hizo y no es relevante aquí. - pero, de hecho, están en desuso y solo están ahí por compatibilidad con versiones anteriores, ya que solo debe usar una fuente para ese efecto ; no puedo encontrar ninguna evidencia de eso. Por el contrario, parecen haber aceptado más de ellos. También hacer esto correctamente con una fuente sería bastante tedioso.
@Wrzlprmft: Bueno, hasta hace poco esa era la actitud que escuchaba de la gente de Unicode. Aparentemente cambiaron de opinión. Independientemente, el punto es que Unicode es, en el mejor de los casos, un indicador seriamente rezagado y no una fuente de verdad o un conjunto de mejores prácticas. Tienes que resolverlos por ti mismo y luego contarle al Consorcio sobre ellos, no al revés.
Sugerencia: las variables/símbolos no tienen que ser únicos en todo el documento, solo tienen que ser únicos dentro de su contexto específico . Estoy dispuesto a apostar que puede reducir drásticamente la cantidad de variables utilizadas dividiendo el contenido en partes más pequeñas y reutilizando símbolos para los pasos intermedios dentro de cada parte. Si necesita tantos símbolos en un ámbito global, es posible que esté haciendo demasiado en un solo documento.

En la escritura matemática, es común usar variantes como estas:

ejemplos

y posiblemente otros

No te olvides de los acentos, tan fácilmente cientos de opciones.
Buen punto, aunque debo admitir que encuentro script y fraktur difíciles de leer de un vistazo.
"Difícil de leer"... pero no más difícil que と, ㅈ, ㄹ, etc.
Me parece bien. Debo aclarar que no me estaba comparando con "と, ㅈ, ㄹ, etc.", solo hice un comentario sobre mi propia experiencia.
Los lectores también pueden estar interesados ​​en matheducators.stackexchange.com/q/4427/376 y matheducators.stackexchange.com/q/4437/376 . @GEdgar, de hecho, veo que proporcionó una respuesta a la última pregunta. Divulgación completa: ambas preguntas fueron hechas por mí.
Afortunadamente, las letras griegas mayúsculas rara vez se usan ... :-)
La escritura frente a la caligráfica puede no ser tan clara con algunas fuentes, y obtener ambas puede requerir un poco de esfuerzo de todos modos.
@lalala, ¡me gusta un upsilon capital! :)

Si realmente te quedas sin símbolos, probaría un camino diferente.

En el desarrollo de software, las personas nombran todo simplemente usando caracteres ASCII: usan palabras en lugar de letras individuales.

Sé que en matemáticas, normalmente no haces eso. Pero, por otro lado, llamar a la variable de costo costen lugar de c no hará que el documento sea ilegible.

De hecho, diría que el software es más legible precisamente por la razón de que usamos palabras completas con significado real. Las matemáticas me resultan difíciles de entender porque tengo que buscar el significado de los símbolos todo el tiempo.
La forma en que se escriben las matemáticas se estableció cuando la mayoría de la gente escribía a mano. Cuando tienes poco espacio en una pizarra y no quieres pasarte años escribiendo todo, tiendes a usar símbolos cortos en lugar de palabras. Las matemáticas son a menudo muy condensadas.
@Michael cierto, pero hay otras razones por las que el software es más legible. Los programadores son incentivados por su industria para documentar su código y hacerlo fácil de entender para otros programadores. Trabajan en un entorno más colaborativo (a menudo en equipos grandes que trabajan en un proyecto y necesitan editar la misma base de código). Los programadores y su industria también trabajaron arduamente para generar un conjunto de buenas prácticas para facilitar una buena comunicación y colaboración. Supongo que piensas más en esas cosas cuando la diferencia entre una buena y una mala comunicación es de muchos millones de dólares...
@Michael No estoy en desacuerdo, sin embargo, no debe subestimar que las matemáticas a menudo son más difíciles de entender simplemente porque realmente son más difíciles . Por lo general, una fórmula matemática larga será aún más difícil de entender si hace que los nombres de las variables sean más largos, incluso si son más descriptivos, simplemente debido al mayor tamaño . — Lo que realmente ayuda a la comprensibilidad es refactorizar fórmulas en subexpresiones, teoremas en lemas más pequeños, creando así pequeños ámbitos de variables donde es posible buscar rápidamente el significado.
Si usa una variable como el costo en un documento, una forma de aclarar que esto se desvía de la notación matemática estándar sería usar una fuente diferente para ello. Usaría la fuente de máquina de escribir, insinuando que el desarrollo de software es una de las principales fuentes de dicha notación.
+1 Las matemáticas no suelen tratar grandes problemas de una sola vez, por lo que una formulación concisa generalmente tiene sentido. En los ejemplos de OP, sin embargo, las matemáticas básicamente describen un algoritmo complejo. Los desarrolladores también comenzaron a escribir código conciso y, como usted dice, aprendieron rápidamente que el código que parece matemático es imposible de mantener o leer una vez que el ecosistema crece en más variables que puede contar con los dedos. Un pseudocódigo descriptivo parece un lenguaje mucho mejor para el problema de OP, o al menos para algún subconjunto de su problema.
@Michael Estoy totalmente en desacuerdo. Trate de escribir matemáticas con palabras con símbolos en lugar de símbolos alguna vez. Será insoportable y de ninguna manera más legible, hará que todas las fórmulas sean extremadamente largas y difíciles de escanear. Si escribe lógica de software comercial con bases de datos o una interfaz web, usa palabras, pero cuando ingresa una ecuación matemática con símbolos reconocibles, está bien usar los símbolos correctamente. y = a*x**2 + b*x + cserá más legible que result = quadratic_coefficient * input**2 + linear_coefficient * input + constant_coefficient.
@VladimirF Sí, cuando se trata de algo trivial como un cuadrático, por supuesto que es cierto. Pero cuando se trata de cuatro páginas de matemáticas concisas que describen un solo algoritmo que podría describirse igualmente en 100 líneas de pseudocódigo, el argumento cambia un poco. También hay opciones entre ay quadratic_coefficient, por lo que hacer la comparación con los extremos, nuevamente, es quizás falso. Las matemáticas son un lenguaje desarrollado para representar funciones y relaciones. Los lenguajes de programación han evolucionado para expresar claramente los algoritmos. Ambos son malos cuando se usan en áreas donde el otro se especializa.
@J... ¡No! ¡Es todo lo contrario! Solo una ecuación tan trivial todavía se puede hacer con palabras, ¡las realmente complejas se convertirán en un completo infierno cuando intentes eso! Y la pregunta es sobre un documento, no sobre el software y Michael estaba buscando palabras en lugar de símbolos en matemáticas, no fui yo quien pidió no usar nombres descriptivos en el software. Solo estaba ilustrando que las ecuaciones se vuelven una pesadilla cuando se escriben con palabras. Y sí, incluso aquellos que se implementan de forma sencilla en software, como suele ser el caso en matemáticas, física e ingeniería.

Incluso con una lista de símbolos, será difícil para los lectores hacer un seguimiento de tantas letras diferentes. Se puede hacer más fácil introduciendo orden y jerarquía en los símbolos.

El estilo variará según el campo, pero por ejemplo podría tener:

  • Las letras mayúsculas A, B, ... para los símbolos principales que unen todo el trabajo y aparecen en múltiples secciones.
  • Letras mayúsculas con subíndice A x , B c , ... para símbolos relacionados (pero no iguales) con uno de los símbolos principales.
  • Letras minúsculas a, b, ... para parámetros locales, que luego se pueden reutilizar para diferentes propósitos en diferentes secciones.

Eso todavía deja muchos símbolos disponibles para otros propósitos. Para facilitar la lectura, debe utilizar los mismos símbolos y convenciones que utilizan otros documentos, dentro de lo razonable.

¿Qué hay de las letras con subíndice donde el subíndice es una palabra descriptiva? Estoy pensando en $\lambda_\textrm{min}$ y $\lambda_\textrm{max}$. Creo que esta es una excelente manera de dejar en claro que el subíndice no es un índice.
@Clumsycat De hecho, ya estamos allí. Los dos ejemplos se están utilizando actualmente para denotar valores propios máximos y mínimos. Nuevamente estándar en la literatura.

Aparte de las otras respuestas de que un documento que use tantos símbolos será incomprensible (apoyo completamente estas respuestas): muchos editores usan fuentes comerciales personalizadas y es posible que sus fuentes simplemente no contengan caracteres para escrituras que no sean latinas y griegas.

Incluso las escrituras europeas como el cirílico causan problemas. ¿Ves lo que pasó aquí, por ejemplo? Todo el texto está en Times, pero el resumen en ruso está en Computer Modern: https://doi.org/10.1016/j.hm.2020.04.003

Definitivamente deberías usar esos caracteres. La academia necesita ser menos eurocéntrica.

El objetivo principal de un documento es ser entendido, no hacer una declaración geopolítica. Los artículos solían escribirse en francés y alemán antes de que se escribieran principalmente en inglés. Las normas culturales varían con el tiempo. Aún así, los documentos deben ser entendidos, y no creo que muchas personas entiendan un documento que contenga todos los símbolos latinos y griegos, y algunos asiáticos en buena medida.
Y para ser minuciosos, usemos todos los símbolos jamás inventados por cada cultura elegidos al azar, ya sabes, para conmemorar la historia mundial.