Aunque los terminales basados en texto todavía ven casos de uso especiales , las computadoras modernas de propósito general generalmente ejecutan software gráfico y tienen una interfaz gráfica de usuario (GUI). Esto incluye todo, desde teléfonos celulares de gama baja y algunos periféricos de computadora como impresoras, hasta servidores de gama bastante alta.
Me gustaría que las computadoras estuvieran más o menos a la par técnicamente con lo que tenemos hoy, pero con interfaces de usuario predominantemente basadas en texto. Está bien si estas computadoras funcionan con bloques de texto y cosas por el estilo (por ejemplo, cómo funcionaba la serie de terminales IBM 5250 ), pero a excepción del trabajo orientado gráficamente, como la edición de imágenes, debería haber gráficos mínimos.
Dado que en nuestro mundo, las computadoras personales comenzaron a volverse gráficas tan pronto como fueron lo suficientemente poderosas para ejecutar una interfaz gráfica de usuario a velocidades aceptables, y algunas incluso antes , ¿cómo puedo explicar razonablemente que las GUI nunca se generalizaron?
Tenga en cuenta que estas computadoras no necesitan ser sistemas exclusivos para expertos ; Solo quiero que sus interfaces estén predominantemente basadas en texto en lugar de predominantemente gráficas como es el caso hoy en día en nuestro mundo.
Además, para aclarar, ya que parece haber una confusión generalizada sobre esto: la falta de una interfaz gráfica de usuario no implica una falta de capacidad gráfica. Tome el modelo 5150 de IBM PC original como ejemplo; con la excepción de aquellos equipados solo con una tarjeta gráfica MDA, el software que se ejecuta en los modos de visualización gráfica de entrada de datos basados en texto de uso frecuente (lo que en términos modernos podríamos llamar "vista previa de impresión" más o menos precisa). Por ejemplo, algo similar a las primeras versiones de Microsoft Word para DOS o cómo las primeras versiones de Lotus 1-2-3 usaban diferentes tarjetas gráficas y monitores para mostrar datos y gráficos.. En lugar de pensar "sin gráficos en absoluto", piense en "gráficos solo como complementos al texto, en lugar de como un elemento principal de interacción con el usuario".
Y dado que muchas respuestas implican que las únicas alternativas son las GUI y las interfaces puramente basadas en la línea de comandos, permítame recordarle herramientas como Norton Commander . Utilicé Norton Commander a fines de la década de 1980 y principios de la de 1990, y todavía uso similares como Midnight Commander hasta el día de hoy, y puedo garantizar que pueden proporcionar un entorno perfectamente útil para la administración de archivos y el lanzamiento de aplicaciones que de ninguna manera dependen de más de una consola de texto. Incluso hay un término general para estos; Interfaz de usuario basada en texto o TUI .
Como diría casi cualquier persona que haya usado Shell, una interfaz de usuario basada en texto es mucho más cómoda, rápida, fácil de desarrollar y simplemente MEJOR. Sin embargo, el gran problema es que es un idioma que debe conocer antes de hacer cualquier cosa con su computadora. Esta es la principal ventaja de una GUI.
Entonces, creo que lo que debe considerar es una forma de explicar por qué las computadoras siempre pueden suponer que los usuarios "hablan su idioma". Veo algunas opciones:
Un simple cambio:
Nunca inventes un mouse de computadora
No importa cuán reconfortante sea una interfaz gráfica de usuario (GUI), no sería tan cómoda y útil sin la invención del mouse de la computadora (y las interfaces táctiles posteriores).
Si bien las interfaces de texto provienen de otros tiempos y todavía están diseñadas para usarse solo/principalmente con teclados, no puede hacer uso de ninguna GUI de manera cómoda ni confiable sin tener un mouse o cualquier otro 'puntero' disponible para seleccionar cosas e interactuar con ellas.
La invención del mouse de la computadora y, por lo tanto, el puntero trajo consigo la era de pointy-clicky , un término despectivo que se refiere a los botones virtuales y las áreas interactivas que son completamente virtuales en oposición a la realidad del hardware de un teclado. Ahora, en lugar de tener que trabajar con un conjunto limitado de funciones de entrada, el único límite es la cantidad de píxeles que puede mostrar una pantalla (si abusas del desplazamiento , ni siquiera el tamaño de la pantalla será un obstáculo para tus locos experimentos de interfaz).
La combinación de mouse/toque y GUI permite eliminar una capa de direccionamiento indirecto que siempre estará presente cuando tenga que escribir algo y confirmar su comando antes de que suceda algo. Aunque podría reaccionar directamente a cada pulsación de tecla, habrá un conjunto finito de interacciones por estado del programa, mientras que existe un conjunto potencial ilimitado de interacciones que se pueden realizar con el mouse/táctil.
Elaboración sobre la evolución de sus interfaces :
Ahora, incluso si solo tiene una forma indirecta de interacción, eventualmente surgirán GUI. Aunque sus GUI serán enormemente diferentes de las GUI a las que estamos acostumbrados (y hemos llegado a odiar el amor).
Las GUI eventuales serán más una interfaz de texto mejorada gráficamente (GETI) y los gráficos se utilizarán para mostrar cosas como videos, imágenes, hacer algunos fondos o degradados agradables, etc. Es poco probable que desaparezca el indicador clásico.
Eventualmente, también es probable que la entrada de voz se vuelva más común. La entrada de voz será simplemente una adición y un pseudo-reemplazo para el teclado, pero no puede reemplazarlo por completo a menos que los procesadores de voz sean mucho mejores de lo que son en nuestra línea de tiempo o su software se vuelva más indulgente y esté equipado con pseudo-inteligencia que pueda adivinar lo que usted Tengo la intención de hacer y ayudar/aclarar pidiéndole información adicional cuando sea necesario.
Respuesta ligeramente alternativa.
Podría haber tenido un gran avance en el reconocimiento de voz en los primeros días de la computadora. El efecto de esto podría ser que la interfaz evolucionaría en torno al uso de la voz y el oído, en lugar de los ojos y las manos.
El beneficio adicional de esto es que puede continuar usando sus manos y ojos para realizar ciertas tareas (por ejemplo, está arreglando un automóvil y mientras tanto le pide ayuda a la computadora).
(Esto a su vez significa que no se pone ningún esfuerzo en desarrollar GUI para computadoras, pero la depuración/configuración se puede hacer usando una CLI)
La afirmación de que "las computadoras modernas de propósito general generalmente ejecutan software gráfico y tienen una interfaz gráfica de usuario (GUI)" es simplemente falsa. La gran mayoría de los servidores no tienen GUI; ver " servidor sin cabeza ". Viven en filas y filas de bastidores y solo se puede acceder a ellos a través de la red. Las computadoras detrás de los motores de búsqueda, los servicios de almacenamiento en línea, los servicios de correo basados en la web, el software de planificación de recursos empresariales, los tableros de preguntas y respuestas como este, los sistemas de administración de contenido, las computadoras que brindan servicios de archivo, impresión y transmisión, y en general los las computadoras que sirven los documentos interconectados que forman la red mundial no tienen interfaces gráficas de usuario (con, por supuesto, las raras excepciones que se esperan de todo en TI). Una mejor formulación sería "(y las estaciones de juegos) generalmente tienen GUI"; las estaciones de trabajo generalmente han tenido GUI durante mucho tiempo. El sistema de ventanas en la distribución actual de Linux se basa en el protocolo X11R6, lanzado por primera vez en 1994 .
La primera clase importante de aplicaciones comercializadas en masa que usaban gráficos de pantalla completa fueron los juegos. Los juegos se ejecutaron en modo gráfico de pantalla completa en el ZX Spectrum . Las primeras "aplicaciones asesinas" basadas en GUI fueron la autoedición y el trabajo de preimpresión.
El principal problema que veo con las interfaces de celdas de caracteres en todas partes es la compatibilidad con varios idiomas. Una computadora que puede mostrar muchos miles de caracteres diferentes en una pantalla de celdas de caracteres también puede mostrar gráficos en la misma pantalla; una computadora que puede mostrar 中华人民共和国 ciertamente puede mostrar gráficos. Y dado que puede mostrar gráficos, mostrará gráficos: algún joven estudiante en una universidad en algún lugar escribirá una interfaz gráfica y el juego terminará. A no ser que...
La única forma de preservar las interfaces carácter-célula para las masas es hacerlas obligatorias; Supongamos que el dominio de la industria informática por parte de una gran corporación azul de tres letras no se hubiera enfrentado con desafíos antimonopolio por parte del gobierno de la mayor potencia del mundo. Supongamos que, por el contrario, esa dominación hubiera sido impuesta por los poderes fácticos; no hay sistemas operativos de código abierto como UNIX, no hay sistemas operativos simples como MS-DOS y el Mac OS clásico; todas las computadoras ejecutan sistemas operativos seguros, protegidos y confiables como OS/360. ¿No estaríamos todos contentos con la variante de celda de caracteres de la arquitectura de usuario común ?
Creo que las GUI son tan populares porque los aprendices visuales constituyen la mayoría de la población. Con 2 de cada 3 personas siendo aprendices visuales, constituyen el mercado más grande, al igual que la mayoría de las cosas están hechas para personas diestras. Si hace que los estudiantes auditivos sean la mayoría de la población, seguidos por los kinestésicos con estudiantes visuales en un distante tercer lugar, el mercado se adaptará y las GUI serán un nicho de mercado costoso.
Soy programador y no me gusta la interfaz de usuario de texto. Sé muy bien lo poderosos que son, aprendí a ser bastante bueno con bash, y lo uso todos los días en el trabajo para administrar nuestros servidores UNIX, pero si tuviera elección, siempre elegiría las GUI. Así es como mi cerebro está conectado. Aprendí a usar Emacs pero siempre elijo Atom & Visual Studio.
PS Imagen tomada de Uso exitoso de ayudas visuales en su presentación
Su mundo no tiene pantallas compatibles con píxeles. Con los componentes fácilmente disponibles, uno podría construirse solo de manera tosca, en tamaños poco prácticos (tamaño de cartelera o más grandes) y con grandes espacios entre los puntos. Pero nunca se desarrolló ningún hardware o software ( trazado de rayos , etc.) que hiciera un buen uso de esto, y nadie, excepto quizás los autores de ciencia ficción, realmente ve mucho valor en tal cosa.
Si todo lo que tiene para hacer monitores de escritorio son conjuntos de pantallas de siete segmentos , entonces tiene una experiencia de usuario basada en texto integrada en el hardware. Si los monitores están hechos literalmente de pantallas de 7 segmentos (o algo parecido), y particularmente si aporta una base histórica/legal para eso, entonces realmente no necesita ningún argumento torturado sobre por qué no simplemente hacer dibujos sobre las cosas, porque la capacidad no está allí.
También puede ofrecer algunos otros beneficios secundarios que están fuera de nuestro alcance en el mundo real. Como tener el monitor como otro dispositivo USB económico, o dispositivo Bluetooth, con un consumo de energía prácticamente nulo. Y puedes recuperar el arte ASCII a lo grande.
Esta concepción de la tecnología requiere una divergencia del desarrollo tecnológico del mundo real alrededor de 1900. La radio está dentro, la televisión está fuera. Los libros de historietas, las novelas de diez centavos y los cuentos de hadas están de moda, el cine está fuera. Los sismómetros anticuados y otras máquinas que dibujan directamente sobre papel están de moda. El advenimiento de las computadoras todavía ocurre, porque esto se hizo por razones de descifrado de códigos e investigación matemática ( Babbage , Zuse , otros). Las luces parpadeantes están de moda.
La fotografía barata y accesible está fuera; la mayoría de las personas solo pueden permitirse uno o dos retratos familiares en su vida, y todo está basado en películas. Pero por el precio, los estándares de calidad son muy altos y los retratos suelen ser estereográficos (da más sabor al progreso tecnológico divergente ).
Las impresoras son muy elegantes, muy baratas (¡y la tinta es aún más barata!) y muy rápidas, con capacidades tipográficas avanzadas, y el papel es increíblemente barato y fácil de reciclar . Incluso la encuadernación de libros sofisticada es una característica estándar en una impresora muy asequible.
Si necesita una "opción nuclear", refuerce aún más la suspensión de la incredulidad con la ley de derechos de autor. En su mundo, los fabricantes de equipos serían responsables de cualquier dispositivo capaz de mostrar una fotografía o un facsímil de una pintura al óleo con derechos de autor. (Si va en esta dirección, haga que "el caso Betamax" ocurra 100 años antes, se aplique a la fotografía de película de un solo cuadro y se decida más o menos al contrario de la historia real. ¡El caso real fue una decisión dividida de 5-4! ) Controlar estrictamente las licencias de fotografía sobre esta base, teniendo en cuenta además el alto precio y, por lo tanto, la rareza y la calidad superior y exaltada de las fotografías.
Por todas estas razones, nadie tiene mucha motivación para desarrollar tecnología capaz de mostrar imágenes, y el trabajo que se necesitaría para hacer coincidir las capacidades analógicas con cualquier sistema gráfico digital sería demasiado alto para que los aficionados realicen un intento exitoso. Incluso los esfuerzos serios con un presupuesto serio serían percibidos como proyectos burdos de juguete o, peor aún, como subterfugios ilícitos, sin ningún uso práctico legítimo.
Con suerte, todos estos factores de fondo reforzarán la divergencia de los gráficos de píxeles y crearán una gran barrera para introducirlos en su mundo. ("¡Un monitor así requeriría demasiada energía!" "¡La estereoscopia sería casi imposible!" "¡Tendría que trastornar más de 100 años de leyes de derechos de autor y precedentes legales!" "¡Incluso el arte lineal simple parecería basura!" )
"Hay demasiada información para decodificar Matrix. Sin embargo, te acostumbras. Tu cerebro hace la traducción. Ni siquiera veo el código. Todo lo que veo es rubia, morena, pelirroja. Oye, ¿quieres un ¿beber?"
Haz que la pornografía y los videojuegos no sean una cosa.
Ahora, ¿a quién le importa hacer que las computadoras manejen más gráficos? Buena suerte en hacer que la gente lo crea.
Haga que las computadoras móviles sean útiles/deseables antes.
Si tuviéramos computadoras de mano que pudieran hacer algo útil o genial antes de que alguien hubiera ejecutado los gráficos, o cuando los gráficos hubieran tenido una batería prohibitiva, el texto solo podría haberse convertido en la forma estándar en que todos usan las computadoras.
Hacer que la programación sea mucho más popular
Si la mayoría de las personas escriben al menos algunos de los programas que usan y el texto es la forma (más fácil) de interactuar con ellos, el texto será popular. Esto podría suceder si los derechos de autor se salieran de control o si la gente perdiera la confianza en los programas distribuidos.
Hacer del analfabetismo o del analfabetismo funcional un problema mayor.
No querrás parecer el único hombre en la reunión que necesita fotos, y realmente no querrás dar a entender que tu jefe no sabe leer.
Me sorprende que tan poca gente se haya referido a los posibles motivadores culturales que limitarían/prevendrían el desarrollo de las GUI.
Mi primer pensamiento fue (sin juego de palabras), "iconoclasia".
En un mundo donde domina la religión iconoclasta, la gente creerá que las GUI son malas y/o degeneradas. Las palabras son importantes; la representación innecesaria de las cosas es una afrenta a Dios.
La idea de @Dotan Reis con respecto al elitismo también tiene un potencial real. Si los primeros usuarios de computadoras fueran ricos E inteligentes, entonces un culto a la personalidad del elitismo informático llevaría a las personas a querer usar solo interfaces basadas en texto.
... Básicamente, acaba con el impulso del mercado capitalista e introduce la mala prensa y el elitismo para ahuyentar a las GUI.
Busca, no ordenes.
Google Desktop eliminó el 90% de la GUI de Windows en 2004.
Apple implementó funciones similares en Vanilla OSX en un momento similar.
No más hacer clic en subcarpetas tratando de recordar dónde almacenó algo. Simplemente recuerde algún dato al respecto: palabras en el título, palabras en el contenido, última fecha de modificación. Ingrese algunos de esos parámetros como una búsqueda y el archivo aparecerá instantáneamente.
En términos de lo que podría hacer para pasar de "no usamos mucho las GUI" a "no usamos las GUI", mejore las capacidades de búsqueda de IA o envíe a Microsoft a la bancarrota.
Con MS fuera del camino, la GUI de su computadora se vería como la página de inicio de Google. Espacio en blanco en blanco, un solo cuadro de texto para la entrada. En ese momento, ya no es realmente una GUI.
Una cosa importante a considerar aquí es que una vez que haya superado la curva de aprendizaje más pronunciada, trabajar con entradas basadas en texto suele ser mucho más fácil que usar una GUI.
Un ejemplo: supongamos que tengo un directorio que contiene unos pocos miles de archivos, dispersos en varios subdirectorios. Quiero ordenarlos en directorios separados según varios criterios. Digamos que quiero mover todos los archivos que comienzan con "foo-" y terminan con ".log" que se crearon el último día.
En una GUI, la forma más eficiente de hacerlo es probablemente ordenar los archivos por extensión de archivo, luego ir a cada subdirectorio, encontrar el bloque de archivos que comienza en "foo-" y termina en ".log", luego haga clic derecho en cada uno individualmente, abra las propiedades, verifique la fecha de modificación, luego arrástrelo al nuevo directorio si se modificó el último día. Luego paso al siguiente archivo y hago lo mismo. Y espero no cometer ningún error al hacer esto manualmente unos cientos de veces. Y en la práctica, si todo lo que tengo es una GUI, simplemente no voy a reorganizar esos archivos porque no hay forma de que pase por todo eso.
Con una línea de comando, escribo find ! -type d -name 'foo-*.log' -mtime -1 -exec mv '{}' 'other_directory/{}' +
y termino en 5 segundos. Y en la práctica, toma alrededor de 5 minutos porque no uso el -mtime
argumento con tanta frecuencia y necesito buscarlo en el manual muy rápido (que consiste en escribir man find
y luego /modified
encontrar la sección correcta).
Para la mayoría de las tareas, la diferencia no es tan extrema, pero la línea de comandos es casi siempre la opción más poderosa. La versión de la línea de comandos ciertamente parece más complicada (y para ser justos, lo es), pero una vez que la aprendo, puedo hacer las cosas mucho más rápido de lo que podría hacerlo de otra manera. Además de mi navegador web, la única razón por la que uso una GUI en el trabajo es para poder mantener varias terminales en la pantalla al mismo tiempo. A menos que la tarea sea específicamente de naturaleza gráfica, una GUI me parece un juguete.
Ahora considere su requisito de que los sistemas no sean "solo para expertos". No voy a negar que en este momento, la competencia con la línea de comandos generalmente es solo para expertos, pero piense en la diferencia promedio en la alfabetización informática entre un niño de 14 años y uno de 74 años. El adulto ha tenido el mismo tiempo para aprender las habilidades y, sin embargo, lucha con ello. Pero el niño creció con estas cosas y descubre que es algo natural. Si crea una sociedad en la que la mayoría de la gente aprende a usar una línea de comandos como una habilidad "solo para expertos", entonces en una generación o dos, será otra habilidad trivial que todos aprendieron cuando eran niños.
Editar: un par de personas han mencionado GUI que pueden filtrar archivos según la fecha de modificación, así que aquí hay un ejemplo un poco más complicado. Esto ordenará todos los archivos .log en directorios con el formato 'logs/2017-05-20/' en función de su hora de modificación, creando los directorios según sea necesario.
find ! -type d -name '*.log' -exec bash -c \
"export DIR=\$(date +logs/%F -d\$(stat -c @%Y '{}')); mkdir -p \$DIR; mv '{}' \$DIR/\$(basename '{}')" \;
Solo una pequeña sugerencia: es posible que también desee que el teclado de entrada de datos sea totalmente diferente. El tipo que es el mayor responsable de las GUI y el mouse que usamos hoy, Douglas Engelbart, había desarrollado originalmente un sistema de entrada basado en acordes donde, en lugar de tener botones para cada letra, el usuario tenía un teclado con una sola mano que usaba combinaciones para crear acordes similares a letras. en una guitarra Vale la pena investigar.
Bueno, lo matas cuando dices que Norton Commander, Emacs, vi y sus amigos no cuentan como GUI. En ese punto, casi no queda nada que cuente como GUI, tal vez solo la pelusa visual que obtienes de las pantallas de alta resolución (por ejemplo, más de 80x25 y similares).
Entonces, supongamos que eso es exactamente lo que quieres decir. Sin pelusa.
¿Por qué tenemos tanta pelusa? Cuando llega por primera vez, tiene un cierto aspecto de novedad. Pero eso se desgasta con bastante rapidez y, en realidad, es bastante desalentador para muchos usuarios. Solo mire todos esos ejemplos como esquinas redondeadas, brillo, ventanas transparentes y similares: los muestra durante una generación o dos, solo para flexionar sus músculos frente a una multitud de fanáticos aduladores, se copian por todas partes y se usan en todos. las aplicaciones incorrectas, y luego la novedad desaparece y la moda cambia. Mire Windows 10 en comparación con Vista (¡todo ese brillo y transparencia!), XP ( ¡ todo redondeado !). El diseño de Windows 9/10 es simple, limpio y discreto; un buen espectáculo de lo que queda cuando te deshaces de la pelusa.
Entonces, ¿por qué se mantienen los gráficos, en lugar de volver a las interfaces de texto? La respuesta es bastante simple: facilita muchos problemas complicados. Eso sí, no estoy diciendo que sea una panacea. no lo es Las interfaces de texto todavía tienen muchos beneficios:
Ahora, por supuesto, los gráficos tenían ventaja en las aplicaciones que eran, bueno, gráficas. Diseño asistido por ordenador. Publicación. No es realmente una lista larga. Incluso hoy en día, algunas personas no pueden soportar el uso de una interfaz gráfica para cosas tan complicadas como DTP; en el mejor de los casos, tienen una ventana gráfica sobre cómo se verá el diseño en papel (o lo que sea), mientras hacen el edición real en algo como TeX, o incluso MarkDown o (¡jadeo!) HTML.
¿Por qué los gráficos ganaron en el escritorio en general? Como se señaló anteriormente, las aplicaciones en modo texto todavía tenían excelentes "GUI", todavía tenía entornos integrados completos con todas las cosas geniales que le brindan las GUI verdaderas, como atajos de teclado, menús, control del mouse, sugerencias, toda la agradable capacidad de descubrimiento.
Exactamente por esos usuarios avanzados que todos aquí están llamando al rescate. ¿Por qué? Porque no había compatibilidad en ninguna parte . Todos hicieron aplicaciones basadas en texto a su manera. Incluso los intentos de estandarización como POSIX, o incluso MS-DOS (que fue diseñado para ser un poco diferente de lo que realmente resultó, principalmente para, adivina qué, compatibilidad con IBM DOS, que se lanzó un poco antes) fallaron en su mayoría. Incluso en la PC de IBM (y sus clones), donde Microsoft ganó dominio rápidamente, cada aplicación tenía su propia idea sobre qué comandos debían nombrarse, qué acciones debían hacer qué, cómo formatear sus datos de entrada y salida. Nadie trató de hacer interfaces comunes, formatos. Había discusiones interminables sobre quién era mejor. No había final a la vista.
Y luego vino Xerox con su revolucionario PARC. Ahora, fíjate, esto era un montón de cosas que eran completamente poco prácticas cuando los equipos de investigación realmente las diseñaron. No había computadoras lo suficientemente potentes como para ejecutar sus sistemas, y al mismo tiempo eran asequibles para cualquier familia, o incluso para las corporaciones. Pero las computadoras se volvieron poderosas rápidamente y todos se fueron al pozo. Atari, Amiga, Apple, Microsoft: todos adoptaron los mismos paradigmas básicos. Todos también agregaron algunos propios, pero también se extendieron rápidamente en el nuevo mundo, un mundo de interoperabilidad y compatibilidad. En gran parte porque los que se preocupaban por la compatibilidad comenzaron a ganar. MS-DOS no era el mejor sistema operativo, ni mucho menos. A menos que te importe el hecho de que ejecuta casi todo. Puede tomar sus aplicaciones de Dr-DOS, IBM DOS y unas pocas docenas de Something-DOS y OS, y ejecutarlas en MS-DOS. ¿Qué sistema operativo compras? ¿El que te tiene encerrado en un par de paquetes de software, o el que te da casi todos ? ¿ Para qué sistema operativo diseña software ?
Windows no fue el primer sistema operativo gráfico, pero eso ya no importaba. El impulso por la compatibilidad ya estaba allí, y en pleno apogeo. Use un mouse para señalar un botón, presione el botón del mouse, ocurre la acción. Cada aplicación en cada sistema se comportó de la misma manera. Tenías ventanas, botones, barras de desplazamiento y menús, y había mucha presión para unificar su comportamiento tanto como fuera razonable, sin dejar de parecer algo diferente. E incluso cuando las plataformas diferían (ligeramente), dos aplicaciones en la misma plataforma nunca lo hicieron, algo con lo que Linux todavía lucha hasta el día de hoy, con la idea equivocada de que es la aplicación., que debería elegir la GUI, en lugar del usuario. ¿Qué hacían los usuarios "avanzados"? Lo ignoraron por completo y por completo, contentos con sus CLI patentadas (gracioso, ¿eh? :)) e incompatibles. Los usuarios avanzados invierten mucho más en su plataforma, simplemente porque invirtieron mucho tiempo y esfuerzo en volverse competentes en esa plataforma . Los usuarios avanzados son la ruina del progreso.
Así que la solución no es hacer que todo el mundo sea un usuario avanzado, sino todo lo contrario. No espere ningún esfuerzo de sus usuarios. Comience con entornos que intenten estandarizar sus interfaces: use los mismos métodos abreviados de teclado, convenciones de nomenclatura y formatos. Piense en la accesibilidad, no solo en la eficiencia. Claro, ls
está bien si tienes un teclado horrible o si no puedes escribir muy bien, pero list
es muchísimo más accesible. Utilice alias si es necesario, pero incluso estos deben ser compatibles con otros sistemas: no va a seguir llevando sus alias a otras computadoras que necesita usar; solo apégate a los valores predeterminados. Echa a cualquiera que no juegue bien. Deshazte de los hipsters, que no solo no pueden reconocer el progreso, sino que se burlan de la idea misma de progreso.
Una interfaz agradable, compatible y en su mayoría estandarizada le dará la inercia que necesita. Aplicaciones como Norton Commander, no de línea de comandos ls
. Aplicaciones como Turbo Pascal, no vi. Busque por comodín, no por expresiones regulares (¡pero siéntase libre de mantener la opción avanzada!). Ordenar "por humano", no "por computadora": Folder 100
nunca debe terminar en orden de clasificación entre Folder 2
yFolder
, tratar con él. Aprenda todo lo que los sistemas operativos gráficos hicieron bien y utilícelo también. No considere demasiado las terminales remotas, incluso las terminales inteligentes: nunca obtendrá una aplicación interactiva real allí: el ancho de banda es un problema menor que en una aplicación gráfica, pero la latencia es igual de horrible; en algunos casos incluso más. Estandarice terminales enriquecidos, la transmisión de solo texto no es lo suficientemente buena, y tampoco lo es solo el posicionamiento del texto en un fondo fijo. Hágalo realmente inteligente, como lo que lograron hacer las verdaderas GUI.
Manténgase enfocado en los sistemas libremente integrados, en lugar de grandes bolsas de trucos propietarias (y no, mantenerlo como "FSF" u "OSS" no hace que sea menos una "gran bolsa propietaria de trucos"). Haga que los desarrolladores de todo el mundo cooperen en lo que están haciendo, en lugar de competir simplemente por despecho y otras iniciativas equivocadas. Encuentre formas de involucrar a los usuarios, mejorar su productividad, en lugar de introducir diferencias arbitrariamente solo para dificultar la conversión. En lugar de diez paquetes competitivos "de todo", modularice: brinde a los usuarios una manera fácil de tomar decisiones sin que las cosas parezcan demasiado complejas. ¿Recuerdas cómo Turbo Pascal, a pesar de ser un IDE, te permitía conectar un enlazador, compilador, depurador...? Fomentar ese modelo. La empresa que es excelente escribiendo compiladores no es No es necesariamente el mejor en enlazadores. Introducir funciones de productividad y visibilidad como la finalización automática que en su mayoría tuvo que esperar a las GUI en nuestro historial.
¿Eso nos deja con todos los problemas resueltos? Casi. Todavía hay cosas que los gráficos simplemente hacen mejor. El diseño es mucho más fácil con una resolución más alta, el diseño independiente de la resolución es mucho más fácil con una resolución más alta. Permita mejoras sobre el modo de texto ideal; por ejemplo, permita combinar múltiples tamaños de "mosaico" en una pantalla, de modo que pueda, por ejemplo, tener texto escrito "como si fuera en 80x25", mientras permite que otros elementos sean "como- si-en-80-40". Permita que los elementos gráficos se incluyan en una aplicación en modo texto, para que no tenga que seguir cambiando toda la pantalla solo para tener una apariencia WYSIWYG en su documento o para mostrar gráficos dentro de una hoja de cálculo.
Esta es la parte realmente complicada: en algún momento, se vuelve más difícil justificar que tener dos formas de hacer fundamentalmente lo mismo es algo bueno; ¿Por qué tener un renderizado "híbrido" en una máquina Haswell, cuando puedes renderizar todo en modo gráfico con la misma rapidez, manteniendo las cosas más simples y bonitas? Use accesorios que puedan explotar pantallas de baja resolución extremadamente baratas para realizar un mejor seguimiento de todo su sistema, o incluso brindarle una interfaz gráfica "simulada" genial de una manera similar a las mini-arcadas de Nintendo, sin renunciar a los beneficios del texto. ¿modo?
emacs -nw
definitivamente no es una GUI, sino una TUI. Y muchas TUI que procesan ratones solo lo hacen porque ellos y los terminales que permiten que el programa subyacente interactúe con ellos están muy extendidos en nuestro mundo. Si los sistemas nunca fueran completamente GUI, sería razonable suponer que dicho soporte no existiría, sería una ocurrencia tardía, o simplemente no sería utilizado por la mayoría de los usuarios.irssi
un cliente TUI IRC (que yo sepa, sin soporte para mouse), como funcionalmente comparable a cualquier cliente GUI IRC, menos características superficiales como soporte para mouse. Así que tienes algo de razón allí.Tu enlace da una pista:
Los sistemas Xerox Alto, debido a su potencia y gráficos, se utilizaron para una variedad de propósitos de investigación en los campos de la interacción humano-computadora y el uso de la computadora.
Construyeron una GUI que es reconocible como los conceptos que todavía se usan en la actualidad, y luego investigaron la interacción humano-computadora, lo que presumiblemente solo refinó las ideas ya planteadas, pero más cínicamente puede haber justificado las nociones preconcebidas.
Se financió una de las primeras “ideas brillantes” que inspiró directamente las principales GUI que aparecieron en los productos de consumo.
Podría decirse que las ideas estaban por delante del hardware y las primeras implementaciones fueron inferiores a lo que podría haber sido.
Si alguna "idea brillante" diferente se investigara, estudiara y refinara en los primeros días antes de los productos comerciales, podríamos haber tomado una ruta diferente. De hecho, un paradigma que no fuera tan intensivo en gráficos podría haberlo hecho mejor antes , antes de que las máquinas fueran lo suficientemente poderosas para que la GUI fuera realmente práctica.
Entonces, si el público en general se había dado cuenta de conceptos que trascendían la "manipulación directa" y "lo que ves es lo que obtienes (lo que ves es todo lo que tienes )" como lo sintieron los expertos, incluso cuando las cosas se pusieron más bonitas, el las nociones de manipulación directa (solamente) podrían no tener los mismos avances.
Sería genial saber qué conceptos/paradigma de manipulación se podrían haber desarrollado que serían mejores que una simple CLI.
Amazon Echo, Alexa y otros son computadoras sin GUI. Diablos, incluso le digo OK Google a mi teléfono para que haga cosas como enviar mensajes de texto a mi amigo (Historia divertida: no importa lo que le dije a mi primer teléfono celular con reconocimiento de voz, siempre lo malinterpretó ... "Llama a mamá", "Llamar a Brian". "Llamar a Neil", "Llamar a Brian".) Predigo que en 10 años no interactuaremos con una GUI tanto como le hablamos o usaremos "mensajes de texto" (por ejemplo, escritura natural) para esos momentos cuando hablar sería grosero (como en un avión)
¡Haz que todos en tu mundo tengan mala o nula visión ocular !
Esto hará cumplir la necesidad de lectores de pantalla . Los lectores de pantalla con GUI son un verdadero fastidio. Es mucho más fácil leer solo texto que describir una ventana, por ejemplo.
Tal vez esto tenga más implicaciones en su mundo, pero definitivamente es factible.
Hay algunas formas generales de hacer computadoras modernas que no sean intensivas en GUI.
Cambiar el historial de la computadora:
Esta es una opción algo obvia, porque hubo algunos grandes avances en la informática que hicieron que la GUI sucediera. En nuestro propio planeta Tierra, las computadoras se volvieron enormes en los países que ganaron la Segunda Guerra Mundial y la Guerra Fría, también conocidos como Gran Bretaña y Estados Unidos. Esto se conecta con una pregunta reciente de la red, "¿Por qué todos los lenguajes de codificación están en inglés?". Entonces, ¿qué tiene eso de importante? Bueno, Estados Unidos es un país capitalista, cada empresa que se subió al carro de la informática creó su propio lenguaje de codificación. Solo piense en hoy, tenemos Haskell, C, C ++, C #, Java, etc. Para la línea de comando tenemos Cmd en Windows y terminal para Linux y Apple. Pero, ¿y si el gobierno se involucrara más?
En 1965, Estados Unidos aprueba un proyecto de ley que crea un lenguaje de codificación estadounidense, que se utilizará en toda la programación y la línea de comandos. Se desarrollará en un proyecto similar al Proyecto Manhattan, reclutando a las mejores mentes en informática, quienes tienen que trabajar todos juntos. De repente, se reduce una gran barrera de entrada, las personas solo tienen que aprender un nuevo lenguaje informático en lugar de siete. El gobierno también decide que quiere las computadoras más poderosas posibles para ejecutar sistemas de guía de misiles, submarinos nucleares, etc. No tienen tiempo para cosas sofisticadas como gráficos.
El impulso de "una computadora en cada escritorio" nunca sucede, en cambio, el gobierno pone una computadora en cada escuela para que los niños aprendan. Ahora esos niños crecen y compran sus propias computadoras, usando nada más que la línea de comandos.
Eventualmente, la tecnología se lanza al público y una nueva compañía hace la GUI, pero a nadie le importa esa pelusa, ya que está en una etapa alfa y es bastante mala. Se ve como un lujo tonto como la realidad virtual en los años 90 y no despegará hasta dentro de unas pocas décadas, si es que alguna vez lo hace.
Límite de computación:
Como se mencionó en otra respuesta, Internet gobierna gran parte de nuestra vida. Y cuando el ancho de banda era bajo en los años 90, no enviamos memes dulces, enviamos ascii o solo palabras. Si el ancho de banda es limitado, de repente, las imágenes desaparecen, Internet se basa en texto. Ahora, si quitas el escritorio no conectado, el gobierno dice que todas las computadoras deben estar conectadas a la red en todo momento, ya no hay computación personal, el factor más importante es el ancho de banda. Si el ancho de banda es limitado, no hay GUI.
Límite de personas:
No es una gran opción, pero si las personas son ciegas, la GUI no es importante. Si las personas son daltónicas, a las personas no les gusta la apariencia de la GUI. No puede transmitir tanto significado, por lo que no se utiliza. Si las personas no tienen manos para usarlo, entonces deben usar el dictado de voz en su lugar. En estos casos, nunca se molesta con la GUI.
antes de 1988 : Xerox contrata a un brillante equipo legal
1988 : Apple presenta una demanda contra Microsoft y Xerox contra Apple, al igual que la línea de tiempo real.
Luego suceden muchas cosas en 1989-1990:
Xerox gana o resuelve a su favor el caso de infracción de patente contra Apple. Luego se unen como demandantes en el caso Apple-Microsoft look and feel y lo ganan también. [en la línea de tiempo real, Microsoft ganó el caso de apariencia y sensación en 1994, y Xerox perdió el suyo]
Demandas adicionales relacionadas con problemas de infracción de la Ley de Estadounidenses con Discapacidades (ADA). Las empresas que desarrollaron las primeras GUI sin funciones de accesibilidad o capacidades de automatización llegan a un acuerdo o son declaradas responsables. Xerox escapa a la responsabilidad porque su GUI nunca salió del laboratorio y su equipo legal es increíble. Apple y Microsoft son responsables de los daños civiles a pesar de perder los derechos de propiedad intelectual de Xerox. [en la línea de tiempo real, las reglas de la ADA no tienen efecto hasta más de 20 años después]
Las nuevas regulaciones gubernamentales , que se basan en la opinión pública en apoyo de los requisitos de la ADA, hacen que las capacidades de accesibilidad y automatización sean obligatorias en todo el software e introducen fondos federales para la educación y estándares para la alfabetización informática basada en texto en los EE. UU., clonados rápidamente en Japón y Europa.
Apple cambia la marca de MacIntosh como un juguete y se retira del mercado educativo.
Microsoft retrasa el lanzamiento de Windows 3.0 para eliminar funciones que infringían las patentes de Xerox y agregar funciones de cumplimiento de ADA. El producto resultante es tardío, inutilizable, no tiene soporte de ecosistema, un fracaso total que quema a consumidores e inversores.
En Linux , el desarrollo de X11R6 se detiene por falta de voluntarios y, aunque puede encontrar versiones anteriores, se han vuelto ilegales por falta de funciones de accesibilidad y falta de mantenimiento (como lo es DeCSS hoy).
1992: IBM lanza OS/2 y nadie se da cuenta. Igual que la línea de tiempo real
Finalmente, en 1995, las GUI están muertas tanto académica como comercialmente:
Apple gira hacia el control por voz a medida que continúa siendo líder en la experiencia del usuario, para competir contra las interfaces de texto.
Microsoft se recupera del fiasco de Windows 3.0 invirtiendo en una versión de MS-DOS de 32 bits para competir contra un Linux ahora sin GUI.
La experiencia de GUI ahora es peligrosa para su currículum . El capital de riesgo y la financiación de la investigación para las GUI se agotan , como una versión extendida de AI Winter .
Tim Berners-Lee decide centrarse en crear una versión gratuita de Gopher , abandonando el trabajo en HTTP/1.1 y X-Mosaic, por lo que nunca se materializa una Internet basada en GUI.
Xerox acaba con toda la investigación de GUI y nunca lanza un producto. Conservan todas las patentes incluso durante la quiebra, evitando que otros lancen un producto.
Entonces, en esta línea de tiempo, hay un período de aproximadamente 10 años entre 1985 y 1995 en el que las GUI luchan por ganar popularidad y finalmente fallan en múltiples frentes, 20 años completos antes de que aparezcan las "computadoras modernas de uso general".
¿Qué tal una opción que no se base en paralizar a su gente, ni en que sean consistentemente irracionales y/o faltos de imaginación?
Si un monitor o un proyector con capacidad gráfica en vivo (es decir, que muestra datos a medida que se crean) cuesta tanto como un automóvil o incluso una casa, la mayoría de las familias no van a comprar uno. Pero las empresas y los gobiernos podrían permitirse comprar algunos que sus artistas, diseñadores, ingenieros y científicos puedan usar para trabajar.
La mayoría de las personas estarían atrapadas con impresoras, o posiblemente pantallas de caracteres posiblemente hechas usando tecnologías relativamente económicas como flip-dot (o flip-segment), segmentos LED o tubos nixie que, al menos en su mundo, no se pueden reducir. suficiente para hacer una pantalla de gráficos de escritorio útil, pero lo suficientemente compacto para una pantalla de caracteres de escritorio viable.
Desafortunadamente, esto significa que es probable que la televisión en vivo nunca se convierta en la corriente principal. Sin embargo, las películas deberían estar bien, posiblemente incluso en casa. En lugar de mostrarlos en una pantalla de gráficos en tiempo real como lo hacemos en el mundo real en estos días, simplemente use un proyector y una película. Las características clave de la película son que mostrarla es simple: solo brille una luz blanca brillante a través de ella con una lente para enfocarla, y carece de un tiempo de respuesta rápido de escritura para leer, por lo que no es adecuada para gráficos en vivo. La televisión puede terminar más como una suscripción audiovisual a un periódico oa una revista, con entrega regular de películas en su puerta, en lugar de una transmisión en vivo.
Para aquellos que desean una vista previa de la impresión en su hogar, simplemente agregue un cartucho adicional (o varios, para colores) a las impresoras, llenos de tinta de borrado en seco. Agrupe un poco de papel laminado y listo: imprima una vista previa con la tinta borrable en el papel laminado, revíselo y luego imprima el resultado final en papel normal con tinta permanente mientras borra el papel de vista previa para reutilizarlo más tarde.
Las computadoras ingresaron al mercado masivo al mismo tiempo que el reconocimiento y la síntesis de voz útiles. En lugar de sentarse frente a la pantalla y presionar botones, los usuarios principalmente conversan con computadoras. Lo que haría que el concepto de una GUI suene extraño "¿Qué quieres decir con que tengo que aprender a presionar esto y eso y luego eso? ¿Por qué no puedo simplemente decirle lo que quiero?".
Haga que las computadoras estén interconectadas y bloqueadas por el ancho de banda. Un Internet de bajo ancho de banda obliga a optimizar la transmisión de contenido, que probablemente esté basado en texto.
Desde mi propia experiencia con las etapas iniciales de Internet, una GUI apenas se puede usar en una red cuando el ancho de banda es lo suficientemente bajo. Incluso un sistema GUI diseñado específicamente para redes cliente-servidor, como X, es molesto en conexiones como un módem 14k4.
Antes de que existiera la WWW, usábamos el protocolo Gopher para navegar por los sistemas de información de todo el mundo a través de conexiones telefónicas. Luego se inventó la WWW e Internet se volvió más gráfica, el rendimiento en los navegadores gráficos ( Mosaico , Netscape ) todavía era angustiosamente lento. Dado que el contenido textual seguía siendo la atracción principal, muchos de los primeros usuarios usaban navegadores basados en texto como w3m y lynx para navegar por la web. En los servidores Linux, los sucesores como elinks todavía se usan hoy en día.
Si hubiera alguna razón para que el ancho de banda simplemente permaneciera limitado, es posible que las GUI no se desarrollaran en absoluto. La gente probablemente seguiría creando arte ASCII y las TUI mejorarían, tal vez admitiendo múltiples ventanas como el administrador de ventanas i3 .
¿Quieres un mundo donde las computadoras estén muy extendidas pero las GUI no existan? Simple: encuentre una manera de crear un mundo en el que todos estén totalmente ciegos, tal vez incluso donde los ojos nunca pudieron evolucionar. (la escritura usa algún equivalente de Braille)
Educar al público rápidamente
Las GUI son populares porque son fáciles de aprender para los nuevos usuarios y no requieren tanto conocimiento especializado como usar una CLI. Por ejemplo, para cambiar los permisos de archivo a través de la GUI en Linux, puede hacer clic en las pequeñas casillas de verificación etiquetadas como "leer", "escribir" y "ejecutar", mientras que para cambiar la misma información con la CLI, debe recordar qué bits corresponder a qué permisos, y hacer una conversión de decimal a binario.
Si, por alguna razón, las clases de computación se convirtieran en parte de la educación obligatoria durante el tiempo en que los CLI todavía eran populares, toda una generación crecería usándolos. Cuando surgieron las GUI, no parecían tener mucha ventaja sobre las CLI para el público en general. Además, los CLI, especialmente los caparazones que se enseñan en la escuela, tendrían la inercia del consenso y la gente no estaría dispuesta a cambiar.
vi
. Incluso si junta las TUI con las GUI, para muchas tareas, estoy más contento con las CLI que con las GUI.vi
está bien, pero ¿qué tan diferente es realmente de algo como Atom o VSCode, aparte del control remoto?Si los usuarios no son humanos, una interfaz GUI puede presentar problemas graves. Tal vez tengan ojos compuestos, como los insectos, y cualquier tipo de pantalla de cuadrícula de píxeles crea serios efectos de muaré entre la pantalla y sus ojos. O tal vez ven en el sonar, como murciélagos o delfines. ¿Cómo se hace una pantalla de sonar?
Si son (¿casi?) humanos, tal vez su sociedad sea una estricta meritocracia (con tintes fascistas). No se le permite acceder a una computadora hasta que demuestre que es lo suficientemente inteligente para usar una de manera inteligente. En otras palabras, programa uno. Para cuando sea un programador medio decente, probablemente preferirá una interfaz de línea de comandos a una interfaz GUI para la mayoría de las tareas en cualquier caso.
(Si eres un tipo de geek, habrás escuchado los chistes sobre lusers y teclados a prueba de babas. En este mundo, los geeks son los gobernantes).
No creo que esto sea posible, si desea mantener las posibilidades de las computadoras modernas, especialmente si considera a Norton Commander como 'texto', ya que lo que realmente está haciendo es abusar del texto para ser una GUI, y la mayoría de las GUI hacen es texto de posición, fuera de un sistema de cuadrícula . Pero un posible enfoque que no he visto mencionado en otras respuestas: el texto es legible por máquina, las GUI no lo son.
Esto podría surgir de varias maneras diferentes:
Pruebas de calidad de software obligatorias , muy pronto. Tan pronto como aparece el primer software con errores y las empresas se dan cuenta de que están pagando por productos dañados, especialmente si ocurre una catástrofe grave como la explosión de un cohete espacial, hay un gran impulso legal y reglamentario para que el software sea exactamente como se describe, con grandes tarifas por cualquier error encontrado.
Auditoría obligatoria de un tipo u otro. Todas las entradas y salidas deben auditarse para detectar fraudes, o para protegerse contra prácticas contrarias al consumidor, o para exigir que los sistemas informáticos de diferentes proveedores funcionen de la misma manera, o como una expectativa básica en una sociedad digital de cómo se comportan las computadoras. Puede auditar la escritura y la impresión, pero realmente no puede auditar los clics del mouse y el desplazamiento de la GUI de la misma manera. Puede auditar "esta imagen se mostró: {}" para usar con su especificación de salida única, pero no querrá los costos generales o de almacenamiento de auditar cada marco de una GUI.
Los primeros desarrollos de la informática se centraron mucho en interpretar el texto y procesarlo de manera personalizada. por ejemplo, el gobierno transmite noticias a través de una fuente de texto como el antiguo Ceefax del Reino Unidosistemas, y las personas individuales colocan coincidencias de palabras clave en el flujo de datos que los alertaría sobre las cosas que encontraron interesantes. Empresas alertadas sobre transacciones, personas que jugaron con conjuntos de datos en tiempo real: puede esperar ofertas especiales de tiendas, servicios meteorológicos, servicios de noticias, ingeniería civil (obras viales) en su área, precios de electricidad actualizados, o lo que sea. , y retome las cosas que le importan. Esto sucede lo suficientemente temprano en su línea de tiempo para que se incruste en la cultura, y cuando aparecen las GUI, las personas las consideran una novedad, pero finalmente rechazan la forma en que no se pueden automatizar y la búsqueda de patrones como demasiado limitante, así que solo utilícelos como un dispositivo de salida, pero no como el principal punto de interacción. Trabaja con los datos estructurados, tal vez los muestre en una GUI si es un gráfico, o tal vez no
Los puntos anteriores interactúan; la auditoría obligatoria significa que los gobiernos quieren un flujo continuo de información de cada usuario, que pueden buscar y recopilar estadísticas de toda la población, lo que significa que las GUI solo se pueden usar para visualización, pero toda la información debe provenir de un teclado.
La sección de pruebas de software obligatorias podría surgir en otro enfoque, la razón por la cual los servidores sin cabeza son tan populares hoy en día es que menos código significa una superficie de ataque más pequeña por consideraciones de seguridad. Si todo el software tuviera que pasar por un costoso proceso de auditoría regulatoria (o cualquier restricción que tenga un efecto similar, las compañías de software deben estar aseguradas contra el riesgo de que su código salga mal, y las compañías de seguros cobran por línea de código asegurada o por función). ), entonces 'menos código' empujaría a las industrias a preferir las TUI si es posible. Dado que una GUI tiene que mostrar texto y también gráficos, siempre resultará más caro.
Otra posible desviación de la historia del mundo real es que nuestros primeros dispositivos de salida eran pantallas RADAR y osciloscopios , con un haz de electrones escaneado de izquierda a derecha y modulado hacia arriba y hacia abajo por una señal analógica. Se convirtieron en CRT, que fueron la tecnología de visualización dominante durante muchos años.
Pero, ¿y si los CRT no pudieran volverse dominantes, por ejemplo, si los límites regulatorios prohibieran las cámaras de vacío en los dispositivos vendidos al público, porque eran demasiado peligrosos debido al riesgo de implosión?
Preocupaciones ambientales o comportamiento de búsqueda de rentas financieras. Si pudiera modificar el mundo para que mostrar una imagen costara significativamente más, cada vez, la gente la evitaría para un uso normal. por ejemplo, si hubiera una pantalla de 'texto' que venía con una computadora, y pudiera comprar una pantalla 'gráfica' como complemento para acompañarla, pero podría mostrar 1000 gráficos antes de que se agotara la licencia y fuera necesario renovarla, o costara un día de electricidad de texto para actualizar en comparación con la pantalla de texto. El mercado decidiría cómo hacer todo por texto, manteniendo las GUI disponibles para uso ocasional o para los ricos.
Haga un mejor trabajo enseñando a los niños a leer y escribir.
Dibujemos una línea entre un sistema que es capaz de hacer gráficos, cuando sea apropiado, y la GUI, que es para computar lo que "point & grunt" es para lenguaje. Entonces, el usuario de su computadora tiene lo que tengo en mis máquinas (4 en mi escritorio o junto a él en este momento): un administrador de ventanas que se ejecuta sobre X, que en su mayoría tiene un montón de ventanas xterm. Para interactuar con la computadora, uso el lenguaje en forma de comandos, en lugar de señalar algo y hacer clic con el mouse.
Ahora bien, esto no significa que no pueda hacer gráficos. Puedo hacer cualquier cosa, desde mirar fotos que descargué de mi cámara (con comandos de texto) hasta ver documentos PDF (que puedo haber creado con LaTeX basado en texto) y visualizar el resultado del programa de tomografía sísmica 3D en el que estoy trabajando. on (cuya entrada es texto). Simplemente no tengo que tener un ícono en el que haga clic para cada cosa que quiero hacer, y no tengo que perder el tiempo tratando de averiguar qué significan esos íconos, potencialmente miles de ellos. . (Si me encuentro con un comando de texto desconocido, puedo buscarlo en el manual o con un motor de búsqueda, tal como buscaría una palabra desconocida en un diccionario).
Si necesito una lista de comandos para usuarios que no están familiarizados con un sistema o aplicación, puedo usar menús de texto, como de hecho hago con el navegador (qupzilla) que estoy usando en este momento. Tiene algunos iconos GUI. en una barra en la parte superior, pero nunca he descubierto exactamente lo que significan, porque también hay un menú de texto útil.
Las GUI, en mi humilde opinión, son básicamente una muleta, necesaria porque una gran fracción de la población parece ser analfabeta funcional.
Trate de ver "para qué" realmente quiere usar la informática. ¿Seguirán todos tan conectados como en estos días? si es así, ¿podrían estar usando versiones más potentes de los primeros teléfonos móviles que tenían botones y una pantalla LCD (mi viejo Ericsson A1018 era así). O está buscando más un mundo computarizado, pero sin necesitar necesariamente el nivel de entrada del usuario que tenemos ahora?
Me refiero, por ejemplo, a buscar 'internet de las cosas'. El concepto básico es que todo lo que nos rodea ahora tiene una computadora (hervidores, tostadoras) que están todos interconectados para formar su propia red. Sin embargo, los microcontroladores dentro de ellos rara vez tienen una GUI. A lo sumo, hay muchas licuadoras/procesadores de alimentos que tienen botones para cocinar "inteligentemente". Estos son botones de función dedicados, mientras que el microcontrolador interno simplemente (o no tan simple) lee los datos de algunos sensores y aplica cierta lógica al modo de cocción.
El Raspberry Pi es otro buen ejemplo moderno. Aunque normalmente está conectado a un mouse/teclado y TV/monitor, no necesita ninguna de estas cosas para funcionar. Los he visto configurados como servidores informáticos inalámbricos; uno de mis compañeros tiene la mitad de su casa automatizada con microcontroladores, incluyendo cámaras wifi y su impresora 3D, todo conectado a través de la Pi como servidor. Puede acceder a su impresora en el trabajo y mirarla en la cámara para asegurarse de que su casa no esté en llamas, pero el punto es que el Pi en sí no tiene GUI, y la tableta o lo que sea que use para acceder no es más que una terminal tonta.
SI está hablando únicamente de cómo acceder a la computadora sin la interfaz gráfica, entonces el siguiente nivel hacia arriba (o hacia abajo) sería el antiguo interruptor DIP y el enfoque de puente para la programación/uso de la computadora. Tengo una de las primeras computadoras portátiles Amstrad PPC512 en casa que consta de una pantalla LCD monocromática, dos unidades de disquete, un módem y no tiene disco duro ni ningún tipo de sistema operativo, aparte del que se usa en el disquete de arranque. La configuración de la fuente de disquete, monitor externo, etc. se realizó con una serie de interruptores DIP en el lateral.
Hay muchos otros buenos ejemplos a lo largo de la historia de la informática: la computadora Apolo utilizada durante los alunizajes tenía la interfaz DSKY, que estaba equipada con botones de función dedicados (sustantivo, verbo) y lecturas de 7 segmentos. Las calculadoras gráficas serían otro ejemplo que podría "tomar prestado" y modernizar.
TLDR: Su mundo comenzó con computadoras pre-GUI como la computadora de guía Apollo. En lugar de que la computadora de escritorio / monitor se convirtiera en estándar, la investigación se centró en computadoras portátiles como calculadoras gráficas y tecnología de telefonía móvil temprana, mientras que la industria se centró en computadoras de un solo uso programadas por interruptor DIP. En el momento en que Internet convencional estuvo disponible para vincular los dispositivos IOT, la gente todavía confiaba predominantemente en sistemas basados en texto como sus teléfonos con botones.
Algo un poco menos anacrónico sería eso, o los dispositivos de retroalimentación háptica (vibradores o teclados braille) se inventaron antes. Tal vez la IA se desarrolló antes, lo que reduce la necesidad de computación 'práctica', aunque esto comienza a superponerse al enfoque activado por voz como se mencionó en una publicación anterior.
¿Estás obligado a que los usuarios sean como humanos? Si los sentidos del usuario no están dominados por la visión, puede descuidar la GUI e ir más a una interfaz de usuario táctil/sonora/olor.
Básicamente, puedes imaginarte un ser parecido a un topo usando una computadora.
La mayoría de estas respuestas se centran en que la tecnología se está reteniendo, voy a suponer que avanza rápidamente. Comunicación directa con la computadora a través de ondas cerebrales a través de cables inventados antes de las GUI.
Si usa telepatía o implantes neurales para comunicarse con su computadora, no se necesita teclado, mouse, GUI, etc. Tienes un enlace directo entre el cerebro y la computadora con un tiempo de reacción muy superior.
El único problema posible es que las personas pueden optar por visualizar una GUI en su mente. Sin embargo, dudo que sea útil con la conexión directa de la computadora al cerebro.
Es decir, todavía habría salida gráfica, pero solo para cosas como obtener una vista previa de los modelos 3D que describe textualmente (¡existe! En mi opinión, es realmente fácil de aprender y poderoso), obtener una vista previa de los documentos que escribió en algo como LaTeX, ver imágenes y videos , etc.
Obviamente, necesita mantener las computadoras caras. Sin microprocesadores baratos significa que no hay pantallas baratas impulsadas por microprocesadores, y probablemente tampoco GPU multinúcleo. Regrese a la visión de los años 60 de terminales en cada hogar que se conectan a una computadora central. Mantenga el ancho de banda bajo para que los gráficos no sean suficientes (¿recuerda los minutos de espera para que las páginas web se descarguen en los años 90?). Tal vez hacer que la utilidad de la computadora local sea algo así como una biblioteca, con muchas terminales de acceso público y algunas impresoras de alta velocidad para que la gente pueda imprimir cosas y llevárselas a casa. Recuerdo que en la universidad, las terminales en las salas de terminales de los dormitorios funcionaban con líneas arrendadas de 2400 baudios. Cuando ingresaba al campus, las terminales estaban en líneas directas de 9600 baudios, fue un gran incentivo para trabajar en los laboratorios del campus.
Mira esto: https://en.wikipedia.org/wiki/HAL_9000
HAL 9000 es una inteligencia artificial. Es cierto que HAL tiene monitores para mostrar cosas. Pero la parte de "Interacción" en GUI es verbal.
Solo cuando HAL se descompone y pierde sus habilidades de comunicación verbal, necesita la entrada del teclado, que realiza el Dr. Chandra.
Otra posibilidad serían las leyes de patentes que no estaban preparadas para manejar la tecnología. Un escenario en el que las patentes fueran un poco más amplias que en la actualidad y tuvieran un período de 50 años o más, podría permitir que alguien patentara la visualización de la GUI, la interacción basada en el movimiento con una computadora y/o algún otro aspecto esencial para las GUI o la GUI. interacción.
Para proteger su marca, el propietario de la patente fija el precio de la licencia de la patente fuera del alcance de la mayoría de los consumidores. En cambio, lo licencian a precios exorbitantes a industrias que absolutamente no pueden funcionar sin él. Tal vez vendan computadoras con capacidades GUI, o tal vez vendan software, o vendan un conjunto de herramientas de software para crear software, o tal vez alguna combinación como Apple.
Las leyes se han cambiado desde entonces para evitar ese tipo de problema, pero no pueden invalidar retroactivamente la patente.
Si hablamos de humanos, seguramente vendrán con ideas para GUI; usar los ojos y las manos en combinación es una de tus ventajas evolutivas. Estamos tan especializados en esto y hemos estado dibujando cosas durante miles de años, que no se puede eludir la idea .
Por lo tanto, debe encontrar formas de evitar que estas ideas se ejecuten.
Un ángulo posible es la energía . Calcular la salida visual y mostrarla requiere mucha energía. Es probablemente para lo que la mayoría de los dispositivos orientados al usuario consumen más energía, incluso con la tecnología de visualización moderna.
Entonces, si la energía es, históricamente, mucho más cara de lo que ha sido en nuestro mundo (¿quizás los combustibles fósiles no existieron, o nos dimos cuenta pronto y dejamos de usarlos tanto?), entonces la eficiencia energética se convierte en un factor en el diseño de dispositivos informáticos. mucho antes de lo que lo ha hecho en nuestro mundo. Una vez que las interfaces de texto son ubicuas, la GUI probablemente tenga poca tracción fuera de las aplicaciones especializadas.
Asegúrese de inventar algo más que pantallas para la salida. Nuestras interfaces de texto aún necesitan uno, y las interfaces de texto más útiles también usan colores.
Mata a Doug Englebart antes de 1968 y haz explotar el laboratorio de automatización de SRI. Para estar doblemente seguro, asegúrese de que Alan Kay nunca nazca y deje caer una bomba nuclear táctica en Xerox PARC. También deberá hacer algo para reducir la productividad de los programadores para que nunca se lleven a cabo proyectos como los que condujeron a las GUI, así que asegúrese de que los programadores de computadoras tengan licencia y estén regulados por el gobierno federal, las herramientas de programación requieren una licencia para comprar y los costos son increíblemente alto, prohibir la producción de cualquier computadora más pequeña que una mini-van, y hacer de COBOL el único lenguaje de programación sancionado. (Lo siento, Grace, pero según los estándares actuales es un cerdo...). Eso debería hacer 'er ..!
Haga que la empresa que inventa las GUI haga que su nombre sea peor que el barro, por ejemplo, plantando spyware en las GUI. Luego, las GUI están vinculadas al nombre de la empresa más infame del mundo. También señale que las GUI usan mucha más potencia de CPU, RAM, etc. que las TUI. La combinación de estos dos factores (sin GUI y más hardware disponible para su software (que no está siendo consumido por su sistema operativo (que en realidad solo funciona sin problemas en segundo plano, solo usa 0.5 k de RAM))) es mucho más esfuerzo dedicarse a hacer cosas útiles, como reconocimiento de voz, IA y otras cosas por el estilo.
Mónica Celio
VI.
usuario2338816
fairly high-end servers
no ejecutan GUI. Las GUI generalmente se asumen para los sistemas cliente que se conectan a los servidores. Casi todos los "servidores de gama alta" en los que he trabajado en los últimos 40 años o más no tenían GUI. (Tenga en cuenta, sin embargo, que las funciones como X server/X windows o Java RAWT, etc., a menudo están disponibles en los servidores, incluso si los propios servidores no tienen la capacidad de gráficos nativos).mg30rg
usuario
mg30rg
mg30rg
usuario
mg30rg
usuario
mg30rg
NZKshatriya
usuario
HostileFork dice que no confíes en SE
NZKshatriya
usuario2338816
April saluda a Monica C.