En cuanto a las tecnologías RAM (las básicas), considero la clasificación inicial (basada en el almacenamiento) como
SRAM: La entidad básica para el almacenamiento (cada celda) es el flip-flop (compuesto por transistores). Tiene un acceso rápido en comparación con otros, pero es costoso y ocupa mucho espacio debido a la cantidad de transistores empleados.
DRAM: cada celda es un circuito transistor-capacitor. El capacitor actúa como un dispositivo de almacenamiento, mientras que el transistor es la unidad de control que decide si se debe realizar una lectura/escritura en la celda específica. Además, el controlador de RAM necesita actualizar las celdas (es decir, leer y escribir) a intervalos regulares para superar la deficiencia de la fuga del condensador.
SDRAM: Esta es una sucesión de DRAM, excepto que cada operación en la RAM está sincronizada con el reloj del sistema.
Estoy encontrando dificultades para comprender la ventaja de hacer que las operaciones de RAM sean sincrónicas. ¿Alguien puede dar más detalles sobre esto, por favor?
La principal ventaja del diseño síncrono es que su comportamiento es fácil de predecir, modelar y validar porque todo sucede en un horario predefinido. Sin embargo, esperar un tiempo específico para realizar una acción hace que el diseño síncrono sea más lento que un diseño asíncrono comparable. E incluso cuando el circuito no responde a sus entradas lógicas, sigue consumiendo energía ya que responde a la señal del reloj.
Un circuito asíncrono puede ser mucho más rápido porque responde a sus entradas a medida que cambian. No hay que esperar una señal de reloj antes de que pueda llevarse a cabo el procesamiento. También pueden consumir menos energía ya que no tienen nada que hacer cuando las entradas están inactivas y tienen un mejor rendimiento de EMI ya que no hay una señal digital constante flotando. Pero el diseño de dichos sistemas es mucho más difícil porque todas las combinaciones de entradas a lo largo del tiempo deben tenerse en cuenta para garantizar el funcionamiento adecuado del circuito. Cuando dos entradas cambian casi al mismo tiempo, esto se denomina condición de carrera y el circuito puede tener un comportamiento indefinido si el diseñador no planeó cada combinación de entradas en cada combinación de tiempo.
Al comparar y contrastar el diseño sincrónico con el asincrónico, probablemente esté pensando que las grandes empresas como Samsung pueden gastar miles de millones en investigación y diseño para modelar completamente un circuito DRAM para que su funcionamiento sea realmente estable y luego tendríamos un consumo de energía realmente bajo y realmente rápido. memoria. Entonces, ¿por qué la SDRAM es mucho más popular?
Si bien el diseño asíncrono es más rápido que el síncrono en operaciones secuenciales , es mucho más fácil diseñar un circuito para realizar operaciones en paralelo o simulaciones si las operaciones son síncronas. Y cuando se pueden realizar muchas operaciones al mismo tiempo, la ventaja de velocidad del diseño asíncrono desaparece.
Entonces, las tres cosas principales a considerar al diseñar un circuito RAM son la velocidad, la potencia y la facilidad de diseño. SDRAM gana a DRAM normal en dos de tres de ellos y por un margen muy amplio.
Citas de Wikipedia:
Memoria dinámica de acceso aleatorio -
El cambio más significativo, y la razón principal por la que SDRAM ha suplantado a la RAM asíncrona, es la compatibilidad con varios bancos internos dentro del chip DRAM. Usando unos pocos bits de "dirección de banco" que acompañan a cada comando, se puede activar un segundo banco y comenzar a leer datos mientras se realiza una lectura del primer banco. Al alternar los bancos, un dispositivo SDRAM puede mantener el bus de datos continuamente ocupado, de una manera que la DRAM asíncrona no puede.
Memoria dinámica síncrona de acceso aleatorio -
Classic DRAM tiene una interfaz asíncrona, lo que significa que responde lo más rápido posible a los cambios en las entradas de control. SDRAM tiene una interfaz síncrona, lo que significa que espera una señal de reloj antes de responder a las entradas de control y, por lo tanto, está sincronizada con el bus del sistema de la computadora. El reloj se utiliza para controlar una máquina interna de estados finitos que canaliza los comandos entrantes. El área de almacenamiento de datos se divide en varios bancos, lo que permite que el chip funcione con varios comandos de acceso a la memoria a la vez, intercalados entre los bancos separados. Esto permite velocidades de acceso a datos más altas que una DRAM asíncrona.
La canalización significa que el chip puede aceptar un nuevo comando antes de que haya terminado de procesar el anterior. En una escritura canalizada, el comando de escritura puede ser seguido inmediatamente por otro comando, sin esperar a que los datos se escriban en la matriz de memoria. En una lectura canalizada, los datos solicitados aparecen después de un número fijo de ciclos de reloj después del comando de lectura (latencia), ciclos de reloj durante los cuales se pueden enviar comandos adicionales.
La DRAM asíncrona siempre es más lenta que la DRAM síncrona en la misma tecnología. Esto se debe a que las líneas RAS, CAS, WE y CS en DRAM deben secuenciarse en un orden particular para realizar operaciones de lectura y escritura en el chip. Además de los anchos de pulso mínimos en cada una de estas líneas, hay tiempos de configuración y espera entre varios pares de ellos que deben tenerse en cuenta y, juntos, todos estos tiempos suman un tiempo de ciclo relativamente largo.
Al agregar una señal de reloj común, una SDRAM elimina todos esos requisitos independientes de configuración y tiempo de espera; en cambio, las cuatro líneas tienen los mismos requisitos en relación con el reloj común. Esto permite que ese reloj sea mucho más rápido que el número equivalente de flancos en el chip DRAM.
Además, como han señalado los demás, el reloj síncrono permite que tanto la interfaz externa como el funcionamiento interno del chip SDRAM estén fuertemente canalizados, lo que permite que se produzcan muchas más lecturas y escrituras individuales en un período de tiempo determinado. La latencia de lectura puede ser un poco mayor debido a esta canalización, pero el ancho de banda general de la memoria ha mejorado considerablemente.
Me gustaría señalar que también hay SRAM síncronas (SSRAM) que se utilizan en sistemas de alto rendimiento por las mismas razones.
Además de la respuesta de Dave Tweed, el reloj SDRAM es más fácil de diseñar. Específicamente, solo el reloj debe estar "limpio". Los otros pines de control pueden tener fallas siempre que 1) no violen los requisitos de sobreimpulso o subimpulso 2) se establezcan a tiempo para cumplir con los requisitos de SDRAM.
La matriz de memoria dentro de una DRAM y SDRAM es esencialmente la misma (aunque hay diferencias). La clave de SDRAM es que pone en cola el acceso a la memoria para que no incurra en la misma sobrecarga para cada acceso. Entonces, ya sea en modo ráfaga o en canalización, el acceso no se inicia y luego se detiene para cada lectura/escritura. Internamente, las matrices de memoria se dividen en bancos, por lo que la actividad puede ocurrir en un banco mientras otra actividad termina en otro. Esto significa que tiene un mayor rendimiento efectivo, todos los demás factores son iguales.
Rocketmagnet
incrustado.kyle
incrustado.kyle