17. Memoria Flash y memoria cache
La memoria flash es
una tecnología de almacenamiento —derivada de la memoria EEPROM— que
permite la lecto-escritura de múltiples posiciones de memoria en la misma
operación. Gracias a ello, la tecnología flash, siempre mediante
impulsos eléctricos, permite velocidades de funcionamiento muy superiores
frente a la tecnología EEPROM primigenia, que sólo permitía actuar sobre una
única celda de memoria en cada operación de programación. Se trata de la
tecnología empleada en los dispositivos pendrive.
Funcionalidades
Flash, como tipo de EEPROM que
es, contiene una matriz de celdas con un transistor evolucionado
con dos puertas en cada intersección. Tradicionalmente sólo almacenan
un bit de información. Las nuevas memorias flash, llamadas también
dispositivos de celdas multi-nivel, pueden almacenar más de un bit por celda
variando el número de electrones que almacenan.
Estas memorias están basadas en el transistor FAMOS (Floating Gate Avalanche-Injection Metal Oxide Semiconductor) que es, esencialmente, un transistor NMOScon un conductor (basado en un óxido metálico) adicional localizado o entre la puerta de control (CG – Control Gate) y los terminales fuente/drenador contenidos en otra puerta (FG – Floating Gate) o alrededor de la FG conteniendo los electrones que almacenan la información.
Estas memorias están basadas en el transistor FAMOS (Floating Gate Avalanche-Injection Metal Oxide Semiconductor) que es, esencialmente, un transistor NMOScon un conductor (basado en un óxido metálico) adicional localizado o entre la puerta de control (CG – Control Gate) y los terminales fuente/drenador contenidos en otra puerta (FG – Floating Gate) o alrededor de la FG conteniendo los electrones que almacenan la información.
Memoria Cache
En informática, una caché es un conjunto de datos
duplicados de otros originales, con la propiedad de que los datos originales
son costosos de acceder, normalmente en tiempo, respecto a la copia en la
caché. Cuando se accede por primera vez a un dato, se hace una copia en el
caché; los accesos siguientes se realizan a dicha copia, haciendo que el tiempo
de acceso medio al dato sea menor.
Memoria caché o RAM caché
Un caché es un sistema especial de almacenamiento de alta velocidad. Puede
ser tanto un área reservada de la memoria principal como un dispositivo de
almacenamiento de alta velocidad independiente. Hay dos tipos de caché
frecuentemente usados en las computadoras personales: memoria caché y caché de
disco. Una memoria cache, llamada también a veces almacenamiento caché o RAM
caché, es una parte de memoria RAM estática de alta velocidad (SRAM) más que la
lenta y barata RAM dinámica (DRAM) usada como memoria principal. La
memoria cache es efectiva dado que los programas acceden una y otra vez a los
mismos datos o instrucciones. Guardando esta información en SRAM, la
computadora evita acceder a la lenta DRAM.
Cuando se encuentra un dato en la caché, se dice que se ha producido un acierto, siendo un caché juzgado por su tasa de aciertos (hit rate). Los sistemas de memoria caché usan una tecnología conocida por caché inteligente en la cual el sistema puede reconocer cierto tipo de datos usados frecuentemente. Las estrategias para determinar qué información debe de ser puesta en el cache constituyen uno de los problemas más interesantes en la ciencia de las computadoras. Algunas memorias cache están construidas en la arquitectura de los microprocesadores. Por ejemplo, el procesador Pentium II tiene una caché L2 de 512 Kilobytes.
La caché de disco trabaja sobre los mismos principios que la memoria caché, pero en lugar de usar SRAM de alta velocidad, usa la convencional memoria principal. Los datos más recientes del disco duro a los que se ha accedido (así como los sectores adyacentes) se almacenan en un buffer de memoria. Cuando el programa necesita acceder a datos del disco, lo primero que comprueba es la cache del disco para ver si los datos ya están ahí. La cache de disco puede mejorar drásticamente el rendimiento de las aplicaciones, dado que acceder a un byte de datos en RAM puede ser miles de veces más rápido que acceder a un byte del disco duro.
Cuando se encuentra un dato en la caché, se dice que se ha producido un acierto, siendo un caché juzgado por su tasa de aciertos (hit rate). Los sistemas de memoria caché usan una tecnología conocida por caché inteligente en la cual el sistema puede reconocer cierto tipo de datos usados frecuentemente. Las estrategias para determinar qué información debe de ser puesta en el cache constituyen uno de los problemas más interesantes en la ciencia de las computadoras. Algunas memorias cache están construidas en la arquitectura de los microprocesadores. Por ejemplo, el procesador Pentium II tiene una caché L2 de 512 Kilobytes.
La caché de disco trabaja sobre los mismos principios que la memoria caché, pero en lugar de usar SRAM de alta velocidad, usa la convencional memoria principal. Los datos más recientes del disco duro a los que se ha accedido (así como los sectores adyacentes) se almacenan en un buffer de memoria. Cuando el programa necesita acceder a datos del disco, lo primero que comprueba es la cache del disco para ver si los datos ya están ahí. La cache de disco puede mejorar drásticamente el rendimiento de las aplicaciones, dado que acceder a un byte de datos en RAM puede ser miles de veces más rápido que acceder a un byte del disco duro.
Composición interna
La memoria cache está estructurada, una cache L2 de
512 KiB se distribuye en 16.384 filas y 63 columnas llamado Tag RAM, que indica
a qué porción de la RAM se halla asociada cada línea de cache, es decir,
traduce una dirección de RAM en una línea de cache concreta.
No hay comentarios:
Publicar un comentario