Puede ser una pregunta poco pertinente y más en los tiempos que corren. Pero lo cierto es que tanto Intel como AMD van a cambiar sus cachés en sus nuevas arquitecturas, sobre todo en cuanto a jerarquías, tamaños y funciones específicas mediante algoritmos. Así que antes de que presenten todo, es bueno entender conceptos básicos que van más allá del «qué es» y «cómo funciona». Conozcamos los restantes porqués de algo tan vital como la memoria caché de una CPU.
Hay preguntas recurrentes en el tiempo y que con el paso de los años y la tecnología siempre vuelven. Una de ellas es precisamente el porqué disponer de memoria caché en una CPU si disponemos de RAM del sistema que al final termina trabajando suministrando información al procesador y haciendo de HOT SWAP con el resto del sistema.
¿Por qué tener un tipo de memoria tan específico y por qué se sigue ampliando su capacidad?
Un intermediario, una forma fácil y simple de definir a la memoria caché de una CPU y como tal, su función es mantener el mayor número de datos en su haber para poder suministrarlos a la CPU y a sus registros, donde la finalidad real de la misma se desvela en este proceso.
La memoria caché de una CPU existe por una razón muy sencilla y básica: reducir el tiempo promedio requerido para que el procesador no tenga que acceder con tanta frecuencia a la RAM del sistema. Es decir, tanto Intel como AMD disponen de este tipo de memoria para evitar accesos a la RAM en lo mayor de los posible.
La memoria caché de una CPU se encuentra en segundo lugar dentro de lo que es la jerarquía de un procesador y aunque ella misma tiene la suya propia, solo es superada por los registros, ALUs y demás unidades que contiene cada modelo de CPU.
Ventajas de incluir memoria caché en una CPU
La principal ventaja como hemos dicho es la latencia, ya que se descarga información continuamente desde la memoria RAM con anticipación para que el procesador siempre esté nutrido de datos y pueda maximizar su rendimiento.
La segunda ventaja es que la frecuencia de la misma puede acercarse mucho a la que tiene el procesador. Menor latencia y más velocidad implica mayor rendimiento interno y aquí llega su finalidad. La memoria caché se diseñó principalmente para resolver la contradicción que implica necesitar memoria RAM, pero no depender de su velocidad, puesto que la CPU consigue muchos mayores ciclos por segundo de forma interna, logrando velocidades de lectura y escritura que una RAM no puede ni soñar.
La memoria caché evita ese «delay«, esa espera, entre que la memoria suministra los datos y la CPU puede procesarlos y devolver la información ya resuelta.
De ahí también su jerarquía en L1, L2 y L3. Cada conjunto de datos según su tamaño y prioridad va hacia uno de los niveles, donde más arriba esté menor tamaño dispone, pero más rendimiento consigue.
Es una eterna lucha entre optimizar el rendimiento, la velocidad, el consumo y ser el intermediario del mayor cuello de botella que tiene cualquier PC o servidor: la memoria RAM. Por ello, tener más niveles no implica mayor rendimiento como tal, es necesario un término óptimo entre rendimiento, latencia y tamaño, donde además el precio de esta se eleva si se aumenta este último en gran medida.
Un equilibrio difícil de mantener, pero que es imprescindible en la actualidad y en el futuro más próximo.
Comentarios