Autores: Daniel García Campelo, Adrián Álvarez Fernández, Jesús Manuel García González
Fecha: Mayo de 2007
En este trabajo se aborda la realización de overcloking a un ordenador personal para sacarle el máximo rendimiento, en otras palabras, elevar la frecuencia a la que mandan las señales los relojes internos que controlan el ritmo de trabajo de los componentes. No sólo se potenciará el procesador, sino que también se trabajará sobre las memorias y la tarjeta gráfica (GPU + memoria gráfica) ya que, para sacarle el máximo rendiemiento a un equipo informático, no basta con potenciar un sólo aspecto, sino que el overclock debe ser equilibrado para que se aprecie una mejora general.
Overclockear un componente significa que éste trabajará y consumirá más, y como consecuencia, aumentará el calor, por lo que antes de plantearse modificar frecuencias de funcionamiento, hay que comprobar que la torre del ordenador puede evacuar bien esa energía, y que la fuente de alimentación puede afrontar ese aumento del consumo.
Debido a que un grado inadecuado de overclock puede causar daños en el equipo, su aplicación deberá realizarse con sumo cuidado, desvinculando a los autores de este artículo, o cualquier otra persona o entidad referenciada en él, de los posibles perjuicios causados por parte del lector en su ordenador.
La práctica del overclock se ha hecho siempre, pero no estaba tan extendida como ahora, que gracias a la popularización de Internet se tiene acceso a amplia información antes desconocida para muchos, que unido a que la industria está más avanzada y permite fabricar componentes de mayor calidad ha hecho que el overclocking sea una parte más de la Informática.
Esta popularización ha hecho que los fabricantes utilicen la capacidad de overclockear su productos como un gancho publicitario, pero no hay que olvidar que esta práctica se considera un uso inadecuado del material, y muy posiblemente conlleve la pérdida de la garantía.
La mayoría de los cambios se harán a través de la BIOS (cambio de latencias de memoria, FSB, etc.) o dentro de Windows cuando sea posible. Los cambios de la GPU se harán con un programa especifíco desde Windows.
Tras un resumen teórico de los conocimientos necesarios para comprender los procedimientos explicados en esta web, una primera parte tratará sobre el proceso de overclocking sobre la CPU, así como del FSB y las memorias. A partir del análisis de esta primera parte, se decidirán las configuraciones a usar en las pruebas comparativas. Una segunda parte se centrará en la tarjeta gráfica y por último, se expondrán los resultados obtenidos y las conclusiones.
El equipo sobre el que se va a realizar el experimento es el siguiente:
A continuación se explican términos generales utilizados a lo largo de la página, o muy usados dentro del tema que nos ocupa:
NOTA: Para no crear confusión, cuando se hable del bus del sistema, se hará referencia a la frecuencia del que sería el antiguo FSB, y se reservará el uso del HTT a la frecuencia resultante tras aplicarle el multiplicador del HTT.
Si se piensa en un chip como una matriz de transistores similar a como se disponen los puntos de una pantalla, y se maneja el hueco entre ellos como una superficie en nm^2, para una tecnología de fabricación de 90nm, el área resultante entre semiconductores es de aproximadamente 8x10^3 nm^2, y en cada evolución de la tecnología de fabricación se reduce esta superficie a la mitad, pudiendo conocerse los valores de las siguientes tecnologías de fabricación: 65 y 45 nm (ya existentes), 35nm...
La reducción de este valor aporta beneficios tanto a usuarios como a fabricantes: Hacer chips más pequeños equivale a que, para un wafer con igual radio, se imprimirán más chips en cada proceso de fabricación, recortando costes. A su vez estos chips se caracterizará por una menor resistencia eléctica entre transistores, consumiendo menos, generando menos calor, y con más espacio para overclock.
Esa reducción de superficie permite hacer chips con más transistores, por ejemplo, para diseñar núcleos con un mayor grado de replicación de componentes, o agrandar la memoria cache (1 célula de memoria SRAM requiere 6 transistores, y ocupa aproximadamente una superficie de 1um^2).
Por limitaciones en el proceso de fabricación, los mejores procesadores son aquellos cuyo núcleo se imprimió en el centro del wafer, debido a ello los entusiastas y demás aficionados al overclock buscan los mejores chips en base a la información proporcionada por el OPN.
Los procesadores de 754 pines no podían aplicar Dual Dhannel (ancho del bus de datos de memoria de 128 bits) a la memoria principal, diferencia principal con los procesadores de 939 que sí podían. Los procesadores para socket AM2 mantienen esta posibilidad, aunque usan memoria DDR2, cuya velocidad real de funcionamiento es las misma que las memorias DDR, pero ofreciendo el doble de velocidad efectiva, al usar un búffer de previsión el doble de grande (2bits para la memoria DDR, 4bits para la DDR2 y 8bits para la DDR3), a costa de un aumento en la latencias.
El uso del IMC junto al HTT se engloba dentro de lo que AMD ha denominado "Direct Connect Architecture". Dado que el IMC es parte del procesador, funciona a la misma frecuencia que éste, por lo que aumentar la frecuencia de trabajo de la CPU también aumenta el rendimiento del IMC, sobre todo de cara a los tiempos de acceso a memoria.
Al igual que la CPU, el fabricante determina unos voltajes bajo los cuales las memorias trabajarán correctamente. Aumentar la velocidad suele acompañarse de aumentos en el voltaje para mantener la estabilidad del sistema. Las memorias normales funcionan a 2.6V. (el estándar es 2.5V.) aunque hay memorias que necesitan incluso más de 3V para exprimir todo su potencial.
Los parámetros más importantes de las memorias a parte de su frecuencia de trabajo son las latencias. Dado que los chips de memoria principal están construidos a base de condensadores, requieren de ciclos de refresco de la información que contienen, típicamente denominados latencias. A menores valores, mayor rendimiento.
Las 5 latencias más importantes son:
Duración de la señal CAS desde que empieza hasta que acaba. Debido a que los datos son típicamente accedidos secuencialmente, la CPU sólo necesita acceder a la siguiente columna de la misma fila para obtener el dato a continuación del actual, es por eso que esta latencia es la más importante, al determinar el tiempo entre que se pide un dato y éste se encuentra disponible. Tiene un efecto muy grande en el ancho de banda y en la estabilidad.
Ciclo de tiempo entre la primera etapa del acceso a memoria, la selección de fila y el comienzo de la segunda etapa, la selección de columna. Afecta principalmente cuando no se accede a los datos secuencialmente, y es necesario acceder a una fila distinta de la actual. Tiene un efecto medio en el ancho de banda pero repercute bastante en la estabilidad.
Es el tiempo que tarda la memoria en cambiar de una fila a otra, desactivando la actual y activando la siguiente. Cuanto más rápido se realice esta operación antes se puede pasar al siguiente banco para leer o escribir. Por ello, está muy vinculada a tRCD y, como ésta, tiene un efecto medio en el ancho de banda pero afecta bastante a la estabilidad.
Espera transcurrida entre la recepción una petición de operación en memoria y la inicialización del proceso RAS para devolver el dato. Tiene un efecto mínimo en el ancho de banda y no repercute demasiado en la estabilidad.
Demora que hay desde que un chip es seleccionado y le son mandados comandos. Se le dan valores de 1T o 2T, típicamente denominados también CR activado y CR desactivado respectivamente. Cuantos más chips tenga un módulo más dificil será para el controlador de memoria empezar a ordenar comandos tras sólo 1T. T2 amplia las posibilidades de el overclock pero se pierde mucho ancho de banda, por lo que a ser posible se opta por un CR de 1T.
Estas son las latencias má relevantes y conocidas, pero existen muchas más:
![]() |
Nuestro modelo de GPU en concreto (ATI Radeon X850 XT) tiene 6 vertex shaders en 1 vertex pipeline y 16 píxel shaders, tantos como píxel pipelines, con soporte hardware para DirectX 9.0c.
En este apartado se describirá el proceso a seguir para overclockear varios elementos del ordenador, empezando por la CPU, estudiando al mismo tiempo el comportamiento de los componentes directamente relaccionados: el IMC, los módulos de memoria, y el bus del sistema - bus HTT; dejando para el final el estudio de la tarjeta gráfica.
Durante dicho proceso se sobrepasarán repetidas veces los límites del ordenador, causando reinicios, bloqueos o simplemente inestabilidad en el sistema. Para evitar esto es necesario conocer en la media de lo posible el límite individual de cada una de las piezas del equipo, a fin de encontrar una configuración compatible con todas. Lo deseable sería forzar sólo un componente de cada vez, pero como se verá a continuación, no es una tarea sencilla.
Al aplicarle una nueva frecuencia a la CPU hay que cargarla de trabajo con algún programa intensivo en procesador para comprobar que el sistema no se ha vuelto inestable (hay multitud, como "CPU burn stress"). De ser así, aumentar desde la BIOS el valor del Vcore un escalón, pero teniendo en cuenta que un voltaje muy alto disparará el consumo y la generación de calor. La energía a disipar aumentará linealmente con la frecuencia y al cuadrado con el voltaje.
Un AMD64 no aguanta más allá de los 60°, una buena temperatura en carga rondara los 45°, pero cuanto más fresco esté cualquier componente, mejor, pues una pieza que sufre altas temperaturas de funcionamiento, verá acortada su vida útil.
El bus del sistema se verá forzado al forzar la CPU, pero para no hacer trabajar a las memorias se les aplicará un divisor mayor que el multiplicador de la CPU para que funcionen por debajo de sus posibilidades.
Se puede intentar subir su frecuencia todo lo posible relajando poco o nada las latencias, y realizando en ese caso pruebas de rendimiento para comprobar si merece la pena relajar las latencias para el aumento de reloj conseguido, o si tenemos el bus del sistema limitado, apurar las latencias para mejorar la respuesta de las memorias, pero siempre comprobando que el sistema se mantiene estable. Si se produce el hecho de que las memorias sufren bajo un grado de overclock que causa inestabilidad en el sistema, se les puede dar un poco má de voltaje dentro de la BIOS, pero respetando los límites aconsejados por el fabricante.
Aplicar un divisor de memorias que eleve la frecuencia de trabajo de éstas sobre la del bus del sistema no es lógico pues como mucho sólo reportaría beneficios en equipos diseñados para un uso intensivo de DMA (Acceso Directo a Memoria).
![]() |
![]() |
Para empezar, se pondrá a prueba la CPU, configurando los parámetros iniciales desde la BIOS, a la que únicamente se volverá a acceder en caso necesario (por ejemplo tras un reinicio inesperado del sistema) y aumentando las frecuencias de funcionamiento desde Windows con ClockGen.
Vcore (voltios) | CPU (MHz.) | Bus (MHz.) | H.T.T. (Mhz.) | Memoria (MHz.) | Cálculo Super PI-8M (minutos:segundos) |
---|---|---|---|---|---|
1,35 | 2200 | 200 | 1000 | 158 | 7:35.843 |
1,35 | 2255 | 205 | 1025 | 161 | 7:25.860 |
1,35 | 2310 | 210 | 1050 | 165 | 7:18.813 |
1,35 | 2370 | 215 | 1075 | 169 | 7:07.625 |
1,35 | 2420 | 220 | 1100 | 173 | 6:58.812 |
1,35 | 2480 | 225 | 1125 | 177 | 6:49.297 |
1,35 | 2530 | 230 | 1150 | 180 | No terminó |
1,35 | 2530 | 230 | 920 | 180 | 6:42.078 |
1,35 | 2590 | 235 | 940 | 185 | 6:31.640 |
1,35 | 2645 | 240 | 960 | 189 | 6:23.641 |
1,35 | 2695 | 245 | 980 | 192 | 6:16.407 |
1,35 | 2755 | 250 | 1000 | 197 | No terminó |
1,40 | 2750 | 250 | 1000 | 196 | 6:10.000 |
1,40 | 2805 | 255 | 1020 | 200 | No terminó |
1,45 | 2805 | 255 | 1020 | 200 | 6:03.047 |
1,45 | 2865 | 260 | 1040 | 204 | No terminó |
1,50 | 2865 | 260 | 780 | 204 | 5:54.797 |
1,50 | 2920 | 265 | 800 | 209 | No terminó |
1,55 | 2920 | 265 | 800 | 209 | No terminó |
Al parecer los 2.9GHz están fuera del alcance de esta CPU con el sistema actual de refrigeración que tiene. Se ha puesto a prueba el núcleo de la CPU, pero como a las memorias se les ha aplicado un divisor (asíncrono), se desconoce hasta que punto ha sufrido el IMC.
Siguiendo el mismo método que antes, pasamos a testear el bus del sistema.
Vcore (voltios) | CPU (MHz.) | Bus (MHz.) | H.T.T. (Mhz.) | Memoria (MHz.) | Cálculo Super PI-16M (minutos:segundos) |
---|---|---|---|---|---|
1,40 | 2750 | 250 | 1000 | 250 | 13:11.625 |
1,40 | 2805 | 255 | 1020 | 255 | No terminó |
1,45 | 2805 | 255 | 1020 | 255 | 12:54. |
1,45 | 2865 | 260 | 1040 | 260 | No terminó |
1,50 | 2865 | 260 | 1040 | 260 | No terminó |
1,50 | 2865 | 260 | 780 | 260 | No terminó |
1,50 | 2865 | 260 | 520 | 260 | B.S.O.D.1 |
1,40 | 2085 | 260 | 780 | 260 | No terminó |
1,40 | 2085 | 260 | 780 | 209 | 17:02.782 |
1,40 | 2160 | 270 | 810 | 216 | 16:26.062 |
1,40 | 2240 | 280 | 840 | 224 | 15:51.734 |
1,40 | 2325 | 290 | 872 | 232 | 15:16.391 |
1,40 | 2400 | 300 | 900 | 240 | 14:47.062 |
1,40 | 2440 | 305 | 915 | 244 | 14:33.125 |
1,40 | 2480 | 310 | 930 | 248 | 14:19.266 |
1,40 | 2635 | 310 | 930 | 240 | B.S.O.D. |
1,45 | 2635 | 310 | 930 | 240 | B.S.O.D. |
1,50 | 2635 | 310 | 930 | 240 | B.S.O.D. |
1,50 | 2790 | 310 | 930 | 254 | B.S.O.D. |
1,50 | 2790 | 310 | 930 | 200 | 13:39.532 |
1,50 | 2835 | 315 | 945 | 202 | B.S.O.D. |
1) B.S.O.D. (Blue Screen Of Death): Pantallazo Azul
Daniel: "Al comienzo de esta prueba opté por no relajar ni memorias ni CPU, usando un cálculo de SuperPI más prolongado para que no quedase duda de la estabilidad del sistema, para después centrarme en el bus del sistema, obteniendo unos resultados interesantes: si anteriormente el IMC aguantaba un bus de 260MHz con divisores en las memorias, cuando las memorias pasan a funcionar de forma síncrona, el IMC no es capaz de trabajar a esos 260MHz. Esto es debido a que según se eleva la frecuencia de trabajo del procesador, al IMC le supone mayor esfuerzo realizar su función a frecuencias en las que antes trabajaba sin problemas"
Con la información recopilada, se ha optado por elaborar 3 configuraciones distintas:
Daniel: "Sobre las latencias, en el caso de la configuración de referencia, fueron impuestas por la BIOS, y en los otros 2 casos, partiendo de la información del fabricante, busqué reducir en lo posible los valores, manteniendo la estabilidad
Se podría haber usado un valor de 5 señales de reloj para la latencias TRAS en la configuración con divisores, pero no había una diferencia de rendimiento significativa frente a usar 6, así que decidí utilizar 6 en ambos casos."
Overclockear la tarjeta gráfica se basa en encontar la velocida máxima de funcionamiento estable para la GPU y para sus memorias (éstas se suelen denominar GDDR"X", siendo la X el tipo de memoria DDR al que pertenezcan, con una G delante para hacer referencia a que som memorias usadas en una tarjeta gráfica).
Lo explicado en esta sección de la web puede ser fácilmente llevado a cualquier otro sistema con ayuda de un programa similar al utilizado por nosotros.
Usando el programa ATI Tray Tools (por si el nombre no lo deja claro, solamente funciona con tarjetas ATI) es tan fácil como abrir las opciones de overclock desde su icono en la barra de tareas:
![]() |
Desde la ventana que aparece, denominada Overclocking, dentro de la sección Artifac tester, mostrar el 3D Renderer, pulsando en Show 3D Renderer, con lo que aparece una animación en 3D generada por la tarjeta gráfica. Al hacerlo se habrán habilitado los 3 botones anteriormente sombreados, interesándonos por los dos denominados GPU y MEM.
Al pulsar el primero, el programa incrementará paulatinamente la frecuencia de trabajo de la GPU, tal y como muestra la barra Core Speed. Llegará un punto en el que la GPU no aguante más y cause el cuelgue del sistema, con lo cual una vez reiniciado el sistema, aplicamos una frecuencia ligeramente menor con la barra deslizante antes nombrada.
Repetimos el proceso, esta vez con el segundo botón, veremos, por la barra Memory Speed, que es la memoria gráfica la que está siendo overclockeada, y otra vez más, cuando se bloquee el sistema, reiniciamos y aplicamos una frecuencia ligeramente menor.
Guardamos las frecuencias de trabajo en un perfil (pinchando en el icono del disquete en la parte inferior de la ventana; teniendo activada la casilla Include clocks in profile).
Si un perfil causase inestabilidad en el equipo, se deben restaurar las frecuencias originales (botón Set Deafault Clocks), y comprobar qué componente de la tarjeta causaba el problema al elevar su frecuencia.
Cargar un perfil se realiza seleccionándolo de la lista desplegable, y pulsando en el icono de la carpeta a su lado, activándolo tras pinchar en Apply y Ok.
Siguiendo estas pautas, se ha pasado de unas frecuencias originales de 520MHz./540MHz. para GPU/GDDR3 respectivamente, a unos valores de 600MHz./630MHz. (en el mismo orden).
Ambas configuraciones de la tarjeta gráfica se han comparado poniéndolas a prueba con el benchmark del propio ATT y con el benchmark FutureMark 3DMark05, a su vez combinadas con las distintas configuraciones de CPU y de memoria del sistema anteriormente descritas.
El benchmark de ATT se ha utilizado porque evalúa el rendimiento de la tarjeta gráfica independientemente del sistema, como se verá a continuación en el resumen de resultados.
El benchmark 3DMark05 se ha utilizado por la gran aceptación y uso que tienen los benchmarks de Futuremark y para medir el rendimiento combinado de los 2 grupos de configuraciones, las de CPU y memoria principal y las de GPU y GDDR3.
Pensamos que está bien claro si merece o no la pena para los aficionados a la informática, o toda persona que disfrute utilizando su ordenador, acercarse a este mundillo del overclocking, aunque sólo sea por el mero hecho de "cacharrear" un poco, pues siempre genera satisfacción cuando aprendes algo nuevo o descubres como funcionan las cosas.
Hay que tener en cuenta que esto debe de hacerse con cuidado y con cabeza, pues si no lo hacemos así, en el proceso podemos cargarnos algún componente "caro" del equipo.
Esta obra está bajo una
licencia de Creative Commons.