Ordenadores con fallos y que funcionan perfectamente

¿Cuántas veces se nos ha quedado colgado el ordenador, casi siempre en medio de algún trabajo importante? Quizá por un fallo en el sistema operativo (generalmente la causa más probable) o quizá porque se sobrecalentó, un problema cada vez más acuciante con los nuevos chips, que necesitan una unidad disipadora con ventilador incorporado y algo que tendría que haber sido un 1 se transformó en un 0, o viceversa. Quizá la cabeza del disco giró más rápido de la cuenta, o golpeó con más fuerza de lo debido porque se encuentra desequilibrada. Son incontables los defectos de hardware que nos pueden arruinar, incluso muchos meses de trabajo si, como nos ocurre a la mayoría de los usuarios, la idea de hacer copias de seguridad jamás se nos pasa por la cabeza.

Texto:Rafael Hernández



Es cierto que los componentes de hardware son bastante robustos, desde luego mucho más que los componentes de software, debido a que los fabricantes de chips, circuitos integrados, discos, etc., toman buena cuenta en realizar exhaustivos controles de calidad para asegurar una fabricación lo mas perfecta posible. El precio que deben pagar para ello (y que luego repercute en nosotros, los sufridos usuarios) no es pequeño, pues necesitan construir fábricas especiales donde el ambiente y el polvo se encuentren controlados con microfiltros, ropas especiales y procedimientos de fabricación muy estrictos. Además, después de esto los productos sufren una serie de tests para asegurar que no ha habido errores de fabricación.

Un simple error, por minúsculo que sea, manda al cubo de basura a cualquiera de los Pentium de Intel, a menos que los chicos del departamento de marketing tengan la brillante idea de sacar un procesador "recortado", como hicieron con el caso del 486 DX y SX (la versión SX tenía el coprocesador inutilizado, no debido a un diseño especifico, sino a que eran aquellos DX a los que no les funcionaba el coprocesador matemático durante los tests de calidad).

Este exhaustivo control de calidad hace que los precios de los procesadores sean tan elevados. De hecho, ni siquiera todos los procesadores son iguales, de tal manera que existen varias categorías de calidad, aumentando el precio a medida que aumenta la calidad de los mismos, aunque se mantengan por igual la velocidad de reloj y otras características.

Así pues, los expertos predicen que a medida que los chips son más complejos y las fábricas más caras llegará un momento en que ninguna compañía podrá construir una nueva fábrica de chips, pues su precio será prohibitivo.

Hay además otro problema que comenzará a hacerse notar a medida que nos adentremos en el próximo milenio, los expertos predicen que si todo sigue como hasta ahora, para el año 2010 se habrán alcanzado los límites teórico y práctico de la actual tecnología de circuitos integrados con semiconductores, de tal manera que nos encontraremos en una vía muerta si antes no se buscan alternativas a esta tecnología. Algunas de las alternativas propuestas están basadas en autómatas celulares mecanocuánticos, redes neuronales con neuronas biológicas, transistores del tamaño de un átomo, nanodispositivos moleculares, etc.

Todas estas tecnologías tienen sus pros y sus contras. En particular la creación de ordenadores basados en la nanotecnología debe enfrentarse a un problema muy grave. Cómo construir un sistema preciso y fiable a partir de componentes con errores. Esto se debe al hecho de que la creación de componentes nanotecnológicos (generalmente cristales) no es perfecta y siempre hay impurezas.

 

Imágenes generadas con Teramac en configuración con hipercubo.

Imágenes generadas con Teramac en configuración con hipercubo.

Imágenes generadas con Teramac en configuración con hipercubo.

ARQUITECTURA A MEDIDA

TERAMAC: EL ORDENADOR MINUSVÁLIDO

EL ORDENADOR PROBETA

  Siguiente