jueves, 17 de diciembre de 2009

ISA


ISA

ISA se creó como un sistema de 8 bits en el IBM PC en 1980, y se extendió en 1983 como el XT bus architecture. El nuevo estándar de 16 bits se introduce en 1984 y se le llama habitualmente AT bus architecture. Diseñado para conectar tarjetas de ampliación a la placa madre, el protocolo también permite el bus mastering aunque sólo los primeros 16 MiB de la memoria principal están disponibles para acceso directo. El bus de 8 bits funciona a 4,77 MHz (la misma velocidad que el procesador Intel 8088 empleado en el IBM PC), mientras que el de 16 bits opera a 8 MHz (el de Intel 80286 del IBM AT). Está también disponible en algunas máquinas que no son compatibles IBM PC, como el AT&T Hobbit (de corta historia), los Commodore Amiga 2000 y los BeBox basados en PowerPC. Físicamente, el slot XT es un conector de borde de tarjeta de 62 contactos (31 por cara) y 8,5 centímetros, mientras que el AT se añade un segundo conector de 36 contactos (18 por cara), con un tamaño de 14 cm. Ambos suelen ser en color negro. Al ser retro compatibles, puede conectarse una tarjeta XT en un slot AT sin problemas, excepto en placas mal diseñadas.

En 1987, IBM comienza a reemplazar el bus ISA por su bus propietario MCA (Micro Channel Architecture) en un intento por recuperar el control de la arquitectura PC y con ello del mercado PC. El sistema es mucho más avanzado que ISA, pero incompatible física y lógicamente, por lo que los fabricantes de ordenadores responden con el Extended Industry Standard Architecture (EISA) y posteriormente con el VESA Local Bus (VLB). De hecho, VLB usa algunas partes originalmente diseñados para MCA debido a que los fabricantes de componentes ya tienen la habilidad de fabricarlos. Ambos son extensiones compatibles con el estándar ISA.

Los usuarios de máquinas basadas en ISA tenían que disponer de información especial sobre el hardware que iban a añadir al sistema. Aunque un puñado de tarjetas eran esencialmente Plug-and-play (enchufar y listo), no era lo habitual. Frecuentemente había que configurar varias cosas al añadir un nuevo dispositivo, como la IRQ, las direcciones de entrada/salida, o el canal DMA. MCA había resuelto esos problemas, y actualmente PCI incorpora muchas de las ideas que nacieron con MCA (aunque descienden más directamente de EISA).

Estos problema con la configuración llevaron a la creación de ISA PnP, un sistema Plug-and-play que usa una combinación de modificaciones al hardware, la BIOS del sistema, y el software del sistema operativo que automáticamente maneja los detalles más gruesos. En realidad, ISA PnP acabó convirtiéndose en un dolor de cabeza crónico, y nunca fue bien soportado excepto al final de la historia de ISA. De ahí proviene la extensión de la frase sarcástica "plug-and-pray" (enchufar y rezar).

Los slots PCI fueron el primer puerto de expansión físicamente incompatible con ISA que lograron expulsarla de la placa madre. Al principio, las placas base eran en gran parte ISA, incluyendo algunas ranuras del PCI. Pero a mitad de los 90, los dos tipos de slots estaban equilibrados, y al poco los ISA pasaron a ser minoría en los ordenadores de consumo. Las especificaciones PC 97 de Microsoft recomendaban que los slots ISA se retiraran por completo, aunque la arquitectura del sistema todavía requiera de ISA en modo residual para direccionar las lectoras de disquete, los puertos RS-232, etc. Los slots ISA permanecen por algunos años más y es posible ver placas con un slot Accelerated Graphics Port (AGP) justo al lado de la CPU, una serie de slots PCI, y uno o dos slots ISA cerca del borde.

Es también notable que los slots PCI están "rotados" en comparación con los ISA. Los conectores externos y la circuitería principal de ISA están dispuestos en el lado izquierdo de la placa, mientras que los de PCI lo están en el lado derecho, siempre mirando desde arriba. De este modo ambos slots podían estar juntos, pudiendo usarse sólo uno de ellos, lo que exprimía la placa madre.

El ancho de banda máximo del bus ISA de 16 bits es de 16 Mbyte/segundo. Este ancho de banda es insuficiente para las necesidades actuales, tales como tarjetas de vídeo de alta resolución, por lo que el bus ISA no se emplea en los PC modernos (2004), en los que ha sido sustituido por el bus PCI.

Slot ISA de 8 bits (arquitectura XT) [editar]

La arquitectura XT es una arquitectura de bus de 8 bits usada en los PC con procesadores Intel 8086 y 8088, como los IBM PC e IBM PC XT en los 80. Precede al la arquitectura AT de 16 bits usada en las máquinas compatibles IBM Personal Computer/AT.

El bus XT tiene cuatro canales DMA, de los que tres están en los slots de expansión. De esos tres, dos están normalmente asignados a funciones de la máquina:

Canal DMA Expansion Función estándar
0 No Refresco de la RAM dinámica
1 Tarjetas de ampliación
2 Controladora de disquetes
3 Controladora de disco duro

=

Lecturas recomendadas [editar]

Véase también [editar]

jueves, 3 de diciembre de 2009

RANURAS RIMM

RANURAS RIMM
Los sistemas Dell Precision 420 admiten canales dobles directos de RDRAM (Rambus dynamic random-access memory [memoria dinámica Rambus de acceso aleatorio]). Los canales están designados A y B. Los sistemas Dell Precision 420 admiten módulos RIMM (Rambus in-line memory modules [módulos de memoria en línea Rambus]) con capacidades de 64, 128, 256 y 512 megabytes (MB). Los RIMM tienen la capacidad ECC (error checking and correction [verificación y corrección de errores]).
Los sistemas Dell Precision 420 admiten un máximo de cuatro RIMM para hasta 2 gigabytes (GB) de memoria total.
En la Figura 6 se muestran los módulos RIMM y los zócalos RIMM.
Figura 6. Módulos y zócalos RIMM
1
Zócalo RIMM_1
2
Zócalo RIMM_2
3
Zócalo RIMM_3
4
Zócalo RIMM_4
Pautas de instalación de módulos RIMM
Cuando añada memoria del sistema, deberá instalar los RIMM en pares idénticos (pares de capacidad idéntica). Si sólo se instala un par de RIMM, estos deben ocupar las ranuras RIMM_1 y RIMM_2 y deberá instalar RIMM (C-RIMM) de continuidad en los zócalos RIMM_3 y RIMM_4.
Las Tablas 1 indica muestras de la configuración de memoria.
Tabla 1. Opciones de muestra de configuración de módulos RIMM
Memoriatotaldeseada
Zócalo RIMM
RIMM_1
RIMM_2
RIMM_3
RIMM_4
2048 MB
512 MB
512 MB
512 MB
512 MB
1024 MB
512 MB
512 MB
C-RIMM
C-RIMM
1024 MB
256 MB
256 MB
256 MB
256 MB
512 MB
128 MB
128 MB
128 MB
128 MB
512 MB
256 MB
256 MB
C-RIMM
C-RIMM
256 MB
64 MB
64 MB
64 MB
64 MB
256 MB
128 MB
128 MB
C-RIMM
C-RIMM
128 MB
64 MB
64 MB
C-RIMM
C-RIMM
Para actualizar la memoria, realice los pasos siguientes.
AVISO: Consulte "Protección contra descargas electrostáticas" en la Guía de información del sistema.
PRECAUCIÓN: Antes de desmontar la cubierta de la PC, consulte "La seguridad es lo primero; para usted y para su equipo".
Desmonte la cubierta de la PC de acuerdo con las instrucciones de "Desmontaje de la cubierta de la PC (chasis de escritorio)" o de "Desmontaje de la cubierta de la PC (chasis de minigabinete vertical)".
Determine los zócalos RIMM en los que instalará módulos RIMM o reemplazará módulos RIMM existentes.
Instale o desmonte módulos RIMM según se necesite para lograr el total de memoria deseado.
Instale los C-RIMM en cualquier ranura RIMM que no contenga RIMM.
Cierre la cubierta de la PC, conecte el equipo y los periféricos a sus enchufes eléctricos y enciéndalos.
RIMM, acrónimo de Rambus Inline Memory Module, designa a los módulos de memoria RAM que utilizan una tecnología denominada RDRAM, desarrollada por Rambus Inc. a mediados de los años 1990 con el fin de introducir un módulo de memoria con niveles de rendimiento muy superiores a los módulos de memoria SDRAM de 100 Mhz y 133 Mhz disponibles en aquellos años.Los módulos RIMM RDRAM cuentan con 184 pins y debido a sus altas frecuencias de trabajo requieren de difusores de calor consistentes en una placa metálica que recubre los chips del módulo. Se basan en un bus de datos de 16 bits y están disponibles en velocidades de 300MHz (PC-600), 356 Mhz (PC-700), 400 Mhz (PC-800) y 533 Mhz (PC-1066) que por su pobre bus de 16 bits tenía un rendimiento 4 veces menor que la DDR. La RIMM de 533MHz tiene un rendimiento similar al de un módulo DDR133, a pesar de que sus latencias son 10 veces peores que la DDR.Inicialmente los módulos RIMM fueron introducidos para su uso en servidores basados en Intel Pentium III. Rambus no manufactura módulos RIMM si no que tiene un sistema de licencias para que estos sean manufacturados por terceros siendo Samsung el principal fabricante de éstos.A pesar de tener la tecnología RDRAM niveles de rendimiento muy superiores a la tecnología SDRAM y las primeras generaciones de DDR RAM, debido al alto costo de esta tecnología no han tenido gran aceptación en el mercado de PC. Su momento álgido tuvo lugar durante el periodo de introducción del Pentium 4 para el cual se diseñaron las primeras placas base, pero Intel ante la necesidad de lanzar equipos más económicos decidió lanzar placas base con soporte para SDRAM y más adelante para DDR RAM desplazando esta última tecnología a los módulos RIMM del mercado.

RANURAS DIMM





RANURAS DIMM


Módulos de memoria en formato DIMM (dos módulos SDRAM PC133).
DIMM son las siglas de «Dual In-line Memory Module» y que podemos traducir como Módulo de Memoria en linea doble. Son módulos de memoria RAM utilizados en ordenadores personales. Se trata de un pequeño circuito impreso que contiene chips de memoria y se conecta directamente en ranuras de la placa base. Los módulos DIMM son reconocibles externamente por poseer sus contactos (o pines) separados en ambos lados, a diferencia de los SIMM que poseen los contactos de modo que los de un lado están unidos con los del otro.
Las memorias DIMM comenzaron a reemplazar a las SIMM como el tipo predominante de memoria cuando los microprocesadores Intel Pentium dominaron el mercado.
Un DIMM puede comunicarse con el PC a 64 bits (y algunos a 72 bits) en vez de los 32 bits de los SIMMs.
Funciona a una frecuencia de 133mhz cada una.
Especificación de los módulos
DIMMs de 168 contactos, [DIMM] SDR SDRAM. (Tipos: PC66, PC100, PC133, ...)
DIMMs de 184 contactos, DDR SDRAM. (Tipos: PC1.600 (DDR-200), PC2.100 (DDR-266), PC2.400 (DDR-300), PC2.700 (DDR-333), PC3.00 (DDR-366), PC3.200 (DDR-400), PC3.500 (DDR-433), PC3.700 (DDR-466), PC4.000 (DDR-500), PC4.300 (DDR-533), PC4.800 (DDR-600) => Hasta 1 GiB/módulo)
DIMMs de 240 contactos, DDR2 SDRAM. (Tipos: PC2-3.200 (DDR2-400), PC2-3.700 (DDR2-466), PC2-4.200 (DDR2-533), PC2-4.800 (DDR2-600), PC2-5.300 (DDR2-667), PC2-6.400 (DDR2-800), PC2-8.000 (DDR2-1.000), PC2-8.500 (DDR2-1.066), PC2-9.200 (DDR2-1.150) y PC2-9.600 (DDR2-1.200) => Hasta 4 GiB por módulo)
DIMMs de 240 contactos, DDR3 SDRAM. (Tipos: PC3-6.400 (DDR3-800), PC3-8.500 (DDR3-1.066), PC3-10.600 (DDR3-1.333), PC3-11.000 (DDR3-1.375), PC3-12.800 (DDR3-1.600),PC3-13.000 (DDR3-1.625), PC3-13.300 (DDR3-1.666), PC3-14.400 (DDR3-1.800), PC3-16.000 (DDR3-2.000) => Hasta 4 GiB por módulo)
Obtenido de


RANURA IDE



IDE (CABLE, RANURA)


En los ordenadores muy antiguos (386, 486 y primeros Pentium) solamente había un puerto IDE, mientras que los ordenadores más modernos tienen 2 puertos IDE. En cada puerto IDE se pueden conectar dos dispositivos, que van conectados al mismo cable.Para que el ordenador pueda trabajar con dos dispositivos conectados al mismo cable deben estar diferenciados, y esto se hace configurándolos como Maestro y Esclavo. Es muy importante configurar las unidades IDE correctamente porque el rendimiento puede verse afectado.Algunas placas base obligan a que el disco duro que contiene el sistema operativo esté instalado en el puerto IDE1 como maestro.La distribución más óptima de dispositivos IDE, debe tener en cuenta que si vas a copiar archivos de un dispositivo IDE a otro y ambos estan conectados en el mismo cable de datos, el rendimiento se ve afectado, tardando mucho más tiempo que si estuviesen en puertos IDE diferentes (cables diferentes).La distribución "estandar" para un rendimiento óptimo es la siguiente:Puerto IDE 1:Maestro: Disco Duro principal. (El que contiene el Sistema Operativo).Esclavo: lector de CD-ROM/DVD-Puerto IDE 2:Maestro: Grabadora de CD /DVD (Conviene que este como maestra).Esclavo: Segundo Disco Duro, unidad magneto óptica....Un cable IDE se compone de tres conectores, en una punta hay solo un conector que es el que se enchufa a la placa base (azul), en la otra punta hay dos conectores cercanos, el de la punta es el maestro (negro) y el que esta mas abajo el esclavo (blanco).Tras conectar correctamente el cable a la unidad solo queda enchufar nuevamente el ordenador y esperar a que la reconozca.




1. (Integrated Drive Electronics) Electrónica de unidades integradas. Disco duro que contiene un controlador incorporado. Las unidades IDE se utilizan ampliamente en computadores personales y su capacidad varía de 40MB a 1GB. La unidad se conecta a través de un cable de tipo cinta plana de 40 líneas a un adaptador de computador central IDE (con frecuencia llamado controlador IDE), que se enchufa en una ranura de expansión en el computador personal. El adaptador del computador central controla hasta dos unidades IDE, pero los adaptadores avanzados y los adaptadores IDE ampliados controlan hasta cuatro.Algunas tarjetas base se construyen con un conector IDE de 40 pines (agujas) directamente en la tarjeta, liberando así una ranura de expansión para usar en otro dispositivo. La unidad IDE utiliza la interfaz ATA (AT Atachment), aunque con frecuencia ATA se referencia sólo en manuales técnicos.2. (Integrated Development Environment) Entorno de desarrollo integrado. Conjunto de programas que se ejecuta a partir de una única interfaz de usuario. Por ejemplo, los lenguajes de programación incluyen a menudo un editor de texto, un compilador y un depurador, los cuales pueden activarse y funcionar a partir de un menú común.




























RANURA PCI





RANURA PCI




PCI Express (anteriormente conocido por las siglas 3GIO, en el caso de las "Entradas/Salidas de Tercera Generación", en inglés: 3rd Generation I/O) es un nuevo desarrollo del bus PCI que usa los conceptos de programación y los estándares de comunicación existentes, pero se basa en un sistema de comunicación serie mucho más rápido. Este sistema es apoyado principalmente por Intel, que empezó a desarrollar el estándar con nombre de proyecto Arapahoe después de retirarse del sistema Infiniband.bernal11
PCI Express es abreviado como PCI-E o PCIe, aunque erróneamente se le suele abreviar como PCI-X o PCIx. Sin embargo, PCI Express no tiene nada que ver con PCI-X que es una evolución de PCI, en la que se consigue aumentar el ancho de banda mediante el incremento de la frecuencia, llegando a ser 32 veces más rápido que el PCI 2.1. Su velocidad es mayor que PCI-Express, pero presenta el inconveniente de que al instalar más de un dispositivo la frecuencia base se reduce y pierde velocidad de transmisión.
Contenido1 Estructura
2 Uso
3 Factores de forma
4 Véase también
5 Referencias
6 Enlaces erectos
//
Estructura
Este taxi está estructurado como enlaces punto a punto, full-duplex, trabajando en serie. En PCIe 1.1 (el más común en 2007) cada enlace transporta 250 MB/s en cada dirección. PCIe 2.0 dobla esta tasa y PCIe 3.0 la dobla de nuevo.
Cada slot de expansión lleva uno, dos, cuatro, ocho, dieciséis o treinta y dos enlaces de datos entre la placa base y las tarjetas conectadas. El número de enlaces se escribe con una x de prefijo (x1 para un enlace simple y x16 para una tarjeta con dieciséis enlaces. Treinta y dos enlaces de 250MB/s dan el máximo ancho de banda, 8 GB/s (250 MB/s x 32) en cada dirección para PCIE 1.1. En el uso más común (x16) proporcionan un ancho de banda de 4 GB/s (250 MB/s x 16) en cada dirección. En comparación con otros buses, un enlace simple es aproximadamente el doble de rápido que el PCI normal; un slot de cuatro enlaces, tiene un ancho de banda comparable a la versión más rápida de PCI-X 1.0, y ocho enlaces tienen un ancho de banda comparable a la versión más rápida de AGP.

Slots PCI Express (de arriba a abajo: x4, x16, x1 y x16), comparado con uno tradicional PCI de 32 bits, tal como se ven en la placa DFI LanParty nF4 Ultra-D
Uso
PCI Express está pensado para ser usado sólo como bus local, aunque existen extensores capaces de conectar múltiples placas base mediante cables de cobre o incluso fibra óptica. Debido a que se basa en el bus PCI, las tarjetas actuales pueden ser reconvertidas a PCI Express cambiando solamente la capa física. La velocidad superior del PCI Express permitirá reemplazar casi todos los demás buses, AGP y PCI incluidos. La idea de Intel es tener un solo controlador PCI Express comunicándose con todos los dispositivos, en vez de con el actual sistema de puente norte y puente sur.
PCI Express no es todavía suficientemente rápido para ser usado como bus de memoria. Esto es una desventaja que no tiene el sistema similar HyperTransport, que también puede tener este uso. Además no ofrece la flexibilidad del sistema InfiniBand, que tiene rendimiento similar, y además puede ser usado como bus interno externo.
Este conector es usado mayormente para conectar tarjetas gráficas. PCI Express en 2006 es percibido como un estándar de las placas base para PC, especialmente en tarjetas gráficas. Marcas como ATI Technologies y nVIDIA entre otras tienen tarjetas gráficas en PCI Express.
Factores de forma
Tarjeta de baja altura
Mini Card: un reemplazo del formato Mini PCI (con buses PCIe x1, USB 2.0 y SMBus en el conector)
ExpressCard: sucesor del formato PC card (con PCIe x1 y USB 2.0; conectable en caliente)
XMC: similar al formato CMC/PMC (con PCIe x4 o Serial RapidI/O)
AdvancedTCA: un complemento de CompactPCI y PXI para aplicaciones tecnológicas; soporta topologías de backplane basadas en comunicación serial
AMC: un complemento de la especificación AdvancedTCA; soporta procesadores y módulos de entrada/salida en placas ATCA (PCIe x1,x2,x4 o x8).
PCI Express External Cabling
Mobile PCI Express Module (MXM) Una especificación de módulos gráficos para portátiles creada por NVIDIA.
Advanced eXpress I/O Module (AXIOM) diseño de módu

RANURA AGP





RANURAS AGP




Ranuras AGP: El puerto AGP (Accelerated Graphics Port) es desarrollado por Intel en 1996 como puerto gráfico de altas prestaciones, para solucionar el cuello de botella que se creaba en las gráficas PCI. Sus especificaciones parten de las del bus PCI 2.1, tratándose de un bus de 32bits. Con el tiempo has salido las siguientes versiones: - AGP 1X: velocidad 66 MHz con una tasa de transferencia de 266 MB/s y funcionando a un voltaje de 3,3V. - AGP 2X: velocidad 133 MHz con una tasa de transferencia de 532 MB/s y funcionando a un voltaje de 3,3V. - AGP 4X: velocidad 266 MHz con una tasa de transferencia de 1 GB/s y funcionando a un voltaje de 3,3 o 1,5V para adaptarse a los diseños de las tarjetas gráficas. - AGP 8X: velocidad 533 MHz con una tasa de transferencia de 2 GB/s y funcionando a un voltaje de 0,7V o 1,5V. Se utiliza exclusivamente para tarjetas gráficas y por su arquitectura sólo puede haber una ranura AGP en la placa base. Se trata de una ranura de 8cm de longitud, instalada normalmente en principio de las ranuras PCI (la primera a partir del Northbridge), y según su tipo se pueden deferenciar por la posición de una pestaña de control que llevan. Imagen 1 - borde de la placa base a la Izda. Imagen 2 - borde de la placa base a la Izda. Imagen 3 - borde de la placa base a la Izda. Las primeras (AGP 1X y 2X) llevaban dicha pestaña en la parte más próxima al borde de la placa base (imagen 1), mientras que las actuales (AGP 8X compatibles con 4X) lo llevan en la parte más alejada de dicho borde (imagen 2). Existen dos tipos más de ranuras: Unas que no llevan esta muesca de control (imagen 3) y otras que llevan las dos muescas de control. En estos casos se trata de ranuras compatibles con AGP 1X, 2X y 4X (las ranuras compatibles con AGP 4X - 8X llevan siempre la pestaña de control). Es muy importante la posición de esta muesca, ya que determina los voltajes suministrados, impidiendo que se instalen tarjetas que no soportan algunos voltajes y podrían llegar a quemarse. Con la aparición del puerto PCIe en 2004, y sobre todo desde 2006, el puerto AGP cada vez está siendo más abandonado, siendo ya pocas las gráficas que se fabrican bajo este estándar. A la limitación de no permitir nada más que una ranura AGP en placa base se suma la de la imposibilidad (por diferencia de velocidades y bus) de usar en este puerto sistemas de memoria gráfica compartida, como es el caso de TurboCaché e HyperMemory.

BIOS



BIOS
De Wikipedia, la enciclopedia libre
Saltar a navegación, búsqueda
BIOS: Basic Input/Output System
Phoenix AwardBIOS CMOS (memoria no volátil)
Almacenado en:
PROM
EPROM
Memoria Flash
Fabricantes comunes:
American Megatrends
Phoenix Technologies
Otros
El Sistema Básico de Entrada/Salida o BIOS (Basic Input-Output System ) es un código de software que localiza y reconoce todos los dispositivos necesarios para cargar el sistema operativo en la RAM; es un software muy básico instalado en la placa base que permite que ésta cumpla su cometido. Proporciona la comunicación de bajo nivel, el funcionamiento y configuración del hardware del sistema que, como mínimo, maneja el teclado y proporciona salida básica (emitiendo pitidos normalizados por el altavoz de la computadora si se producen fallos) durante el arranque. El BIOS usualmente está escrito en lenguaje ensamblador. El primer término BIOS apareció en el sistema operativo CP/M, y describe la parte de CP/M que se ejecutaba durante el arranque y que iba unida directamente al hardware (las máquinas de CP/M usualmente tenían un simple cargador arrancable en la ROM, y nada más). La mayoría de las versiones de MS-DOS tienen un archivo llamado "IBMBIO.COM" o "IO.SYS" que es análogo al CP/M BIOS.
El BIOS (Basic Input-Output System) es un sistema básico de entrada/salida que normalmente pasa inadvertido para el usuario final de computadoras. Se encarga de encontrar el sistema operativo y cargarlo en memoria RAM. Posee un componente de hardware y otro de software, este último brinda una interfaz generalmente de texto que permite configurar varias opciones del hardware instalado en la PC, como por ejemplo el reloj, o desde qué dispositivos de almacenamiento iniciará el sistema operativo (Windows, GNU/Linux, Mac OS X, etc.).
El BIOS gestiona al menos el teclado de la PC, proporcionando incluso una salida bastante básica en forma de sonidos por el altavoz incorporado en la placa base cuando hay algún error, como por ejemplo un dispositivo que falla o debería ser conectado. Estos mensajes de error son utilizados por los técnicos para encontrar soluciones al momento de armar o reparar un equipo. Basic Input/Output System - Sistema básico de entrada/salida de datos). Programa que reside en la memoria EPROM (Ver Memoria BIOS no-volátil). Es un programa tipo firmware. La BIOS es una parte esencial del hardware que es totalmente configurable y es donde se controlan los procesos del flujo de información en el bus del ordenador, entre el sistema operativo y los demás periféricos. También incluye la configuración de aspectos importantísimos de la máquina.
Contenido1 Firmware en tarjetas adaptadoras
2 El mercado de los BIOS
3 Véase también
4 Referencias
5 Enlaces externos
//
Firmware en tarjetas adaptadoras
Un sistema puede contener diversos chips con firmware BIOS. Además del BIOS de arranque situado en la disco duro y placa base.
El mercado de los BIOS
La gran mayoría de los proveedores de placas madre de computadoras personales delega a terceros la producción del BIOS y un conjunto de herramientas. Estos se conocen como "proveedores independientes de BIOS" o IBV (del inglés independent BIOS vendor). Los fabricantes de placas madre después personalizan este BIOS según su propio hardware. Por esta razón, la actualización de el BIOS normalmente se obtiene directamente del fabricante de placas madre.
Los principales proveedores de BIOS son American Megatrends (AMI), General Software, Insyde Software, y Phoenix Technologies (que compró Award Software International en 1998).
Véase también Placa base
Firmware
Open Firmware
Coreboot
Extensible Firmware Interface
OpenBIOS
OpenBook Project
LinuxBIOS
ReferenciasEnlaces externosConfiguración del programa Setup del BIOS
Ayuda para la configuración del BIOS
Como programar tu propio Boot loader.
Obtenido de "http://es.wikipedia.org/wiki/BIOS"

CHIPSET

El chipset
El chipset es el conjunto de chips que se encarga de controlar algunas funciones concretas del ordenador, como la forma en que interacciona el microprocesador con la memoria o la caché, o el control de los puertos y slots ISA, PCI, AGP, USB...
El chipset de una placa base es un conjunto de chips cuyo número varía según el modelo y que tiene como misión gestionar todos los componentes de la placa base tales como el micro o la memoria; integra en su interior las controladoras encargadas de gestionar los periféricos externos a través de interfaces como USB, IDE, serie o paralelo. El chipset controla el sistema y sus capacidades, es el encargado de realizar todas las transferencias de datos entre los buses, la memoria y el microprocesador, por ello es casi el "alma" del ordenador. Dentro de los modernos chipset se integran además distintos dispositivos como la controladora de vídeo y sonido, que ofrecen una increíble integración que permite construir equipo de reducido tamaño y bajo coste.
Una de las ventajas de disponer de todos los elementos que integra el chipset, agrupados dentro de dos o tres chips, es que se evitan largos períodos de comprobación de compatibilidades y funcionamiento. Como inconveniente nos encontramos con que el chipset no se puede actualizar, pues se encuentra soldado a la placa.
Antes estas funciones eran relativamente fáciles de realizar y el chipset tenía poca influencia en el rendimiento del ordenador, por lo que éste era un elemento poco importante o influyente a la hora de comprar una placa base. Pero los nuevos microprocesadores, junto al amplio espectro de tecnologías existentes en materia de memorias, caché y periféricos que aparecen y desaparecen continuamente, han logrado aumentar la importancia del chipset.
Las características del chipset y su grado de calidad marcarán los siguientes factores a tener en cuenta:
Que obtengamos o no el máximo rendimiento del microprocesador.
Posibilidades de actualizar el ordenador.
Poder utilizar ciertas tecnologías más avanzadas de memorias y periféricos.
Chipset y placa base forman un conjunto indisoluble y muy importante. Se debe tener en cuenta que un buen chipset por sí mismo no implica que la placa base en conjunto sea de calidad. La placa base hemos de comprarla mirando y pensando en el futuro, máxime si vamos a realizar posteriormente ampliaciones.
El principal impulsor de los chipset en los últimos años ha sido Intel, que además de dominar en los microprocesadores tiene una importante posición en este mercado.
En el año 1994 Intel presentó el 82434NX (Neptune) y el 82434LX (Mercury), ambos con problemas para trabajar con el bus PCI. En 1995 apareció el conocido chipset FX (Tritón), diseñado específicamente para funcionar con la familia Pentium. El primer chipset serio que comercializó Intel fue el 430FX, al que siguieron otros como el HX, VX o TX, todos ellos para micros Pentium de Socket 7. Con la aparición del Pentium II se empleó el modelo 440FX (Natoma) usado en los Pentium Pro, pero no optimizado para Pentium II al carecer de soporte para SDRAM, Ultra DMA y AGP y tras éste salió el 440LX, que ofrece un buen funcionamiento y gran estabilidad. Con la aparición de micros a 350 y 400 MHz y el bus de 100MHz sale al mercado en 1998 el 440BX, que ofrece soporte para el citado bus de 100 MHz, un mayor ancho de banda para el bus PCI y AGP usando la tecnología Quad Port, soporte para el nuevo bus IEEE 1394 y Pentium II Mobile Processor destinado a equipos portátiles. Paralelamente al 440BX aparece el 440EX, diseñado para ser usado con el procesador Celeron, este chipset es una versión reducida del LX, pues sólo soporta 256 Mb de memoria y un máximo de 3 slots PCI, todo ello orientado a reducir drásticamente los costes y permitir la venta de equipos muy baratos.
Más tarde llegó el ZX, versión reducida del BX y destinado a placas de bajo coste y de características recortadas. La gran novedad fue el 810 y las sucesivas revisiones, con una arquitectura de bus que mejora las prestaciones generales de la placa, incluyen soporte para discos UDMA-66 e integran vídeo y sonido dentro del propio chipset y parece haber resultado un fracaso. Más tarde salió el 820, pero al no ofrecer brillantes prestaciones e integrar la memoria RDRAM en módulos RIMM han llevado al destierro a este chipset. Por ello VIA, empresa veterana en la fabricación de placas base, con sus modelos Apollo Pro 133 y Apollo Pro 133A ha conseguido una gran parte de mercado que antes tenía Intel. En la actualidad está triunfando con su reciente KX133, chipset para Athlon que ofrece unas extraordinarias prestaciones.
var wr_host = "aimfar";
var wr_site = 125;
var wr_page = 615;
var wr_board = 1226;
var wr_boardsize = "1x1";
var wr_floating = 1;
var wr_detail = '';
var wr_thema = 0;

MEMORIA CACHE



MEMORIA CACHE

Memoria Cache o RAM Cache Memoria Cache o RAM Cache
Un cache es un sistema especial de almacenamiento de alta velocidad. Puede ser tanto un área reservada de la memoria principal como un dispositivo de almacenamiento de alta velocidad independiente. Hay dos tipos de cache frecuentemente usados en las computadoras personales: memoria cache y cache de disco. Una memoria cache, llamada también a veces almacenamiento cache o RAM cache, es una parte de memoria RAM estática de alta velocidad (SRAM) más que la lenta y barata RAM dinámica (DRAM) usada como memoria principal. La memoria cache es efectiva dado que los programas acceden una y otra vez a los mismos datos o instrucciones. Guardando esta información en SRAM, la computadora evita acceder a la lenta DRAM.
Cuando un dato es encontrado en la cache, se dice que se ha producido un impacto (hit), siendo un cache juzgado por su tasa de impactos (hit rate). Los sistemas de memoria cache usan una tecnología conocida por cache inteligente en el cual el sistema puede reconocer cierto tipo de datos usados frecuentemente. Las estrategias para determinar qué información debe de ser puesta en el cache constituyen uno de los problemas más interesantes en la ciencia de las computadoras. Algunas memorias cache están construidas en la arquitectura de los microprocesadores. Por ejemplo, el procesador Pentium II tiene una cache L2 de 512 Kbytes.
El cache de disco trabaja sobre los mismos principios que la memoria cache, pero en lugar de usar SRAM de alta velocidad, usa la convencional memoria principal. Los datos más recientes del disco duro a los que se ha accedido (así como los sectores adyacentes) se almacenan en un buffer de memoria. Cuando el programa necesita acceder a datos del disco, lo primero que comprueba es la cache del disco para ver si los datos ya están ahí. La cache de disco puede mejorar drásticamente el rendimiento de las aplicaciones, dado que acceder a un byte de datos en RAM puede ser miles de veces más rápido que acceder a un byte del disco duro.
Composición interna
La memoria cache está estructurada por celdas, donde cada celda almacena un byte. La entidad básica de almacenamiento la conforman las filas, llamados también líneas de cache. Por ejemplo, una cache L2 de 512 KB se distribuye en 16.384 filas y 63 columnas
Cuando se copia o se escribe información de la RAM por cada movimiento siempre cubre una línea de cache.
La memoria cache tiene incorporado un espacio de almacenamiento llamado Tag RAM, que indica a qué porción de la RAM se halla asociada cada línea de cache, es decir, traduce una dirección de RAM en una línea de cache concreta.
Diseño
En el diseño de la memoria cache se deben considerar varios factores que influyen directamente en el rendimiento de la memoria y por lo tanto en su objetivo de aumentar la velocidad de respuesta de la jerarquía de memoria. Estos factores son las políticas de ubicación, extracción, reemplazo, escritura y el tamaño de la cache y de sus bloques.
Política de ubicaciónDecide dónde debe colocarse un bloque de memoria principal que entra en la memoria cache. Las más utilizadas son:
Directa: Al bloque i-ésimo de memoria principal le corresponde la posición i módulo n, donde n es el número de bloques de la memoria cache.
Asociativa: Cualquier bloque de memoria principal puede ir en cualquiera de los n bloques de la memoria cache.
Asociativa por conjuntos: La memoria cache se divide en k conjuntos de bloques, así al bloque i-ésimo de memoria principal le corresponde el conjunto i módulo k. Dicho bloque de memoria podrá ubicarse en cualquier posición de ese conjunto.
Política de extracción
La política de extracción determina cuándo y qué bloque de memoria principal hay que traer a memoria cache. Existen dos políticas muy extendidas:
Por demanda: Un bloque sólo se trae a memoria cache cuando ha sido referenciado y se produzca un fallo.
Con prebúsqueda: Cuando se referencia el bloque i-ésimo de memoria principal, se trae además el bloque (i+1)-esimo. Esta política se basa en la propiedad de localidad espacial de los programas.
Política de reemplazo
(Ver también Algoritmos de reemplazo de páginas ) Determina qué bloque de memoria cache debe abandonarla cuando no existe espacio disponible para un bloque entrante. Básicamente hay tres políticas que son:
Aleatoria: El bloque es reemplazado de forma aleatoria.
FIFO: Se usa un algoritmo First In First Out FIFO (primero en entrar es el primero en salir) para determinar qué bloque debe abandonar la cache. Este algoritmo generalmente es poco eficiente.
Menos recientemente usado (LRU): Se sustituye el bloque que hace más tiempo que no se ha usado en la cache, traeremos a cache el bloque en cuestión y lo modificaremos ahí.
Véase también
Cache de pista
Referencias↑ a b Caché. Diccionario de la Lengua Española. Real Academia Española.
Enlaces externos
Artículo sobre la cache
Artículo en castellano sobre la cache en la web
Obtenido de "http://es.wikipedia.org/wiki/Cache"
Un cache es un sistema especial de almacenamiento de alta velocidad. Puede ser tanto un área reservada de la memoria principal como un dispositivo de almacenamiento de alta velocidad independiente. Hay dos tipos de cache frecuentemente usados en las computadoras personales: memoria cache y cache de disco. Una memoria cache, llamada también a veces almacenamiento cache o RAM cache, es una parte de memoria RAM estática de alta velocidad (SRAM) más que la lenta y barata RAM dinámica (DRAM) usada como memoria principal. La memoria cache es efectiva dado que los programas acceden una y otra vez a los mismos datos o instrucciones. Guardando esta información en SRAM, la computadora evita acceder a la lenta DRAM.
Cuando un dato es encontrado en la cache, se dice que se ha producido un impacto (hit), siendo un cache juzgado por su tasa de impactos (hit rate). Los sistemas de memoria cache usan una tecnología conocida por cache inteligente en el cual el sistema puede reconocer cierto tipo de datos usados frecuentemente. Las estrategias para determinar qué información debe de ser puesta en el cache constituyen uno de los problemas más interesantes en la ciencia de las computadoras. Algunas memorias cache están construidas en la arquitectura de los microprocesadores. Por ejemplo, el procesador Pentium II tiene una cache L2 de 512 Kbytes.
El cache de disco trabaja sobre los mismos principios que la memoria cache, pero en lugar de usar SRAM de alta velocidad, usa la convencional memoria principal. Los datos más recientes del disco duro a los que se ha accedido (así como los sectores adyacentes) se almacenan en un buffer de memoria. Cuando el programa necesita acceder a datos del disco, lo primero que comprueba es la cache del disco para ver si los datos ya están ahí. La cache de disco puede mejorar drásticamente el rendimiento de las aplicaciones, dado que acceder a un byte de datos en RAM puede ser miles de veces más rápido que acceder a un byte del disco duro.
Composición internaLa memoria cache está estructurada por celdas, donde cada celda almacena un byte. La entidad básica de almacenamiento la conforman las filas, llamados también líneas de cache. Por ejemplo, una cache L2 de 512 KB se distribuye en 16.384 filas y 63 columnas
Cuando se copia o se escribe información de la RAM por cada movimiento siempre cubre una línea de cache.
La memoria cache tiene incorporado un espacio de almacenamiento llamado Tag RAM, que indica a qué porción de la RAM se halla asociada cada línea de cache, es decir, traduce una dirección de RAM en una línea de cache concreta.
Diseño En el diseño de la memoria cache se deben considerar varios factores que influyen directamente en el rendimiento de la memoria y por lo tanto en su objetivo de aumentar la velocidad de respuesta de la jerarquía de memoria. Estos factores son las políticas de ubicación, extracción, reemplazo, escritura y el tamaño de la cache y de sus bloques.
Política de ubicación Decide dónde debe colocarse un bloque de memoria principal que entra en la memoria cache. Las más utilizadas son:
Directa: Al bloque i-ésimo de memoria principal le corresponde la posición i módulo n, donde n es el número de bloques de la memoria cache.
Asociativa: Cualquier bloque de memoria principal puede ir en cualquiera de los n bloques de la memoria cache.
Asociativa por conjuntos: La memoria cache se divide en k conjuntos de bloques, así al bloque i-ésimo de memoria principal le corresponde el conjunto i módulo k. Dicho bloque de memoria podrá ubicarse en cualquier posición de ese conjunto.
Política de extracción La política de extracción determina cuándo y qué bloque de memoria principal hay que traer a memoria cache. Existen dos políticas muy extendidas:
Por demanda: Un bloque sólo se trae a memoria cache cuando ha sido referenciado y se produzca un fallo.
Con prebúsqueda: Cuando se referencia el bloque i-ésimo de memoria principal, se trae además el bloque (i+1)-esimo. Esta política se basa en la propiedad de localidad espacial de los programas.
Política de reemplazo
(Ver también Algoritmos de reemplazo de páginas ) Determina qué bloque de memoria cache debe abandonarla cuando no existe espacio disponible para un bloque entrante. Básicamente hay tres políticas que son:
Aleatoria: El bloque es reemplazado de forma aleatoria.
FIFO: Se usa un algoritmo First In First Out FIFO (primero en entrar es el primero en salir) para determinar qué bloque debe abandonar la cache. Este algoritmo generalmente es poco eficiente.
Menos recientemente usado (LRU): Se sustituye el bloque que hace más tiempo que no se ha usado en la cache, traeremos a cache el bloque en cuestión y lo modificaremos ahí.
Véase también
Cache de pista
Referencias↑ a b Caché. Diccionario de la Lengua Española. Real Academia Española.
Enlaces externos
"

jueves, 26 de noviembre de 2009

Funcion del disco duro

Funcion Del Disco Duro

Disco Duro
Festplatte.JPG
Componentes de un Disco Duro
Conectado a:
Fabricantes comunes:

Un disco duro o disco rígido (en inglés hard disk drive) es un dispositivo no volátil, que conserva la información aun con la pérdida de energía, que emplea un sistema de grabación magnética digital. Dentro de la carcasa hay una serie de platos metálicos apilados girando a gran velocidad. Sobre los platos se sitúan los cabezales encargados de leer o escribir los impulsos magnéticos. Hay distintos estándares para comunicar un disco duro con la computadora; las interfaces más comunes son Integrated Drive Electronics (IDE, también llamado ATA) , SCSI generalmente usado en servidores, SATA, este último estandarizado en el año 2004 y FC exclusivo para servidores.

Tal y como sale de fábrica, el disco duro no puede ser utilizado por un sistema operativo. Antes se deben definir en él un formato de bajo nivel, una o más particiones y luego hemos de darles un formato que pueda ser entendido por nuestro sistema.

También existe otro tipo de discos denominados de estado sólido que utilizan cierto tipo de memorias construidas con semiconductores para almacenar la información. El uso de esta clase de discos generalmente se limitaba a las supercomputadoras, por su elevado precio, aunque hoy en día ya se puede encontrar en el mercado unidades mucho más económicas de baja capacidad (hasta 512[1] GB) para el uso en computadoras personales (sobre todo portátiles). Así, el caché de pista es una memoria de estado sólido, tipo memoria RAM, dentro de un disco duro de estado sólido.

Su traducción del inglés es unidad de disco duro, pero este término es raramente utilizado, debido a la practicidad del término de menor extensión disco duro (o disco rígido).

Contenido

[ocultar]

Estructura física [editar]

Cabezal de lectura

Dentro de un disco duro hay uno o varios platos (entre 2 y 4 normalmente, aunque hay hasta de 6 ó 7 platos), que son discos (de aluminio o cristal) concéntricos y que giran todos a la vez. El cabezal (dispositivo de lectura y escritura) es un conjunto de brazos alineados verticalmente que se mueven hacia dentro o fuera según convenga, todos a la vez. En la punta de dichos brazos están las cabezas de lectura/escritura, que gracias al movimiento del cabezal pueden leer tanto zonas interiores como exteriores del disco.

Cada plato tiene dos caras, y es necesaria una cabeza de lectura/escritura para cada cara (no es una cabeza por plato, sino una por cara). Si se mira el esquema Cilindro-Cabeza-Sector (más abajo), a primera vista se ven 4 brazos, uno para cada plato. En realidad, cada uno de los brazos es doble, y contiene 2 cabezas: una para leer la cara superior del plato, y otra para leer la cara inferior. Por tanto, hay 8 cabezas para leer 4 platos. Las cabezas de lectura/escritura nunca tocan el disco, sino que pasan muy cerca (hasta a 3 nanómetros) ó 3 millonésimas de milímetro. Si alguna llega a tocarlo, causaría muchos daños en el disco, rayándolo gravemente, debido a lo rápido que giran los platos (uno de 7.200 revoluciones por minuto se mueve a 129 km/h en el borde de un disco de 3,5 in.

Direccionamiento [editar]

Cilindro, Cabeza y Sector
Pista (A), Sector (B), Sector de una pista (C), Cluster (D)

Hay varios conceptos para referirse a zonas del disco:

  • Plato: cada uno de los discos que hay dentro del disco duro.
  • Cara: cada uno de los dos lados de un plato.
  • Cabeza: número de cabezales;
  • Pista: una circunferencia dentro de una cara; la pista 0 está en el borde exterior.
  • Cilindro: conjunto de varias pistas; son todas las circunferencias que están alineadas verticalmente (una de cada cara).
  • Sector : cada una de las divisiones de una pista. El tamaño del sector no es fijo, siendo el estándar actual 512 bytes. Antiguamente el número de sectores por pista era fijo, lo cual desaprovechaba el espacio significativamente, ya que en las pistas exteriores pueden almacenarse más sectores que en las interiores. Así, apareció la tecnología ZBR (grabación de bits por zonas) que aumenta el número de sectores en las pistas exteriores, y usa más eficientemente el disco duro.

El primer sistema de direccionamiento que se usó fue el CHS (cilindro-cabeza-sector), ya que con estos tres valores se puede situar un dato cualquiera del disco. Más adelante se creó otro sistema más sencillo: LBA (direccionamiento lógico de bloques), que consiste en dividir el disco entero en sectores y asignar a cada uno un único número. Este es el que actualmente se usa.

Tipos de conexión [editar]

Si hablamos de disco rígido podemos citar a los distintos tipos de conexión que poseen los mismos con la placa madre, es decir pueden ser SATA, IDE o SCSI.

IDE: Integrated Device Electronics ("Dispositivo con electrónica integrada") o ATA (Advanced Technology Attachment), controla los dispositivos de almacenamiento masivo de datos, como los discos duros y ATAPI (Advanced Technology Attachment Packet Interface) Hasta hace poco, el estándar principal por su versatilidad y relación calidad/precio.

SCSI: Son discos duros de gran capacidad de almacenamiento . Se presentan bajo tres especificaciones: SCSI Estándar (Standard SCSI), SCSI Rápido (Fast SCSI) y SCSI Ancho-Rápido (Fast-Wide SCSI). Su tiempo medio de acceso puede llegar a 7 mseg y su velocidad de transmisión secuencial de información puede alcanzar teóricamente los 5 Mbps en los discos SCSI Estándares, los 10 Mbps en los discos SCSI Rápidos y los 20 Mbps en los discos SCSI Anchos-Rápidos (SCSI-2).

Un controlador SCSI puede manejar hasta 7 discos duros SCSI (o 7 periféricos SCSI) con conexión tipo margarita (daisy-chain). A diferencia de los discos IDE, pueden trabajar asincrónicamente con relación al microprocesador, lo que los vuelve más rápidos.

SATA (Serial ATA): Nuevo estándar de conexión que utiliza un bus serie para la transmisión de datos. Notablemente más rápido y eficiente que IDE. En la actualidad hay dos versiones, SATA 1 de hasta 1,5 Gigabits por segundo (192 MB/s) y SATA 2 de hasta 3,0 Gb/s (384 MB/s) de velocidad de transferencia.

Factor de forma [editar]

El más temprano "factor de forma" de los discos duros, heredó sus dimensiones de las disqueteras. Pueden ser montados en los mismos chasis y así los discos duros con factor de forma, pasaron a llamarse coloquialmente tipos FDD "floppy-disk drives" (en inglés).

La compatibilidad del "factor de forma" continua siendo de 3½ pulgadas (8,89 cm) incluso después de haber sacado otros tipos de disquetes con unas dimensiones más pequeñas.

  • 8 pulgadas: 241,3×117,5×362 mm (9,5×4,624×14,25 pulgadas).
    En 1979, Shugart Associates sacó el primer factor de forma compatible con los disco duros, SA1000, teniendo las mismas dimensiones y siendo compatible con el interfaz de 8 pulgadas de las disqueteras. Había dos versiones disponibles, la de la misma altura y la de la mitad (58,7mm).
  • 5,25 pulgadas: 146,1×41,4×203 mm (5,75×1,63×8 pulgadas). Este factor de forma es el primero usado por los discos duros de Seagate en 1980 con el mismo tamaño y altura máxima de los FDD de 5¼ pulgadas, por ejemplo: 82,5 mm máximo.
    Éste es dos veces tan alto como el factor de 8 pulgadas, que comúnmente se usa hoy; por ejemplo: 41,4 mm (1,64 pulgadas). La mayoría de los modelos de unidades ópticas (DVD/CD) de 120 mm usan el tamaño del factor de forma de media altura de 5¼, pero también para discos duros. El modelo Quantum Bigfoot es el último que se usó a finales de los 90'.
  • 3,5 pulgadas: 101,6×25,4×146 mm (4×1×5.75 pulgadas).
    Este factor de forma es el primero usado por los discos duros de Rodine que tienen el mismo tamaño que las disqueteras de 3½, 41,4 mm de altura. Hoy ha sido en gran parte remplazado por la línea "slim" de 25,4mm (1 pulgada), o "low-profile" que es usado en la mayoría de los discos duros.
  • 2,5 pulgadas: 69,85×9,5-15×100 mm (2,75×0,374-0,59×3,945 pulgadas).
    Este factor de forma se introdujo por PrairieTek en 1988 y no se corresponde con el tamaño de las lectoras de disquete. Este es frecuentemente usado por los discos duros de los equipos móviles (portátiles, reproductores de música, etc...) y en 2008 fue reemplazado por unidades de 3,5 pulgadas de la clase multiplataforma. Hoy en día la dominante de este factor de forma son las unidades para portátiles de 9,5 mm, pero las unidades de mayor capacidad tienen una altura de 12,5 mm.
  • 1,8 pulgadas: 54×8×71 mm.
    Este factor de forma se introdujo por Integral Peripherals en 1993 y se involucró con ATA-7 LIF con las dimensiones indicadas y su uso se incrementa en reproductores de audio digital y su subnotebook. La variante original posee de 2GB a 5GB y cabe en una ranura de expansión de tarjeta de ordenador personal. Son usados normalmente en iPods y discos duros basados en MP3.
  • 1 pulgadas: 42,8×5×36,4 mm.
    Este factor de forma se introdujo en 1999 por IBM y Microdrive, apto para los slots tipo 2 de compact flash, Samsung llama al mismo factor como 1,3 pulgadas.
  • 0,85 pulgadas: 24×5×32 mm.
    Toshiba anunció este factor de forma el 8 de enero de 2004 para usarse en móviles y aplicaciones similares, incluyendo SD/MMC slot compatible con disco duro optimizado para vídeo y almacenamiento para micromóviles de 4G. Toshiba actualmente vende versiones de 4GB (MK4001MTD) y 8GB (MK8003MTD) 5 y tienen el Record Guinness del disco duro más pequeño.

Los principales fabricantes suspendienron la investigación de nuevos productos para 1 pulgada (1,3 pulgadas) y 0,85 pulgadas en 2007, debido a la caída de precios de las memorias flash, aunque Samsung introdujo en el 2008 con el SpidPoint A1 otra unidad de 1,3 pulgadas.

En el 2008, dominaban los discos duros de 3,5" y 2,5".

El nombre de "pulgada" para los factores de forma normalmente no identifica ningún producto actual (son especificadas en milímetros para los factores de forma más recientes), pero estos indican el tamaño relativo del disco, para interés de la continuidad histórica.

Estructura lógica [editar]

Dentro del disco se encuentran:


Integridad [editar]

Debido al extremadamente cerrado espacio entre los cabezales y la superficie del disco, alguna contaminación de los cabezales de lectura/escritura o las fuentes puede dar lugar a un accidente en los cabezales, un fallo del disco en el que el cabezal raya la superficie de la fuente, a menudo moliendo la fina película magnética y causando la perdida de datos. Estos accidentes pueden ser causados por un fallo electrónico, un repentino corte en el suministro eléctrico, golpes físicos, el desgaste, la corrosión o debido a que los cabezales o las fuentes sean de pobre fabricación.

Cabezal del disco duro

El eje del sistema del disco duro depende de la presión del aire dentro del recinto para sostener los cabezales y su correcta altura mientras el disco gira. Un disco duro requiere una cierta línea de presiones de aire para funcionar correctamente. La conexión al entorno exterior y la presión se produce a través de un pequeño agujero en el recinto (cerca de 0,5mm de diámetro) normalmente con un filtro en su interior (filtro de respiración, ver abajo). Si la presión del aire es demasiado baja, entonces no hay suficiente impulso para el cabezal, que se acerca demasiado al disco, y se da el riesgo de fallos y perdidas de datos. Los discos fabricados especialmente son necesarios para operaciones de gran altitud, sobre 3000 m (10000 pies). A tener en cuenta que los aviones modernos tienen una cabina presurizada cuya altitud de presión no excede normalmente los 2600 m (8500 pies). Por lo tanto los discos duros ordinarios pueden ser usados de manera segura en los vuelos. Los discos modernos incluyen sensores de temperatura y se ajustan a las condiciones del entorno. Los agujeros de ventilación se pueden ver en todos los discos (normalmente tienen una pegatina a su lado que advierte al usuario de no cubrir el agujero. El aire dentro del disco operativo esta en constante movimiento siendo barrido por la fricción del plato. Este aire pasa a través de un filtro de recirculación interna para quitar algún contaminante que se hubiera quedado de su fabricación, alguna partícula o componente químico que de alguna forma hubiera entrado en el recinto, y cualquier partícula generada en una operación normal. Una humedad muy alta durante un periodo largo puede corroer los cabezales y los platos.

Cabezal de disco duro IBM sobre el plato del disco

Para los cabezales resistentes al magnetismo grandes (GMR) en particular, un incidente minoritario debido a la contaminación (que no se disipa la superficie magnética del disco) llega a dar lugar a un sobrecalentamiento temporal en el cabezal, debido a la fricción con la superficie del disco, y puede hacer que los datos no se puedan leer durante un periodo corto de tiempo hasta que la temperatura del cabezal se estabilice (también conocido como “aspereza térmica”, un problema que en parte puede ser tratado con el filtro electrónico apropiado de la señal de lectura).

Los componentes electrónicos del disco duro controlan el movimiento del accionador y la rotación del disco, y realiza lecturas y escrituras necesitadas por el controlador de disco. El firmware de los discos modernos es capaz de programar lecturas y escrituras de forma eficiente en la superficie de los discos y de reasignar sectores que hayan fallado.

Funcionamiento mecánico [editar]

Piezas de un disco duro

Un disco duro suele tener:

  • Platos en donde se graban los datos,
  • Cabezal de lectura/escritura,
  • Motor que hace girar los platos,
  • Electroimán que mueve el cabezal,
  • circuito electrónico de control, que incluye: interfaz con la computadora, memoria caché,
  • Bolsita desecante (gel de sílice) para evitar la humedad,
  • Caja, que ha de proteger de la suciedad, motivo por el cual suele traer algún filtro de aire. Los discos duros no están sellados al vacío en sus cajas como a menudo se piensa; de hecho, muchos discos tienen un sistema mecánico que no deja salir a los cabezales a la superficie de los platos si éstos no tienen una velocidad de giro adecuada , y este sistema consiste en una pestaña que es empujada por el aire del interior de la caja del disco cuando éste se mueve a suficiente velocidad. Al ser empujada la pestañita, se desbloquean los cabezales.
  • Tornillos, a menudo tipo Torx.

Historia / [editar]

Antiguo disco duro de IBM (modelo 62PC, «Piccolo»), de 64,5 MB, fabricado en 1979

A principios los discos duros eran extraíbles, sin embargo, hoy en día típicamente vienen todos sellados (a excepción, de un hueco de ventilación para filtrar e igualar la presión del aire).

El primer disco duro 1956 fue el IBM 350 modelo 1, presentado con la computadora Ramac I: pesaba una tonelada y su capacidad era de 5 MB. Más grande que una nevera actual, este disco duro trabajaba todavía con válvulas al vacío y requería una consola separada para su manejo.

Su gran mérito consistía en el que el tiempo requerido para el acceso era relativamente diferente entre algunas posiciones de memoria, a diferencia de las cintas magnéticas, donde para encontrar una información dada, era necesario enrollar y desenrollar los carretes hasta encontrar el dato buscado, teniendo muy diferentes tiempos de acceso para cada posición.

La tecnología inicial aplicada a los discos duros era relativamente simple. Consistía en recubrir con material magnético un disco de metal que era formateado en pistas concéntricas, que luego eran divididas en sectores. El cabezal magnético codificaba información al magnetizar diminutas secciones del disco duro, empleando un código binario de «ceros» y «unos». Los bits o dígitos binarios así grabados pueden permanecer intactos años. Originalmente, cada bit tenía una disposición horizontal en la superficie magnética del disco, pero luego se descubrió cómo registrar la información de una manera más compacta.

El mérito del francés Albert Fert y al alemán Peter Grünberg (ambos premio Nobel de Física, por sus contribuciones en el campo del almacenamiento magnético) fue el descubrimiento del fenómeno conocido como magnetorresistencia gigante, permitió construir cabezales de lectura y grabación más sensibles, y compactar más los bits en la superficie del disco duro. De estos descubrimientos, realizados en forma independiente por estos investigadores, se desprendió un crecimiento espectacular en la capacidad de almacenamiento en los discos duros, que se elevó un 60% anual en la década de 1990.

En 1992, los discos duros de 3,5 pulgadas alojaban 250 MB, mientras que 10 años después habían superado los 40.000 MB o 40 gigabytes (GB). En la actualidad, ya contamos en el uso cotidiano con discos duros de más de un terabyte (TB) o millón de megabytes.

En 2005 los primeros teléfonos móviles que incluían discos duros fueron presentados por Samsung y Nokia.

Características de un disco duro [editar]

Las características que se deben tener en cuenta en un disco duro son:

  • Tiempo medio de acceso: Tiempo medio que tarda la aguja en situarse en la pista y el sector deseado; es la suma del Tiempo medio de búsqueda (situarse en la pista), tiempo de lectura/escritura y la Latencia media (situarse en el sector).
  • Tiempo medio de búsqueda: Tiempo medio que tarda la aguja en situarse en la pista deseada; es la mitad del tiempo empleado por la aguja en ir desde la pista más periférica hasta la más central del disco.
  • Tiempo de lectura/escritura: Tiempo medio que tarda el disco en leer o escribir nueva información, el tiempo depende de la cantidad de información que se quiere leer o escribir, el tamaño de bloque, el numero de cabezales, el tiempo por vuelta y la cantidad de sectores por pista.
  • Latencia media: Tiempo medio que tarda la aguja en situarse en el sector deseado; es la mitad del tiempo empleado en una rotación completa del disco.
  • Velocidad de rotación: Revoluciones por minuto de los platos. A mayor velocidad de rotación, menor latencia media.
  • Tasa de transferencia: Velocidad a la que puede transferir la información a la computadora una vez la aguja esta situada en la pista y sector correctos. Puede ser velocidad sostenida o de pico.

Otras características son:

  • Caché de pista: Es una memoria tipo RAM dentro del disco duro. Los discos duros de estado sólido utilizan cierto tipo de memorias construidas con semiconductores para almacenar la información. El uso de esta clase de discos generalmente se limita a las supercomputadoras, por su elevado precio.
  • Interfaz: Medio de comunicación entre el disco duro y la computadora. Puede ser IDE/ATA, SCSI, SATA, USB, Firewire, SAS
  • Landz: Zona sobre las que aterrizan las cabezas una vez apagada la computadora.

Presente y futuro [editar]

Actualmente la nueva generación de discos duros utilizan la tecnología de grabación perpendicular (PMR), la cual permite mayor densidad de almacenamiento. También existen discos llamados "Ecológicos" (GP - Green Power), los cuales hacen un uso más eficiente de la energía. Se está empezando a observar que la Unidad de estado sólido es posible que termine sustituyendo al disco duro a largo plazo. También hay que añadir los nuevos discos duros basados en el tipo de memorias Flash, que algunas empresas, como ASUS, incorporó recientemente en sus modelos. Los mismos arrancan en 4 GB a 512 GB.[1]

Son muy rápidos ya que no tienen partes móviles y consumen menos energía. Todos esto les hace muy fiables y casi indestructibles. Un nuevo formato de discos duros basados en tarjetas de memorias. Sin embargo su costo por GB es aún muy elevado ya que el coste de un HD de 160 GB es equivalente a un SSD de 8 GB.

Fabricantes [editar]

Un Western Digital 3.5 pulgadas 250 GB SATA HDD.
Un Seagate 3.5 pulgadas 1 TB SATA HDD.

Los recursos tecnológicos y el saber hacer requeridos para el desarrollo y la producción de discos modernos implica que desde 2007, más del 98% de los discos duros del mundo son fabricados por un conjunto de grandes empresas: Seagate (que ahora es propietaria de Maxtor), Western Digital, Samsung e Hitachi (que es propietaria de la antigua división de fabricación de discos de IBM). Fujitsu sigue haciendo Discos portátiles y discos de servidores, pero dejó de hacer discos para ordenadores de escritorio en 2001, y el resto lo vendió a Western Digital. Toshiba es uno de los principales fabricantes de discos duros para portátiles de 2,5 pulgadas y 1,8 pulgadas. ExcelStor es un pequeño fabricante de discos duros.

Decenas de ex-fabricantes de discos duros han terminado con sus empresas fusionadas o han cerrado sus divisiones de discos duros, a medida que la capacidad de los dispositivos y la demanda de los productos aumentó, los beneficios eran menores y el mercado sufrió un significativa consolidación a finales de los 80 y finales de los 90. La primera víctima en el mercado de los PC fue Computer Memories Inc. o CMI; después de un incidente con 20 MB defectuoso en discos en 1985, La reputación de CMI nunca se recuperó, y salieron del mercado de los discos duros en 1987. Otro notable fallo fue de MiniScribe, quien quebró en 1990 después se descubrió que tenían en marcha un fraude e inflaban el número de ventas durante varios años. Otras muchas pequeñas compañías (como Kalok, Microscience, LaPine, Areal, Priam y PrairieTek) tampoco sobrevivieron a la expulsión, y habían desaparecido para 1993; Micropolis fue capaz de aguantar hasta 1997, y JTS, un recién llegado a escena, duro solo unos años y desapareció para 1999, después intentó fabricar discos duros en India. Su vuelta a la fama fue con la creación de un nuevo formato de tamaño de 3” para portátiles. Quantum and Integral también investigaron el formato de 3”, pero finalmente se dieron por vencidos. Rodime fue también un importante fabricante durante la década de los 80, pero dejó de hacer discos en la década de los 90 en medio de la reestructuración y ahora se concentra en la tecnología de la concesión de licencias; tienen varias patentes relacionadas con el formato de 3.5“.

  • 1988: Tandon Corporation vendió su división de fabricación de discos duros a Western Digital (WDC),el cual era un renombrado diseñador de controladores.
  • 1989: Seagate Technology compro el negocio de discos de alta calidad de Control Data, como parte del abandono de CDC en la creación de hardware.
  • 1990: Maxtor compro MiniScribe que estaba en bancarrota, haciéndolo el núcleo de su división de discos de gama baja.
  • 1994: Quantum compro la división de almacenamiento de [Digital Equipment Corporation|DEC]] otorgando al usuario una gama de discos de alta calidad llamada ProDrive , igual que la gama tape drive de DLT
  • 1995: Conner Peripherals fue fundada por uno de los cofundadores de Seagate Technology's junto con personal de MiniScribe, anunciaron un fusión con Seagate, la cual se completó a principios de 1996.
  • 1996: JTS se fusiono con Atari, permitiendo a JTS llevar a producción su gama de discos. Atari fue vendida a Hasbro en 1998, mientras que JTS sufrió una bancarrota en 1999.
  • 2000: Quantum vendió su división de discos a Maxtor para concentrarse en los unidades de cintas y los equipos de respaldo.
  • 2003: Siguiendo la controversia en los fallos masivos en su modelo Deskstar 75GXP , pioneer IBM vendió la mayor parte de su división de discos a Hitachi, renombrándose como Hitachi Global Storage Technologies (HGST).
  • 2003: Western Digital compro Read-Rite Corp, quien producía los cabezales utilizados en los discos duros, por 95.4 millones de $ en metálico.
    • 21 de diciembre de 2005: Seagate y Maxtor anuncian un acuerdo bajo el que Seagate adquiriría todo el stock de Maxtor por ciento noventa mil millones de $. Esta adquisición fue aprobada por los cuerpos regulatorios, y cerrada el 19 de mayo de 2006.
  • 2007
    • Julio:Western Digital (WDC) adquiere Komag U.S.A, un fabricante del material que recubre los platos de los discos duros, por ciento noventa mil millones de $.

Véase también [editar]

Principales fabricantes de discos duros [editar]