martes, 24 de mayo de 2016

ARQUITECTURA DE COMPUTADORAS II

INFRAESTRUCTURA PARA CENTROS DE DATOS:

Las nuevas tecnologías como el cómputo móvil, la virtualización y el cómputo en la nube aplican una presión creciente sobre las operaciones de los Centro de Datos y hacen que se incremente demanda de energía, enfriamiento y conectividad a velocidades más elevadas.
Los Centros de Proceso de Datos son los puntos neurálgicos de las comunicaciones en las empresas. Su infraestructura CPD, hoy en día, es más importante que nunca. El incesante crecimiento de los CPD hace que el diseño adecuado y la óptima funcionalidad sea cada vez más difícil de conseguir.


DATA CENTER 
Es una infraestructura compuesta por: Espacio físico para instalación de equipos informáticos de clientes. Conectividad Internet y seguridad. Servicio de operación y Supervisión de todos los componentes.
EL ESTÁNDAR TÍA 942
Guía para los diseñadores e instaladores de centros de datos, el estándar TIA 942(2005) proporciona una serie de recomendaciones y directrices para la instalación de sus infraestructuras.
Aprobado en 2005 por ANSI-TIA (American National Standards Institute – Telecomunications Industry Association), clasifica a este tipo de centros en varios grupos, llamados TIER (anexo G), indicando así su nivel de fiabilidad en función del nivel de disponibilidad.
De acuerdo con el estándar TIA-942, la infraestructura de soporte de un Data Center estará compuesta por cuatro subsistemas:
Telecomunicaciones: Cableado de armarios y horizontal, accesos redundantes, cuarto de entrada, área de distribución, backbone, elementos activos y alimentación redundantes, patch panels y latiguillos, documentación.
Arquitectura: Selección de ubicación, tipo de construcción, protección ignífuga y requerimientos NFPA 75(Sistemas de protección contra el fuego para información), barreras de vapor, techos y pisos, áreas de oficina, salas de UPS y baterías, sala de generador, control de acceso, CCTV, NOC (Network Operations Center – Centro operativo).
Sistema eléctrico: Número de accesos, puntos de fallo, cargas críticas, redundancia de UPS y topología de UPS, puesta a tierra, EPO (Emergency Power Off- sistemas de corte de emergencia) baterías, monitorización, generadores, sistemas de transferencia.
Sistema mecánico: Climatización, presión positiva, tuberías y drenajes, CRAC's y condensadores, control de HVAC (High Ventilating Air Conditionning), detección de incendios y sprinklers, extinción por agente limpio (NFPA 2001), detección por aspiración (ASD), detección de líquidos.

El nivel de fiabilidad de un centro de datos viene indicado por uno de los cuatro niveles de fiabilidad llamados TIER, en función de su redundancia (anexo G). A mayor número de TIER, mayor disponibilidad, y por tanto mayores costes de construcción y mantenimiento.
CUATRO NIVELES DE TIER
TIER I- Nivel 1
  • Disponibilidad del 99,671 %.
  • Sensible a las interrupciones, planificadas o no.
  • Un solo paso de corriente y distribución de aire acondicionado, sin componentes redundantes.
  • Sin exigencias de piso elevado.
  • Generador independiente.
  • Plazo de implementación: 3 meses.
  • Tiempo de inactividad anual: 28,82 horas.
  • Debe cerrarse completamente para realizar mantenimiento preventivo.

TIER II- Nivel II (Componentes redundantes)
  • Sistemas ópticos Disponibilidad del 99,741 %.
  • Menor sensibilidad a las interrupciones.
  • Un solo paso de corriente y distribución de aire acondicionado, con un componente redundante.
  • Incluye piso elevado, UPS y generador.
  • Plazo de implementación: 3 meses.
  • Tiempo de inactividad anual: 28,82 horas.
  • Plazo de implementación: 3 a 6 meses.
  • Tiempo de inactividad anual: 22,0 horas.
  • El mantenimiento de la alimentación y otras partes de la infraestructura requieren de un cierre de procesamiento.

TIER III- Nivel III (Mantenimiento concurrente)
  • Soluciones de alta densidad Disponibilidad 99,982 %.
  • Interrupciones planificadas sin interrupción de funcionamiento, pero posibilidad de problemas en las no previstas.
  • Múltiples accesos de energía y refrigeración, por un solo encaminamiento activo. Incluye componentes redundantes (N+1).
  • Plazo de implementación: 15 a 20 meses.
  • Tiempo de inactividad anual: 1,6 horas.

TIER IV- Nivel IV (Tolerante a errores)
  • 99,995 % de disponibilidad.
  • Interrupciones planificadas sin interrupción de funcionamiento de los datos críticos. Posibilidad de sostener un caso de improviso sin daños críticos.
  • Múltiples pasos de corriente y rutas de enfriamiento. Incluye componentes redundantes. Incluye componentes redundantes (2(N+1))- 2 UPS cada uno con redundancia (N+1).
  • Plazo de implementación: 15 a 20 meses.
  • Tiempo de inactividad anual: 0,4 horas.

VENTAJAS Y DESVENTAJAS 

DATA CENTER (Un servidor fuera de sitio de trabajo).  Puede acarrear una gran cantidad de presupuesto.
Las condiciones de seguridad son muy completas, posee vigilancia, refrigeración constante del ambiente y contraseñas de seguridad.

DATA CENTER (Un servidor dentro del sitio de trabajo). Los presupuestos bajan, peligros inminentes.

CABLEADO ESTRUCTURADO DATA CENTER

El cableado estructurado para data center es de mucho cuidado, porque las velocidades de transmisión que se manejan son muy elevadas, 1Gbps, 10Gbps, aunque pronto data center manejará velocidades encima de 10Gbps ya que bajaran los precios de las interfaces de red y del cableado. Estamos hablando de 40Gbps y 100Gbps.
El cableado de data center debe ajustarse a los diversos estándares que existen: Norma Americana (TIA942, BICSI-002), Norma Europea (EN 50600, EN 50173-5) y Mundial (ISO/IEC 24764). En otro post voy a detallar más estos estándares.
Un data center de última generación tiene pocos enlaces a 1Gbps, porque los equipos para virtualizar servidores (VMware) están trayendo interfaces de 10Gbps en fibra o cobre y equipos de almacenamiento (storage).
Actualmente, existen muchos fabricantes de cableado estructurado, como SIEMON, SYSTIMAX, PANDUIT que ofrecen diversas soluciones tanto para cableado de cobre como para fibra óptica, especialmente dirigidos a data center a 10Gbps.
Tener en cuenta que el cableado del centro de datos no debe ser Any-To-All, es decir, que el cableado termina en el switch principal, esto ya no funciona a 10Gbps. Para trabajar a 10Gbps el cableado debe ser distribuido, de acuerdo a la norma indicada. Existen varias formas, pero los principales son: End-Of-Row (EoR) y Top-Of-Rack (ToR).
La topología EoR considera switches de distribución y acceso que se ubican al inicio de una fila de gabinetes. La topología ToR considera los switches ubicados en el mismo gabinete de servidores, cada servidor se conecta al switch y éste se conecta al switch principal.


DISEÑO DE UN SERVIDOR PARA REGISTRO MASIVO DE USUARIOS
·       Tipo de servidor: Gama media.
Los sistemas de gama media son principalmente servidores de red con tecnología de punta y otros tipos de servidores que puede manejar el procesamiento a gran escala de muchas aplicaciones empresariales. A pesar de que no son tan potentes como un mainframe (computadora central potente y costosa para procesamiento a gran escala de datos), cubren las necesidades de cómputo de muchas organizaciones y son menos costosos al comprar, operar y mantener comparados contra un mainframe.
Los sistemas de gama media se han vuelto populares como servidores de red potentes, para ayudar a administrar sitios Web de Internet grandes, intranets y extranets corporativas, y otros tipos de redes. Actualmente los sistemas de gama media incluyen servidores utilizados en control de procesos industriales y plantas de manufactura Los sistemas de gama media son también usados como servidores front-end para asistir a los mainframes en el proceso de telecomunicaciones y administración de redes.
El servidor tendrá que contar con un Rack dependiendo la marca de este. La marca de los servidores podría ser electiva dependiendo la característica de estos, puede pasar desde un servidor de fabrica hasta una computadora desktop.
·       Arquitectura MMD
Son full paralelas pero a diferencia de los SIMD esta es asíncrona, que no tiene clock central, y cada procesador podrá ejecutar su propia secuencia de instrucciones.
Esta característica es la mas poderosa en cuanto a procesamiento paralelo, y es la que ha evolucionado en las nuevas supercomputadoras.
Haciendo uso del multiprocesamiento simétrico (SMP). Los sistemas SMP permiten que cualquier procesador trabaje en cualquier tarea sin importar su localización en memoria; con un propicio soporte del sistema operativo, estos sistemas pueden mover fácilmente tareas entre los procesadores para garantizar eficientemente el trabajo. De esta manera evitamos gastar mas recursos y abaratar costos para un sistema de registro masivos de usuarios. La afinidad del proceso SMP con las aplicaciones comerciales es el motivo de que muchos vendedores y analistas del sector recomienden que los usuarios comerciales no utilicen MPP, sino que comiencen con SMP y agrupen estos sistemas SMP en clusters al ir aumentando sus requerimientos
·       Zona de servicio y gestión
Extendida hasta el 30% modular comprende una red de servidores centralizados donde la gestión y el almacenamiento podrán ser tratados en equipos independientes, en esta zona se podrán incluir los medios de acceso a la configuración de los servidores:
  •          Empleando protocolos SSH
  •          Modo físico utilizado cable KVM

·       Capacidad de almacenamiento para 300 TB
es un dispositivo de almacenamiento magnético, en el cuál se almacena la mayor cantidad de información de la computadora, ya que incluye el sistema operativo (Microsoft ®Windows 2008/2003, Sun® Solaris 10, Linux LAMP, etc.), las aplicaciones (gestores de bases de datos, gestores de correo electrónico, sistemas de almacenamiento de dominios y espacio Web, etc.), los archivos generados por el usuario (texto, hojas de cálculo, música comprimida, videos), etc. Actualmente superan varios Terabytes (TB) de capacidad y cuentan con estándares diferentes para evitar al máximo las fallas, siendo discos tipos SCSI y discos SAS. Una característica especial es que los discos duros se insertan por un compartimiento frontal especial, sin necesidad de abrir el equipo.
El sistema de memoria será distribuido, teniendo su propia memoria local (300 TB) basadas en MPP.
·       Parametrización del UPS – Aire Acondicionado.
La condición ideal estaría entre 24 y 18° C
·       Configuración del Sistema de Monitoreo y Shutdown
·       Software
Al momento de diseñar el servidor se tiene que tener en cuenta los servidores de almacenamiento de información para administrar los datos entrantes y salientes entre estos: SQL, Oracle, etc.




BIBLIOGRAFIA 
http://www.cliatec.com/soluciones-de-infraestructura-para-centros-de-proceso-de-datos
http://www.lanacion.com.ar/643055-los-pros-y-los-contras-del-data-center


viernes, 4 de diciembre de 2015

MEMORIA CACHÉ/MEMORIA PRINCIPAL

MEMORIA CACHÉ
Se habla de sistema de memoria porque en realidad nos estamos refiriendo a varios bloques:
·         El más alejado del micro y por lo tanto más lento y grande es el disco duro. En este los datos se almacenan incluso cuando el equipo está apagado.
·         Al producirse el encendido pasan a la memoria RAM aquellos programas que ejecutas y los datos que necesites en cada momento.
·         Por desgracia el acceso a la memoria RAM desde el micro no es instantáneo. Esto que puede parecer algo anecdótico, estamos hablando del orden de nanosegundos, puede provocar bloqueos y caídas de rendimiento.
Un caché es un sistema especial de almacenamiento de alta velocidad. Puede ser tanto un área reservada de la memoria principal con un dispositivo de almacenamiento de alta velocidad.


La memoria caché que se encuentra en el interior del procesador esta ideada para acelerar la memoria RAM.  La memoria caché está situada en la misma oblea de silicio que el procesador. Es de tipo SRAM, que no necesita refrescarse frente a las DRAM.
Cuando se accede por primera vez a un dato, se hace una copia en la caché; los accesos siguientes se realizan a dicha copia, haciendo que sea menor el tiempo de acceso medio al dato.
Cuando el microprocesador necesita leer o escribir en una ubicación en memoria principal, primero verifica si una copia de los datos está en la caché; si es así, el microprocesador de inmediato lee o escribe en la memoria caché, que es mucho más rápido que de la lectura o la escritura a la memoria principal.
ESTRUCTURA

En el diseño de la memoria caché se deben considerar varios factores que influyen directamente en el rendimiento de la memoria y por lo tanto en su objetivo de aumentar la velocidad de respuesta de la jerarquía de memoria.
UBICACIÓN
Decide dónde debe colocarse un bloque de memoria principal que entra en la memoria caché. Las más utilizadas son:
·         Directa o Mapeado Directo (solo RAM): al bloque i-ésimo de memoria principal le corresponde la posición i módulo n, donde n es el número de bloques de la memoria caché. Cada bloque de la memoria principal tiene su posición en la caché y siempre en el mismo sitio. Su inconveniente es que cada bloque tiene asignada una posición fija en la memoria caché y ante continuas referencias a palabras de dos bloques con la misma localización en caché, hay continuos fallos habiendo sitio libre en la caché.
La direccion fisica de memoria se constituye del campo correspondiente a la etiqueta, el indice (MB) y el tamaño de la palabra.


La gran desventaja es con el acceso. Al corresponder a varios bloques de la memoria RAM a un mismo bloque en la cache, si un programa accede a estos datos, la cache estará constantemente accediendo a la memoria principal para actualizar información.

·         Asociativa (Solo CAM): Los bloques de la memoria principal se alojan en cualquier bloque de la memoria caché, comprobando solamente la etiqueta de todos y cada uno de los bloques para verificar acierto. Su principal inconveniente es la cantidad de comparaciones que realiza.
La direccion fisica no hace falta el campo correspondiente a indice, ya que con el campo etiqueta es suficiente.


Se busca en todas las posiciones de memoria la etiqueta buscada.
Su desventaja es la foma de busqueda: indexada y lenta, lo que indica que se debe recorrer los bloques de la cache en busqueda del bloque de memoria deseado.

·         Asociativa por conjuntos (Híbrida RAM,CAM): Cada bloque de la memoria principal tiene asignado un conjunto de la caché, pero se puede ubicar en cualquiera de los bloques que pertenecen a dicho conjunto. Ello permite mayor flexibilidad que la correspondencia directa y menor cantidad de comparaciones que la totalmente asociativa.
La dirección física se distribuye en tres campos:



Tenemos dos vías: 2 memorias RAM, cuando se realiza la búsqueda de la etiqueta se buscan en las dos memorias RAM y se hace la comparación simultanea entre las 2 etiquetas que corresponden al indice y se compara con las etiquetas buscadas.


OPTIMIZACIÓN
Para una optimización en la manera en que se ingresa a la memoria caché y cómo se obtienen datos de ella, se han tomado en cuenta distintas técnicas que ayudarán a que haya menos reincidencia de fallos.
Mejorar el rendimiento.
En este aspecto el tiempo de acceso es vital, por ende desglozando este termino tenemos:
·         Reducir fallos en la caché (miss rate) [Tf]. Podemos controlar variables importantes para evitar fallos
La tasa de fallos se las puede reducir con:
ü  Aumento del tamaño del bloque
ü  Aumento de la asociatividad
ü  Utilización de una cache de victimas
ü  Cache pseudoasociativas
ü  Pre-búsqueda de instrucciones y datos (mediante buffer externos para acelerar la búsqueda)
ü  Pre-búsqueda controladas por el compilador (del tipo Prefetch-dato que el compilador usa para optimizar los programas luego de realizar un analisis de sus sentencias), la pre-búsqueda se hace en paralelo con la ejecucion de las instrucciones.
ü  Optimizadores para el compilador (Para reducir la tasa de fallos).

·         Reducir penalizaciones por fallo (miss penalti).
Se debe priorizar los fallos de lectura frente a los de escritura. Como los fallos se sirven leyendo bloques de Mp, una alternativa para disminuir la penalización por fallo consiste en disminuir el tiempo de acceso a Mp utilizando el mismo mecanismo caché, es decir, utilizando una caché intermedia o de segundo nivel (L2) entre Mc (L1) y Mp.
·         Reducir el tiempo de acceso en caso de acierto (hit time) [Tacierto].
Para optimizar (minimizarlo) el tiempo de acierto se consideran 3 factores:
ü  Caches pequeñas y simples, El hardware pequeño acelera la comparación de etiquetas y por tanto el tiempo de acierto, También hace posible su incorporación al chip de la CPU, eliminando el conexionado externo y por tanto el tiempo de acceso desde la CPU.
ü  Evitar traducción de direcciones durante la indexación de las cachés, con la  utilización de direcciones virtuales en las cachés
ü  Escrituras segmentadas para rápidos aciertos de escritura, al no ser igual la propiedad de lectura con la de escritura ya que los aciertos de lectura son más rápidos que los de escritura, entre otros motivos porque en los primeros se puede leer el dato de Mc al tiempo que se comprueba si su etiqueta coincide con la de la dirección física. Si no coincide se ignora el dato leído. Entonces para el proceso de escritura se usa la segmentacion (pipeline) sobre la memoria cache. De esta forma se aceleran los aciertos de escritura.
  

MEMORIA PRINCIPAL
MEMORIA RAM
La memoria RAM se usa para almacenar los programas que van a ser ejecutados.
CLASIFICACIÓN DE LA MEMORIA RAM
Todas permiten operaciones de lectura/escritura. Todas son de direccionamiento aleatorio, es decir, todas las celdas de memoria tienen el mismo tiempo de acceso, lo cual las diferencia de las memorias de acceso secuencial y de las de acceso directo. Todas son memorias volátiles.
RAM Estática: Es una memoria que NO NECESITA REFRESCO. La más conocida es la SRAM (caché).
RAM Dinámica: Es una memoria que SI NECESITA REFRESCO, ya que cada bit se almacena en una celda formada por un transistor y un condensador y el condensador se va descargando.
La Memoria Interna
Son más lentas, pero más baratas. Durante el tiempo de refresco el procesador no puede acceder a ellas. Son las más comunes en los ordenadores actuales.


TIPOS DE MEMORIA RAM
VRAM, Es una memoria de propósito especial usada por los adaptadores de vídeo. Puede ser accedida por dos diferentes dispositivos de forma simultánea. Esto permite que un monitor pueda acceder a la VRAM para las actualizaciones de la pantalla al mismo tiempo que un procesador gráfico suministra nuevos datos. VRAM permite mejores rendimientos gráficos aunque es más cara que la una RAM normal.
SIMM, es un tipo de encapsulado consistente en una pequeña placa de circuito impreso que almacena chips de memoria, y que se inserta en un zócalo SIMM en la placa madre. Son más fáciles de instalar que los antiguos chips de memoria individuales, y a diferencia de ellos son medidos en bytes en lugar de bits.
DIMM, es un tipo de encapsulado, consistente en una pequeña placa de circuito impreso que almacena chips de memoria, que se inserta en un zócalo DIMM en la placa madre y usa generalmente un conector de 168 contactos.
DIP, es un tipo de encapsulado consistente en almacenar un chip de memoria en una caja rectangular con dos filas de pines de conexión en cada lado.
RAM Disk, Se refiere a la RAM que ha sido configurada para simular un disco duro. Se puede acceder a los ficheros de un RAM disk de la misma forma en la que se acceden a los de un disco duro. Sin embargo, los RAM disk son aproximadamente miles de veces más rápidos que los discos duros, y son particularmente útiles para aplicaciones que precisan de frecuentes accesos a disco.
SRAM, es un tipo de memoria que es más rápida y fiable que la más común DRAM. El término estática viene derivado del hecho que necesita ser refrescada menos veces que la RAM dinámica.
DRAM, es un tipo de memoria de gran capacidad pero que precisa ser constantemente re-energizada o perdería su contenido. Usa un transistor y un condensador para representar un bit, los condensadores debe de ser energizados cientos de veces por segundo para mantener las cargas.
SDRAM entrelaza dos o más matrices de memoria interna de tal forma que mientras que se está accediendo a una matriz, la siguiente se está preparando para el acceso. SDRAM-II es tecnología SDRAM más rápida esperada para 1998.
FPM, memoria en modo paginado, el diseño más común de chips de RAM dinámica. El acceso a los bits de memoria se realiza por medio de coordenadas, fila y columna. Antes del modo paginado, era leido pulsando la fila y la columna de las líneas seleccionadas. Con el modo página, la fila se selecciona solo una vez para todas las columnas (bits) dentro de la fila, dando como resultado un rápido acceso.
EDO, es un tipo de chip de RAM dinámica que mejora el rendimiento del modo de memoria Fast Page alrededor de un 10%. Al ser un subconjunto de Fast Page, puede ser substituida por chips de modo Fast Page.