Modelo MCC 1001: Hasta 33 Netbooks de 11,6” o Tablets, o 22 Portátiles de 15,6” (Carga horizontal), 11 baldas
jueves, 27 de octubre de 2016
Ejercicio propuesto 12
Modelo MCC 1001: Hasta 33 Netbooks de 11,6” o Tablets, o 22 Portátiles de 15,6” (Carga horizontal), 11 baldas
Ejercicio propuesto 11
1 870,62 € IVA incluido
La solución de armario rack I600 Plus se suministra configurado con la siguiente disposición:
Puerta doble de chapa
Módulo de ampliación de 200mm
Perfilería 19 pulgadas en 3 secciones con identificación de Us
Con 8x bridas vertical, portaetiquetas, ruedas y patas
Con 2x regleta 12 tomas IEC C13 32A
Con 2x maneta de combinación mecánica y cerradura en los laterales
Con 12x carátula ciega plástico 1U sin tornillería
Con 2x canaleta de bajada cableado
Rack 47U Datacenter CPD
Especificaciones técnicas, Rack para Data Center I600 Plus:
Armario creado para albergar servidores y otros equipamientos activos, específico salas CPD.
Soportan hasta 1500 kg de carga en estático, 400Kg en movimiento
Perfilería delantera y trasera ajustable con hasta 3 niveles de profundidad.
Perfiles 19 pulgadas desplazables en tres secciones de 14U.
Profundidad de hasta 1000mm + 200mm módulo de ampliación trasero.
Puerta frontales doble de chapa microperforada (nido de abeja) y trasera de chapa micropreforada
Material en acero laminado en frío de 1,2 a 2mm
Medidas (H x A x F): 42U (2025mm) - 47U (2250mm) x 600-800 x 1000 + 200mm
Peso en vacío 150 kgs.
Paneles laterales completos con cerradura.
Entrada de cables superior e inferior.
Pies regulables en altura con kit de ruedas de alta carga
Acceso físico:
Acceso frontal por puerta doble chapa con cerradura.
Acceso trasero por puerta de chapa y doble chapa con cerradura.
Paneles laterales con apertura desde el exterior.
Entrada de cables:
Superior e inferior con posibilidad de cepillo.
Tratamiento:
Proceso de pintura en polvo, desengrasado, fosfatado, secado al horno, acabados color negro RAL 9005 micro-texturado (otros colores bajo pedido).
Toma de tierra:
Por tornillo electro soldado de cobre de M6 en cada una de las partes de su estructura
Accesorios armario rack opcionales:
Accesorio armarios rack
Modelos estandard I600 Plus:
- Alturas: 42U, 47U
- Anchos: 600mm, 800mm
- Fondos: 1000mm + 200mm
- Colores: Ral 9016 (Mate), otros colores bajo pedido.
- Puertas: Doble Chapa
Normativas:
Standard EIA-310-D
Norma RoHS
IEC 20297-2 / 60291-3
Marcado CE
Ejercicio propuesto 10
-Las ventajas son que solamente podra iniciar sesión en tu equipo quien tu le des permiso.
-Tendriamos que seguir el tutorial de instalación que nos viene con el software del lector de huellas digitales.
-Que utilizemos al menos 2 huellas y que tengamos cuidado en dañar el dedo y asi alterar la huella.
-Si es posible en Windows.
-Es posible en otros S.O. que no sean de windows, por ejemplo ubuntu con Fingerprint GUI.
-Si, aunque tendremos que configurarlo en el equipo antes, puesto que si esa otra huella no esta seria imposible que lo reconociera.
-Si, siempre y cuando se configure anteriormente.
Ejercicio propuesto 17
Plano de la planta a la que poner camaras de seguridad.
Camara de 148 € por 3 camaras, 446 €
Mantenimiento e instalación: 500€
Total: 946€
Tipo de cámara IP
CCD
Tipo 1/3”CMOS
Resolución 3 Megapíxel (2304x1296)
Funciones DSP DWDR, BLC, HLC, AWB, AGC, 3D-NR
ÓPTICA
Tipo Fija 3,6 mm
Ángulo de visión 77º
ILUMINACIÓN
Iluminación mínima 0 Lux con IR encendido
Visión nocturna 10 metros alcance máximo
RESOLUCIÓN
Tasa Stream Principal 3MP / 1080P (1 ~ 25 FPS)
Tasa Stream Extra VGA / QVGA (1 ~ 25 FPS)
Compresión H.264 / MJPEG
AUDIO
Tipo Micrófono y altavoz integrado
Compresión G.711
ALMACENAMIENTO
Tipo Tarjeta MicroSD de hasta 128 GB
VISIÓN REMOTA
Modo de uso Navegador Web (ActiveX), CMS, App Smartphone y Software Smart PSS y NVR
Puerto Ethernet (10/100 Base-T)
Wifi Sí, con tecnología 802.11b/g/n
Compatibilidad ONVIF
MOVIMIENTO
Rango Horizontal: 0º ~ 355º continuos, Vertical: 0º ~ 90º
DIMENSIONES Y USO
Dimensiones 94 (Al) x 94 (An) x 94 (Fo) mm
Peso 220 g
Ambiente Interior
ALIMENTACIÓN
Conexión alimentación DC 5 V / 2 A
Lo que ocupa la camara por minuto de grabación:
124 MB por minuto X3= 372MB por minuto entre todas
22320 MB por hora
535680 MB por dia
195523200 MB por año (186.465 TB)
1.
¿Qué leyes se aplican sobre la filmación de vídeos en espacios públicos y privados? A modo de resumen, ¿qué precauciones y recomendaciones se deben tomar a la hora de realizar grabaciones de seguridad?
Instrucción 1/ 2006, de 8 de noviembre de 2006 de la Agencia Española de Protección de Datos, para la captación y el tratamiento de imágenes mediante Videovigilancia:
Las grabaciones tendrán que inscribirse en la agencia española de protección de datos.
Las grabaciones deberán ser eliminadas en el plazo máximo de un mes.
Se colocarán los distintivos informativos, identificando el responsable ante quien ejercer los derechos de protección de datos.
Se debe cumplir la instrucción en un plazo máximo de 3 meses desde su entrada en vigor.
Camara de 148 € por 3 camaras, 446 €
Mantenimiento e instalación: 500€
Total: 946€
Tipo de cámara IP
CCD
Tipo 1/3”CMOS
Resolución 3 Megapíxel (2304x1296)
Funciones DSP DWDR, BLC, HLC, AWB, AGC, 3D-NR
ÓPTICA
Tipo Fija 3,6 mm
Ángulo de visión 77º
ILUMINACIÓN
Iluminación mínima 0 Lux con IR encendido
Visión nocturna 10 metros alcance máximo
RESOLUCIÓN
Tasa Stream Principal 3MP / 1080P (1 ~ 25 FPS)
Tasa Stream Extra VGA / QVGA (1 ~ 25 FPS)
Compresión H.264 / MJPEG
AUDIO
Tipo Micrófono y altavoz integrado
Compresión G.711
ALMACENAMIENTO
Tipo Tarjeta MicroSD de hasta 128 GB
VISIÓN REMOTA
Modo de uso Navegador Web (ActiveX), CMS, App Smartphone y Software Smart PSS y NVR
Puerto Ethernet (10/100 Base-T)
Wifi Sí, con tecnología 802.11b/g/n
Compatibilidad ONVIF
MOVIMIENTO
Rango Horizontal: 0º ~ 355º continuos, Vertical: 0º ~ 90º
DIMENSIONES Y USO
Dimensiones 94 (Al) x 94 (An) x 94 (Fo) mm
Peso 220 g
Ambiente Interior
ALIMENTACIÓN
Conexión alimentación DC 5 V / 2 A
Lo que ocupa la camara por minuto de grabación:
124 MB por minuto X3= 372MB por minuto entre todas
22320 MB por hora
535680 MB por dia
195523200 MB por año (186.465 TB)
1.
¿Qué leyes se aplican sobre la filmación de vídeos en espacios públicos y privados? A modo de resumen, ¿qué precauciones y recomendaciones se deben tomar a la hora de realizar grabaciones de seguridad?
Instrucción 1/ 2006, de 8 de noviembre de 2006 de la Agencia Española de Protección de Datos, para la captación y el tratamiento de imágenes mediante Videovigilancia:
Las grabaciones tendrán que inscribirse en la agencia española de protección de datos.
Las grabaciones deberán ser eliminadas en el plazo máximo de un mes.
Se colocarán los distintivos informativos, identificando el responsable ante quien ejercer los derechos de protección de datos.
Se debe cumplir la instrucción en un plazo máximo de 3 meses desde su entrada en vigor.
jueves, 20 de octubre de 2016
Potencia necesaria
La potencia eléctrica es la relación de paso de energía de un flujo por unidad de tiempo; es decir, la cantidad de energía entregada o absorbida por un elemento en un momento determinado. La unidad en el Sistema Internacional de Unidades es el vatio (watt).
A continuación se presenta un método a seguir para determinar la potencia que debe tener una UPS (No Break, SAI), partiendo de unas necesidades de una instalación específica.
A continuación se presenta un método a seguir para determinar la potencia que debe tener una UPS (No Break, SAI), partiendo de unas necesidades de una instalación específica.
- Liste todos los equipos que serán protegidos por la UPS en la columna “Equipos Protegidos” de la tabla.
- Lea la placa de características de cada uno de los equipos listados en el paso 1 y traslade los valores allí indicados, en “Volts” y en “Amperes”, a las columnas correspondientes de la tabla.
- Multiplique el voltaje y el amperaje de cada equipo y entre el resultado en la columna “VA”. Algunos equipos, como microcomputadores, pueden estar marcados con un consumo de potencia medido en Watts. Para convertir esa lectura a VA, simplemente divida por 0,7 (para un factor de potencia = 0,7) ó multiplique por 1,43.
- Sume los valores de la columna VA y entre el resultado en la celda “Subtotal”.
- Multiplique el valor resultante del paso 4 por 0,25 e ingrese ese valor en la celda “Factor de Crecimiento”. Este cálculo toma en consideración un futuro crecimiento del sistema. Las computadoras modernas están diseñadas para ser expandidas, y éste paso es recomendado para hacerlo posible. ISSO9000 recomienda que se admita un 5% de tasa de crecimiento por año, por un período de 5 años, o un total del 25%. Sus planes actuales de crecimiento podrían requerir un aún mayor factor de corrección.
- Sume los valores de “Factor de Crecimiento” y “Subtotal” para obtener los “VA Requeridos”.
- Seleccione la UPS apropiada de nuestros Folletos, eligiendo un modelo cuya capacidad en VA sea al menos tan grande como el valor obtenido en el paso 6 en la casilla “VA Requeridos”.
- En el caso que la carga a conectar incluya elementos como: tubos fluorescentes, motores, refrigeradores, etc., por favor comuníquese con nuestro Dto. de Ventas para asegurar una correcta elección de la potencia y modelo de la necesaria para ese uso particular o el uso de lámparas de emergencia.
Para calcular la potencia necesaria del SAI hay varias paginas a las que se puede acceder, yo recomiendo la siguiente CALCULADORA SAI.
Tipos de SAI
Tipos de SAI:
SAI Off-line o Stand-By: proporcionan la protección más básica de todas. Protegen contra 3 de los 9 problemas que puede ocasionar la red eléctrica: fallos, subidas y bajadas de tensión. La alimentación en un SAI off-line viene de la red eléctrica y en caso de alguna de las anomálias indicadas en el suministro, el dispositivo empieza a generar su propia alimentación. Debido a que no son activos, hay un pequeño tiempo de conmutación en el que no hay suministro eléctrico, típicamente de entre 2-10 ms. Normalmente generan una forma de onda que no es sinusoidal, por lo que no son adecuados para proteger dispositivos delicados o sensibles a la forma de onda de su alimentación. Su uso más común es en la protección de dispositivos domésticos como ordenadores, monitores, televisores, etc.
SAI In-line: también conocido como de "línea interactiva". Proporcionan una protección intermedia solucionando 5 de las posibles anomalías eléctricas. Respecto a los SAI off-line, añaden protección contra tensiones bajas o altas que se producen de forma continuada. El funcionamiento es similar al del SAI off-line pero dispone de filtros activos que estabilizan la tensión de entrada (estabilizador de tipo AVR) corrigiendo bajas y altas tensiones cuando la red eléctrica las produce de forma contínua, ampliando de esta manera el grado de protección. Sólo en caso de fallo de tensión o anomalía grave empiezan a generar su propia alimentación. Al igual que los SAI de tipo off-line tienen un pequeño tiempo de conmutación en el que no hay suministro eléctrico, típicamente de 2-10 ms. Habitualmente generan una forma de onda pseudo-sinusoidal de mayor calidad que los SAI off-line o sinusoidal pura en el caso de los modelos sinusoidales y profesionales. Su uso más común es la protección de dispositivos en hogares con tensiones anómalas, pequeños comercios o empresas, ordenadores, monitores, dispositivos de red como routers y switches, cámaras de seguridad y videograbadores, etc. Los SAI in-line con salida sinusoidal pura están indicados para proteger bombas y moteres eléctricos, equipos más sensibles y sofisticados como servidores, ordenadores con fuentes PFC activo, instrumentación de laboratorio y equipos sofisticados en entornos de trabajo donde se requiera una protección silenciosa de calidad.
SAI On-line: la topología más sofisticada de todas. Ofrece protección completa contra los 9 problemas que puede haber en el suministro eléctrico: fallo de tensión, bajada o subida de tensión, tensión baja o alta, ruido eléctrico, variaciones de frecuencia, conmutaciones transitorias y distorsiones armónicas. El dispositivo genera continuamente una alimentación limpia con una onda sinusoidal pura gracias a la tecnología de doble conversión. Este sistema funciona pasando la corriente de la red eléctrica (AC) a corriente continua (DC) mediante una primera conversión realizada por un rectificador, el cual alimenta un bus interno y el cargador de las baterías. Mediante una segunda conversión realizada por un inversior DC/AC se transforma la corriente del bus interno y se genera la salida sinusoidal pura, quedando la carga protegida de cualquier anomalía de la red eléctrica. Como las baterías también están conectadas al bus interno, al producirse un corte de luz, el inversor pasa a alimentarse a partir de ellas sin cortes ni conmutaciones. Por tanto, en caso de fallo o corte en el suministro eléctrico, los dispositivos protegidos no se ven afectados en ningún momento porque no hay un tiempo de conmutación. Sus principales inconvenientes son que las baterías trabajan más, por lo que deben sustituirse con más frecuencia, y que tienen un coste superior al de las demás topologías. Su uso más común es en la protección de cargas críticas y dispositivos delicados o de mucho valor en empresas, tales como servidores, electrónica de red, ordenadores de monitorización, videograbadores y cámaras de seguridad, etc. Puesto que eta tecnología es la más eficiente para proteger cargas grandes, son los modelos más usuales a partir de los 2000VA y los únicos a partir de los 6-10KVA, siendo éstos consumos los habituales en centros de procesamiento de datos o CPD y aplicaciones trifásicas.
SAI Off-line o Stand-By: proporcionan la protección más básica de todas. Protegen contra 3 de los 9 problemas que puede ocasionar la red eléctrica: fallos, subidas y bajadas de tensión. La alimentación en un SAI off-line viene de la red eléctrica y en caso de alguna de las anomálias indicadas en el suministro, el dispositivo empieza a generar su propia alimentación. Debido a que no son activos, hay un pequeño tiempo de conmutación en el que no hay suministro eléctrico, típicamente de entre 2-10 ms. Normalmente generan una forma de onda que no es sinusoidal, por lo que no son adecuados para proteger dispositivos delicados o sensibles a la forma de onda de su alimentación. Su uso más común es en la protección de dispositivos domésticos como ordenadores, monitores, televisores, etc.
SAI In-line: también conocido como de "línea interactiva". Proporcionan una protección intermedia solucionando 5 de las posibles anomalías eléctricas. Respecto a los SAI off-line, añaden protección contra tensiones bajas o altas que se producen de forma continuada. El funcionamiento es similar al del SAI off-line pero dispone de filtros activos que estabilizan la tensión de entrada (estabilizador de tipo AVR) corrigiendo bajas y altas tensiones cuando la red eléctrica las produce de forma contínua, ampliando de esta manera el grado de protección. Sólo en caso de fallo de tensión o anomalía grave empiezan a generar su propia alimentación. Al igual que los SAI de tipo off-line tienen un pequeño tiempo de conmutación en el que no hay suministro eléctrico, típicamente de 2-10 ms. Habitualmente generan una forma de onda pseudo-sinusoidal de mayor calidad que los SAI off-line o sinusoidal pura en el caso de los modelos sinusoidales y profesionales. Su uso más común es la protección de dispositivos en hogares con tensiones anómalas, pequeños comercios o empresas, ordenadores, monitores, dispositivos de red como routers y switches, cámaras de seguridad y videograbadores, etc. Los SAI in-line con salida sinusoidal pura están indicados para proteger bombas y moteres eléctricos, equipos más sensibles y sofisticados como servidores, ordenadores con fuentes PFC activo, instrumentación de laboratorio y equipos sofisticados en entornos de trabajo donde se requiera una protección silenciosa de calidad.
SAI On-line: la topología más sofisticada de todas. Ofrece protección completa contra los 9 problemas que puede haber en el suministro eléctrico: fallo de tensión, bajada o subida de tensión, tensión baja o alta, ruido eléctrico, variaciones de frecuencia, conmutaciones transitorias y distorsiones armónicas. El dispositivo genera continuamente una alimentación limpia con una onda sinusoidal pura gracias a la tecnología de doble conversión. Este sistema funciona pasando la corriente de la red eléctrica (AC) a corriente continua (DC) mediante una primera conversión realizada por un rectificador, el cual alimenta un bus interno y el cargador de las baterías. Mediante una segunda conversión realizada por un inversior DC/AC se transforma la corriente del bus interno y se genera la salida sinusoidal pura, quedando la carga protegida de cualquier anomalía de la red eléctrica. Como las baterías también están conectadas al bus interno, al producirse un corte de luz, el inversor pasa a alimentarse a partir de ellas sin cortes ni conmutaciones. Por tanto, en caso de fallo o corte en el suministro eléctrico, los dispositivos protegidos no se ven afectados en ningún momento porque no hay un tiempo de conmutación. Sus principales inconvenientes son que las baterías trabajan más, por lo que deben sustituirse con más frecuencia, y que tienen un coste superior al de las demás topologías. Su uso más común es en la protección de cargas críticas y dispositivos delicados o de mucho valor en empresas, tales como servidores, electrónica de red, ordenadores de monitorización, videograbadores y cámaras de seguridad, etc. Puesto que eta tecnología es la más eficiente para proteger cargas grandes, son los modelos más usuales a partir de los 2000VA y los únicos a partir de los 6-10KVA, siendo éstos consumos los habituales en centros de procesamiento de datos o CPD y aplicaciones trifásicas.
SAI información
¿Qué son?
Los SAI o también llamados UPS son sistemas de alimentación ininterrumpida que proporcionan energía eléctrica en momentos donde la red deja de proporcionarla por diversos motivos. Así, nos da tiempo para poder apagar el sistema conectado a él y evitar que sufra daños. Para ello hacen uso de baterías internas donde almacenan la energía que liberarán cuando sea necesario.
Existen tres tipos diferentes según su forma de funcionamiento: off-line, incline y on-line. El más común para el uso en el hogar es el off-line. Este tipo de SAI reciben alimentación de la red eléctrica y almacenan en una batería interior la misma para comenzar a generar suministro eléctrico en el momento de que surja algún problema.
¿Qué vida útil puede tener un SAI?
Depende de varios factores, aunque se podría estimar en unos 5 años. Es aconsejable cambiar las baterías a los 3 años. Si el SAI no está en funcionamiento, la vida útil de las baterías disminuye más rápidamente, por lo que es aconsejable si se tiene un SAI almacenado o sin usar, descargar y cargar las baterías de vez en cuando. En los Sais mayores la vida útil se incrementa y pueden alcanzar 10 o 20 años.
¿Necesito realizar algún tipo de mantenimiento a un SAI?
No, no lo necesita, aunque como con todo dispositivo hay que observar unas cuantas normas que ayudarán a preservar la vida útil del SAI:
Los SAI o también llamados UPS son sistemas de alimentación ininterrumpida que proporcionan energía eléctrica en momentos donde la red deja de proporcionarla por diversos motivos. Así, nos da tiempo para poder apagar el sistema conectado a él y evitar que sufra daños. Para ello hacen uso de baterías internas donde almacenan la energía que liberarán cuando sea necesario.
Existen tres tipos diferentes según su forma de funcionamiento: off-line, incline y on-line. El más común para el uso en el hogar es el off-line. Este tipo de SAI reciben alimentación de la red eléctrica y almacenan en una batería interior la misma para comenzar a generar suministro eléctrico en el momento de que surja algún problema.
¿Qué vida útil puede tener un SAI?
Depende de varios factores, aunque se podría estimar en unos 5 años. Es aconsejable cambiar las baterías a los 3 años. Si el SAI no está en funcionamiento, la vida útil de las baterías disminuye más rápidamente, por lo que es aconsejable si se tiene un SAI almacenado o sin usar, descargar y cargar las baterías de vez en cuando. En los Sais mayores la vida útil se incrementa y pueden alcanzar 10 o 20 años.
¿Necesito realizar algún tipo de mantenimiento a un SAI?
No, no lo necesita, aunque como con todo dispositivo hay que observar unas cuantas normas que ayudarán a preservar la vida útil del SAI:
- No sobrecargue el SAI. Se aconseja un máximo de un 80% de carga sobre la capacidad del SAI.
- No conectar dispositivos electrónicos domésticos como ventiladores, impresoras o Faxes. Podrían causar daños al SAI.
- Situar el SAI en un lugar protegido de la humedad, polvo y cambios extremos de temperatura.
- Descargar la batería una o dos veces al mes. Es un procedimiento tremendamente sencillo, ya que simplemente tiene que encenderlo sin que esté conectado a la red eléctrica, de esta manera el sai entenderá que debe suministrar la energía de sus baterías por un apagón eléctrico y se descargará.
¿Cuanto tiempo puedo mantener mis equipos encendidos con un SAI?
A este lapso de tiempo es lo que denominamos "Tiempo de autonomía de un SAI" y es variable dependiendo del modelo, capacidad de suministro, carga conectada..etc. Encontrarás una estimación de la autonomía de cada modelo en su ficha de producto. En este punto queremos indicarte que una buena práctica cuando existe un apagón eléctrico es aprovechar el tiempo que nos brindan los SAIS para grabar, ordenar y apagar adecuadamente los dispositivos conectados, intenta no "exprimir" al máximo el tiempo de autonomía de tu SAI, ya que si terminas por agotar la energía de las baterías podrías acabar sufriendo también un apagón del SAI.
CCTV
CCTV es el acrónimo para Circuito Cerrado de Televisón (o Closed Circuit Television). La expresión “Circuito Cerrado” quiere decir que se trata de una instalación de componentes directamente conectados, que crean un circuito de imágenes que no puede ser visto por otra persona fuera de él. Y se diferencia de la emisión de señales de televisión ordinarias en que éstas pueden ser vistas por cualquiera con una antena u otro equipo para recibirlas, mientras que el CCTV no.
Los CCTV se personalizan para adaptarse a la naturaleza y las necesidades de seguridad de cada cliente. El sistema CCTV ideal debería proporcionar imágenes de buena calidad de día y también de noche, además debería ser fácil de usar y ser flexible, para grabar las imágenes que sirvan como pruebas de forma útil y ayudar a analizar los incidentes. Si las imágenes no tienen calidad, entonces de poco servirá.
Los CCTV se personalizan para adaptarse a la naturaleza y las necesidades de seguridad de cada cliente. El sistema CCTV ideal debería proporcionar imágenes de buena calidad de día y también de noche, además debería ser fácil de usar y ser flexible, para grabar las imágenes que sirvan como pruebas de forma útil y ayudar a analizar los incidentes. Si las imágenes no tienen calidad, entonces de poco servirá.
martes, 18 de octubre de 2016
Preguntas 2-5
2- ¿Por qué deberia tener varias particiones en mi disco duro?
Imagínate que tienes un disco duro, por muy grande que sea, aunque sea de 3TB, si tienes una única partición en la que guardas todo lo que haces, trabajos, fotos que vas sacando, vídeos que editas, juegos que tienes instalados, vamos, lo normal, se prodía decir que mal vamos, pero ¿Por qué tengo que tener varias particiones o discos duros? En primer lugar tener varios discos duros puede ser un poco caro, dependiendo del mínimo de disco que tengamos pensado, por lo que esta opción en la mayoría de los casos quedaría descartada, aunque hoy en día con la bajada de precio y diferencia de rendimiento de los SSD muchos se decantan por ponerse un SSD primario y dejar como secundario el disco mecánico que tenían, ¡Bien hecho! Por otro lado, si nuestro disco duro es lo bastante grande, que hoy en día debería ser de al menos 1TB para empezar a considerarlo algo medianamente decente, podemos ahorrarnos el tener que comprar otro disco duro y tener parte de la seguridad que nos ofrece el tener dos discos. En este caso sería usando particiones para mantener el disco separado en varias partes.
3- Ventajas de tener varias particiones.
Tener una partición exclusiva para los archivos personales del usuario, es ideal a la hora de instalar de cero el sistema operativo.
En una de las particiones se mantiene el sistema operativo y en la otra los archivos del usuario (documentos, e-mails, descargas, música, etc). Si se necesita formatear e instalar de cero el sistema por cualquier inconveniente, simplemente se procede a formatear la partición que contiene el sistema operativo, dejando intacta la otra.
Esto nos ahorra mucho tiempo, dado que no debemos guardar toda esa información en otra unidad de almacenamiento.
Imagínate que tienes un disco duro, por muy grande que sea, aunque sea de 3TB, si tienes una única partición en la que guardas todo lo que haces, trabajos, fotos que vas sacando, vídeos que editas, juegos que tienes instalados, vamos, lo normal, se prodía decir que mal vamos, pero ¿Por qué tengo que tener varias particiones o discos duros? En primer lugar tener varios discos duros puede ser un poco caro, dependiendo del mínimo de disco que tengamos pensado, por lo que esta opción en la mayoría de los casos quedaría descartada, aunque hoy en día con la bajada de precio y diferencia de rendimiento de los SSD muchos se decantan por ponerse un SSD primario y dejar como secundario el disco mecánico que tenían, ¡Bien hecho! Por otro lado, si nuestro disco duro es lo bastante grande, que hoy en día debería ser de al menos 1TB para empezar a considerarlo algo medianamente decente, podemos ahorrarnos el tener que comprar otro disco duro y tener parte de la seguridad que nos ofrece el tener dos discos. En este caso sería usando particiones para mantener el disco separado en varias partes.
3- Ventajas de tener varias particiones.
Tener una partición exclusiva para los archivos personales del usuario, es ideal a la hora de instalar de cero el sistema operativo.
En una de las particiones se mantiene el sistema operativo y en la otra los archivos del usuario (documentos, e-mails, descargas, música, etc). Si se necesita formatear e instalar de cero el sistema por cualquier inconveniente, simplemente se procede a formatear la partición que contiene el sistema operativo, dejando intacta la otra.
Esto nos ahorra mucho tiempo, dado que no debemos guardar toda esa información en otra unidad de almacenamiento.
4- Inconvenientes
Si se usa una de las particiones como respaldo, no es muy seguro que digamos. Si se rompe el disco duro, se pueden ver afectadas ambas particiones. Recuerde que ambas están en el mismo disco físico, aunque en diferentes áreas de éste.
Tampoco particionar aumenta la velocidad del disco duro, de hecho, puede producir un mayor desgaste del mecanismo interno del disco. Es es porque cuando se particiona un disco duro en dos, se crean dos áreas de trabajo. Es decir, dos anillos concéntricos, siendo el anillo interior el de la unidad C, y el anillo externo generalmente el de la unidad D.
Pero generalmente la aguja de lectura/escritura del disco duro suele trabajar mayormente en el anillo interno (unidad C), y no mucho en el externo, lo que puede ocasionar, a la larga, un desgaste del motor de la aguja.
5- Como crear una partición en windows 7 (Capturas)
Preguntas 1
Cómo crear copias de seguridad o imágenes del sistema con el programa Norton Ghost
Resumen.
Norton Ghost es una genial utilidad de Symantec que te permite hacer copias de seguridad de tus discos duros, bien sea creando una imagen del disco, la cual, con una gran compresión, podrás guardar en otro HDD, partición o conjunto de DVD’S, o bien clonar tu HDD a otro HDD.
Con esta utilidad te podrás olvidar de la restauración del sistema de Windows, que tanto usan algunos Virus para acomodarse y que ocupa mucho espacio en disco. El tiempo de copia va en función del tamaño de tu disco, pero en unos 5 minutos suele copiar una partición de 25 gb (con 9 gb libres). El tiempo para la restauración no suele tardar más de 15 minutos con el tamaño indicado anteriormente. Sobre la compresión, pues tiene varios niveles, pero a nivel normal, crea una imagen de no más de 9 gb.
Cabe mencionar que las diferencias de versiones radican en los SO que soporta, la v12 es compatible con Windows Vista y anteriores y la v10 sólo es para xp y anteriores .
Por lo tanto, puedes estar tranquilo con que tu equipo pueda caer infectado por algún virus que tu av no logre limpiar o que tras la instalación de un programa tu sistema no se comporte como deseas y demás desastres varios.
Por último, mencionar que el manual está basado en la versión v12, pero la interface de ambas versiones es prácticamente idéntica.
Resumen.
Norton Ghost es una genial utilidad de Symantec que te permite hacer copias de seguridad de tus discos duros, bien sea creando una imagen del disco, la cual, con una gran compresión, podrás guardar en otro HDD, partición o conjunto de DVD’S, o bien clonar tu HDD a otro HDD.
Con esta utilidad te podrás olvidar de la restauración del sistema de Windows, que tanto usan algunos Virus para acomodarse y que ocupa mucho espacio en disco. El tiempo de copia va en función del tamaño de tu disco, pero en unos 5 minutos suele copiar una partición de 25 gb (con 9 gb libres). El tiempo para la restauración no suele tardar más de 15 minutos con el tamaño indicado anteriormente. Sobre la compresión, pues tiene varios niveles, pero a nivel normal, crea una imagen de no más de 9 gb.
Cabe mencionar que las diferencias de versiones radican en los SO que soporta, la v12 es compatible con Windows Vista y anteriores y la v10 sólo es para xp y anteriores .
Por lo tanto, puedes estar tranquilo con que tu equipo pueda caer infectado por algún virus que tu av no logre limpiar o que tras la instalación de un programa tu sistema no se comporte como deseas y demás desastres varios.
Por último, mencionar que el manual está basado en la versión v12, pero la interface de ambas versiones es prácticamente idéntica.
Ejercicios propuestos 9 Tema 2
-Un traslado en caliente sería el traslado de equipos informáticos y HardWare, a otra ubicación sin perder en la disponibilidad de la empresa. Hacerlo en “caliente” es realizar los cambios sin perder el mantenimiento y los servicios que contrata alguien para no dejarlo parado.
-Los peligros de su antiguo centro de procesamiento de datos eran que estaba situado en una sala con materiales de madera,porque una de las causas de peligro es el incendio.
-Una auditoria es la que se hace cargo de las revisiones cuyo único fin es detectar errores, fraudes, señalar fallas y como consecuencia recomendar el despido o remoción del personal. Es la que se encá Garda de prevenir e informar de los detalles de Seguridad.
-Algunas auditorias habían hablado con Jordi (jefe de departamento de Condis) pero no habían dado necesidad a cambios en el centro de procesamiento de datos. Fue la auditoria del cumplimiento de la LOPD la que puso alerta a Condis.
La encargado del Proyecto fue => Abast Grup
- Mejoras para el acceso a la información con una mayor seguridad y protección ates los riesgos no deseados. División de colocación, varias salas, para evitar sabotajes, una para los equipos y otra para los sistemas de protección.
- No, están en diferentes salas.
-Los SAI están en una sala de mantenimiento a la que solo puede entrar personal autorizado dedicado a ello, la sala donde está el centro de procesamiento de datos tiene otro control de acceso diferente para que sólo pueda acceder el personal dedicado al centro de procesamiento de datos.
Ejercicios propuestos 7 Tema 2
Programas de clonación de discos duros
-GParted
-CloneZilla
-EaseUS Partition Master
-La copia de seguridad se guardara en un disco duro en el que no este instalado el S.O. para una mayor seguridad para una posible recuperación.
-Si se realizara en un único soporte, ya que un tamaño de 40 GB no es excesivo para la mayoría de programas.
Historia de las CPD
HISTORIA DEL PROCESAMIENTO DE DATOS
Los primeros elementos empleados para contabilizar animales y/o personas fueron pequeñas piedras o semillas, por falta de un sistema de escritura .
3000 - 3500 AC
Por los Babilonios fue descubierto el Ábaco, constituyó el primer dispositivo manual de cálculo. Servía para representar números en el sistema decimal y contar, permitiendo realizar operaciones aritméticas sencillas. Consta de un marco de madera dividido en dos partes, contiene una serie de varillas verticales que corresponden cada una a un dígito o cifra. En la parte inferior de cada varilla hay cinco discos denominados cuentas, en la superior 2 discos denominados quintas.
2600
AC apareció el ábaco chino, denominado Suan–Pan. Y en forma similar nació en Japón otro modelo de ábaco que se denominó Soroban.
1614
El escocés John Napier desarrolló los logaritmos (neperianos o naturales) que permitieron reducir complejas multiplicaciones y divisiones en sumas y restas.
1642
El matemático, filósofo y físico francés Blas Pascal desarrolla la primera máquina de sumar denominada “La Pascalina” o Máquina aritmética de Pascal que realizaba cálculos de 8
1650
Patridge, basándose en los descubrimientos de Napier, inventó la Regla de Cálculo, pequeña regla deslizante sobre una base fija en la que figuraban diversas escalas para la realización de determinadas operaciones. Este dispositivo de cálculo ha sido muy utilizado hasta los años ´60 cuando las calculadoras electrónicas constituyeron su mejor sustituto.
1671
Leibniz, perfecciona la Pascalina, agregándole capacidad de multiplicación, división y raíces cúbicas y en 1679 crea y presenta el modo aritmético binario basado en ceros y unos, el cual se emplearía siglos más tarde para estandarizar la simbología utilizada para procesar la información en las computadoras.
1805
El francés Joseph Jacquard construyó un telar automático que realizaba un control sobre las agujas tejedoras, utilizando tarjetas perforadas que contenían los datos para el control de las figuras y dibujos a tejer. El telar de Jacquard se considera como la primera máquina mecánica programada.
1822
Charles Babbage, el matemático inglés y profesor de la Universidad de Cambridge diseño la máquina de diferencias o Diferencial, basada en fundamentos mecánicos con ruedas dentadas, su aplicación más importante fueron la resolución de funciones y la obtención de tablas de dichas funciones (ej. x2) Fue la primera máquina de uso específico.
1833
El mismo Charles Babbage diseño su segunda máquina, denominada Máquina Analítica, capaz de realizar todas las operaciones matemáticas y con posibilidades de ser programable por medio de tarjetas de cartón perforado. Con esta máquina Babbage consiguió definir los fundamentos teóricos de las computadoras actuales. Por esta máquina y su estructura, Babbage es considerado actualmente como el padre de la Informática. Ada Byron (condesa, hija del famoso poeta Lord Byron) fue la primera persona que realizó programas para la máquina analítica de Babbage, de tal forma ha sido considerada como la primera programadora de la historia.
1854
El matemático inglés George Boole desarrolló la teoría de álgebra de Boole, que permitió a sus sucesores el desarrollo matemático del álgebra binaria y con ella la representación de circuitos lógicos, llamada “Teoría de los circuitos lógicos”.
1885
El norteamericano y funcionario de la oficina del censo de EE UU Herman Hollerith vio como se tardaban 10 años en realizar el censo anual de su país y observó que la mayoría de las preguntas tenían como respuesta un sí o un no, lo que hizo idear una tarjeta perforada para contener la información. Construyó su Máquina Censadora o Tabuladora que fue capaz de reducir el trabajo manual a la tercera parte, el censo de 1890 tardó sólo 3 años.
1895
Hollerith incluyó en su máquina tabuladora la operación de sumar con el fin de utilizarla para la contabilidad de los Ferrocarriles Centrales de Nueva York. Fue la primera aplicación comercial y lo introdujo en el mundo de los negocios . * 1896 se funda la empresa Tabulating Machines Company, la cual se fusionó con otras empresas en el año 1924.
1924
se crea IBM International Business Machines.
1937
Howard Aiken, de la Universidad de Harvard, desarrolla la idea de Babbage junto con un equipo de científicos de su departamento e ingenieros de IBM, dando como resultado la construcción de una calculadora numérica basada en el uso de relés electromagnéticos, ruedas dentadas y embragues electromecánicos, configurando la primera computadora electromecánica. Más conocida como Mark-I.
1938
Atanasoff (profesor de la Universidad de Iowa) y Berry construyeron una máquina electrónica que operaba en binario, fue la primera máquina de calcular digital.
1940 y 1945
Eckert y Mauchly construyeron a petición del Ministerio de Defensa de los EE UU., la primera computadora electrónica ENIAC (Electronic Numerical Integrator and Calculator)
1944
Neumann desarrolló la idea de una computadora donde los programas se podían modificar.
1951
Se construyó UNIVAC – I (por los creadores de la ENIAC) la primera computadora creada en serie. Y luego MANIAC I, MANIAC II y la UNIVAV II.
1952
Neumann construyó una máquina llamada EDVAC (Electronic Discrete Variable Automatic Computer).
Los primeros elementos empleados para contabilizar animales y/o personas fueron pequeñas piedras o semillas, por falta de un sistema de escritura .
3000 - 3500 AC
Por los Babilonios fue descubierto el Ábaco, constituyó el primer dispositivo manual de cálculo. Servía para representar números en el sistema decimal y contar, permitiendo realizar operaciones aritméticas sencillas. Consta de un marco de madera dividido en dos partes, contiene una serie de varillas verticales que corresponden cada una a un dígito o cifra. En la parte inferior de cada varilla hay cinco discos denominados cuentas, en la superior 2 discos denominados quintas.
AC apareció el ábaco chino, denominado Suan–Pan. Y en forma similar nació en Japón otro modelo de ábaco que se denominó Soroban.
El escocés John Napier desarrolló los logaritmos (neperianos o naturales) que permitieron reducir complejas multiplicaciones y divisiones en sumas y restas.
El matemático, filósofo y físico francés Blas Pascal desarrolla la primera máquina de sumar denominada “La Pascalina” o Máquina aritmética de Pascal que realizaba cálculos de 8
dígitos. A base de ruedas dentadas que simulaba el funcionamiento del ábaco. Realizaba operaciones de sumas y restas mostrando el resultado por una serie de ventanilla.
1650
Patridge, basándose en los descubrimientos de Napier, inventó la Regla de Cálculo, pequeña regla deslizante sobre una base fija en la que figuraban diversas escalas para la realización de determinadas operaciones. Este dispositivo de cálculo ha sido muy utilizado hasta los años ´60 cuando las calculadoras electrónicas constituyeron su mejor sustituto.
1671
Leibniz, perfecciona la Pascalina, agregándole capacidad de multiplicación, división y raíces cúbicas y en 1679 crea y presenta el modo aritmético binario basado en ceros y unos, el cual se emplearía siglos más tarde para estandarizar la simbología utilizada para procesar la información en las computadoras.
1805
El francés Joseph Jacquard construyó un telar automático que realizaba un control sobre las agujas tejedoras, utilizando tarjetas perforadas que contenían los datos para el control de las figuras y dibujos a tejer. El telar de Jacquard se considera como la primera máquina mecánica programada.
1822
Charles Babbage, el matemático inglés y profesor de la Universidad de Cambridge diseño la máquina de diferencias o Diferencial, basada en fundamentos mecánicos con ruedas dentadas, su aplicación más importante fueron la resolución de funciones y la obtención de tablas de dichas funciones (ej. x2) Fue la primera máquina de uso específico.
1833
El mismo Charles Babbage diseño su segunda máquina, denominada Máquina Analítica, capaz de realizar todas las operaciones matemáticas y con posibilidades de ser programable por medio de tarjetas de cartón perforado. Con esta máquina Babbage consiguió definir los fundamentos teóricos de las computadoras actuales. Por esta máquina y su estructura, Babbage es considerado actualmente como el padre de la Informática. Ada Byron (condesa, hija del famoso poeta Lord Byron) fue la primera persona que realizó programas para la máquina analítica de Babbage, de tal forma ha sido considerada como la primera programadora de la historia.
1854
El matemático inglés George Boole desarrolló la teoría de álgebra de Boole, que permitió a sus sucesores el desarrollo matemático del álgebra binaria y con ella la representación de circuitos lógicos, llamada “Teoría de los circuitos lógicos”.
1885
El norteamericano y funcionario de la oficina del censo de EE UU Herman Hollerith vio como se tardaban 10 años en realizar el censo anual de su país y observó que la mayoría de las preguntas tenían como respuesta un sí o un no, lo que hizo idear una tarjeta perforada para contener la información. Construyó su Máquina Censadora o Tabuladora que fue capaz de reducir el trabajo manual a la tercera parte, el censo de 1890 tardó sólo 3 años.
1895
Hollerith incluyó en su máquina tabuladora la operación de sumar con el fin de utilizarla para la contabilidad de los Ferrocarriles Centrales de Nueva York. Fue la primera aplicación comercial y lo introdujo en el mundo de los negocios . * 1896 se funda la empresa Tabulating Machines Company, la cual se fusionó con otras empresas en el año 1924.
1924
se crea IBM International Business Machines.
1937
Howard Aiken, de la Universidad de Harvard, desarrolla la idea de Babbage junto con un equipo de científicos de su departamento e ingenieros de IBM, dando como resultado la construcción de una calculadora numérica basada en el uso de relés electromagnéticos, ruedas dentadas y embragues electromecánicos, configurando la primera computadora electromecánica. Más conocida como Mark-I.
1938
Atanasoff (profesor de la Universidad de Iowa) y Berry construyeron una máquina electrónica que operaba en binario, fue la primera máquina de calcular digital.
1940 y 1945
Eckert y Mauchly construyeron a petición del Ministerio de Defensa de los EE UU., la primera computadora electrónica ENIAC (Electronic Numerical Integrator and Calculator)
1944
Neumann desarrolló la idea de una computadora donde los programas se podían modificar.
1951
Se construyó UNIVAC – I (por los creadores de la ENIAC) la primera computadora creada en serie. Y luego MANIAC I, MANIAC II y la UNIVAV II.
1952
Neumann construyó una máquina llamada EDVAC (Electronic Discrete Variable Automatic Computer).
Historia de la biometria en informática
Definición
La biometría es el estudio de métodos automáticos para el reconocimiento único de humanos basados en uno o más rasgos conductuales o rasgos físicos intrínsecos.
En las tecnologías de la información (TI), la «autentificación biométrica» o «biometría informática» es la aplicación de técnicas matemáticas y estadísticas sobre los rasgos físicos o de conducta de un individuo, para su autentificación, es decir, “verificar” su identidad.
Las huellas dactilares, la retina, el iris, los patrones faciales, de venas de la mano o la geometría de la palma de la mano, representan ejemplos de características físicas (estáticas), mientras que entre los ejemplos de características del comportamiento se incluye la firma, el paso y el tecleo (dinámicas). La voz se considera una mezcla de características físicas y del comportamiento, pero todos los rasgos biométricos comparten aspectos físicos y del comportamiento.
Historia
La biometría no se puso en práctica en las culturas occidentales hasta finales del siglo XIX, pero era utilizada en China desde al menos el siglo XIV. Un explorador y escritor que respondía al nombre de Joao de Barros escribió que los comerciantes chinos estampaban las impresiones y las huellas de la palma de las manos de los niños en papel con tinta. Los comerciantes hacían esto como método para distinguir entre los niños jóvenes.
La identificación por huella digital comienza su transición a la automatización a finales de los años 60 junto con la aparición de las tecnologías de computación. Con la llegada de las computadoras, un subconjunto de los puntos Galton, de aquí en más minucias (rasgos específicos), ha sido utilizado para desarrollar la tecnología de reconocimiento automatizado de huellas dactilares.
En 1969, hubo un empuje mayor por parte del Buró Federal de Investigaciones (FBI) para desarrollar un sistema para automatizar sus procesos de identificación por huellas dactilares, el cual rápidamente se había vuelto abrumador y requería de muchas horas hombre para el proceso manual. El FBI contrato al Buró Nacional de Estándares (NBS), ahora Instituto nacional de Estándares y Tecnología (NIST), para estudias el proceso automatización de la clasificación, búsqueda y concordancia de la huellas dactilares. El NIST identifico dos cambios clave: 1 escanear las tarjetas con huellas dactilares y extraer las minucias de cada huella y 2 buscar, comparar y combinar las listas de minucias contra grandes repositorios de huellas dactilares [1].
En 1975, El FBI fundo el desarrollo de escáneres de huella dactilar para clasificadores automatizados y tecnología de extracción de minucias, lo cual condujo al desarrollo de un lector prototipo. Este primer lector usaba técnicas capacitivas para recoger las minucias [2]. En ese momento solo los datos biográficos de los individuos, la clasificación de los datos de huellas dactilares y las minucias eran almacenados a causa de que el costo de almacenamiento de las imágenes digitales de las huellas dactilares era prohibitivo. Durante las pocas próximas décadas, el NIST se enfocó y condujo a desarrollos en los métodos automáticos para digitalizar las huellas dactilares en tinta y los efectos de compresión de imagen en la calidad de la imagen, la clasificación, extracción de minucias, y concordancia [3].
EL trabajo del NIST Condujo el desarrollo del algoritmo M40, el primer algoritmo operacional utilizado en el FBI para estrechar la búsqueda de humanos. Los resultados producidos por el algoritmo M40 fueron provistos a técnicos humanos entrenados y especializados quienes evaluaron el significativantemente más pequeño grupo de imágenes candidatas. La tecnología de huellas dactilares disponible continúo mejorando y para el año 1981, cinco Sistemas automatizados de identificación por huella dactilar fueron desplegados. Varios sistemas estatales en los estados unidos y otros países habían implementado sus propios sistemas autónomos, desarrollados por un número de diferentes proveedores.
Durante esta evolución, la comunicación y el intercambio de información entre sistemas fueron pasados por alto, significando que una huella digital recogida con un sistema no podía ser buscado en otro sistema. Estos descuidos llevaron a la necesidad y al desarrollo de estándares para huellas digitales.
Conforme a la necesidad de un sistema de identificación integrado en la comunidad de la justicia criminal de los Estados Unidos se volvió rápidamente evidente, la próxima fase en la automatización de huellas dactilares ocurrió al finalizar la competencia de sistemas automatizados de identificación de de huellas dactilares (Automated Fingerprint Identification System, IAFIS).
La biometría es el estudio de métodos automáticos para el reconocimiento único de humanos basados en uno o más rasgos conductuales o rasgos físicos intrínsecos.
En las tecnologías de la información (TI), la «autentificación biométrica» o «biometría informática» es la aplicación de técnicas matemáticas y estadísticas sobre los rasgos físicos o de conducta de un individuo, para su autentificación, es decir, “verificar” su identidad.
Las huellas dactilares, la retina, el iris, los patrones faciales, de venas de la mano o la geometría de la palma de la mano, representan ejemplos de características físicas (estáticas), mientras que entre los ejemplos de características del comportamiento se incluye la firma, el paso y el tecleo (dinámicas). La voz se considera una mezcla de características físicas y del comportamiento, pero todos los rasgos biométricos comparten aspectos físicos y del comportamiento.
Historia
La biometría no se puso en práctica en las culturas occidentales hasta finales del siglo XIX, pero era utilizada en China desde al menos el siglo XIV. Un explorador y escritor que respondía al nombre de Joao de Barros escribió que los comerciantes chinos estampaban las impresiones y las huellas de la palma de las manos de los niños en papel con tinta. Los comerciantes hacían esto como método para distinguir entre los niños jóvenes.
La identificación por huella digital comienza su transición a la automatización a finales de los años 60 junto con la aparición de las tecnologías de computación. Con la llegada de las computadoras, un subconjunto de los puntos Galton, de aquí en más minucias (rasgos específicos), ha sido utilizado para desarrollar la tecnología de reconocimiento automatizado de huellas dactilares.
En 1969, hubo un empuje mayor por parte del Buró Federal de Investigaciones (FBI) para desarrollar un sistema para automatizar sus procesos de identificación por huellas dactilares, el cual rápidamente se había vuelto abrumador y requería de muchas horas hombre para el proceso manual. El FBI contrato al Buró Nacional de Estándares (NBS), ahora Instituto nacional de Estándares y Tecnología (NIST), para estudias el proceso automatización de la clasificación, búsqueda y concordancia de la huellas dactilares. El NIST identifico dos cambios clave: 1 escanear las tarjetas con huellas dactilares y extraer las minucias de cada huella y 2 buscar, comparar y combinar las listas de minucias contra grandes repositorios de huellas dactilares [1].
En 1975, El FBI fundo el desarrollo de escáneres de huella dactilar para clasificadores automatizados y tecnología de extracción de minucias, lo cual condujo al desarrollo de un lector prototipo. Este primer lector usaba técnicas capacitivas para recoger las minucias [2]. En ese momento solo los datos biográficos de los individuos, la clasificación de los datos de huellas dactilares y las minucias eran almacenados a causa de que el costo de almacenamiento de las imágenes digitales de las huellas dactilares era prohibitivo. Durante las pocas próximas décadas, el NIST se enfocó y condujo a desarrollos en los métodos automáticos para digitalizar las huellas dactilares en tinta y los efectos de compresión de imagen en la calidad de la imagen, la clasificación, extracción de minucias, y concordancia [3].
EL trabajo del NIST Condujo el desarrollo del algoritmo M40, el primer algoritmo operacional utilizado en el FBI para estrechar la búsqueda de humanos. Los resultados producidos por el algoritmo M40 fueron provistos a técnicos humanos entrenados y especializados quienes evaluaron el significativantemente más pequeño grupo de imágenes candidatas. La tecnología de huellas dactilares disponible continúo mejorando y para el año 1981, cinco Sistemas automatizados de identificación por huella dactilar fueron desplegados. Varios sistemas estatales en los estados unidos y otros países habían implementado sus propios sistemas autónomos, desarrollados por un número de diferentes proveedores.
Durante esta evolución, la comunicación y el intercambio de información entre sistemas fueron pasados por alto, significando que una huella digital recogida con un sistema no podía ser buscado en otro sistema. Estos descuidos llevaron a la necesidad y al desarrollo de estándares para huellas digitales.
Conforme a la necesidad de un sistema de identificación integrado en la comunidad de la justicia criminal de los Estados Unidos se volvió rápidamente evidente, la próxima fase en la automatización de huellas dactilares ocurrió al finalizar la competencia de sistemas automatizados de identificación de de huellas dactilares (Automated Fingerprint Identification System, IAFIS).
lunes, 17 de octubre de 2016
Sistema de identificación biométrico
La biometría (del griego bios vida y metron medida) es el estudio automático para el reconocimiento único de humanos basados en uno o más rasgos conductuales o rasgos físicos intrínsecos.
En las tecnologías de la información (TI), la «autentificación biométrica» o «biometría informática» es la aplicación de técnicas matemáticas y estadísticas sobre los rasgos físicos o de conducta de un individuo, para su autentificación, es decir, “verificar” su identidad.
Las huellas dactilares, la retina, el iris, los patrones faciales, de venas de la mano o la geometría de la palma de la mano, representan ejemplos de características físicas (estáticas), mientras que entre los ejemplos de características del comportamiento se incluye la firma, el paso y el tecleo (dinámicas). La voz se considera una mezcla de características físicas y del comportamiento, pero todos los rasgos biométricos comparten aspectos físicos y del comportamiento.
Tipos de biometria:
Lectores de Huellas Dactilares
Los lectores de huella digital computarizados siempre aparecían solo en películas de ciencia ficción como un símbolo exótico de seguridad extrema. Sin embargo, hoy aparecen en todas partes, desde el más avanzado sistema de seguridad hasta cualquier aparato cotidiano como un mouse o un teléfono. Son una herramienta muy útil para restringir accesos y controlar el uso de dispositivos y áreas en instalaciones.
Control Biométrico por Verificación de Voz:
El tono de voz de cada persona es único en el mundo, es por eso que puede ser utilizado como medio de identificación. Sin embargo, estos sistemas biométricos presentan ciertas condiciones debido a que el ruido exterior, alguna enfermedad, o el envejecimiento de la persona, pueden afectar la identificación.
Biometría por Patrones Oculares
El iris y la retina pueden ser utilizados como medios de identificación en las personas. Los controles biométricos basados en estos son muy efectivos, al igual que con las huellas dactilares, es casi imposible que alguien duplique o falsifique estas partes de nuestro cuerpo, haciéndolos altamente confiables
Verificación automática de firmas:
Es realmente complicado poder reproducir las dinámicas del trazo al realizar una firma, aunque el efecto visual sea similar o el mismo, la VAF (Verificación automática de firmas) usa emisiones acústicas, toma datos del proceso dinámico de firmar o escribir, como de la presión, rapidez al realizar cada trazo etc... La secuencia sonora de emisión acústica generada por el proceso de escribir o firmar, se constituye un patrón que es único en cada persona.
En las tecnologías de la información (TI), la «autentificación biométrica» o «biometría informática» es la aplicación de técnicas matemáticas y estadísticas sobre los rasgos físicos o de conducta de un individuo, para su autentificación, es decir, “verificar” su identidad.
Las huellas dactilares, la retina, el iris, los patrones faciales, de venas de la mano o la geometría de la palma de la mano, representan ejemplos de características físicas (estáticas), mientras que entre los ejemplos de características del comportamiento se incluye la firma, el paso y el tecleo (dinámicas). La voz se considera una mezcla de características físicas y del comportamiento, pero todos los rasgos biométricos comparten aspectos físicos y del comportamiento.
Tipos de biometria:
Lectores de Huellas Dactilares
Los lectores de huella digital computarizados siempre aparecían solo en películas de ciencia ficción como un símbolo exótico de seguridad extrema. Sin embargo, hoy aparecen en todas partes, desde el más avanzado sistema de seguridad hasta cualquier aparato cotidiano como un mouse o un teléfono. Son una herramienta muy útil para restringir accesos y controlar el uso de dispositivos y áreas en instalaciones.
Control Biométrico por Verificación de Voz:
El tono de voz de cada persona es único en el mundo, es por eso que puede ser utilizado como medio de identificación. Sin embargo, estos sistemas biométricos presentan ciertas condiciones debido a que el ruido exterior, alguna enfermedad, o el envejecimiento de la persona, pueden afectar la identificación.
Biometría por Patrones Oculares
El iris y la retina pueden ser utilizados como medios de identificación en las personas. Los controles biométricos basados en estos son muy efectivos, al igual que con las huellas dactilares, es casi imposible que alguien duplique o falsifique estas partes de nuestro cuerpo, haciéndolos altamente confiables
Verificación automática de firmas:
Es realmente complicado poder reproducir las dinámicas del trazo al realizar una firma, aunque el efecto visual sea similar o el mismo, la VAF (Verificación automática de firmas) usa emisiones acústicas, toma datos del proceso dinámico de firmar o escribir, como de la presión, rapidez al realizar cada trazo etc... La secuencia sonora de emisión acústica generada por el proceso de escribir o firmar, se constituye un patrón que es único en cada persona.
jueves, 13 de octubre de 2016
Ejercicio propuesto 4 Tema 2
4. Para realizar copias de seguridad en Internet hemos visto que existen sitio FTP gratuitos como Dropbox, Idrive o Mozy, existen otras empresas especializadas en backup remoto de pago. Analiza que servicios ofrecen y a que precios, las empresas.
Recuperar datos es nuestro objetivo: Si no recuperamos, no cobramos.
Ampliando el periodo de facturación puede aprovecharse de los siguientes descuentos:
- Facturación semestral 10% de descuento
- Facturación anual 20% de descuento.
Todos nuestros planes permiten la copia simultanea de varios equipos sin necesidad de la contratación de usuarios adicionales.
Recuperar datos es nuestro objetivo: Si no recuperamos, no cobramos.
Ampliando el periodo de facturación puede aprovecharse de los siguientes descuentos:
- Facturación semestral 10% de descuento
- Facturación anual 20% de descuento.
Todos nuestros planes permiten la copia simultanea de varios equipos sin necesidad de la contratación de usuarios adicionales.
Ejercicios propuesto 3 Tema 2
3.Busca una empresa que se dedique a recuperar los datos de fallos físicos de discos e indica sus precios y servicios ofertados.¿Te parece caros los servicios de recuperación de datos?¿Cuales son los principales fallos, recomendaciones y precauciones que se deben tener con los discos duros?
-OnRetrieval, empresa española especializada en recuperar datos bajo cualquier soporte y sistema operativo. Con experiencias y referencias en diferentes sectores a nivel internacional, ofrecemos las soluciones críticas y preventivas para recuperar datos más innovadoras y demandadas en el mercado. Garantizamos la recuperación de datos asegurándole la continuidad de su negocio, con absoluta confidencialidad y garantía. Le ofrecemos soluciones para la recuperación de datos a partir de 12 horas como servicio urgente y con precios desde 90€.
-OnRetrieval, empresa española especializada en recuperar datos bajo cualquier soporte y sistema operativo. Con experiencias y referencias en diferentes sectores a nivel internacional, ofrecemos las soluciones críticas y preventivas para recuperar datos más innovadoras y demandadas en el mercado. Garantizamos la recuperación de datos asegurándole la continuidad de su negocio, con absoluta confidencialidad y garantía. Le ofrecemos soluciones para la recuperación de datos a partir de 12 horas como servicio urgente y con precios desde 90€.
Practica 3 Tema 2
Recuperación de datos.
Programas de recuperación en Windows:
- Recuva:
- El programa permite realizar una búsqueda rápida o profunda, tanto en discos duros como iPod, emails borrados accidentalmente en aplicaciones como Outlook o Thunderbird, discos dañados o formateados, etc... Nunca recuperaremos el 100% en ocasiones solo recuperaremos parte de ellos.
2. Pandora Recovery:
- Panda Recovery es capaz de recuperar archivo de sistemas de archivo NTFS y FAT32. Pandora Recovery examinará tu disco duro y creará un índice de carpetas y archivos borrados. Usted tiene control completo sobre cuales archivos recuperar y hacia donde recuperarlos. Puede examinar la organización de archivos existentes y borrados, o usar el sistema de búsqueda para encontrar su archivo si sabe uno de los siguiente:
- - El nombre parcial o complete del archivo,
- - El tamaño del archivo,
- - La fecha de creación del archivo,
- - La fecha del último acceso del archivo
- NTFS Undelete es una aplicación que te permite recuperar los archivos que hayas perdido, de un modo simple y fácil. NTFS puede restaurar todo tipo de archivos que estén en dispositivos que usen los sistemas de archivo NTFS o FAT. También funciona para todo tipo de dispositivos extraíbles, como memorias USB o tarjetas SD.
Programas de recuperación en Linux:
- SafeCopy :
- Es un programa de recuperación de datos de cualquier tipo de fuente problemática como unidades de disco con sectores defectuosos, unidades extraibles como CDs, unidades USB, dispositivos de cinta, etc y es capaz de recuperar los datos sin errores en un archivo de salida.
- El programa se ejecuta en linea de comandos, y aunque dispone de varias opciones más complejas, que nos permite determinar el grado de profundidad o la rapidez en la recuperación.
2. GNU Ddrescue:
- Este programa de recuperación de datos del proyecto GNU copia los datos de un archivo o dispositivo de bloques (disco duro, CD-ROM, unidad de flash, etc) a otro, tratando de rescatar primero las partes buenas en caso de errores de lectura, siguiendo una filosofía muy similar a la herramienta SafeCopy que citamos antes.
3. Foremost:
- Es otra utilidad en linea de comandos, permite recuperar los archivos basándose en sus encabezados, pies de página y estructura interna de los mismos, siendo compatible una cantidad impresionante de formatos: avi, bmp, dll, doc, docx, exe, gif, htm, jar, jpg, mbd, mov, mp4, mpg, ole, pdf, png, ppt, pptx, rar, rif, sdw, sx, sxc, sxi, sxw, vis, wav, wmv, xls, xlsx, zip.
Practica 2 Tema 2
Copias de seguridad con aplicaciones especificas.
A continuación pondré 3 programas de Copias de seguridad en Windows y una pequeña descripción:- Cobian Backup:
- Cobian Backup es un programa multitarea capaz de crear copias de seguridad en un equipo, en una red local o incluso en/desde un servidor FTP. También soporta SSL. Se ejecuta sobre Windows y uno de sus grandes fuertes es que consume muy pocos recursos y puede estar funcionando en segundo plano.
- Cada tarea de respaldo que le asignemos puede ejecutarse en el momento, diaria, semanal, mensual o anualmente, o en un tiempo especificado. Hace copias completas, incrementales y diferenciales.
- Soporta compresión ZIP, Zip64 o SQX. Además ofrece la opción de proteger todas las funciones del programa por contraseña.
2. Synei Backup Manager:
- Synei Backup Manager es una herramienta que realiza una copia de seguridad de todos tus archivos importantes: fotos, vídeos, documentos, etc. La facilidad de uso de este programa garantiza que tu información más importante siempre estará a salvo.
- Synei Backup Manager es tan fácil de manejar, porque solo tienes que elegir los archivos que deseas resguardar (backup) y luego seleccionar el destino. Dispone de otras funciones tales como: compresión de copias de seguridad, una herramienta de cifrado y protección por contraseña
3. ZBack :
- Es un software portátil, que no necesita instalación; se puede colocar en cualquier carpeta de una unidad interna o externa. Puede trabajar con Windows 2000, XP, Vista, Windows 7 (32 y 64 bits), Windows 8, y Linux (Wine).
- El programa soporta varios modos de copia, entre los que destacan la actualización de archivos, el proceso de refresco de los archivos existentes, el control de la fuente como espejo para dirigir las acciones, el establecimiento de la sincronización, así como fijar la fecha de copia de seguridad y restauración.
A continuación expondré otros 3 programas pero esta vez en Linux.
1. Simple Backup:
- Simple Backup es un programa muy sencillo que permite a cualquier usuario realizar copias de seguridad de los datos que quiera, con el fin de poder restaurarlos si en algún momento detecta un problema en el funcionamiento de su equipo. La única parte significativa es que este programa no puede realizar copias de seguridad diferenciales, por lo que solo copiara lo que se haya modificado después de una copia de seguridad total.
- Areca Backup es un Software de copias de seguridad de archivos personales desarrollado en Java. Se distribuye bajo licencia GNU General Public License (GPL) 2.
- Comprende distintas maneras de copias de seguridad y se puede instalas tambien en Windows, asi como distintos cifrados, soporta los 3 tipos de copia de seguridad que conocemos, Mecanismo de transacción (con gestión de commit/rollback) para todos los procesos críticos (como copias de seguridad o fusiones) para garantizar la integridad de los archivos copiados.
3. Backup Pc:
- BackupPC es un software libre de respaldo disco-a-disco, con una interfaz web. El software es multiplataforma, y puede ejecutarse en cualquier Linux, Solaris o servidor basado en Unix. No se requiere el uso de clientes, ya que el servidor es en sí mismo es cliente para múltiples protocolos que son manejados por otros servicios nativos del sistema operativo. En 2007, BackupPC fue mencionado como uno de los tres software de respaldo de fuente abierta mejor conocidos, a pesar de que es una de las herramientas que son asombrosas, pero que infortunadamente, si nadie habla de ella, nunca nadie oirá de de ella.
martes, 11 de octubre de 2016
Copia de seguridad en Windows.
Copias de seguridad con herramientas del sistema.
Copias de seguridad con herramientas del sistema.
Tenemos 4 métodos de herramientas de sistema en windows, a continuación se explicarán:
- Compresión: Este en esencia es el mejor método para disminuir el espacio que se necesita para almacenar los datos y con este modo poder reducir el coste.
- Cifrado: La alta capacidad de los soportes de almacenamiento desmontables implica un riesgo de perderse o ser robados. Si se cifra la información de estos soportes se puede mitigar el problema, aunque esto presenta nuevos inconvenientes. Primero, cifrar es un proceso que consume mucho tiempo de CPU y puede bajar la velocidad de copiado. En segundo lugar, una vez cifrados los datos, la compresión es menos eficaz.
- Duplicación: Crea una copia de seguridad de FlashCopy donde sólo se copia una de las duplicaciones durante la copia de seguridad. Si se utiliza LVM para duplicar la base de datos entre sitios, puede crear copias de seguridad de cinta en cada sitio. En esta situación, no tiene que transferir la imagen de copia de seguridad entre sitios. Para realizar esta tarea, es necesario un servidor de copia de seguridad en cada sitio donde las imágenes de copia de seguridad se puedan montar de forma local para transferirlas a los medios de copia de seguridad secundarios.
- Nombre del archivo: Es muy recomendable que el nombre de las copias de seguridad indiquen cuando se realizaron y si esta fue una copia total, incremental o diferencial.
lunes, 10 de octubre de 2016
Recomendación sobre el tipo de copia a efectuar
Metodo de copia | Espacio de almacenamiento | Velocidad de copia | Restauración | Copia recomendada |
Completo | Máximo | Muy lento | Muy simple | Pocos datos a copiar |
Completo + Incremental | Minimo | Rápido | Compleja | Muchos datos que cambian frecuentemente |
Completo + Diferencial | Intermedio | Lunto | Sencilla | Datos cuya velocidad de cambio sea moderada |
Ejercicio 2 Tema 2
Ejercicio 1 Tema 2
-Lo más barato es la memoria de almacenamiento HDD
-La más rápida es la SSD.
-Si, las memorias flash sustituiran a las magnéticas.
-La mayoria de los equipos informáticos que no se traten de almacenamiento o copias de seguridad, han hecho el cambio del disco duro al de estado solido, ya que la velocidad a la que varias veces superior a las que nos proporciona el disco duro.
jueves, 6 de octubre de 2016
Preguntas
-Alojamiento de Webs. Una explosión en uno de los dos sistemas de backup de la instalación eléctrica. Porque el segundo equipo no podia con toda la red de datos. No.
-Los equipos de aire y despues el resto. Entre 20º y 25º seria lo recomendado. Perdida total de los datos almacenados, así como de los equipos fisicos.
-NTT, ha restablecido el sistema de refrigeración, para ir arrancando progresivamente los equipos y webblogssl, la empresa afectada ha restablecido las copias de los blogs a las 19:00 del día del accidente y restablecerán en un futuro inmediato a una copia mas actualizada. Si
-La separación de los servidores y de los generadores, asi como poseer un backup capaz de soportar la inmesa carga de información en caso de que falle un servidor.
Enlace a la noticia:
https://www.weblogssl.com/caida-general-de-x-horas-durante-la-madrugada-del-23-de-septiembre-de-2008/
-Alojamiento de Webs. Una explosión en uno de los dos sistemas de backup de la instalación eléctrica. Porque el segundo equipo no podia con toda la red de datos. No.
-Los equipos de aire y despues el resto. Entre 20º y 25º seria lo recomendado. Perdida total de los datos almacenados, así como de los equipos fisicos.
-NTT, ha restablecido el sistema de refrigeración, para ir arrancando progresivamente los equipos y webblogssl, la empresa afectada ha restablecido las copias de los blogs a las 19:00 del día del accidente y restablecerán en un futuro inmediato a una copia mas actualizada. Si
-La separación de los servidores y de los generadores, asi como poseer un backup capaz de soportar la inmesa carga de información en caso de que falle un servidor.
Enlace a la noticia:
https://www.weblogssl.com/caida-general-de-x-horas-durante-la-madrugada-del-23-de-septiembre-de-2008/
PRINCIPIOS DE LA SEGURIDAD PASIVA
La seguridad pasiva se trata de intentar minimizar el impacto y los efectos causador por accidentes, es decir, se consideran medidas o acciones posteriores a un accidente o incidente. En breve veremos una tabla que representa la relación entre los posibles problemas y con alguna solución propuesta.
Suministro eléctrico:Cortes, variaciones del nivel medio de tensión (subidas y bajadas), distorsión y ruido añadido. | -Sistema de alimentación ininterrumpida (SAI o UPS) -Generadores eléctricos autónomos. -Fuentes de alimentación redundantes. |
Robos o sabotajes: acceso físico no autorizado al hardware, software y copias de seguridad. | -Control de acceso físico: armarios, llaves, blindajes o biometria -Vigilancia mediante personal y circuitos cerrados de televisión (CCTV) |
Condiciones atmosféricas y naturales adversas: temperaturas extremas, humedad excesiva, incendios, inundaciones, terremotos. | -Elegir la correcta ubicación de sistemas, teniendo en cuenta la construcción la probabilidad de catástrofes naturales y ambientales. -Centro de respaldo en ubicación diferente al centro de producción. -Proporcionar mecanismos de control y regulación de temperatura, humedad, etc. |
Las consecuencias de una mala seguridad pasiva:
-Perdida de información.
-Falta de disponibilidad de los servicios.
-Pérdida y/o mal funcionamiento del hardware.
Suscribirse a:
Entradas (Atom)