jueves, 29 de marzo de 2012

Preguntas para el examen

1.MENCIONA 3 CARACTERISTICAS QUE DEBE TENER UN SISTEMA OPERATIVO:
*Que corra sobre múltiples arquitecturas de hardware y plataformas.
  *Que sea compatible con aplicaciones hechas en plataformas anteriores
  *Reúna los requisitos de la industria y del gobierno para la seguridad del Sistema Operativo.
*Sea un Sistema Operativo de memoria virtual.


2.MICROSOFT QUERIA QUE SU SISTEMA OPERATIVO FUERA:
portable, fiable, adaptable, robusto, seguro y compatible con sus versiones anteriores y un Sistema Operativo extensible


3.LA ARQUITECTURA DEL SISTEMA OPERATIVO ES:
es del tipo cliente – servidor ya que los programas de aplicación son contemplados
como si fueran clientes a los que hay que servir


4.CARACTERISTICAS QUE COMPARTEN LOS SISTEMAS OPERATIVOS CONOCIDOS:
la división de tareas del Sistema Operativo en múltiples categorías, las cuales están asociadas a los modos actuales soportados por los microprocesadores. 


5.WINDOWS USA 2 MODOS QUE SON:
usa un modo privilegiado (Kernel O administrador) y un modo no privilegiado (Usuario invitado).


6.MODO KERNEL(ADMINISTRADOR)
es un modo muy privilegiado de funcionamiento, donde el código tiene el acceso directo a todo el hardware y toda la memoria, incluso a los espacios de dirección de todos los procesos del modo usuario.


7.MODO USUARIO (INVITADO)
es un modo menos privilegiado de funcionamiento, sin el acceso directo al hardware. Y para hacer algun cambio necesita que el administrador lo permita.


8.SU OBJETIVO FUNDAMENTAL DEL SOFTWARE:
tener un núcleo tan pequeño como fuera posible, en el que estuvieran integrados módulos que dieran respuesta a aquellas llamadas al sistema que necesariamente se tuvieran que ejecutar en modo privilegiado 


9.ESTA SERIA UNA BASE COMPACTA, ROBUSTA Y ESTABLE:
El nucleo


10.PRIMERAS APLICACIONES DE WINDOWS 
la Calculadora, Calendario, Cardfile, Visor del portapapeles, Reloj, Panel de control, el Bloc de notas, Paint, Reversi, Terminal y Write era lo principal 


11.CARACTERISICAS DE LA VERSION WINDOWS 2.0
presentó varias mejoras en la interfaz de usuario y en la gestión de memoria e introdujo nuevos métodos abreviados de teclado


12. QUE VERSION D WINDOWS PODIA EJECUTAR LAS APLICACIONES EN MODO PROTEGIDO:
windows 3.0 o 3.1


13. WINDOWS 95 TIENE:
la capacidad de detectar automáticamente y configurar el hardware instalado


14. ESTA VERSION FUE DE LAS MENOS ACEPTADA POR SUS DEFICIENCIAS Y MENCIONA POR QUE:
windows vista.
su bajo rendimiento respecto a otros sistemas operativos
sus requerimientos de hardware
su incompatibilidad con la mayor parte de los programas o aplicaciones.

jueves, 15 de marzo de 2012

Seguridad



La seguridad informática es el área de la informática que se enfoca en la protección de la infraestructura computacional y todo lo relacionado con esta (incluyendo la información contenida). Para ello existen una serie de estándares, protocolos, métodos, reglas, herramientas y leyes concebidas para minimizar los posibles riesgos a la infraestructura o a la información. La seguridad informática comprende software, bases de datos, metadatos, archivos y todo lo que la organización valore (activo) y signifique un riesgo si ésta llega a manos de otras personas. Este tipo de información se conoce como información privilegiada o confidencial.




La seguridad informática está concebida para proteger los activos informáticos, entre los que se encuentran:




•    La información contenida


Se ha convertido en uno de los elementos más importantes dentro de una organización. La seguridad informática debe ser administrada según los criterios establecidos por los administradores y supervisores, evitando que usuarios externos y no autorizados puedan acceder a ella sin autorización. De lo contrario la organización corre el riesgo de que la información sea utilizada maliciosamente para obtener ventajas de ella o que sea manipulada, ocasionando lecturas erradas o incompletas de la misma. Otra función de la seguridad informática en esta área es la de asegurar el acceso a la información en el momento oportuno, incluyendo respaldos de la misma en caso de que esta sufra daños o pérdida producto de accidentes, atentados o desastres.


•    La infraestructura computacional


Una parte fundamental para el almacenamiento y gestión de la información, así como para el funcionamiento mismo de la organización. La función de la seguridad informática en esta área es velar que los equipos funcionen adecuadamente y prever en caso de falla planes de robos, incendios, boicot, desastres naturales, fallas en el suministro eléctrico y cualquier otro factor que atente contra la infraestructura informática.


•    Los usuarios


Son las personas que utilizan la estructura tecnológica, zona de comunicaciones y que gestionan la información. La seguridad informática debe establecer normas que minimicen los riesgos a la información o infraestructura informática. Estas normas incluyen horarios de funcionamiento, restricciones a ciertos lugares, autorizaciones, denegaciones, perfiles de usuario, planes de emergencia, protocolos y todo lo necesario que permita un buen nivel de seguridad.




La seguridad no es solo cosas de parches, programas o actualizaciones, sino principalmente es un problema nuestro como usuarios. En todos los estudios realizados los descuidos o imprudencias son la principal fuente de las brechas de seguridad, tanto desde el punto de vista del usuario personal como de las empresas.


La seguridad informática se resume, por lo general, en cinco objetivos principales:


•    Integridad: garantizar que los datos sean los que se supone que son
•    Confidencialidad: asegurar que sólo los individuos autorizados tengan acceso a los recursos que se intercambian
•    Disponibilidad: garantizar el correcto funcionamiento de los sistemas de información
•    Evitar el rechazo: garantizar de que no pueda negar una operación realizada.
•    Autenticación: asegurar que sólo los individuos autorizados tengan acceso a los recursos




Las 10 leyes inmutables de las seguridad.




Ley 1: Si un intruso lo puede persuadir para que usted ejecute el programa de él en su computadora, ésta ya deja de ser su computadora.


Cuando un programa se ejecuta en el ordenador hace lo que el programador le ha dicho que haga, no lo que creemos que tiene que hacer. Por lo tanto, si permitimos que un programa se ejecute en nuestro ordenador tendrá las mismas capacidades de realizar cambios, incluidos los dañinos, que nosotros tenemos como usuarios y los hará según las instrucciones de su programador.




Ley 2: Si un intruso puede alterar el sistema operativo de su computadora, ésta ya deja de ser su computadora.


El sistema operativo no deja de ser un programa más acompañado por un conjunto de ficheros de configuración, que están protegidos pero que a la larga puede ser modificados. Si permitimos cambios en el sistema nuestro ordenador ya no estará bajo nuestro control




Ley 3: Si un intruso tiene acceso físico sin restricción a su computadora, ésta ya no es su computadora.


Tomar las mejores precauciones para protegernos de los intrusos que pueden acceder a nuestro ordenador a través de Internet no vale nada si el intruso puede acceder tranquilamente a nuestro ordenador y sentarse a teclear. Es algo que en ocasiones descuidamos, pero un elemento básico de la seguridad. En el artículo de TechNet dan una lista de lo que un “intruso” puede hacer si tiene acceso al ordenador.




Ley 4: Si usted le permite a un intruso subir programas a su sitio Web, éste deja de ser suyo


El intruso es el que entra en el servidor e intenta cambiar nuestra página web. Conseguirá así extender el contagio de un virus o malware. La responsabilidad de un usuario que mantenga un sitio web incluye controlar que los usuarios de la web no puedan agregar programas y mantener actualizado el software con los parches de seguridad adecuados.


.Ley 5: Las contraseñas débiles atentan contra la seguridad fuerte.


Es uno de los eslabones más débiles de la cadena de seguridad. Si para identificarnos utilizamos contraseñas fáciles de averiguar, los sistemas de seguridad que hayamos instalado no servirán de nada. Hay que tener la precaución de que siempre en nuestro sistema el administrador requiera contraseña.




Ley 6: Una máquina es tan segura como confiable sea el administrador


Todo ordenador tiene su administrador, aunque en muchos casos el administrador seamos nosotros. El edministrador es el que instala el software, modifica el sistema operativo y establece las políticas de seguridad. En el decálogo de Technet se advierte que un administrador intruso puede frustrar cualquier medida de seguridad que tomemos nosotros.




Ley 7: Los datos encriptados son tan seguros como la clave de desencriptación.


Una versión distinta del problema de las passwords. La encriptación es una excelente herramienta para proteger nuestros datos y se utiliza en las transacciones que se realizan en Internet, pero en el caso de los programas de encriptación, hay que tener cuidado dónde se almacenan. Lo mejor es utilizar claves que memorizaremos o almacenarlas en un dispositivo externo a nuestro ordenador para que sean difíciles de localizar.




Ley 8: Un escáner de virus desactualizado sólo es ligeramente mejor que ningún escáner de virus en absoluto.


En Internet van apareciendo y mutando nuevos virus y malware a un ritmo muy alto. Por eso hoy más que nunca, cuando pasamos más tiempo conectados a Internet, es muy importante disponer de un antivirus actualizado. Uno que no esté puesto al día nos protegerá solamente de amenazas obsoletas pero no será una herramienta de protección fiable.




Ley 9: El anonimato absoluto no es práctico, ni en la vida real ni en la Web


Las herremientas que permiten conseguir un grado de anonimato importante en Internet son muchas, como los proxies o conversores de direcciones IP que hacen que no podamos ser localizados o los navegadores web que no dejan rastros de nuestra actividad. Hay que tener cuidado con qué servicios utilizamos para conseguir el anonimato, porque puede que estemos consiguiendo precisamente lo contrario.




Ley 10: La tecnología no es una panacea.


Una lección que es necesario aprender a pesar de los grandes adelantos tecnológicos que estamos viviendo y en el campo de la seguridad en particular. Como adelantábamos al principio, a pesar de toda esta tecnología tan sofisticada y los avances en el software de seguridad, no podemos encomendar nuestra seguridad totalmente a la tecnología




CONCEPTOS BASICOS DE SEGURIDAD INFORMATICO


•    • Confidencialidad La información solo debe ser legible para personal autorizado p Evita que exista una intercepción de esta y que pueda ser leída por una persona no autorizada
•    • Disponibilidad p Garantiza el acceso Irrefutabilidad No se puede negar la autoría n Autenticación p Solo individuos autorizados tienen acceso a los recursos
•    • Integridad Garantizar que los datos sean los que se suponen que son y no se hayan alterados in situ o durante una transmisión




La información almacenada en el sistema, así como los recursos físicos del sistema de computación, tienen que protegerse contra acceso no autorizado, destrucción o alteración mal intencionada, y la introducción accidental de inconsistencia.


La seguridad está definida en el diccionario como el conjunto de medidas tomadas para protegerse contra robos, ataques, crímenes y espionajes o sabotajes. La seguridad implica la cualidad o estado de estar seguro, es decir, la evitación de exposiciones a situaciones de peligro y la actuación para quedar a cubierto frente a contingencias adversas.


El uso creciente y la confianza en los computadores en todo el mundo ha hecho surgir una preocupación legítima con respecto a la seguridad informática. El uso de los computadores ha extendido en ambientes comerciales, gubernamentales, militares e incluso en los hogares. Grandes cantidades de datos vitales sensibles se están confiando y almacenado cada vez más en computadores. Entre ellos se incluyen registros sobre individuos, negocios y diferentes registros públicos y secretos gubernamentales y militares. Grandes transacciones monetarias tienen lugar diariamente en forma de transferencia electrónicas de fondos. Más recientemente, informaciones tales como notificaciones de propiedad intelectual y datos comerciales estratégicos son también almacenados, procesados y diseminados mediante computadores. Entre ellos se incluyen diseños de ventas, contratos legales y muchos otros.


La seguridad, no solo requiere un sistema de protección apropiado, sino también considerar el entorno externo en el que el sistema opera. La protección interna no es útil si la consola del operador está al alcance de personal no autorizado, o si los archivos se pueden sacar simplemente del sistema de computación y llevarse a un sistema sin protección. Estos problemas de seguridad son esencialmente de administración, no problemas del sistema operativo.


Información de un atacante


Un ataque informático consiste en aprovechar alguna debilidad o falla (vulnerabilidad) en el software, en el hardware, e incluso, en las personas que forman parte de un ambiente informático; a fin de obtener un beneficio, por lo general de índole económico, causando un efecto negativo en la seguridad del sistema, que luego repercute directamente en los activos de la organización.


Para minimizar el impacto negativo provocado por ataques, existen procedimientos y mejores prácticas que facilitan la lucha contra las actividades delictivas y reducen notablemente el campo de acción de los ataques.


Uno de los pasos más importantes en seguridad, es la educación. Comprender cuáles son las debilidades más comunes que pueden ser aprovechadas y cuáles son sus riesgos


asociados, permitirá conocer de qué manera se ataca un sistema informático ayudando a identificar las debilidades y riesgos para luego desplegar de manera inteligente estrategias de seguridad efectivas.




La mayoría de las organizaciones son hemorragias de datos; las empresas dan libremente demasiada información que puede ser utilizada en su contra a través de diversos tipos de ataques lógicos y físicos. Aquí sólo se encuentran algunos de los ejemplos más comunes de la información que un atacante puede obtener sobre su organización, por lo general, en cuestión de minutos:Fallos de los productos, problemas con el personal, publicaciones internas, políticas de la empresa y muchos más desde blogs, comentarios, críticas de la empresa y servicios de inteligencia competitiva.


•  Los nombres de sus altos ejecutivos y de cualquier empleado llamativo pueden ser obtenidos examinando sus comunicados de prensa.


•  La dirección de la empresa, números telefónicos y números de fax desde el registro de nombres de dominio.
•  El proveedor de servicio a Internet.
•  La dirección de la casa de los empleados, sus números telefónicos, currículo vita que de los empleados, los miembros de su familia,antecedentes penales y mucho más buscando sus nombres en varios sitios de investigación gratuitos y pagos.
•    Los sistemas operativos, los principales programas utilizados, los lenguajes de programación, plataformas especiales, fabricantes de los dispositivos de red utilizados y mucho más desde los anuncios en sitios de empleos.
•    Debilidades físicas, puntos de ventaja, señales activas, formas de entrada, coberturas para los caminos de acceso y más a través de imágenes satelitales de su empresa y las direcciones de los empleados.
•    Nombres de usuario, direcciones de correo electrónico, números de teléfono, estructura de archivos, nombres de archivos, tipos de sistemas operativos, la plataforma del servidor web, lenguajes de script, entornos de aplicaciones web y más con escaners de sitios web.
•    Documentos confidenciales accidentalmente enviados a un sitio web como archivo.org o Google Hacking.






Seguridad de los sistemas de información.


La complejidad de la seguridad de los sistemas de información precisa la preparación de estrategias que permitan que la información circule libremente, garantizando al mismo tiempo la seguridad del uso de los sistemas de información en toda la Comunidad. A este respecto, la presente Decisión establece un plan de acción en el ámbito de la seguridad de los sistemas de información y crea un comité encargado de asesorar a la Comisión sobre actuaciones en este ámbito.
SÍNTESIS
Mediante la presente decisión se adopta una acción en el ámbito de la seguridad de los sistemas de información. Dicha acción incluye los dos elementos siguientes:


•    la aplicación de un plan de acción durante un período inicial de 24 meses. El importe de los recursos financieros comunitarios considerado necesario para la aplicación de este plan de acción durante el período previsto asciende a doce millones de ecus;
•    la creación de un comité de altos funcionarios que tendrá la misión a largo plazo de asesorar a la Comisión sobre acciones en materia de seguridad de los sistemas de información.




Plan de acción
El plan de acción tendrá como finalidad el desarrollo de estrategias globales destinadas a proporcionar a los usuarios y a los productores de información almacenada, procesada o transmitida electrónicamente la protección adecuada de los sistemas de información contra amenazas accidentales o deliberadas.
El plan de acción se ejecutará en estrecha colaboración con los protagonistas del sector. Tendrá en cuenta y complementará las actividades en curso a nivel mundial para la normalización en este ámbito.
El plan incluye las siguientes líneas de actuación:
•    desarrollo de un marco estratégico para la seguridad de los sistemas de información;
•    definición de las necesidades de los usuarios y de los prestadores de servicios en materia de seguridad de los sistemas de información;
•    elaboración de soluciones para determinadas necesidades a corto y medio plazo de los usuarios, proveedores y prestadores de servicios;
•    elaboración de especificaciones, normas y pruebas de certificación respecto a la seguridad de los sistemas de información;
•    innovaciones técnicas y de funcionamiento en materia de seguridad de los sistemas de información en un marco estratégico general;
•    puesta en práctica de la seguridad de los sistemas de información.

lunes, 12 de marzo de 2012

Software de Servidor

Windows Vs. Linux
¿Cuales son las ventajas de Linux frente a Windows?, ¿en qué se diferencian?
La instalación:
  • En Linux a pesar de todos los esfuerzos la instalación no resulta sencilla siempre, pero te permite personalizar totalmente los paquetes que quieras instalar.
  • En Windows la instalación es mínimamente configurarle aunque es muy sencilla.

La compatibilidad: Ninguno de los dos sistemas operativos son totalmente compatibles con el Hardware, a pesar de que Windows se acerca más, los dos están cerca de conseguirlo.
  • Aunque Linux no esta detrás de ninguna casa comercial gracias a su elevada popularidad ofrece una alta compatibilidad ofreciendo, además, actualizaciones frecuentes.
  • Windows al ser parte de Microsoft intenta ofrecer una gran cantidad de drivers ya que su gran poder económico hace que las empresas mismas de hardware creen sus propios drivers.

Software:
  • Linux al tener menos software en algunos campos sufre una menor aceptación por parte de las empresas, aunque gracias a los apoyos de empresas como Sun Microsystems o IBM se ha logrado muchos avances.
  • Windows al ser el más fácil de usar en las empresas, posee una gran cantidad de software.

Robustez:
  • Linux se ha caracterizado siempre por la robustez de su sistema ya que pueden pasar meses e incluso años sin la necesidad de apagar o reiniciar el equipo, también si una aplicación falla simplemente no bloquea totalmente al equipo.
  • En Windows siempre hay que reiniciar cuando se cambia la configuración del sistema, se bloquea fácilmente cuando ejecuta operaciones aparentemente simples por lo que hay que reiniciar el equipo.

Conclusión: Tanto Windows como Linux tienen su ventajas y inconvenientes, aunque desde un punto de vista más técnico Linux sale ganando.

Razones para cambiar:
  • Es software libre, lo que quiere decir que no hay que pagar nada por el sistema en sí.
  • Es un sistema operativo muy fiable ya que hereda la robustez de UNIX.
  • Ideal para las redes ya que fue diseñado en Internet y para Internet
  • No es cierto que tenga pocos programas, solo en algún campo muy especifico.
  • Es 100% configurarle.
  • Es el sistema más seguro, ya que al disponer del código fuente cualquiera puede darse cuanta de algún fallo, se puede decir que decenas de miles de personas velan por tu seguridad.
  • Existe muchísima documentación, también en español gracias a los proyectos como LUCAS.
  • Cuenta con el soporte de muchas grandes empresas como IBM, Corel, Lotus, Siemens, Motorola, Sun, etc.
  • Puedes encontrar ayuda en millones de sitios en Internet como los foros.
  • Es muy portable, si tienes un Mac un Alpha o un Sparc puedes usar Linux sin problemas.
Un Sistema Operativo serio, capaz de competir en el mercado con otros como Unix que ya tienen una posición privilegiada, en cuanto a resultados, debe tener una serie de características que le permitan ganarse ese lugar. Algunas de estas son:
  • Que corra sobre múltiples arquitecturas de hardware y plataformas.
  • Que sea compatible con aplicaciones hechas en plataformas anteriores, es decir que corrieran la mayoría de las aplicaciones existentes hechas sobre versiones anteriores a la actual, nos referimos en este caso particular a las de 16-bit de MS-DOS y Microsoft Windows 3.1.
  • Reúna los requisitos gubernamentales para POSIX (Portable Operating System Interface for Unix).
  • Reúna los requisitos de la industria y del gobierno para la seguridad del Sistema Operativo.
  • Sea fácilmente adaptable al mercado global soportando código Unicode.
  • Sea un sistema que corra y balancee los procesos de forma paralela en varios procesadores a la vez.
  • Sea un Sistema Operativo de memoria virtual.
Uno de los pasos más importantes que revolucionó los Sistemas Operativos de la Microsoft fue el diseño y creación de un Sistema Operativo extensible, portable, fiable, adaptable, robusto, seguro y compatible con sus versiones anteriores (Windows NT).
Y para ello crearon la siguiente arquitectura modular:


La cual está compuesta por una serie de componentes separados donde cada cual es responsable de sus funciones y brindan servicios a otros componentes. Esta arquitectura es del tipo cliente – servidor ya que los programas de aplicación son contemplados por el sistema operativo como si fueran clientes a los que hay que servir, y para lo cual viene equipado con distintas entidades servidoras.
Ya creado este diseño las demás versiones que le sucedieron a Windows NT fueron tomando esta arquitectura como base y le fueron adicionando nuevos componentes.
Uno de las características que Windows comparte con el resto de los Sistemas Operativos avanzados es la división de tareas del Sistema Operativo en múltiples categorías, las cuales están asociadas a los modos actuales soportados por los microprocesadores. Estos modos proporcionan a los programas que corren dentro de ellos diferentes niveles de privilegios para acceder al hardware o a otros programas que están corriendo en el sistema. Windows usa un modo privilegiado (Kernel) y un modo no privilegiado (Usuario).
Uno de los objetivos fundamentales del diseño fue el tener un núcleo tan pequeño como fuera posible, en el que estuvieran integrados módulos que dieran respuesta a aquellas llamadas al sistema que necesariamente se tuvieran que ejecutar en modo privilegiado (modo kernel). El resto de las llamadas se expulsarían del núcleo hacia otras entidades que se ejecutarían en modo no privilegiado (modo usuario), y de esta manera el núcleo resultaría una base compacta, robusta y estable.
El Modo Usuario es un modo menos privilegiado de funcionamiento, sin el acceso directo al hardware. El código que corre en este modo sólo actúa en su propio espacio de dirección. Este usa las APIs (System Application Program Interfaces) para pedir los servicios del sistema.
El Modo Kernel es un modo muy privilegiado de funcionamiento, donde el código tiene el acceso directo a todo el hardware y toda la memoria, incluso a los espacios de dirección de todos los procesos del modo usuario. La parte de WINDOWS que corre en el modo Kernel se llama Ejecutor de Windows, que no es más que un conjunto de servicios disponibles a todos los componentes del Sistema Operativo, donde cada grupo de servicios es manipulado por componentes que son totalmente independientes (entre ellos el Núcleo) entre sí y se comunican a través de interfaces bien definidas.
Todos los programas que no corren en Modo Kernel corren en Modo Usuario. La mayoría del código del Sistema Operativo corre en Modo Usuario, así como los subsistemas de ambiente (Win32 y POSIX que serán explicados en capítulos posteriores) y aplicaciones de usuario. Estos programas solamente acceden a su propio espacio de direcciones e interactúan con el resto del sistema a través de mensajes Cliente/Servidor.
Diseño de  linux


Actualmente Linux es un núcleo monolítico híbrido. Los controladores de dispositivos y las extensiones del núcleo normalmente se ejecutan en un espacio privilegiado conocido como anillo 0 (ring 0), con acceso irrestricto al hardware, aunque algunos se ejecutan en espacio de usuario. A diferencia de los núcleos monolíticos tradicionales, los controladores de dispositivos y las extensiones al núcleo se pueden cargar y descargar fácilmente como módulos, mientras el sistema continúa funcionando sin interrupciones. También, a diferencia de los núcleos monolíticos tradicionales, los controladores pueden ser prevolcados (detenidos momentáneamente por actividades más importantes) bajo ciertas condiciones. Esta habilidad fue agregada para gestionar correctamente interrupciones de hardware, y para mejorar el soporte de multiprocesamiento simétrico.
El hecho de que Linux no fuera desarrollado siguiendo el diseño de un micronúcleo (diseño que, en aquella época, era considerado el más apropiado para un núcleo por muchos teóricos informáticos) fue asunto de una famosa y acalorada discusión entre Linus Torvalds y Andrew S. Tanenbaum.
Procesos
Linux se organiza en procesos, que son tareas independientes que se ejecutan de forma simultánea mientras el sistema está en funcionamiento. Los procesos cuelgan unos de otros en una dependencia padre/hijo. Inicialmente al arrancar el sistema sólo existe un proceso, llamado init. Init lee los ficheros de configuración de arranque presentes en el directorio /etc y va creando procesos hijos. Estos a su vez tendrán sus propios hijos formando un árbol de descendientes. Los procesos en ejecución se encuentran alojados en la memoria rápida RAM del sistema. Cuando se habla de ejecutar o lanzar o arrancar un proceso, nos estámos refiriendo al proceso de leer un fichero almacenado en el disco duro que contiene las instrucciones del programa, colocando las mismas en la memoria RAM y a continuación empezando a ejecutar las instrucciones del programa ya en RAM
Usuarios
Linux está diseñado para ser utilizado por varios usuarios simultáneamente. Aun cuando el sistema sólo vaya a ser utilizado por un único usuario, como es el caso corriente hoy en día, en general internamente Linux utilizará varios usuarios 'robots' para organizar mejor y de forma más segura el sistema. Linux siempre tiene un superusuario llamado 'root' ('raíz' traducido). En el siguiente párrafo se explica el por qué crea varios usuarios en vez de uno único.
Estructura Básica
De la misma manera que el Unix, el Linux se puede dividir generalmente en cuatro componentes principales: el núcleo(kernel), el shell, el sistema de archivos y las utilidades. El núcleo es el programa medular que ejecuta programas y gestiona dispositivos de hardware tales como los discos y las impresoras. El shell proporciona una interfaz para el usuario. Recibe órdenes del usuario y las envía al núcleo para ser ejecutadas. El sistema de archivos, organiza la forma en que se almacenan los archivos en dispositivos de almacenamiento tales como los discos. Los archivos están organizados en directorios. Cada directorio puede contener un número cualquiera de subdirectorios, cada uno de los cuales puede a su vez, contener otros archivos.
El núcleo, el shell y el sistema de archivos forman en conjunto la estructura básica del sistema operativo. Con estos tres elementos puede ejecutar programas, gestionar archivos e interactuar con el sistema. Además, Linux cuenta con unos programas de software llamados utilidades que han pasado a ser considerados como características estándar del sistema. Las utilidades son programas especializados, tales como editores, compiladores y programas de comunicaciones, que realizan operaciones de computación estándar. Incluso uno mismo puede crear sus propias utilidades
Linux contiene un gran número de utilidades. Algunas efectúan operaciones sencillas: otras son programas complejos con sus propios juegos de órdenes. Para empezar, muchas utilidades de pueden clasificar en tres amplias categorías: editores, filtros y programas de comunicaciones. También hay utilidades que efectúan operaciones con archivos y administración de programas.
Como una alternativa a la interfaz de la línea de ordenes, Linux proporciona una interfaz gráfica de usuario (GUI) llamada X-Windows que cuenta con varios administradores de ventana que puede utilizar. Un administrador de ventana trabaja de forma muy parecida a los GUI de Windows y del Mac, posee ventanas iconos y menús, todos ellos gestionados por medio del ratón. Dos de los administradores de programas más populares son el Free Virtual Window Manager y el Open Look Window Managger, además de los administradores de ventanas X-Windows también utiliza un administrador de archivos y uno de programas.
El sistema de archivos de Linux organiza los archivos en directorios, de forma similar al DOS. Todo el sistema de archivos de Linux es un gran conjunto interconectado de directorios que están organizado en una estructura jerárquica de árbol.
Linux posee un gran número de utilidades que se pueden clasificar en tres categorías: editores, filtros y programas de comunicaciones. Y a diferencia de otros sistemas operativos se distribuye de forma gratuita bajo una licencia publica de GNU de la Free Software Foundation (Fundación de programas libres) lo que básicamente significa que puede ser copiado libremente, cambiado y distribuido dejando siempre disponible el código fuente.
El software de Linux es frecuentemente desarrollado por varios usuarios que deciden trabajar conjuntamente en un proyecto. Una vez que se ha completado se instala en una localización ftp de Internet. Cualquier usuario de Linux puede acceder a la localización y descargar el software.
Estructura Básica - El Shell
El shell proporciona una interfaz entre el núcleo y el usuario. Se puede describir como un intérprete: interpreta las órdenes que introduce el usuario y las envía al núcleo. La interfaz del shell es muy sencilla. Normalmente consiste en un inductor desde el que se teclea una orden y después se pulsa enter. En cierta forma, se está tecleando una orden en una línea. A menudo, esta línea se conoce como la línea de órdenes.
Como una alternativa a la interfaz de la línea de órdenes, Linux proporciona una interfaz gráfica de usuario(GUI) llamada X-Windows, que cuenta con varios administradores de ventanas que puede utilizar. Dos de los administradores de ventanas más populares son el Free Virtual Window Manager (fvwm) y el Open Look Window Manager (olwm).
Aunque un administrador de ventanas constituye una interfaz flexible y vistosa, hay que tener presente que tan solo es un añadido al shell. El administrador de ventanas simplemente le pasa al shell las órdenes que recibe, éste las interpreta y las envía de nuevo al núcleo, para ser ejecutadas.
A lo largo de los años se han hido desarrollando varios tipos de diferentes de shell. En la actualidad, hay tres shells principales: Bourne, Korn y C-shell. El shell Bourne fue desarrollado en el Laboratorio Bell para el sistemaV. El C-shell fue desarrollado para la versión BSD del Unix. El shell Korn es una mejora y ampliación del shell Bourne. Linux usa versiones mejoradas o de dominio público de estos shells: el shell Bourne Again, el TC-shell y el shell Korn. Una ves que inicie su sistema Linux, se encontrará en el shell Bourne Again; donde se podrá acceder a los demás.

viernes, 9 de marzo de 2012

Hardware de servidor


Definición de servidor para redes
"Server" ó servidor, también llamado "Host" ó anfitrión; es una computadora con muy altas capacidades, encargada de proveer diferentes servicios a las redes de datos (una red es un conjunto de computadoras interconectadas entre sí), tanto inalámbricas como las basadas en cable, también permite accesos a cuentas de correo electrónico, administración de dominios empresariales, hospedaje y dominios Web entre otras funciones.
     Los servidores de preferencia se deben montar en gabinetes especiales  denominados Racks, dónde es posible colocar varios Servers en los compartimientos especiales y ahorrar espacio, además de que es más seguro porque permanecen fijos.
Los servidores tienen sistemas que les permiten resolver ciertas averías de manera automática así comos sistemas de alerta para evitar fallas en operaciones de datos críticos, ya que deben estar encendidos los 365 días del año las 24 horas del día.
     Actualmente para el uso dentro de redes pequeñas (casas y algunas oficinas), se pueden utilizan como servidores las computadoras de escritorio "Desktop", debido a que tienen la capacidad de soportarlas las funciones de manera eficiente a muy bajo costo; hasta el 80% de ahorro con respecto a un servidor comercial.

*Características generales internas de un servidor
  Los elementos internos que definen sus capacidades son:
+ Microprocesador: es el cerebro encargado de realizar todas las operaciones aritméticas y lógicas requeridas para el proceso de los datos, pero básicamente estos dispositivos no cuentan con un solo procesador, sino una estructura que soporta hasta 16 microprocesadores instalados e interconectados entre sí, actualmente cada microprocesador cuenta con dos ó más núcleos.
+ Memoria RAM: es una  memoria rápida que se encarga de almacenar de manera temporal la información necesaria para que la computadora trabaje. Si hay poca memoria RAM, la computadora utilizará el disco duro para simularla pero será mas lento el equipo. Actualmente se les puede instalar hasta 64 Gigabytes (GB) de memoria RAM. Estas deben de contar con tecnología ECC ("Error Code Correction"), la cuál es capaz de detectar hasta dos errores de bits y automáticamente corregirlos. En caso de una cantidad mayor de errores, avisa al administrador de red para que se corrija el error de otro modo.
+ Placas del sistema ó tarjetas principales: son las encargadas de interconectar todos los dispositivos interiores, pero también puede contar con varias placas. Integranpuertos de comunicaciones (COM, USB, LPT, RJ45, enlaces ópticos, etc.), también lasranuras de expansión para tarjetas  y los conectores para unidades de disco (discos duros y unidades ópticas).
+ Disco duro: es un dispositivo de almacenamiento magnético, en el cuál se almacena la mayor cantidad de información de la computadora, ya que incluye el sistema operativo (Microsoft ®Windows 2008/2003, Sun® Solaris 10, Linux LAMP, etc.), las aplicaciones (gestores de bases de datos, gestores de correo electrónico, sistemas de almacenamiento de dominios y espacio Web, etc.), los archivos generados por el usuario (texto, hojas de cálculo, música comprimida, videos), etc. Actualmente superan variosTerabytes (TB) de capacidad y cuentan con estándares diferentes para evitar al máximo las fallas, siendo discos tipos SCSI y discos SAS. Una característica especial es que los discos duros se insertan por un compartimiento frontal especial, sin necesidad de abrir el equipo.
+ Unidades de disco óptico: es una bahía en la que generalmente se instala unlectores de  discos CD ó lectores de DVD  para las aplicaciones del servidor.
+ Unidades para disco magnético: anteriormente los servidores llegaron a tener unidades para grabado y lectura de cintas, actualmente se basan casi totalmente en discos duros.
+ Las fuentes de poder: son los dispositivos encargados de suministrar la alimentación eléctrica a los elementos internos, la cuál tiene un diseño especifico para servidor, con mas potencia que una fuente común ya que debe tener la capacidad de encontrarse encendida durante las 24 horas del día y los 365 días del año, un servidor común soporta hasta 700 vatios. Un servidor común cuenta con 2 fuentes redundantes, si una falla, tiene la capacidad de seguir trabajando con la segunda mientras se resuelve la falla.
+ Sistema operativo y aplicaciones: utilizan sistemas operativos de Microsoft® Windows Server/NT/2003-2008, versiones de Linux (Servidores basados en CentOS ó Fedora), Sun® Solaris y Novell®, etc. los cuáles son encargados de  ser el interpretes entre la computadora y el humano, así como de reconocer dispositivos y ejecutar las aplicaciones dedicadas.
*Partes externas que componen el servidor
Desde luego para manipularlo es necesario el uso de ratón, pantalla, teclado, etc., sin embargo el servidor en sí consta básicamente de las siguientes partes externas:

1.- Cubierta: protege los componentes internos del servidor.
2.- Botón de encendido: apaga y arranca el servidor.
3.- Indicadores: permiten conocer la actividad y ciertos errores del servidor.
4.- Unidad óptico: utilizado para la lectura de CD/DVD.
5.- Bahías DD: permiten extraer y colocar discos duros.
6.- Guías: acoplan el servidor con los postes del Rack.
7.- Fuente: suministra de electricidad a los dispositivos internos.
8.- Panel de puertos: incluye puertos como USB, LPT, VGA, COM, SCSI, LAN, etc.
*Alimentación de los servidores
-         Tienen un alto consumo de energía eléctrica, se alimenta en redes eléctricas especialmente diseñadas, también deben de contar con respaldos de energía(UPS) de gran formato para el  caso de fallas, ya que requieren estar encendidos todo el tiempo, debido a que los servicios que procesan son críticos y algunas veces tardados en ser implementados si se apaga el equipo.
  *Conectores y puertos de los servidores


Puede contar con básicamente los siguientes puertos para la comunicación con dispositivos y servicios externos:

Puerto
Características y usos
Imagen
USB "Universal Serial Bus"
Utilizado para conectar una gran variedad de dispositivos externos. Tiene una velocidad de transmisión de hasta 60 MB/s (Megabytes/segundo).
MiniDIN
Permite la conexión de teclado y ratón con conector PS/2
VGA "Video Graphics Array"
Se utiliza para conectarproyectores digitales,pantallas LCDmonitores CRT, para visualizar las imágenes en otra pantalla.
LPT "Local PrintTerminal"
Utilizado principalmente para conectar antiguas impresoras. Tiene una velocidad de transmisión de hasta 1 MB/s.
RJ-45 "Registred Jack 45"
Se utiliza para conectar la computadora a la red de área local (LAN - red de computadoras cercanas interconectadas entre sí), por medio de cables, formato GigaLAN 1000 Mbps.
SCSI "Small Components System Interconnect"
Utilizadas para la conexión con dispositivos externos de alta velocidad. Básicamente el mas utilizado cuenta con 68 pines y un conector tipo MOLEX para alimentación. (Bahías frontales que permiten acoplar el DD y su respectiva alimentación; en el caso del panel trasero, solamente se encuentra el puerto).


SATA/SATA 2 "Serial Advanced Technology Attachment"
Utilizadas para la conexión con discos duros de alta velocidad. Cuenta con conector SATA para datos y alimentación. (Bahías frontales que permiten acoplar el DD y su respectiva alimentación).
COM"COMmunications"
Es un puerto utilizado básicamente para la conexión de módem externodispositivos PDA. Tiene una velocidad de transmisión de hasta 112 KB/s (Kilobytes/segundo).
-También cuentan con ranuras para la conexión de tarjetas de expansión, siendo básicamente ISA, PCI y PCIe.
Ranura de expansión
Imagen
PCIe
PCI
ISA-16
*Tecnología RAID en servidores
RAID es la sigla de ("Redundant Array of Inexpensive Disks") lo cuál significa discos económicos de arreglo redundante ó ("Redundant Array of Independent Disk"), esto es discos independientes de arreglo redundante. Se trata de una tecnología que permite a varios discos duros leer y escribir de manera idéntica a un disco duro principal, en caso de que este falle, otro toma su lugar y evita la interrupción de procesos críticos.
     Esta tecnología permite de seguridad e integridad de datos, funciona por dos modos:
     + Por Software: es la manera más económica, de bajo rendimiento y alto consumo del microprocesador, los discos duros se conectan de manera normal y el software gestiona al disco principal y los discos espejos.
     + Por Hardware: depende del uso de tarjetas controladoras, las cuáles utilizan sus propios recursos integrados liberando al sistema principal (microprocesador y memoria) de las tareas, se vuelve mas costosa la implementación pero un alto rendimiento del servidor.
     Hay varios niveles de RAID, distribuidos desde 0 hasta 6 y algunas variantes como RAID 0+1 y 10, cada uno con sus características especiales pero con el mismo fin, siendo implementados en el servidor dependiendo las necesidades y recursos económicos disponibles. Uno de los niveles RAID más utilizados, por lo menos en versiones de Microsoft® Windows NT es el nivel 1 ó Disco espejo, en el cuál la escritura de la misma información se escribe en 2 discos duros simultáneamente, conectados en la misma tarjeta controladora ó en 2 tarjetas controladoras (Disk Duplexing).

*Usos específicos de los servidores.
     Se utilizan para centros de proceso de datos, grupos de trabajo en redes, hospedaje de páginas Web, en gran escala (miles y millones de usuarios de manera simultánea), es el caso de los servidores de las universidades, sistemas de correo, portales Web, etc.
     Ejemplos de uso son como Firewall (controla el acceso de datos en las redes), servidor DHCP (asigna y des-asigna direcciones IP a los equipos de una red), servidores de actualizaciones (permite la descarga de actualizaciones críticas de Microsoft Windows a equipos que no tiene acceso a Internet), entre otros.
     Para el caso de pequeñas redes se utilizan simplemente computadoras de escritorio en lugar de grandes servidores, las cuáles son capaces de satisfacer estas necesidades de comunicación y por muchos son consideradas también como servidores, aunque estrictamente no tengan las características de un servidor real.