martes, 12 de julio de 2011

PRACTICA #3

CONFIGURACION DE UNA RED LAN

EXPLICA LOS PASOS PARA CONFIGURAR UNA RED LAN

A) NOMBRE DE PC

  1. Para cambiar el nombre del equipo primero entramos a inicio y entramos a panel de control, luego en el panel de control, buscamos conexiones de red y luego a propiedades.
  2. aparesera un cuadro con varias pestañas entramos a la pestaña que dice nombre del equipo.
  3. asemos click en el boton que dice cambiar nombre, aparesera otro cuadro.
  4. en el otro cuadro, en la primera casilla ponemos el nombre deseado, le damos click en aceptar.
  5. pedira se reinicie el equipo para hacer los cambios, se reinicia y listo.
B) GRUPO DE TRABAJO

  1. Para cambiar el grupo de trabajo primero entramos a inicio y entramos a panel de control, luego en el panel de control, buscamos conexiones de red y luego a propiedades.
  2. aparesera un cuadro con varias pestañas entramos a la pestaña que dice nombre del equipo.
  3. asemos click en el boton que dice cambiar nombre, aparesera otro cuadro.
  4. en el otro cuadro, en la segunda casilla donde dira grupo de trabajo ponemos el nombre deseado, le damos click en aceptar.
  5. pedira se reinicie el equipo para hacer los cambios, se reinicia y listo.
C) COMPONENTES LOGICOS DE UNA RED
  1. vamos a inicio luego panel de control, luegos a conexiones de red.
  2. entramos a propiedades y aparesera un cuadro con 3 pestañas.
  3. ponesmos la pestaña "general" y donde esta un cuadro que dice "esta conexion utiliza los siguientes componentes o elementos".
  4. para agregar los elementos damos click en instalar y aparesen los elementos a instalar, escogemos el desiado lo instalamos luego asemos click en aceptar.
  5. luego pedira que reiniciemos, y listo
D) CONFIGURACION DEL PROTOCOLO TCP/IP
  1. vamos a inicio luego panel de control, luegos a conexiones de red.
  2. entramos a propiedades y aparesera un cuadro con 3 pestañas.
  3. ponesmos la pestaña "general" y donde esta un cuadro que dice "esta conexion utiliza los siguientes componentes o elementos".
  4. damos click en "protocolo internet (TCP/IP)" y abrimos las propiedades.
  5. aparese una ventana donde puedes cambiar el IP, la mascara de subred y la puerta de enlace.
  6. despues de canbiar algo pedira que reiniciemos y el sistema guardara los cambios.
E) COMPARTIR RECURSOS DE UNA RED
  1. primero hay que asegurarse de que la IP este iwal en todos los equipos menos los el ultimo numero
  2. el ultimo numero tiene que identificar cada computadora, por ejemplo,  10.1.1.? en el signo de interrogacion va el numero de la computadora en la que estas,
  3. dependiendo de la configuracion de subred es cuantos equipos puedes poner en cada red.
  4. un ejemplo de la subred es 255.255.255.240
  5. cuando todo esto este configurado solo entramos a las carpetas compartidas y ponemos lo que queramos ahi.
  6. despues de ponerlo le damos click derecho a la carpeta y entramos a la pestaña que dice "compartir"
  7. en la ventana que se abrio esquejos a los otros equipos a los que se lo quieres compartir y le pones aceptar y listo.
F) COMANDOS DE RED

Para poner los comandos, presionas la tecla de windows y la tecla R al mismo tiempo, luego pones cmd en la ventana que se abra y listo.
  1. IPCONFIG: el comando de ip config te muestra tu direccion IP, tu mascara de subred, la puerta de enlace predeterminada y tambien la direccion DNS.
  2. PING: el ping sirbe para checar las conexiones de los servidores enviando 4 paquetes para checkar si llegan.
  3. PING-t: ase lo mismo que el ping solo que manda infinidad de paquetes.
G) TIPOS DE IMPRESORAS

La forma más habitual de instalar una impresora en una red doméstica es instalarla como un dispositivo independiente en la red y, a continuación, agregar una conexión a la impresora en cada equipo que esté en la red.
Si no está seguro del tipo de impresora de red que va a instalar, decida si desea:
  • Usar una impresora inalámbrica. Estas impresoras usan una tarjeta inalámbrica integrada y se conectan a una fuente de alimentación, no a la red o al equipo. Después de encender la impresora, deberá consultar la información suministrada con la impresora para configurar una conexión inalámbrica con cada equipo de una red doméstica. Las opciones de seguridad para impresión inalámbrica las determina cada fabricante de impresora.
  • Conectar una impresora directamente a la red. Para ello, deberá conectar la impresora al concentrador o enrutador de la red. La forma de instalar estas impresoras dependerá de si la impresora y el dispositivo de red usan una red Ethernet, un bus serie universal (USB) u otro tipo de conexión. También deberá consultar la información de instalación o las herramientas suministradas por el fabricante de la impresora.
  • Conectar más de una impresora directamente a la red. Para ello, el concentrador o enrutador deberán admitir más de una conexión de impresora.
 F) PASOS PARA CONFIGURAR UNA IMPRESORA LOCAL

1. Conocer la dirección IP de la impresora. Puedes buscarla o asignarla en el panel de control de la impresora, regularmente esta en Configuración de Red, TCP/IP, le asignas la dirección IP, la máscara de subred y la puerta de enlace. O bien imprimir la configuración de la impresora y te mostrará esos datos.
2. Para poder realizar ajustes o ver mas detalles puedes buscar en la página web de la impresora, ingresando con su dirección IP. (P:E. Si el ip es 147.221.23.62 entonces entrar de la siguiente manera: http://147.221.23.62)
3. En la PC, entras a Panel de control / Impresoras / Agregar una impresora / Impresora local o en red.  Damos click en el botón siguiente.(Y desactivamos la opción de la detección automática).
Impresora local o en red
Impresora local o en red
 4. Selección de un Puerto. Elejimos crear un nuevo puerto del tipo Standard TCP/IP Port, y damos click en siguiente.
Elejir un Puerto
Elejir un Puerto
5. Aparecera un wizard para crear un nuevo puerto, damos click en siguiente.
Agregar Puerto Estándard TCP/IP
Agregar Puerto Estándard TCP/IP
6. Ingresa la dirección IP de la impresora.
Agregar Puerto
Agregar Puerto
7. Inmediatamente se mostrará una ventana con los datos de configuración del puerto. Damos click en Finalizar.
Puerto de la impresora TCP/IP Standard completado
Puerto de la impresora TCP/IP Standard completado
8. En esta sección elejimos la marca y el modelo de la impresora, o bien, si tenemos el disco de instalación, le damos en el botón Tengo Disco. Verfificamos que sea el driver correcto. Damos click en el botón siguiente.
Instalación del driver
Instalación del driver
Instalación de driver
Instalación de driver
9. Le damos un nombre a la impresora y seleccionamos si va a ser la impresora predeterminada.
Nombre
Nombre
10. Compartir impresora, le damos click en siguiente.
Compartir impresora
Compartir impresora
11. Imprimir una página de prueba y damos click en Siguiente.
Página de prueba
Página de prueba
12. Finalmente el sistema te instala los drivers y muestra la confirmación del envío de la página de prueba.
Instalación final
Instalación final
Fin

I) PASOS PARA CONFIGURAR UNA IMPRESORA REMOTA 

Podemos configurar una impresora local para su uso cuando iniciamos sesión en un ordenador remoto, lo cual nos permite el uso de dicho dispositivo como si nos encontrasemos físicamente allí mismo.
Windows XP incorpora una nueva funcionalidad llamada "Conexión a Escritorio Remoto", la cual nos permite conectarnos al Escritorio de otra máquina y usarla sin ningun tipo de limitación.
Pero para poder usar todos estos servicios, debemos configurarlos previamente, por lo que usaremos como ejemplo la Configuración de una impresora local para su uso a través del Escritorio Remoto.
Para ello debemo seguir los pasos que citamos a continuación:
- Hacemos clic con el ratón en el botón Inicio, seleccionamos Programas, después la opción Accesorios, Comunicaciones y finalmente 'Conexión a Escritorio Remoto'
- En la ventana 'Conexión a Escritorio Remoto' pulsamos el botón 'Opciones'
- Observamos con se despliega un menú de opciones bajo esta ventana, dentro de la cual debemos buscar la pestaña "Recursos Locales"
- En el área de Dispositivos Locales debemos marcar la casilla "Impresoras"
- Finalmente solo nos quedará pulsar sobre el botón 'Conectar' para inicar la conexión al Escritorio Remoto de una máquina.

domingo, 10 de julio de 2011

PRACTICA #2

A) MANEJO DEL SISTEMA OPERATIVO.


• LENGUAJE DE MAQUINA (DEFINICION Y FUNCION)


 es el sistema de códigos directamente interpretable por un circuito microprogramable, como el microprocesador de una computadora o el microcontrolador de un autómata . Este lenguaje está compuesto por un conjunto de instrucciones que determinan acciones a ser tomadas por la máquina. Un programa consiste en una cadena de estas instrucciones de lenguaje de máquina (más los datos). Estas instrucciones son normalmente ejecutadas en secuencia, con eventuales cambios de flujo causados por el propio programa o eventos externos. El lenguaje de máquina es específico de cada máquina o arquitectura de la máquina, aunque el conjunto de instrucciones disponibles pueda ser similar entre ellas.
Los circuitos microprogramables son sistemas digitales, lo que significa que trabajan con dos únicos niveles de tensión. Dichos niveles, por abstracción, se simbolizan con el cero, 0, y el uno, 1, por eso el lenguaje de máquina sólo utiliza dichos signos. Esto permite el empleo de las teorías del álgebra booleana y del sistema binario en el diseño de este tipo de circuitos y en su programación.
Claude Elwood Shannon, en su Analysis of Relay and Switching Circuits, y con sus experiencias en redes de conmutación, sentó las bases para la aplicación del álgebra de Boole a las redes de conmutación.
Una red de conmutación es un circuito de interruptores eléctricos que al cumplir ciertas combinaciones booleanas con las variables de entrada, define el estado de la salida. Este concepto es el núcleo de las puertas lógicas, las cuales son, por su parte, los ladrillos con que se construyen sistemas lógicos cada vez más complejos.
Shannon utilizaba el relé como dispositivo físico de conmutación en sus redes. El relé, a igual que una lámpara eléctrica, posee dos estados: 1 o 0, esto es, activado (encendido), o desactivado (apagado).
El desarrollo tecnológico ha permitido evolucionar desde las redes de relés electromagnéticos de Shannon a circuitos con tubos de vacío, luego a redes transistorizadas, hasta llegar a los modernos circuitos integrados cuyas cúspide lo forman los circuitos microprogramados.


• LENGUAJE ENSAMBLADOR (DEFINICION Y FUNCION)


 es un lenguaje de programación de bajo nivel para los computadores, microprocesadores, microcontroladores, y otros circuitos integrados programables. Implementa una representación simbólica de los códigos de máquina binarios y otras constantes necesarias para programar una arquitectura dada de CPU y constituye la representación más directa del código máquina específico para cada arquitectura legible por un programador. Esta representación es usualmente definida por el fabricante de hardware, y está basada en los mnemónicos que simbolizan los pasos de procesamiento (las instrucciones), los registros del procesador, las posiciones de memoria, y otras características del lenguaje. Un lenguaje ensamblador es por lo tanto específico a cierta arquitectura de computador física (o virtual). Esto está en contraste con la mayoría de los lenguajes de programación de alto nivel, que, idealmente son portables.
Un programa utilitario llamado ensamblador es usado para traducir sentencias del lenguaje ensamblador al código de máquina del computador objetivo. El ensamblador realiza una traducción más o menos isomorfa (un mapeo de uno a uno) desde las sentencias mnemónicas a las instrucciones y datos de máquina. Esto está en contraste con los lenguajes de alto nivel, en los cuales una sola declaración generalmente da lugar a muchas instrucciones de máquina.
Muchos sofisticados ensambladores ofrecen mecanismos adicionales para facilitar el desarrollo del programa, controlar el proceso de ensamblaje, y la ayuda de depuración. Particularmente, la mayoría de los ensambladores modernos incluyen una facilidad de macro (descrita más abajo), y son llamados macro ensambladores.
Fue usado principalmente en los inicios del desarrollo de software, cuando aún no se contaba con potentes lenguajes de alto nivel y los recursos eran limitados. Actualmente se utiliza con frecuencia en ambientes académicos y de investigación, especialmente cuando se requiere la manipulación directa de hardware, altos rendimientos, o un uso de recursos controlado y reducido.


• LENGUAJE COMPILADOR (DEFINICION Y FUNCION)


C es un lenguaje de programación creado en 1972 por Dennis M. Ritchie en los Laboratorios Bell como evolución del anterior lenguaje B, a su vez basado en BCPL.
Al igual que B, es un lenguaje orientado a la implementación de Sistemas Operativos, concretamente Unix. C es apreciado por la eficiencia del código que produce y es el lenguaje de programación más popular para crear software de sistemas, aunque también se utiliza para crear aplicaciones.
Se trata de un lenguaje débilmente tipificado de medio nivel pero con muchas características de bajo nivel. Dispone de las estructuras típicas de los lenguajes de alto nivel pero, a su vez, dispone de construcciones del lenguaje que permiten un control a muy bajo nivel. Los compiladores suelen ofrecer extensiones al lenguaje que posibilitan mezclar código en ensamblador con código C o acceder directamente a memoria o dispositivos periféricos.
La primera estandarización del lenguaje C fue en ANSI, con el estándar X3.159-1989. El lenguaje que define este estándar fue conocido vulgarmente como ANSI C. Posteriormente, en 1990, fue ratificado como estándar ISO (ISO/IEC 9899:1990). La adopción de este estándar es muy amplia por lo que, si los programas creados lo siguen, el código es portátil entre plataformas y/o arquitecturas.


Hecho principalmente para la fluidez de programación en sistemas UNIX. Se usa también para el desarrollo de otros sistemas operativos como Windows o GNU/Linux. Igualmente para aplicaciones de escritorio como GIMP, cuyo principal lenguaje de programación es C.
De la misma forma, es muy usado en aplicaciones científicas (para experimentos informáticos, físicos, químicos, matemáticos, entre otros, parte de ellos conocidos como modelos y simuladores), industriales (industria robótica, cibernética, sistemas de información y base de datos para la industria petrolera y petroquímica. Predominan también todo lo que se refiere a simulación de máquinas de manufactura), simulaciones de vuelo (es la más delicada, ya que se tienen que usar demasiados recursos tanto de hardware como de software para desarrollar aplicaciones que permitan simular el vuelo real de una aeronave. Se aplica por tanto, en diversas áreas desconocidas por gran parte de los usuarios noveles.
Los ordenadores de finales de los 90 son varios órdenes de magnitud más potentes que las máquinas en que C se desarrolló originalmente. Programas escritos en lenguajes de tipo dinámico y fácil codificación (Ruby, Python, Perl...) que antaño hubieran resultado demasiado lentos, son lo bastante rápidos como para desplazar en uso a C. Aun así, se puede seguir encontrando código C en grandes desarrollos de animaciones, modelados y escenas en 3D en películas y otras aplicaciones multimedia.
Actualmente, los grandes proyectos de software se dividen en partes, dentro de un equipo de desarrollo. Aquellas partes que son más "burocráticas" o "de gestión" con los recursos del sistema, se suelen realizar en lenguajes de tipo dinámico o de guión (script), mientras que aquellas partes "críticas", por su necesidad de rapidez de ejecución, se realizan en un lenguaje de tipo compilado, como C o C++. Si, después de hacer la división, las partes críticas no superan un cierto porcentaje del total (aproximadamente el 10%) entonces todo el desarrollo se realiza con lenguajes dinámicos. Si la parte crítica no llega a cumplir las expectativas del proyecto, se comparan las alternativas de una inversión en nuevo hardware frente a invertir en el coste de un programador para que reescriba dicha parte crítica.


• BIOS (DEFINICION Y FUNCION)


El BIOS (sigla en inglés de basic input/output system; en español "sistema básico de entrada y salida") es un código de software que localiza y reconoce todos los dispositivos necesarios para cargar el sistema operativo en la memoria RAM; es un software muy básico instalado en la placa base que permite que ésta cumpla su cometido. Proporciona la comunicación de bajo nivel, el funcionamiento y configuración del hardware del sistema que, como mínimo, maneja el teclado y proporciona una salida básica (emitiendo pitidos normalizados por el altavoz de la computadora si se producen fallos) durante el arranque. El BIOS usualmente está escrito en lenguaje ensamblador. El primer uso del término "BIOS" se dio en el sistema operativo CP/M, y describe la parte de CP/M que se ejecutaba durante el arranque y que iba unida directamente al hardware (las máquinas de CP/M usualmente tenían un simple cargador arrancable en la memoria de sólo lectura, y nada más). La mayoría de las versiones de MS-DOS tienen un archivo llamado "IBMBIO.COM" o "IO.SYS" que es análogo al BIOS de CP/M.
El BIOS es un sistema básico de entrada/salida que normalmente pasa inadvertido para el usuario final de computadoras. Se encarga de encontrar el sistema operativo y cargarlo en la memoria RAM. Posee un componente de hardware y otro de software; este último brinda una interfaz generalmente de texto que permite configurar varias opciones del hardware instalado en el PC, como por ejemplo el reloj, o desde qué dispositivos de almacenamiento iniciará el sistema operativo (Microsoft Windows, GNU/Linux, Mac OS X, etc.).
El BIOS gestiona al menos el teclado de la computadora, proporcionando incluso una salida bastante básica en forma de sonidos por el altavoz incorporado en la placa base cuando hay algún error, como por ejemplo un dispositivo que falla o debería ser conectado. Estos mensajes de error son utilizados por los técnicos para encontrar soluciones al momento de armar o reparar un equipo.
El BIOS antiguamente residia en memorias ROM o EPROM pero desde mediados de los 90 comenzó a utilizarse memorias flash que podían ser actualizadas por el usuario. Es un programa tipo firmware. El BIOS es una parte esencial del hardware que es totalmente configurable y es donde se controlan los procesos del flujo de información en el bus del ordenador, entre el sistema operativo y los demás periféricos. También incluye la configuración de aspectos importantes de la máquina.


• ACCESO A BIOS


Al arrancar el PC, durante el recuento de memoria, aparece en pantalla la palabra Setup con la tecla para acceder a él. Por lo general es una de estas teclas:
  • Tecla "Supr",
  • Tecla "Del",
  • Tecla "F2",
  • "Ctrl+Alt+Esc",
  • Tecla "F1",
  • Tecla "F10",
  • "Ctrl+Alt+S",
  • ... otras...
La tecla difiere según el modelo de la placa, si no aparece ninguna información en la pantalla, será necesario consultar la documentación de la placa base.


• CONFIGURACIONES DE LA BIOS


Configuración de la BIOS

Existen varios tipos de BIOS (Award, Phoenix, WinBIOS,...), siendo la más popular y en la que está basado este tutorial la BIOS Award. En ella, accedemos a un menú en modo texto en el cual las distintas opciones se encuentran clasificadas por categorías (configuración básica, avanzada,...).

No se debe cambiar nada si no se está totalmente seguro de para que sirve esa opción, ya que una mala configuración de la BIOS puede afectar gravemente al rendimiento y la estabilidad del sistema operativo e incluso impedir su arranque.

Antes de empezar a modificar nada y como medida de seguridad es recomendable copiar los valores actuales de las opciones de la BIOS en un folio, así tendremos una copia escrita por si la memoria CMOS se borra o al modificar algún valor, el ordenador no logra arrancar correctamente.

Las opciones más comunes (aunque pueden tener un nombre ligeramente diferente según nuestra placa base) son:
- Standard CMOS Setup

Dentro de este apartado podremos establecer la fecha y la hora del sistema, configurar nuestros discos duros y establecer la disquetera que tenemos.

Cambiar la hora del sistema o configurar nuestra disquetera no tiene complicación alguna. Sin embargo, la parte más interesante está en el apartado Hard Disk, en el cual se configuran los discos duros.

Si no estamos seguros de qué disco duro tenemos y dónde está conectado, es recomendable dejar todos los valores del campo TYPE en “Auto” para que sea la BIOS la que configure nuestros dispositivos automáticamente.

Sin embargo, si estamos seguro de que en cierto canal IDE no hay ningún disco duro conectado, si ponemos el campo TYPE en “None” aceleraremos ligeramente el inicio del sistema, ya que la BIOS no tendrá que buscar ningún dispositivo en ese bus y asumirá directamente que no hay ninguno conectado.

Si queremos ir un poco mas allá y evitar en cada encendido del ordenador se tengan que detectar los discos duros, podremos hacer uso de la utilidad IDE HDD Auto Detection que incorporan la mayoría de las BIOS actuales y que se encarga de detectar y configurar automáticamente los discos duros que detecte.
- BIOS Features Setup

En este apartado se puede configurar el modo en que la BIOS realiza ciertas operaciones. Las opciones más interesantes son:

CPU Internal Cache: Es altamente recomendable que activemos (la marquemos como “Enabled”) esta opción, ya que en caso contrario estaremos deshabilitando la caché interna del procesador y el rendimiento del sistema se verá muy perjudicado.

External Cache: Esta opción también debe estar activada para poder hacer uso de la caché externa o caché L2.

Quick Power On Self Test: Activando esta opción aceleraremos el POST y ganaremos unos segundos en el arranque del sistema. Generalmente, no existe ningún problema por tenerla activada.

Boot Sequence: Mediante esta opción estableceremos el orden en el que el ordenador intentará cargar un sistema operativo desde las distintas unidades. En algunas ocasiones, esta opción viene desglosada en tres opciones diferentes: First Boot Device, Second Boot Device y Third Boot Device.

Swap Floppy Drive: Si activamos esta opción y tenemos dos disqueteras, las letras de cada una de ellas se cambiarán, es decir, B: pasará a ser A: y viceversa.

Security Option: Esta opción nos permitirá indicarle a la BIOS si queremos establecer una contraseña cada vez que se encienda el equipo (opción System), al entrar en la BIOS (opción Setup o BIOS) o nunca (opción Disabled).
- Chipset Features Setup

Esta parte de la BIOS es recomendable no modificarla demasiado, puesto que afecta a partes críticas del sistema como el procesador, la RAM, los buses AGP, PCI, etc.

Entre sus opciones nos permite habilitar los puertos USB, habilitar el soporte para teclado USB, el tipo de bus AGP,… Estos elementos no deben modificarse, ya que normalmente vienen configurado por defecto para un funcionamiento correcto.

Sin embargo, las últimas placas bases permiten ajustar la frecuencia del procesador mediante la BIOS en vez de usando los típicos jumpers. Normalmente dicha configuración se encuentra en este apartado de la BIOS, por lo que a muchos overclockers (personas que intentan hacer que su procesador vaya más rápido que lo establecido de fábrica) les interesarán las opciones que éste apartado puede ofrecer. Entre ellas destacan la posibilidad de cambiar el FSB de la placa base o el multiplicador del procesador.
-Power Management Setup

En este apartado se configuran las opciones de ahorro de energía del ordenador. Sus opciones principales son:

Power Management: En este apartado activaremos o desactivaremos la función de ahorro de energía. Además, podremos habilitar distintas configuraciones predeterminadas para un ahorro máximo, mínimo,…

PM control by APM: Esta opción deberá estar activada para que Windows y todos los sistemas operativos compatibles con la gestión de energía APM (Advanced Power Management) sean capaces de apagar o suspender el equipo.

Video Off Method: Aquí estableceremos el modo en el que el sistema de vídeo ahorrará energía. La opción más recomendable es DPMS, pero no todos los monitores y tarjetas gráficas son compatibles con esta función.

PM Timers: En esta sección estableceremos el tiempo que tardará nuestro sistema en apagar los distintos componentes.

PM Events: Aquí estableceremos los eventos que se han de controlar para el apagado del equipo.

CPU Fan Off in Suspend: Determina si el ventilador del procesador se apaga en caso del que el sistema entre en estado de ahorro de energía.

MODEM/LAN Wake Up: Determina si un modem o una tarjeta de red puede hacer que se encienda el ordenador.
-PCI/PNP Configuration Setup:

En este apartado no hay prácticamente nada que modificar, puesto que los sistemas operativos actuales controlan ellos mismos las interrupciones y el sistema PnP (Plug and Play, enchufar y usar) y no basan sus rutinas en la BIOS.
-Integrated Peripherals

Desde aquí podremos modificar varias opciones de los distintos dispositivos que integra la placaba base: tarjetas de sonido, controladoras IDE, puertos COM,…

La opción más destacable de este apartado es la que hace mención al tipo de puerto LPT (paralelo) que usaremos. Según el dispositivo que le vayamos a conectar, tendremos que utilizar las funciones ECP o EPP. Para saber cuál debemos utilizar, tendremos que leer el manual del dispositivo que vayamos a conectar.
-PC Health Status

En este apartado no suele haber ninguna opción que configurar, sin embargo si podremos monitorizar la temperatura del procesador, la velocidad de los ventiladores, el voltaje de la placa base



• SISTEMA OPERATIVO OS (DESCRIPCION Y FUNCION)


Mac OS (del inglés Macintosh Operating System, en español Sistema Operativo de Macintosh) es el nombre del sistema operativo creado por Apple para su línea de computadoras Macintosh. Es conocido por haber sido el primer sistema dirigido al gran público en contar con una interfaz gráfica compuesta por la interacción del mouse con ventanas, Icono y menús.
Apple quitó importancia de forma deliberada a la existencia del sistema operativo en los primeros años de su línea Macintosh procurando que la máquina resultara más agradable al usuario, diferenciándolo de otros sistemas contemporáneos, como MS-DOS, que eran un desafío técnico. El equipo de desarrollo del Mac OS original incluía a Bill Atkinson, Jef Raskin y Andy Hertzfeld.
Esta fue la base del Mac OS clásico, desarrollado íntegramente por Apple, cuya primera versión vio la luz en 1984. Su desarrollo se extendería en un modelo progresivo hasta la versión 9 del sistema, lanzada en 1999. A partir de Mac OS X, el sistema es un derivado de Unix que mantiene en su interfaz gráfica muchos elementos de las versiones anteriores.
Hay una gran variedad de puntos de vista sobre cómo fue desarrollado el Mac OS original y dónde se originaron las ideas subyacentes. Mientras la conexión entre el proyecto Macintosh y el proyecto Alto de Xerox PARC ha sido establecido por documentos históricos, las contribuciones iniciales del Sketchpad de Ivan Sutherland y el On-Line System de Doug Engelbart también fueron significativas
El "Mac OS clásico" se caracteriza por su falta total de una línea de comandos; es un Sistema Operativo completamente gráfico. Destaca por su facilidad de uso y su multitarea cooperativa, pero fue criticado por su gestión de memoria muy limitada, la falta de memoria protegida y la susceptibilidad a los conflictos entre las "extensiones" del sistema operativo que proporcionan funcionalidades adicionales (tales como la creación de redes) o el apoyo a un determinado dispositivo. Algunas extensiones pueden no funcionar correctamente en conjunto, o sólo funcionan cuando se cargan en un orden determinado. La solución de problemas de extensiones de Mac OS podría ser un largo proceso de ensayo y error.
El Macintosh original utilizaba el Macintosh File System (MFS), un sistema de archivos plano con un solo nivel de carpetas o directorios. Este sistema fue rápidamente reemplazado en 1985 por el HFS, que tenía un verdadero sistema de árbol de directorio. Ambos sistemas de archivos son compatibles.
La mayoría de los sistemas de archivos utilizados con el DOS, Unix u otros sistemas operativos tratan a un archivo como una simple secuencia de bytes, lo que requiere una aplicación para saber qué bytes representan cual tipo de información. Por el contrario, MFS y HFS dar a los arhivos dos bifurcaciones. La bifurcación de datos contiene el mismo tipo de información como otros sistemas de archivos, tales como el texto de un documento o los mapas de bits de un archivo de imagen. La bifurcación de recursos contiene otros datos estructurados, tales como las definiciones de menús, gráficos, sonidos o segmentos de código. Un archivo puede consistir sólo de los recursos con de datos vacía, o sólo una bifurcación de datos, sin bifurcación de recursos. Un archivo de texto puede contener su texto en la bifurcación de datos y la información de estilo en la bifurcación de recursos, de modo que una aplicación, que no reconoce la información de estilo, todavía puede leer el texto sin formato. Por otro lado, estas una bifurcaciones proporcionan un reto para la interoperabilidad con otros sistemas operativos; el copiado de un archivo desde un sistema Mac a otro diferente, lo despoja de su bifurcación de recursos, requiriendo de sistemas de codificación tales como BinHex y MacBinary.
Las versiones para la plataforma PowerPC de Mac OS X hasta, e incluyendo, Mac OS X v10.4 Tiger no poseen una capa de compatibilidad para ejecutar las aplicaciones más antiguas de Mac, llamada el entorno Classic. Este entorno ejecuta una copia completa del Mac OS, versión 9.1 o posterior, en un proceso de Mac OS X. Los MacIntosh basados en la plataforma PowerPC tenían el Mac OS 9.2 preinstalado así como el Mac OS X. El Mac OS 9.2 tuvo que ser instalado por el usuario, puesto que no se instalaba, por defecto, en las revisiones de hardware presentadas tras el lanzamiento de Mac OS X 10.4 Tiger. La mayoría de las aplicaciones "clásicas" bien escritas funciona correctamente en este entorno, pero la compatibilidad sólo se asegura si el software fue escrito sin tener en cuenta el hardware actual, y para interactuar con el unicamente con el sistema operativo. El Entorno Classic no está disponible en sistemas Macintosh basados en plataformas de Intel, debido a la incompatibilidad del Mac OS 9 con el hardware x86.
Los usuarios del Mac OS Classic en general, actualizaron sus máquinas a Mac OS X, pero muchos criticaron a este último por ser más difícil y menos amigable con el usuario que el original sistema operativo Mac, por la falta de ciertas características que no habían sido re-implementadas en el nuevo sistema operativo, o por ser más lento en el mismo hardware (especialmente el más antiguo) u otros, o incompatibilidades, a veces graves con el antiguo sistema operativo. Debido a que los controladores (para impresoras, escáneres, tabletas, etc), escritos para los antiguos Mac OS no son compatibles con Mac OS X, y debido a la falta de soporte para Mac OS X para máquinas más antiguas de Apple, un número significativo de usuarios de Macintosh sigue utilizando el antiguo Mac OS Clásico. Pero para el año 2005, se había informado que casi todos los usuarios de sistemas capaces de ejecutar Mac OS X lo están haciendo, con sólo una pequeña fracción ejecutando el Mac OS Classic.
En junio de 2005, Steve Jobs anunció en la apertura de la Conferencia Mundial de Desarrolladores de Apple que la empresa haría la transición de la plataforma PowerPC a procesadores Intel y por lo tanto dejaría de lado la compatibilidad de las nuevas máquinas para Mac OS Classic. En la misma conferencia, Jobs anunció kits de transición para desarrolladores que incluían versiones beta del software de Apple, incluyendo Mac OS X que los desarrolladores podían utilizar para probar sus aplicaciones, mientras las transportaban para ejecutarlas en computadores Mac con procesadores Intel. En enero de 2006, Apple lanzó las primeras computadoras Macintosh con procesadores Intel, un iMac y el MacBook Pro, y al mes siguiente, Apple lanzó un mini Mac con un procesador Intel Core Solo y Duo. El 16 de mayo de 2006, Apple lanzó el MacBook, antes de completar la transición a Intel el 7 de agosto con el Mac Pro. Para facilitar la transición para los primeros compradores de las nuevas máquinas, los equipos Mac basados en Intel incluyen una tecnología de emulación llamada Rosetta, que les permite ejecutar software de Mac OS X que fue compilado para sistemas Macintosh basados en PowerPC. Rosetta se ejecuta de forma transparente, creando una experiencia de usuario idéntica a la de ejecutar el software en una máquina PowerPC, aunque la ejecución es más lento que con código nativo.


• SISTEMA OPERATIVO LINUX (DESCRIPCION Y FUNCION)
Linux es la denominación de un sistema operativo y el nombre de un núcleo. Es uno de los paradigmas del desarrollo de software libre (y de código abierto), donde el código fuente está disponible públicamente y cualquier persona, con los conocimientos informáticos adecuados, puede libremente estudiarlo, usarlo, modificarlo y redistribuirlo.

El término Linux estrictamente se refiere al núcleo Linux, pero es más comúnmente utilizado para describir al sistema operativo tipo Unix (que implementa el estándar POSIX), que utiliza primordialmente filosofía y metodologías libres (también conocido como GNU/Linux) y que está formado mediante la combinación del núcleo Linux con las bibliotecas y herramientas del proyecto GNU y de muchos otros proyectos/grupos de software (libre o no libre). El núcleo no es parte oficial del proyecto GNU (el cual posee su propio núcleo en desarrollo, llamado Hurd), pero es distribuido bajo los términos de la licencia GNU GPL.

La expresión Linux también es utilizada para referirse a las distribuciones Linux, colecciones de software que suelen contener grandes cantidades de paquetes además del núcleo. El software que suelen incluir consta de una enorme variedad de aplicaciones, como: entornos gráficos, suites ofimáticas, servidores web, servidores de correo, servidores FTP, etcétera. Coloquialmente se aplica el término Linux a éstas, aunque en estricto rigor sea incorrecto, dado que la distribución es la forma más simple y popular para obtener un sistema Linux.

La marca Linux (Número de serie: 1916230) pertenece a Linus Torvalds y se define como "un sistema operativo para computadoras que facilita su uso y operación".

Desde su lanzamiento, Linux ha incrementado su popularidad en el mercado de servidores. Su gran flexibilidad ha permitido que sea utilizado en un rango muy amplio de sistemas de cómputo y arquitecturas: computadoras personales, supercomputadoras, dispositivos portátiles, etc.

Los sistemas Linux funcionan sobre más de 20 plataformas diferentes de hardware; entre ellas las más comunes son las de los sistemas compatibles con PCs x86 y x86-64, computadoras Macintosh, PowerPC, Sparc y MIPS.

Asimismo, existen Grupos de Usuarios de Linux en casi todas las áreas del planeta.

Distribuciones Linux


Una distribución es un conjunto de aplicaciones reunidas por un grupo, empresa o persona para permitir instalar fácilmente un sistema Linux. Es un 'sabor' de Linux. En general se destacan por las herramientas para configuración y sistemas de paquetes de software a instalar.

Existen numerosas distribuciones Linux (también conocidas como "distros"), ensambladas por individuos, empresas y otros organismos. Cada distribución puede incluir cualquier número de software adicional, incluyendo software que facilite la instalación del sistema. La base del software incluido con cada distribución incluye el núcleo Linux, al que suelen adicionarse también varios paquetes de software.

Las herramientas que suelen incluirse en la distribución de este sistema operativo se obtienen de diversas fuentes, incluyendo de manera importante proyectos de código abierto o libre, como el GNU y el BSD. Debido a que las herramientas que en primera instancia volvieron funcional al núcleo de Linux provienen de un proyecto anterior a Linux, Richard Stallman (fundador del proyecto GNU) pide a los usuarios que se refieran a dicho sistema como GNU/Linux. A pesar de esto, la mayoría de los usuarios continúan llamando al sistema simplemente "Linux" y las razones expuestas por Richard Stallman son eterno motivo de discusión. La mayoría de los sistemas Linux incluyen también herramientas procedentes de BSD.

Usualmente se utiliza la plataforma XFree86 o la X.Org para sostener interfaces gráficas.

Aplicaciones de los sistemas Linux

Con la adopción por numerosas empresas fabricantes de PCs, muchas computadoras son vendidas con distribuciones Linux pre-instaladas, y Linux ha comenzado a tomar su lugar en el vasto mercado de las computadoras de escritorio.

Con entornos de escritorio, Linux ofrece una interfaz gráfica alternativa a la tradicional interfaz de línea de comandos de Unix. Existen en la actualidad numerosas aplicaciones gráficas, ya sean libres o no, que ofrecen funcionalidad que está permitiendo que Linux se adapte como herramienta de escritorio.

Algunas distribuciones permiten el arranque de Linux directamente desde un disco compacto (llamados LiveCDs) sin modificar en absoluto el disco duro de la computadora en la que se ejecuta Linux. Para este tipo de distribuciones, en general, los archivos de imagen (archivos ISO) están disponibles en Internet para su descarga.

Otras posibilidades incluyen iniciar el arranque desde una red (ideal para sistemas con requerimientos mínimos) o desde un disco flexible o disquete.

La escala del desarrollo de Linux

Un estudio sobre la distribución Red Hat Linux 7.1 reveló que ésta en particular posee más de 30 millones de líneas de código real. Utilizando el modelo de cálculo de costos COCOMO, puede estimarse que esta distribución requeriría 8.000 programadores por año para su desarrollo. De haber sido desarrollado por medios convencionales de código cerrado, hubiera costado más de mil millones de dólares en los Estados Unidos.

La mayor parte de su código (71%) pertenecía al lenguaje C, pero fueron utilizados muchos otros lenguajes para su desarrollo, incluyendo C++, Bash, Lisp, Ensamblador, Perl, Fortran y Python.

Alrededor de la mitad de su código total (contado en líneas de código) fue liberado bajo la licencia GPL.

El núcleo de Linux contenía entonces 2,4 millones de líneas de código, correspondiente al 8% del total, demostrando que la vasta mayoría del sistema operativo no pertenece al núcleo del mismo.

En un estudio posterior, Counting potatoes: the size of Debian 2.2, el mismo análisis fue hecho para Debian GNU/Linux versión 2.2. Esta distribución contiene más de 55 millones de líneas de código fuente, y habría costado 1.900 millones de dólares (año 2000) el desarrollo por medios convencionales (no libre).

Linux en el mercado

La creciente popularidad de Linux se debe a las ventajas que presenta ante otros tipos de software. Entre otras razones se debe a su estabilidad, al acceso a las fuentes (lo que permite personalizar el funcionamiento y auditar la seguridad y privacidad de los datos tratados), a la independencia de proveedor, a la seguridad, a la rapidez con que incorpora los nuevos adelantos tecnológicos (IPv6, microprocesadores de 64 bits), a la escalabilidad (se pueden crear clusters de cientos de computadoras), a la activa comunidad de desarrollo que hay a su alrededor, a su interoperatibilidad y a la abundancia de documentación relativa a los procedimientos.

Hay varias empresas que comercializan soluciones basadas en Linux: por lo tanto es así que linux es usado por muchas personas a nivel mundial IBM, Novell, Red Hat, Rxart, así como miles de PYMES que ofrecen productos o servicios basados en esta tecnología.

Dentro del segmento de supercomputadoras, la más grande de Europa se llama MareNostrum. Desarrollado por IBM, está basado en un cluster Linux (Presentación de MareNostrum en IBM ) y junto con esta muchas más supercomputadoras funcionando con Linux.

Linux tiene una amplia cuota en el mercado de servidores de internet debido, entre otras cosas, a la gran cantidad de soluciones que tiene para este segmento.

Linux como sistema de programación

La colección de utilidades para la programación de GNU es con diferencia la familia de compiladores más utilizada en Linux. Tiene capacidad para compilar C, C++, Java, Ada, entre otros muchos lenguajes. Además soporta diversas arquitecturas mediante la compilación cruzada, lo que hace que sea un entorno adecuado para desarrollos heterogéneos.

Hay varios IDEs disponibles para Linux incluyendo, Anjuta, KDevelop, NetBeans IDE y Eclipse. Además existen editores extensibles como pueda ser Emacs que hoy en día siguen siendo ampliamente utilizados. Linux también dispone de capacidades para lenguajes de guión (script), aparte de los clásicos lenguajes de programación de shell, la mayoría de las distribuciones tienen instalado Python, Perl, PHP y Ruby.

Linux en la Administración Pública

Hay una serie de administraciones públicas que han mostrado su apoyo al software libre, sea migrando total o parcialmente sus servidores y sistemas de escritorio, sea subvencionándolo. Como ejemplos se tiene a:

1. Alemania pagando por el desarrollo del Kroupware. Además ciudades como Múnich, que migró sus sistemas a SuSE Linux, una distribución alemana especialmente orientada a KDE.
2. Cuba donde el gobierno ha establecido una indicación oficial para introducir de manera progresiva el software libre y en particular el Linux y en el que la red de Salud Pública, Infomed, fue pionera en su uso.
3. China, con su acuerdo con Sun Microsystems para distribuir millones de Java Desktop (una distribución de linux basada en GNOME y especialmente bien integrada con java)
4. Brasil, con una actitud generalmente positiva, y, por ejemplo, con el desarrollo de los telecentros
5. En España, los distintos gobiernos de las comunidades autónomas están desarrollando sus propias distribuciones no sólo para uso administrativo sino también académico. Así tenemos LinEx en Extremadura, Augustux en Aragón, GuadaLinex en Andalucía, LliureX en La Comunidad Valenciana, Molinux en Castilla-La Mancha, MAX en La Comunidad de Madrid, Linkat en Cataluña y Trisquel en la Comunidad de Galicia http://trisquel.uvigo.es/ , por el momento. Todas estas distribuciones tienen en común el hecho de estar basadas en Debian, o alguno de sus derivados, como Ubuntu.
6. Venezuela donde por decreto, se establecio el uso preferencial del software libre y GNU/Linux en toda la administración pública, incluyendo ministerios y oficinas gubernamentales y se está fomentando la investigación y el desarrollo de software libre.
7. Chile, donde el Ministerio de Educación y la Universidad de la Frontera (ubicada en Temuco) crearon EduLinux, una distribución que hoy está en más de 1500 escuelas chilenas y funcionando en más de un 90% de las bibliotecas chilenas. Actualmente las Fuerzas Armadas chilenas están planificando la creación de una distribución militar que interconecte a las ramas de la defensa chilena. El gobierno de ese país aprobó el uso del software libre en la administración pública, anulando así un contrato previo con Microsoft para el mantenimiento de las redes y de los equipos en escuelas y biblotecas chilenas.
8. República Dominicana, promociona el uso y proliferación del Software libre en el campo educativo y científico. Dispone de dos fundaciones, una en la capital de Santo Domingo y la otra en la ciudad de Santiago. Codigolibre.org
9. Argentina donde se apoya activamente el desarrollo no sólo de Linux, sino del software libre en general, a través del portal SoftwareLibre.gov.ar
10. México el Gobierno del Distrito Federal dentro de sus políticas y lineamientos en materia de Informática da preferencia al uso del Software Libre. La Delegación Tlalpan crea la distribución Gobierno GDF/Linux.


• SISTEMA OPERTATIVO WINDOWS XP (DESCRIPCION Y FUNCION)


Windows XP (cuyo nombre en clave inicial fue Whistler) es una versión de Microsoft Windows, línea de sistemas operativos desarrollado por Microsoft. Lanzado al mercado el 25 de octubre de 2001, actualmente es el sistema operativo para x86 más utilizado del planeta (con una cuota de mercado del 56.72%) y se considera que existen más de 400 millones de copias funcionando.[3] Las letras "XP" provienen de la palabra eXPeriencia (eXPerience en inglés).
Dispone de versiones para varios entornos informáticos, incluyendo PCs domésticos o de negocios, además de equipos portátiles, "netbooks", "tablet PC" y "media center". Sucesor de Windows 2000 junto con Windows ME, y antecesor de Windows Vista, es el primer sistema operativo de Microsoft orientado al consumidor que se construye con un núcleo y arquitectura de Windows NT disponible en versiones para plataformas de 32 y 64 bits.
A diferencia de versiones anteriores de Windows, al estar basado en la arquitectura de Windows NT proveniente del código de Windows 2000, presenta mejoras en la estabilidad y el rendimiento. Tiene una interfaz gráfica de usuario (GUI) perceptiblemente reajustada (denominada Luna), la cual incluye características rediseñadas, algunas de las cuales se asemejan ligeramente a otras GUI de otros sistemas operativos, cambio promovido para un uso más fácil que en las versiones anteriores. Se introdujeron nuevas capacidades de gestión de software para evitar el "DLL Hell" (infierno de las DLLs) que plagó las viejas versiones. Es también la primera versión de Windows que utiliza la activación del producto para reducir la piratería del software, una restricción que no sentó bien a algunos usuarios. Ha sido también criticado por las vulnerabilidades de seguridad, integración de Internet Explorer, la inclusión del reproductor Windows Media Player y aspectos de su interfaz.


Windows XP introdujo nuevas características:
  • Ambiente gráfico más agradable que el de sus predecesores.
  • Secuencias más rápidas de inicio y de hibernación.
  • Capacidad del sistema operativo de desconectar un dispositivo externo, de instalar nuevas aplicaciones y controladores sin necesidad de reiniciar.
  • Una nueva interfaz de uso más fácil, incluyendo herramientas para el desarrollo de temas de escritorio.
  • Uso de varias cuentas, lo que permite que un usuario guarde el estado actual y aplicaciones abiertos en su escritorio y permita que otro usuario abra una sesión sin perder esa información.
  • ClearType, diseñado para mejorar legibilidad del texto encendido en pantallas de cristal líquido (LCD) y monitores similares.
  • Escritorio Remoto, que permite a los usuarios abrir una sesión con una computadora que funciona con Windows XP a través de una red o Internet, teniendo acceso a sus usos, archivos, impresoras, y dispositivos.
  • Soporte para la mayoría de módems ADSL y wireless, así como el establecimiento de una red FireWire.
• SISTEMA OPERATIVO WINDOWS VISTA (DESCRIPCION Y FUNCION)


Windows Vista es una versión de Microsoft Windows, línea de sistemas operativos desarrollada por Microsoft. Esta versión se enfoca para ser utilizada en equipos de escritorio en hogares y oficinas, equipos portátiles, tablet PC y equipos «media center». Windows Vista es el primero de los sistemas operativos de Microsoft, que no ha conseguido desplazar a su predecesor, Windows XP, en popularidad.[2]
El proceso de desarrollo terminó el 8 de noviembre de 2006 y en los siguientes tres meses fue entregado a los fabricantes de hardware y software, clientes de negocios y canales de distribución. El 30 de enero de 2007 fue lanzado mundialmente y fue puesto a disposición para ser comprado y descargado desde el sitio web de Microsoft.
La aparición de Windows Vista viene más de 5 años después de la introducción de Windows XP, es decir, el tiempo más largo entre dos versiones consecutivas de Microsoft Windows. La campaña de lanzamiento fue incluso más costosa que la de Windows 95, ocurrido el 25 de agosto de 1995, debido a que esta incluyó además otros productos como Microsoft Office 2007 y Exchange Server 2007.


Microsoft comenzó a trabajar en los planes de desarrollo de Windows «Longhorn» en 2001, después de la introducción de Windows XP. Inicialmente estaba previsto para ser lanzado a finales de 2003 como un paso menor entre Windows XP (nombre en código «Whistler») y «Blackcomb».
Cuando se acabó el proyecto Windows Vista, fueron iniciadas un número sin precedentes de pruebas beta del programa, con la participación de cientos de miles de voluntarios y de las empresas. En septiembre de 2005, Microsoft empezó a difundir ordinariamente el Community Technology Previews (CTP) a los probadores beta. El primero de ellos se distribuyó en el 2005: Microsoft Professional Developers Conference, y fue posteriormente puesto en libertad a los probadores beta y a los suscriptores de Microsoft Developer Network. El que construye seguido incorporado la mayoría de las características planeadas para el producto final, así como una serie de cambios en la interfaz de usuario, basada en gran parte en los comentarios de los probadores beta. Windows Vista se consideró característicamente completa con la edición de la «febrero CTP», publicado el 22 de febrero de 2006, y gran parte del resto de los trabajos se centraron en la estabilidad, el rendimiento, la aplicación y la documentación de la versión final del producto. Beta 2, lanzado a finales de mayo, fue la primera construcción que se puso a disposición del público en general a través de Microsoft's Customer Preview Program. Más de cinco millones de personas lo descargaron.
Aunque Microsoft esperaba que el sistema operativo estuviera disponible en todo el mundo para la navidad de 2006, se anunció en marzo de ese año que la fecha de lanzamiento sería aplazada hasta enero de 2007, con el fin de otorgar mayor tiempo a las empresas para la construcción de nuevos controladores que fueran compatibles con el nuevo sistema operativo. Durante gran parte de 2006, los analistas y los bloggers especularon que Windows Vista se retrasaría aún más, debido a preocupaciones antimonopolio planteadas por la Comisión Europea y Corea del Sur, y debido a una falta de progreso en la versión beta.] Sin embargo, el 8 de noviembre de 2006 Microsoft anunció la finalización de Windows Vista, llegando a su fin el proyecto de desarrollo de sistema operativo más largo por parte de dicha empresa.
Las expectativas creadas por Microsoft respecto a Vista decepcionaron a muchos usuarios, debido a los altos requerimientos de hardware necesarios para poder ejecutarlo correctamente. Asimismo, en sus primeros años se dieron gran cantidad de problemas de compatibilidad con programas y controladores de hardware debido a que no funcionaban o no existían versiones para Windows Vista. Varias empresas y universidades optaron por no instalar Vista en sus equipos por problemas con programas lanzados originalmente para Windows XP, así como porque requiere una gran inversión debido a la necesidad de comprar equipos nuevos para poder ejecutar Vista.


• WINDOWS SERVER 3 (DESCRIPCION Y FUNCION)


Windows Server 2003 es la pieza fundamental de Microsoft Windows Server System. Se basa en los sólidos fundamentos de Windows 2000 Server y, como en el caso de su predecesor, Microsoft hace un esfuerzo decidido por mejorar la fiabilidad, escalabilidad, rendimiento y facilidad de uso y administración, factores todos ellos relevantes por sí solos, pero que al producirse juntos dentro del mismo producto, reducen drásticamente el coste total de propiedad (TCO) de las infraestructuras informáticas en toda clase de instalaciones, desde las más sencillas (con uno o unos pocos servidores) a las más complejas, compuestas de centenares de servidores en configuraciones de redes distribuidas o grandes Centros de Cálculo con sistemas en cluster y Datacenter.

Windows Server 2003 incorpora innumerables ventajas, mejoras y nuevas tecnologías, orientadas todas ellas a cubrir las necesidades actuales de las organizaciones de cualquier tamaño. En los entornos actuales se demanda más seguridad, robustez, facilidad de administración e integración con nuevos dispositivos. También se exige el aprovechamiento de las nuevas tecnologías de hardware (soporte para procesadores de 64 bits, nuevos sistemas de almacenamiento en red SAN y NAS, nuevos dispositivos de interfaz humana, sistemas móviles, etc.), de software y de comunicaciones (soporte para nuevos protocolos y estándares, soporte para servicios Web). En la medida en que la tecnología informática avanza, Microsoft Windows Server 2003 la integra y la hace asequible a los usuarios y organizaciones.

Funciones del Servidor
Algunas de estas funciones son:




  • Servidor de archivos e impresión.





  • Servidor Web y aplicaciones Web.





  • Servidor de correo.





  • Terminal Server.





  • Servidor de acceso remoto/red privada virtual (VPN).





  • Servicio de directorio, Sistema de dominio (DNS), y servidor DHCP.





  • Servidor de transmisión de multimedia en tiempo real (Streaming).





  • Servidor de infraestructura para aplicaciones de negocios en línea (tales como planificación de recursos de una empresa y software de administración de relaciones con el cliente).




  • • PARTICIONES (DESCRIPCION Y FUNCION)

    Una partición de disco, en informática, es el nombre genérico que recibe cada división presente en una sola unidad física de almacenamiento de datos. Toda partición tiene su propio sistema de archivos (formato); generalmente, casi cualquier sistema operativo interpreta, utiliza y manipula cada partición como un disco físico independiente, a pesar de que dichas particiones estén en un solo disco físico.


    A toda partición se le da formato mediante un sistema de archivos como FAT, NTFS, ext4 ,ext3, ext2, FAT32, ReiserFS, Reiser4 u otro. En Windows, las particiones reconocidas son identificadas con una letra seguida por un signo de doble punto (p.ej. C:\) hasta cuatro particiones primarias; prácticamente todo tipo de discos magnéticos y memorias flash (como pendrives) pueden particionarse. Sin embargo, para tener la posibilidad de más particiones en un solo disco, se utilizan las particiones extendidas, las cuales pueden contener un número ilimitado de particiones lógicas en su interior. Para este último tipo de particiones, no es recomendado su uso para instalar ciertos sistemas operativos, sino que son más útiles para guardar documentos o ejecutables no indispensables para el sistema. Los discos ópticos (DVD, CD) no soportan particiones [cita requerida].
    Es necesario tener en cuenta que solo las particiones primarias y lógicas pueden contener un sistema de archivos propio.


    Es común que los sistemas basados o similares a UNIX generalmente se usan hasta con 3 particiones: la principal, montada en el directorio raíz (/); a veces hay también una segunda que se usa para montar el directorio /home, el cual contiene las configuraciones de los usuarios, y finalmente, una tercera llamada swap, que se usa para la memoria virtual temporal. Sin embargo, 2 particiones (/, y swap); es el mínimo suficiente en estos sistemas operativos. Cabe decir además que las particiones de intercambio (swap) pueden instalarse sin problemas dentro de una partición lógica. Las particiones de intercambio, al igual que a la memoria RAM, no se les asigna un directorio; este tipo de particiones se usa para guardar ciertas réplicas de la memoria RAM, para que de esta forma la RAM tenga más espacio para las tareas en primer plano, guardando las tareas en segundo plano dentro de la partición de intercambio.


    B) INSTALACION DE LOS CONTROLADORES DE COMPONENTES


    • DISCO DURO (DEFINICION Y FUNCION)


    En informática, un disco duro o disco rígido (en inglés Hard Disk Drive, HDD) es un dispositivo de almacenamiento de datos no volátil que emplea un sistema de grabación magnética para almacenar datos digitales. Se compone de uno o más platos o discos rígidos, unidos por un mismo eje que gira a gran velocidad dentro de una caja metálica sellada. Sobre cada plato, y en cada una de sus caras, se sitúa un cabezal de lectura/escritura que flota sobre una delgada lámina de aire generada por la rotación de los discos.
    El primer disco duro fue inventado por IBM en 1956. A lo largo de los años, los discos duros han disminuido su precio al mismo tiempo que han multiplicado su capacidad, siendo la principal opción de almacenamiento secundario para PC desde su aparición en los años 60.[1] Los discos duros han mantenido su posición dominante gracias a los constantes incrementos en la densidad de grabación, que se ha mantenido a la par de las necesidades de almacenamiento secundario.[1]
    Los tamaños también han variado mucho, desde los primeros discos IBM hasta los formatos estandarizados actualmente: 3,5" los modelos para PCs y servidores, 2,5" los modelos para dispositivos portátiles. Todos se comunican con la computadora a través del controlador de disco, empleando una interfaz estandarizado. Los más comunes hoy día son IDE (también llamado ATA o PATA), SCSI (generalmente usado en servidores y estaciones de trabajo), Serial ATA y FC (empleado exclusivamente en servidores).
    Para poder utilizar un disco duro, un sistema operativo debe aplicar un formato de bajo nivel que defina una o más particiones. La operación de formateo requiere el uso de una fracción del espacio disponible en el disco, que dependerá del formato empleado. Además, los fabricantes de discos duros, SSD y tarjetas flash miden la capacidad de los mismos usando prefijos SI, que emplean múltiplos de potencias de 1000 según la normativa IEC, en lugar de los prefijos binarios clásicos de la IEEE, que emplean múltiplos de potencias de 1024, y son los usados mayoritariamente por los sistemas operativos. Esto provoca que en algunos sistemas operativos sea representado como múltiplos 1024 o como 1000, y por tanto existan ligeros errores, por ejemplo un Disco duro de 500 GB, en algunos sistemas operativos sea representado como 465 GiB (Según la IEC Gibibyte, o Gigabyte binario, que son 1024 Mebibytes) y en otros como 465 GB.
    Existe otro tipo de almacenamiento que recibe el nombre de Unidades de estado sólido; aunque tienen el mismo uso y emplean las mismas interfaces, no están formadas por discos mecánicos, sino por memorias de circuitos integrados para almacenar la información. El uso de esta clase de dispositivos anteriormente se limitaba a las supercomputadoras, por su elevado precio, aunque hoy en día ya son muchísimo más asequibles para el mercado doméstico.


    Hay varios conceptos para referirse a zonas del disco:
    • Plato: cada uno de los discos que hay dentro del disco duro.
    • Cara: cada uno de los dos lados de un plato.
    • Cabeza: número de cabezales.
    • Pistas: una circunferencia dentro de una cara; la pista 0 está en el borde exterior.
    • Cilindro: conjunto de varias pistas; son todas las circunferencias que están alineadas verticalmente (una de cada cara).
    • Sector : cada una de las divisiones de una pista. El tamaño del sector no es fijo, siendo el estándar actual 512 bytes, aunque próximamente serán 4 KiB. Antiguamente el número de sectores por pista era fijo, lo cual desaprovechaba el espacio significativamente, ya que en las pistas exteriores pueden almacenarse más sectores que en las interiores. Así, apareció la tecnología ZBR (grabación de bits por zonas) que aumenta el número de sectores en las pistas exteriores, y utiliza más eficientemente el disco duro.
    El primer sistema de direccionamiento que se usó fue el CHS (cilindro-cabeza-sector), ya que con estos tres valores se puede situar un dato cualquiera del disco. Más adelante se creó otro sistema más sencillo: LBA (direccionamiento lógico de bloques), que consiste en dividir el disco entero en sectores y asignar a cada uno un único número. Éste es el que actualmente se usa.


    • DISCO COMPACTO (DEFINICION Y FUNCION)


    El disco compacto (conocido popularmente como CD por las siglas en inglés de Compact Disc) es un soporte digital óptico utilizado para almacenar cualquier tipo de información (audio, imágenes, vídeo, documentos y otros datos). En español ya se puede escribir cedé (como se pronuncia) porque ha sido aceptada y lexicalizada por el uso; en gran parte de Latinoamérica se pronuncia [sidí], como en inglés, pero la Asociación de Academias de la Lengua Española desaconseja —en su Diccionario panhispánico de dudas— esa pronunciación.[1] También se acepta cederrón[2] (de CD-ROM). Hoy en día, sigue siendo el medio físico preferido para la distribución de audio.
    Los CD estándar tienen un diámetro de 12 centímetros y pueden almacenar hasta 80 minutos de audio (o 700 MB de datos). Los MiniCD tienen 8 cm y son usados para la distribución de sencillos y de controladores guardando hasta 24 minutos de audio o 214 MB de datos.
    Esta tecnología fue más tarde expandida y adaptada para el almacenamiento de datos (CD-ROM), de video (VCD y SVCD), la grabación doméstica (CD-R y CD-RW) y el almacenamiento de datos mixtos (CD-i), Photo CD, y CD EXTRA.
    El disco compacto sigue gozando de popularidad en el mundo actual. En el año 2007 se habían vendido 200 millones de CD en el mundo.


    Los discos ópticos presentan una capa interna protegida, donde se guardan los bits mediante distintas tecnologías, siendo que en todas ellas dichos bits se leen merced a un rayo láser incidente. Este, al ser reflejado, permite detectar variaciones microscópicas de propiedades óptico-reflectivas ocurridas como consecuencia de la grabación realizada en la escritura. Un sistema óptico con lentes encamina el haz luminoso, y lo enfoca como un punto en la capa del disco que almacena los datos.

    Grabado durante la fabricación

    Se puede grabar un CD por moldeado durante la fabricación.
    Mediante un molde de níquel (CD-ROM), una vez creada un aplicación multimedia en el disco duro de una computadora es necesario transferirla a un soporte que permita la realización de copias para su distribución.
    Las aplicaciones CD-ROM se distribuyen en discos compactos de 12 cm de diámetro, con la información grabada en una de sus caras. La fabricación de estos discos requiere disponer de una sala «blanca», libre de partículas de polvo, en la cual se llevan a cabo los siguientes procesos. Sobre un disco finamente pulido en grado óptico se aplica una capa de material fotosensible de alta resolución, del tipo utilizado en la fabricación de microchips. Sobre dicha capa es posible grabar la información gracias a un rayo láser. Una vez acabada la transcripción de la totalidad de la información al disco, los datos que contiene se encuentran en estado latente. El proceso es muy parecido al del revelado de una fotografía. Dependiendo de las zonas a las que ha accedido el láser, la capa de material fotosensible se endurece o se hace soluble al aplicarle ciertos baños. Una vez concluidos los diferentes baños se dispone de una primera copia del disco que permitirá estampar las demás. Sin embargo, la película que contiene la información y está adherida a la placa de vidrio es blanda y frágil, por lo cual se hace imprescindible protegerla mediante un fino revestimiento metálico, que le confiere a la vez dureza y protección. Finalmente, gracias a una combinación de procesos ópticos y electroquímicos, es posible depositar una capa de níquel que penetra en los huecos y se adhiere a la película metálica aplicada en primer lugar sobre la capa de vidrio. Se obtiene de este modo un disco matriz o «máster», que permite estampar a posterior miles de copias del CD-ROM en plástico. Una vez obtenidas dichas copias, es posible serigrafiar sobre la capa de laca filtrante ultravioleta de los discos imágenes e informaciones, en uno o varios colores, que permitan identificarlo. Todo ello, lógicamente, por el lado que no contiene la información. La fabricación de los CD-ROMs de una aplicación multimedia concluye con el estuchado de los discos, que es necesario para protegerlos de posibles deterioros. Al estuche se añade un cuadernillo que contiene las informaciones relativas a la utilización de la aplicación. Finalmente, la envoltura de celofán garantiza al usuario que la copia que recibe es original. Estos procesos de fabricación permiten en la actualidad ritmos de producción de hasta 600 unidades por hora en una sola máquina.

    Grabación por acción de láser

    Otro modo de grabación es por la acción de un haz láser (CD-R y CD-RW, también llamado CD-E).
    Para esto la grabadora crea unos pits y unos lands cambiando la reflectividad de la superficie del CD. Los pits son zonas donde el láser quema la superficie con mayor potencia, creando ahí una zona de baja reflectividad. Los lands, son justamente lo contrario, son zonas que mantienen su alta reflectividad inicial, justamente porque la potencia del láser se reduce.
    Según el lector detecte una secuencia de pits o lands, tendremos unos datos u otros. Para formar un pit es necesario quemar la superficie a unos 250º C. En ese momento, el policarbonato que tiene la superficie se expande hasta cubrir el espacio que quede libre, siendo suficientes entre 4 y 11 mW para quemar esta superficie, claro que el área quemada en cada pit es pequeñísima.
    Esto es posible ya que es una superficie algo "especial". Está formada en esencia por plata, teluro, indio y antimonio. Inicialmente (el disco está sin nada, completamente vacío de datos...) esta superficie tiene una estructura policristalina o de alta reflectividad. Si el software le "dice" a la grabadora que debe simular un pit, entonces lo que hará será aumentar con el láser la temperatura de la superficie hasta los 600 o 700 °C, con lo que la superficie pasa a tener ahora una estructura no cristalina o de baja reflectividad. Cuando debe aparecer un land, entonces se baja la potencia del láser para dejar intacta la estructura policristalina.
    Para borrar el disco se quema la superficie a unos 200 °C durante un tiempo prolongado (de 20 a 40 minutos) haciendo retornar todo este "mejunge" a su estado cristalino inicial. En teoría deberíamos poder borrar la superficie unas 1000 veces, más o menos, aunque con el uso lo más probable es que se estropee el CD y tengas que tirarlo antes de poder usarlo tantas veces.

    Grabación por acción de láser y un campo magnético

    El último medio de grabación de un cd es por la acción de un haz láser en conjunción con un campo magnético (discos magneto-ópticos - MO).
    Los discos ópticos tienen las siguientes características, confrontadas con los discos magnéticos:
    Los discos ópticos, además de ser medios removibles con capacidad para almacenar masivamente datos en pequeños espacios -por lo menos diez veces más que un disco rígido de igual tamaño- son portátiles y seguros en la conservación de los datos (que también permanecen si se corta la energía eléctrica). El hecho de ser portables deviene del hecho de que son removibles de la unidad.

    Grabado multisesión

    Desde hace tiempo han surgido programas computacionales para grabar CD que nos permiten utilizar un disco CD-R como si de un disco regrabable se tratase. Esto no quiere decir que el CD se pueda grabar y posteriormente borrar, sino que se puede grabar en distintas sesiones, hasta ocupar todo el espacio disponible del CD. Los discos multisesión no son más que un disco normal grabable, ni en sus cajas, ni en la información sobre sus detalles técnicos se resalta que funcione como disco Multisesión, ya que esta función no depende del disco, sino como está grabado.
    Si se graba un CD y este no es finalizado, podemos añadirle una nueva sesión, desperdiciando una parte para separar las sesiones (unos 20 MB aproximadamente). Haremos que un CD sea multisesión en el momento que realizamos la segunda grabación sobre él, este o no finalizado, sin embargo, al grabar un CD de música automáticamente el CD-R queda finalizado y no puede ser utilizado como disco Multisesión.
    No todos los dispositivos ni los sistemas operativos, son capaces de reconocer un disco con multisesión, o que no esté finalizado.

    Diferencias entre CD-R multisesión y CD-RW

    Puede haber confusión entre un CD-R con grabado multisesión y un CD-RW. En el momento en que un disco CD-R se hace multisesión, el software le dará la característica de que pueda ser utilizado en múltiples sesiones, es decir, en cada grabación se crearán «sesiones», que sólo serán modificadas por lo que el usuario crea conveniente. Por ejemplo, si se ha grabado en un CD-R los archivos prueba1.txt, prueba2.txt y prueba 3.txt, se habrá creado una sesión en el disco que será leída por todos los reproductores y que contendrá los archivos mencionados. Si en algún momento no se necesita alguno de los ficheros o se modifica el contenido de la grabación, el programa software creará una nueva sesión, a continuación de la anterior, donde no aparecerán los archivos que no se desee consultar, o se verán las modificaciones realizadas, es decir, es posible añadir más archivos, o incluso quitar algunos que estaban incluidos. Al realizar una modificación la sesión anterior no se borrará, sino que quedará oculta por la nueva sesión dando una sensación de que los archivos han sido borrados o modificados, pero en realidad permanecen en el disco.
    Obviamente las sesiones anteriores, aunque aparentemente no aparecen permanecen en el disco y están ocupando espacio en el mismo, esto quiere decir que algún día ya no será posible «regrabarlo», modificar los archivos que contiene, porque se habrá utilizado toda la capacidad del disco.
    A diferencia de los CD-R, los discos CD-RW sí pueden ser borrados, o incluso formateados (permite usar el disco, perdiendo una parte de su capacidad, pero permitiendo grabar en el ficheros nuevos). En el caso de utilizar un CD-RW cuando borramos, lo borramos completamente, se pueden hacer también borrados parciales, que necesitan una mayor potencia del láser para volver a grabarse. Un disco CD-RW se puede utilizar como un disquete, con software adecuado, siempre que la unidad soporte esta característica, se pueden manipular ficheros como en un disquete, con la salvedad de que no se borra, sino que al borrar un fichero este sigue ocupando un espacio en el disco, aunque al examinarlo no aparezca dicho archivo. Los discos CD-RW necesitan más potencia del láser para poder grabarse, por esta razón los discos regrabables tienen una velocidad de grabación menor que los discos grabables (tardan más en terminar de grabarse).
    Los DVD-RW, DVD+RW funcionan de manera análoga, los DVD-RAM también, pero están diseñados para escritura como con los disquetes.


    • DVD (DEFINICION Y FUNCION)


    El DVD es un disco óptico de almacenamiento de datos cuyo estándar surgió en 1995. Sus siglas corresponden con Digital Versatile Disc[1] en inglés (disco versátil digital traducido al español). En sus inicios, la v intermedia hacía referencia a video (digital videodisk), debido a su desarrollo como reemplazo del formato VHS para la distribución de vídeo a los hogares.[2]
    Unidad de DVD: el nombre de este dispositivo hace referencia a la multitud de maneras en las que se almacenan los datos: DVD-ROM (dispositivo de lectura únicamente), DVD-R y DVD+R (solo pueden escribirse una vez), DVD-RW y DVD+RW (permiten grabar y borrar las veces que se quiera). También difieren en la capacidad de almacenamiento de cada uno de los tipos.


    Los DVD se pueden clasificar:
    • Según su contenido:
      • DVD-Video: Películas (vídeo y audio).
      • DVD-Audio: Audio de alta fidelidad. Por ejemplo: 24 bits por muestra, una velocidad de muestreo de 48000 Hz y un rango dinámico de 144 dB [cita requerida]
      • DVD-Data: Todo tipo de datos.
    • Según su capacidad de regrabado:
      • DVD-ROM: Sólo lectura, manufacturado con prensa.
      • DVD-R y DVD+R: Grabable una sola vez. La diferencia entre los tipos +R y -R radica en la forma de grabación y de codificación de la información. En los +R los agujeros son 1 lógicos mientras que en los –R los agujeros son 0 lógicos.
      • DVD-RW y DVD+RW: Regrabable.
      • DVD-RAM: Regrabable de acceso aleatorio. Lleva a cabo una comprobación de la integridad de los datos siempre activa tras completar la escritura.
      • DVD+R DL: Grabable una sola vez de doble capa
      • El DVD-ROM almacena desde 4,7 GB hasta 17 GB.
    • Según su número de capas o caras:
      • DVD-5: una cara, capa simple; 4,7 GB o 4,38 GiB - Discos DVD±R/RW.
      • DVD-9: una cara, capa doble; 8,5 GB o 7,92 GiB - Discos DVD+R DL. La grabación de doble capa permite a los discos DVD-R y los DVD+RW almacenar significativamente más datos, hasta 8,5 GB por disco, comparado con los 4,7 GB que permiten los discos de una capa. Los DVD-R DL (dual layer) fueron desarrollados para DVD Forum por Pioneer Corporation. DVD+R DL fue desarrollado para el DVD+R Alliance por Philips y Mitsubishi Kagaku Media. Un disco de doble capa difiere de un DVD convencional en que emplea una segunda capa física ubicada en el interior del disco. Una unidad lectora con capacidad de doble capa accede a la segunda capa proyectando el láser a través de la primera capa semitransparente. El mecanismo de cambio de capa en algunos DVD puede conllevar una pausa de hasta un par de segundos. Los discos grabables soportan esta tecnología manteniendo compatibilidad con algunos reproductores de DVD y unidades DVD-ROM. Muchos grabadores de DVD soportan la tecnología de doble capa, y su precio es comparable con las unidades de una capa, aunque el medio continúa siendo considerablemente más caro.
      • DVD-10: dos caras, capa simple en ambas; 9,4 GB o 8,75 GiB - Discos DVD±R/RW.
      • DVD-14: dos caras, capa doble en una, capa simple en la otra; 13,3 GB o 12,3 GiB - Raramente utilizado.
      • DVD-18: dos caras, capa doble en ambas; 17,1 GB o 15,9 GiB - Discos DVD+R.
    También existen DVD de 8 cm (no confundir con miniDVD, que son CD que contienen información de tipo DVD video) que tienen una capacidad de 1,5 GB.
    El DVD Forum creó los estándares oficiales DVD-ROM/R/RW/RAM, y Alliance creó los estándares DVD+R/RW para evitar pagar la licencia al DVD Forum. Dado que los discos DVD+R/RW no forman parte de los estándares oficiales, no muestran el logotipo «DVD». En lugar de ello, llevan el logotipo «RW» incluso aunque sean discos que solo puedan grabarse una vez, lo que ha suscitado cierta polémica en algunos sectores que lo consideran publicidad engañosa, además de confundir a los usuarios.
    La mayoría de grabadoras de DVD nuevas pueden grabar en ambos formatos y llevan ambos logotipos «+RW» y «DVD-R/RW».


    • BLUE RAY (DEFINICION Y FUNCION)


    Blu-ray, también conocido como Blu-ray Disc o BD, es un formato de disco óptico de nueva generación de 12 cm de diámetro (igual que el CD y el DVD) para vídeo de gran definición y almacenamiento de datos de alta densidad. Su capacidad de almacenamiento llega a 25 GB por capa, aunque Sony y Panasonic han desarrollado un nuevo índice de evaluación (i-MLSE) que permitiría ampliar un 33% la cantidad de datos almacenados,[1] desde 25 a 33,4 GB por capa.[2] [3] Aunque otros apuntan que el sucesor del DVD no será un disco óptico, sino la tarjeta de memoria. No obstante, se está trabajando en el HVD o Disco holográfico versátil con 3,9 TB. El límite de capacidad en las tarjetas de formato SD/MMC está ya en 128 GB, teniendo la ventaja de ser regrabables al menos durante 5 años.[4]
    En febrero de 2008, después de la caída de muchos apoyos al HD DVD, Toshiba decidió abandonar la fabricación de reproductores y las investigaciones para mejorar su formato.[5] [6]
    Existe un tercer formato, el HD-VMD, que también debe ser nombrado, ya que también está enfocado a ofrecer alta definición. Su principal desventaja es que no cuenta con el apoyo de las grandes compañías y es desconocido por gran parte del público. Por eso su principal apuesta es ofrecer lo mismo que las otras tecnologías a un precio más asequible, por ello parte de la tecnología del DVD (láser rojo). En un futuro, cuando la tecnología sobre el láser azul sea fiable y barata, tienen previsto adaptarse a ella.[7]


    El disco Blu-ray hace uso de un rayo láser de color azul con una longitud de onda de 405 nanómetros, a diferencia del láser rojo utilizado en lectores de DVD, que tiene una longitud de onda de 650 nanómetros. Esto, junto con otros avances tecnológicos, permite almacenar sustancialmente más información que el DVD en un disco de las mismas dimensiones y aspecto externo.[4] [8] Blu-ray obtiene su nombre del color azul del rayo láser (blue ray significa ‘rayo azul’). La letra e de la palabra original blue fue eliminada debido a que, en algunos países, no se puede registrar para un nombre comercial una palabra común.[3] [2]
    Fue desarrollado en conjunto por un grupo de compañías tecnológicas llamado Blu-Ray Disc Association (BDA), liderado por Sony y Philips, y formado por:
    Estudios en exclusiva
    Estudios colaboradores
    El DVD ofreció en su momento una alta calidad, ya que era capaz de dar una resolución de 720x480 (NTSC) o 720x576 (PAL), lo que es ampliamente superado por la capacidad de alta definición ofrecida por el Blu-ray, que es de 1920x1080 (1080p). Este último es el formato utilizado por los estudios para archivar sus producciones, que anteriormente se convertía al formato que se quisiese exportar. Esto ya no será necesario, con lo que la industria del cine digital no tendrá que gastar esfuerzo y tiempo en el cambio de resolución de películas, lo que abaratará en menor medida y reducción de costes.[9]


    • TECLADO (DEFINICION Y FUNCION)


    En informática un teclado es un periférico de entrada o dispositivo, en parte inspirado en el teclado de las máquinas de escribir, que utiliza una disposición de botones o teclas, para que actúen como palancas mecánicas o interruptores electrónicos que envían información a la computadora. Después de las tarjetas perforadas y las cintas de papel, la interacción a través de los teclados al estilo teletipo se convirtió en el principal medio de entrada para las computadoras. El teclado tiene entre 99 y 108 teclas aproximadamente, y está dividido en cuatro bloques:
    1. Bloque de funciones: Va desde la tecla F1 a F12, en tres bloques de cuatro: de F1 a F4, de F5 a F8 y de F9 a F12. Funcionan de acuerdo al programa que esté abierto. Por ejemplo, en muchos programas al presionar la tecla F1 se accede a la ayuda asociada a ese programa.
    2. Bloque alfanumérico: Está ubicado en la parte inferior del bloque de funciones, contiene los números arábigos del 1 al 0 y el alfabeto organizado como en una máquina de escribir, además de algunas teclas especiales.
    3. Bloque especial: Está ubicado a la derecha del bloque alfanumérico, contiene algunas teclas especiales como Imp Pant, Bloq de desplazamiento, pausa, inicio, fin, insertar, suprimir, RePag, AvPag, y las flechas direccionales que permiten mover el punto de inserción en las cuatro direcciones.
    4. Bloque numérico: Está ubicado a la derecha del bloque especial, se activa al presionar la tecla Bloq Num, contiene los números arábigos organizados como en una calculadora con el fin de facilitar la digitación de cifras. Además contiene los signos de las cuatro operaciones básicas: suma +, resta -, multiplicación * y división /; también contiene una tecla de Intro o Enter.


    La disposición del teclado es la distribución de las teclas del teclado de una computadora, una máquina de escribir u otro dispositivo similar.
    Existen distintas distribuciones de teclado, creadas para usuarios de idiomas diferentes. El teclado estándar en español corresponde al diseño llamado QWERTY. Una variación de este mismo es utilizado por los usuarios de lengua inglesa. Para algunos idiomas se han desarrollado teclados que pretenden ser más cómodos que el QWERTY, por ejemplo el Teclado Dvorak.
    Las computadoras modernas permiten utilizar las distribuciones de teclado de varios idiomas distintos en un teclado que físicamente corresponde a un solo idioma. En el sistema operativo Windows, por ejemplo, pueden instalarse distribuciones adicionales desde el Panel de Control.
    Existen programas como Microsoft Keyboard Layout Creator[1] y KbdEdit,[2] que hacen muy fácil la tarea de crear nuevas distribuciones, ya para satisfacer las necesidades particulares de un usuario, ya para resolver problemas que afectan a todo un grupo lingüístico. Estas distribuciones pueden ser modificaciones a otras previamente existentes (como el teclado latinoamericano extendido[3] o el gaélico[4] ), o pueden ser enteramente nuevas (como la distribución para el Alfabeto Fonético Internacional,[5] o el panibérico[6] ).


    A primera vista en un teclado podemos notar una división de teclas, tanto por la diferenciación de sus colores, como por su distribución. Las teclas grisáceas sirven para distinguirse de las demás por ser teclas especiales (borrado, teclas de función, tabulación, tecla del sistema…). Si nos fijamos en su distribución vemos que están agrupadas en cuatro grupos:
    • Teclas de función: situadas en la primera fila de los teclados. Combinadas con otras teclas, nos proporcionan acceso directo a algunas funciones del programa en ejecución.
    • Teclas de edición: sirven para mover el cursor por la pantalla.
    • Teclas alfanuméricas: son las más usadas. Su distribución suele ser la de los teclados QWERTY, por herencia de la distribución de las máquinas de escribir. Reciben este nombre por ser la primera fila de teclas, y su orden es debido a que cuando estaban organizadas alfabéticamente la máquina tendía a engancharse, y a base de probar combinaciones llegaron a la conclusión de que así es como menos problemas daban. A pesar de todo esto, se ha comprobado que hay una distribución mucho más cómoda y sencilla, llamada Dvorak, pero en desuso debido sobre todo a la incompatibilidad con la mayoría de los programas que usamos.
    • Bloque numérico: situado a la derecha del teclado. Comprende los dígitos del sistema decimal y los símbolos de algunas operaciones aritméticas. Añade también la tecla especial Bloq Num, que sirve para cambiar el valor de algunas teclas para pasar de valor numérico a desplazamiento de cursor en la pantalla. el teclado numérico también es similar al de un calculadora cuenta con las 4 operaciones básicas que son + (suma), - (resta), * (multiplicación) y / (división).
    •MONITOR (DEFINICION Y FUNCION)


    El monitor de computadora o pantalla de ordenador, aunque también es común llamarlo «pantalla», es un dispositivo de salida que, mediante una interfaz, muestra los resultados del procesamiento de una computadora


    Los primeros monitores surgieron en el año 1981, siguiendo el estándar MDA (Monochrome Display Adapter) eran monitores monocromáticos (de un solo color) de IBM. Estaban expresamente diseñados para modo texto y soportaban subrayado, negrita, cursiva, normal, e invisibilidad para textos. Poco después y en el mismo año salieron los monitores CGA (Color Graphics Adapter-graficos adaptados a color) fueron comercializados en 1981 al desarrollarse la primera tarjeta gráfica a partir del estándar CGA de IBM. Al comercializarse a la vez que los MDA los usuarios de PC optaban por comprar el monitor monocromático por su costo.
    Tres años más tarde surgió el monitor EGA (Enhanced Graphics Adapter - adaptador de graficos mejorados) estándar desarrollado por IBM para la visualización de gráficos, este monitor aportaba más colores (16) y una mayor resolución. En 1987 surgió el estándar VGA (Video Graphics Array - graficos de video arreglados) fue un estándar muy acogido y dos años más tarde se mejoró y rediseñó para solucionar ciertos problemas que surgieron, desarrollando así SVGA (Super VGA), que también aumentaba colores y resoluciones, para este nuevo estándar se desarrollaron tarjetas gráficas de fabricantes hasta el día de hoy conocidos como S3 Graphics, NVIDIA o ATI entre otros.
    Con este último estándar surgieron los monitores CRT que hasta no hace mucho seguían estando en la mayoría de hogares donde había un ordenador.


    • TARJETA DE SONIDO (DEFINICION Y FUNCION)(DEFINICION Y FUNCION)


    Una tarjeta de sonido o placa de sonido es una tarjeta de expansión para computadoras que permite la salida de audio bajo el control de un programa informático llamado controlador (en inglés driver). El típico uso de las tarjetas de sonido consiste en proveer mediante un programa que actúa de mezclador, que las aplicaciones multimedia del componente de audio suenen y puedan ser gestionadas. Estas aplicaciones multimedia engloban composición y edición de video o audio, presentaciones multimedia y entretenimiento (videojuegos). Algunos equipos (como los personales) tienen la tarjeta ya integrada, mientras que otros requieren tarjetas de expansión. También hay otro tipo de equipos que por circunstancias profesionales (como por ejemplo servidores) no requieren de dicho servicio.


    • TARJETA DE VIDEO (DEFINICION Y FUNCION)


    Una tarjeta gráfica, tarjeta de vídeo, placa de vídeo, tarjeta aceleradora de gráficos o adaptador de pantalla, es una tarjeta de expansión para una computadora u ordenador, encargada de procesar los datos provenientes de la CPU y transformarlos en información comprensible y representable en un dispositivo de salida, como un monitor o televisor. Las tarjetas gráficas más comunes son las disponibles para las computadoras compatibles con la IBM PC, debido a la enorme popularidad de éstas, pero otras arquitecturas también hacen uso de este tipo de dispositivos.
    Es habitual que se utilice el mismo término tanto a las habituales tarjetas dedicadas y separadas como a las GPU integradas en la placa base. Algunas tarjetas gráficas han ofrecido funcionalidades añadidas como captura de vídeo, sintonización de TV, decodificación MPEG-2[1] y MPEG-4 o incluso conectores Firewire, de ratón, lápiz óptico o joystick.
    Las tarjetas gráficas no son dominio exclusivo de los PC; contaron o cuentan con ellas dispositivos como los Commodore Amiga (conectadas mediante las ranuras Zorro II y Zorro III), Apple II, Apple Macintosh, Spectravideo SVI-328, equipos MSX y, por supuesto, en las videoconsolas modernas, como la Wii, la Playstation 3 y la Xbox360.


    Efectos gráficos


    Algunas de las técnicas o efectos habitualmente empleados o generados mediante las tarjetas gráficas pueden ser:
    • Antialiasing: retoque para evitar el aliasing, efecto que aparece al representar curvas y rectas inclinadas en un espacio discreto y finito como son los píxeles del monitor.
    • Shader: procesado de píxeles y vértices para efectos de iluminación, fenómenos naturales y superficies con varias capas, entre otros.
    • HDR: técnica novedosa para representar el amplio rango de niveles de intensidad de las escenas reales (desde luz directa hasta sombras oscuras). Es una evolución del efecto Bloom, aunque a diferencia de éste, no permite Antialiasing.
    • Mapeado de texturas: técnica que añade detalles en las superficies de los modelos, sin aumentar la complejidad de los mismos.
    • Motion Blur: efecto de emborronado debido a la velocidad de un objeto en movimiento.
    • Depth Blur: efecto de emborronado adquirido por la lejanía de un objeto.
    • Lens flare: imitación de los destellos producidos por las fuentes de luz sobre las lentes de la cámara.
    • Efecto Fresnel (reflejo especular): reflejos sobre un material dependiendo del ángulo entre la superficie normal y la dirección de observación. A mayor ángulo, más reflectante.
    • Teselado: Consiste en multiplicar el número de polígonos para representar ciertas figuras geométricas y no se vean totalmente planas. Esta característica fue incluida en la API DirectX 11

     Errores comunes

    • Confundir a la GPU con la tarjeta gráfica. Aunque muy importante, no todas las GPU y adaptadores de gráficos van en tarjeta ni son el único determinante de su calidad y rendimiento. Es decir, las GPU sí determinan el rendimiento máximo de la tarjeta, pero su rendimiento puede ser capado por tener otros elementos que no estén a su altura, por ejemplo un ancho de banda pequeño.
    • Considerar el término tarjeta de vídeo como privativo del PC y compatibles. Esas tarjetas se usan en equipos no PC e incluso sin procesador Intel o AMD y sus chips en videoconsolas.
    • Confundir al fabricante de la GPU con la marca de la tarjeta. Actualmente los mayores fabricantes de chip gráficos de PC en el mercado son NVIDIA y AMD (anteriormente ATi Tecnologies). Esto se debe a que se encargan solamente, de diseñar los chip gráficos (GPU). Luego, empresas como TSMC o Global Fundities fabrican las GPU y más tarde son ensambladas en PCBs con memorias por ASUS, POV, XFX, Gigabyte, Sapphire y demás ensambladoras para su venta al público.
    • Saliendo del círculo de PCs, para otros dispositivos como Smartphones, la mayoría de las GPU vienen integradas en "System on Chip" junto al procesador y el controlador de memoria.
    •TARJETA DE RED ALAMBRICA E INALAMBRICA (DEFINICION Y FUNCION)


    Una tarjeta de red o adaptador de red permite la comunicación con aparatos conectados entre si y también permite compartir recursos entre dos o más computadoras (discos duros, CD-ROM, impresoras, etc). A las tarjetas de red también se les llama NIC (por network interface card; en español "tarjeta de interfaz de red"). Hay diversos tipos de adaptadores en función del tipo de cableado o arquitectura que se utilice en la red (coaxial fino, coaxial grueso, Token Ring, etc.), pero actualmente el más común es del tipo Ethernet utilizando una interfaz o conector RJ-45.
    Aunque el término tarjeta de red se suele asociar a una tarjeta de expansión insertada en una ranura interna de un computador o impresora, se suele utilizar para referirse también a dispositivos integrados (del inglés embedded) en la placa madre del equipo, como las interfaces presentes en las videoconsolas Xbox o las computadoras portátiles. Igualmente se usa para expansiones con el mismo fin que en nada recuerdan a la típica tarjeta con chips y conectores soldados, como la interfaz de red para la Sega Dreamcast, las PCMCIA, o las tarjetas con conector y factor de forma CompactFlash y Secure Digital SIO utilizados en PDAs.
    Cada tarjeta de red tiene un número de identificación único de 48 bits, en hexadecimal llamado dirección MAC (no confundir con Apple Macintosh). Estas direcciones hardware únicas son administradas por el Institute of Electronic and Electrical Engineers (IEEE). Los tres primeros octetos del número MAC son conocidos como OUI e identifican a proveedores específicos y son designados por la IEEE.
    Se denomina también NIC al circuito integrado de la tarjeta de red que se encarga de servir como interfaz de Ethernet entre el medio físico (por ejemplo un cable coaxial) y el equipo (por ejemplo una computadora personal o una impresora). Es un circuito integrado usado en computadoras o periféricos tales como las tarjetas de red, impresoras de red o sistemas intergrados (embebed en inglés), para conectar dos o más dispositivos entre sí a través de algún medio, ya sea conexión inalámbrica, cable UTP, cable coaxial, fibra óptica, etc.
    La mayoría de tarjetas traen un zócalo vacío rotulado BOOT ROM, para incluir una ROM opcional que permite que el equipo arranque desde un servidor de la red con una imagen de un medio de arranque (generalmente un disquete), lo que permite usar equipos sin disco duro ni unidad de disquete. El que algunas placas madre ya incorporen esa ROM en su BIOS y la posibilidad de usar tarjetas CompactFlash en lugar del disco duro con sólo un adaptador, hace que comience a ser menos frecuente, principalmente en tarjetas de perfil bajo.


    •MODEM (DEFINICION Y FUNCION)


    Un módem es un dispositivo que sirve para enviar una señal llamada moduladora mediante otra señal llamada portadora. Se han usado módems desde los años 60, principalmente debido a que la transmisión directa de las señales electrónicas inteligibles, a largas distancias, no es eficiente, por ejemplo, para transmitir señales de audio por el aire, se requerirían antenas de gran tamaño (del orden de cientos de metros) para su correcta recepción. Es habitual encontrar en muchos módems de red conmutada la facilidad de respuesta y marcación automática, que les permiten conectarse cuando reciben una llamada de la RTPC (Red Telefónica Pública Conmutada) y proceder a la marcación de cualquier número previamente grabado por el usuario. Gracias a estas funciones se pueden realizar automáticamente todas las operaciones de establecimiento de la comunicación.


    El modulador emite una señal denominada portadora. Generalmente, se trata de una simple señal eléctrica sinusoidal de mucha mayor frecuencia que la señal moduladora. La señal moduladora constituye la información que se prepara para una transmisión (un módem prepara la información para ser transmitida, pero no realiza la transmisión). La moduladora modifica alguna característica de la portadora (que es la acción de modular), de manera que se obtiene una señal, que incluye la información de la moduladora. Así el demodulador puede recuperar la señal moduladora original, quitando la portadora. Las características que se pueden modificar de la señal portadora son:
    También es posible una combinación de modulaciones o modulaciones más complejas como la modulación de amplitud en cuadratura.


    •RATON (DEFINICION Y FUNCION)


    El ratón o mouse (del inglés, pronunciado [maʊs]) es un dispositivo apuntador usado para facilitar el manejo de un entorno gráfico en un computador. Generalmente está fabricado en plástico y se utiliza con una de las manos. Detecta su movimiento relativo en dos dimensiones por la superficie plana en la que se apoya, reflejándose habitualmente a través de un puntero o flecha en el monitor.
    Hoy en día es un elemento imprescindible en un equipo informático para la mayoría de las personas, y pese a la aparición de otras tecnologías con una función similar, como la pantalla táctil, la práctica ha demostrado que tendrá todavía muchos años de vida útil. No obstante, en el futuro podría ser posible mover el cursor o el puntero con los ojos o basarse en el reconocimiento de voz.


    Su funcionamiento principal depende de la tecnología que utilice para capturar el movimiento al ser desplazado sobre una superficie plana o alfombrilla de ratón especial para ratón, y transmitir esta información para mover una flecha o puntero sobre el monitor de la computadora. Dependiendo de las tecnologías empleadas en el sensor del movimiento o por su mecanismo y del método de comunicación entre éste y la computadora, existen multitud de tipos o familias.
    El objetivo principal o más habitual es seleccionar distintas opciones que pueden aparecer en la pantalla, con uno o dos clic, pulsaciones, en algún botón o botones. Para su manejo el usuario debe acostumbrarse tanto a desplazar el puntero como a pulsar con uno o dos clics para la mayoría de las tareas.
    Con el avance de las nuevas computadoras, el ratón se ha convertido en un dispositivo esencial a la hora de jugar, destacando no solo para seleccionar y accionar objetos en pantalla en juegos estratégicos, sino para cambiar la dirección de la cámara o la dirección de un personaje en juegos de primera o tercera persona. Comúnmente en la mayoría de estos juegos, los botones del ratón se utilizan para accionar las armas u objetos seleccionados y la rueda del ratón sirve para recorrer los objetos o armas de nuestro inventario.


    C)INSTALACION DE SOFTWARE DE APLICACION


    •ANTIVIRUS (DEFINICION Y FUNCION)


    Los antivirus son una herramienta simple cuyo objetivo es detectar y eliminar virus informáticos. Nacieron durante la década de 1980.
    Con el transcurso del tiempo, la aparición de sistemas operativos más avanzados e Internet, ha hecho que los antivirus hayan evolucionado hacia programas más avanzados que no sólo buscan detectar virus informáticos, sino bloquearlos, desinfectarlos y prevenir una infección de los mismos, y actualmente ya son capaces de reconocer otros tipos de malware, como spyware, rootkits, etc.


    Es conveniente disponer de una licencia activa de antivirus. Dicha licencia se empleará para la generación de discos de recuperación y emergencia. Sin embargo no se recomienda en una red el uso continuo de antivirus.
    El motivo radica en la cantidad de recursos que dichos programas obtienen del sistema, reduciendo el valor de las inversiones en hardware realizadas.
    Aunque si los recursos son suficientes. Este extra de seguridad puede ser muy útil.
    Sin embargo los filtros de correos con detectores de virus son imprescindibles, ya que de esta forma se asegurará una reducción importante de decisiones de usuarios no entrenados que pueden poner en riesgo la red.


    •FIREWALL (DEFINICION Y FUNCION)


    Un cortafuegos (firewall en inglés) es una parte de un sistema o una red que está diseñada para bloquear el acceso no autorizado, permitiendo al mismo tiempo comunicaciones autorizadas. Se trata de un dispositivo o conjunto de dispositivos configurados para permitir, limitar, cifrar, descifrar, el tráfico entre los diferentes ámbitos sobre la base de un conjunto de normas y otros criterios.
    Los cortafuegos pueden ser implementados en hardware o software, o una combinación de ambos. Los cortafuegos se utilizan con frecuencia para evitar que los usuarios de Internet no autorizados tengan acceso a redes privadas conectadas a Internet, especialmente intranets. Todos los mensajes que entren o salgan de la intranet pasan a través del cortafuegos, que examina cada mensaje y bloquea aquellos que no cumplen los criterios de seguridad especificados. También es frecuente conectar al cortafuegos a una tercera red, llamada Zona desmilitarizada o DMZ, en la que se ubican los servidores de la organización que deben permanecer accesibles desde la red exterior. Un cortafuegos correctamente configurado añade una protección necesaria a la red, pero que en ningún caso debe considerarse suficiente. La seguridad informática abarca más ámbitos y más niveles de trabajo y protección.


    Las limitaciones se desprenden de la misma definición del cortafuegos: filtro de tráfico. Cualquier tipo de ataque informático que use tráfico aceptado por el cortafuegos (por usar puertos TCP abiertos expresamente, por ejemplo) o que sencillamente no use la red, seguirá constituyendo una amenaza. La siguiente lista muestra algunos de estos riesgos:
    • Un cortafuegos no puede proteger contra aquellos ataques cuyo tráfico no pase a través de él.
    • El cortafuegos no puede proteger de las amenazas a las que está sometido por ataques internos o usuarios negligentes. El cortafuegos no puede prohibir a espías corporativos copiar datos sensibles en medios físicos de almacenamiento (discos, memorias, etc.) y sustraerlas del edificio.
    • El cortafuegos no puede proteger contra los ataques de ingeniería social.
    • El cortafuegos no puede proteger contra los ataques posibles a la red interna por virus informáticos a través de archivos y software. La solución real está en que la organización debe ser consciente en instalar software antivirus en cada máquina para protegerse de los virus que llegan por cualquier medio de almacenamiento u otra fuente.
    • El cortafuegos no protege de los fallos de seguridad de los servicios y protocolos cuyo tráfico esté permitido. Hay que configurar correctamente y cuidar la seguridad de los servicios que se publiquen en Internet.
    •CREACION DE ESPACIOS Y GRUPOS EN INTERNET (DEFINICION Y FUNCION)


    La idea de las comunidades virtuales surge cuando aparece Internet, y en el caso de comunidades no informáticas mucho más anteriores a la invención de la misma radio. La primera comunidad virtual nace en la década de los 70's, si bien no es hasta los años ´90 cuando se desarrollan de forma exponencial y se convierten en accesibles para el público en general, todo ello gracias al nacimiento de la World Wide Web (WWW) y la generalización de herramientas como el correo electrónico, los chats o la mensajería instantánea. Hasta entonces, su uso quedaba limitado al ámbito científico y a los expertos en informática.
    Los usuarios civiles, sin acceso a Internet, implementaron y popularizaron el uso del BBS o Bulletin Board System (Sistema de Tablón de Anuncios), un sistema que funcionaba mediante acceso por módem mediante línea telefónica a una central (el BBS) que podía basarse en una o más líneas telefónicas. En los BBS era posible entablar conversaciones, publicar comentarios, intercambiar archivos, etc. Por lo mismo que eran accedidos por línea telefónica, eran comunidades independientes. Era muy común en la época que individuos particulares utilizaran sus equipos propios de casa para proveer el servicio hasta con un solo módem de entrada.
    Hoy en día, las comunidades virtuales son una herramienta muy útil desde un punto de vista empresarial, ya que permiten a las organizaciones mejorar su dinámica de trabajo interno, las relaciones con sus clientes o incrementar su eficiencia procedimental. En cuanto a su función social, las comunidades virtuales se han convertido en un lugar en el que el individuo puede desarrollarse y relacionarse con los demás, actuando así como un instrumento de socialización y de esparcimiento. Según estimaciones de Kozinets (1999), en el año [2000] existían en la red más de 40 millones de comunidades virtuales.


    Un Espacio Virtual es un grupo de personas que comprende los siguientes elementos:
    • Desean interactuar para satisfacer sus necesidades o llevar a cabo roles específicos.
    • Comparten un propósito determinado que constituye la razón de ser de la comunidad virtual.
    • Con unos sistemas informáticos que medían las interacciones y facilitan la cohesión entre los miembros.
    El mayor freno que existe al desarrollo de comunidades es la dificultad de organización interna de las mismas.[cita requerida] En muchos casos, se pierde demasiado tiempo creando la estructura de la comunidad, con lo que se llega a perder el verdadero sentido de la misma, confundiendo la estructura con el ser del grupo.[cita requerida]
    La comunidad Virtual queda definida por 3 aspectos distintos:
    • La comunidad virtual como un lugar: en el que los individuos pueden mantener relaciones de carácter social o económico.
    • La comunidad virtual como un símbolo: ya que la comunidad virtual posee una dimensión simbólica. Los individuos tienden a sentirse simbólicamente unidos a la comunidad virtual, creándose una sensación de pertenencia.
    • La comunidad virtual como virtual: las comunidades virtuales poseen rasgos comunes a las comunidades físicas, sin embargo el rasgo diferenciador de la comunidad virtual es que ésta se desarrolla, al menos parcialmente, en un lugar virtual, o en un lugar construido a partir de conexiones telemáticas.


    D)INSTALACION DE SOFTWARE DE COMUNICACIONES
    COMO ES LA COMUNICACION DE LA TERMINAL DE UNA RED CON:


    •COMUNICACION CON LA IMPRESORA


    Hay dos tipos de impresoras compartidas:

    • Impresoras de red: Se conectan directamente a una red (por lo general a un dispositivo denominado servidor de impresión) en lugar de conectarse a un equipo determinado.

    • Impresoras locales: Este uso es más corriente; se conectan a un solo equipo de una red. Mediante la configuración del uso compartido de impresoras, puede compartir una impresora local desde los demás equipos de la red.


    Después de agregar un equipo a un grupo de trabajo, puede compartir cualquier impresora que esté conectada al equipo. Para compartir una impresora, abra el panel de control Impresoras; para ello, haga clic en Inicio, elija Configuración (o Panel de control) y después haga clic en Impresoras (o Impresoras y faxes). Seleccione la impresora que desea compartir y, en el menú Archivo, haga clic en Compartir, o bien haga clic en Propiedades y, a continuación, haga clic en la ficha Compartir. En el cuadro de diálogo Compartir, seleccione si desea compartir o no la impresora.

    También puede compartir nuevas impresoras que instale en cualquiera de los equipos conectados a la red. Si el Asistente para agregar impresoras detecta que el equipo está conectado a una red, en el momento de la instalación le ofrece la posibilidad de compartir la impresora.

    Si no puede obtener acceso a la opción Compartir o aparece un mensaje en el que se indica que no está activada la función de compartir impresoras, deberá habilitar el componente Compartir archivos e impresoras de Windows. En Windows XP puede realizar esa operación desde la página Propiedades de la conexión de red. En otros sistemas operativos Windows puede utilizar el panel de control de red.

    A continuación se explican otros aspectos que conviene conocer acerca del uso compartido de impresoras y escáneres:

    • Asignar un nombre a una impresora compartida Cuando seleccione la opción de compartir una impresora, deberá asignarle un nombre en el cuadro de diálogo Compartir para identificarla en el grupo de trabajo. El nombre tiene que ser distinto de cualquier otro nombre de dispositivo del grupo de trabajo, y tampoco debe coincidir con el nombre del grupo de trabajo. Utilice un nombre que facilite la identificación; por ejemplo, la ubicación o la marca y el modelo.

    • Configurar otros equipos para que utilicen una impresora compartida. Para utilizar una impresora compartida, cada equipo debe tener instalado el controlador de impresora que funciona con el sistema operativo en cuestión. Puede instalar los controladores de impresora mediante la opción Agregar impresoras del panel de control Impresoras en todos los equipos que van a utilizarla. Instale la impresora del modo habitual, con la opción Una impresora de red o una impresora conectada a otro equipo seleccionada. A continuación puede desplazarse hasta la impresora compartida (siempre y cuando ésta y el equipo al que está conectada se encuentren encendidos y disponibles a través de la red) y terminar la instalación.


    En equipos en los que se ejecuta Windows XP y Windows 2000 también puede instalar los controladores para otros sistemas operativos cuando realice por primera vez la operación de compartir la impresora. Para ello, haga clic en Controladores adicionales en el cuadro de diálogo Compartir. No es necesario que instale los controladores en los demás equipos.

    Después de configurar la impresora compartida, puede enviar trabajos de impresión desde cualquiera de los equipos del grupo de trabajo, exactamente del mismo modo que con una impresora local.

    •COMUNICACION BLUE TOOTH


    Bluetooth es una especificación industrial para Redes Inalámbricas de Área Personal (WPANs) que posibilita la transmisión de voz y datos entre diferentes dispositivos mediante un enlace por radiofrecuencia en la banda ISM de los 2,4 GHz. Los principales objetivos que se pretenden conseguir con esta norma son:
    • Facilitar las comunicaciones entre equipos móviles y fijos.
    • Eliminar cables y conectores entre éstos.
    • Ofrecer la posibilidad de crear pequeñas redes inalámbricas y facilitar la sincronización de datos entre equipos personales.
    Los dispositivos que con mayor frecuencia utilizan esta tecnología pertenecen a sectores de las telecomunicaciones y la informática personal, como PDA, teléfonos móviles, computadoras portátiles, ordenadores personales, impresoras o cámaras digitales


    Se denomina Bluetooth al protocolo de comunicaciones diseñado especialmente para dispositivos de bajo consumo, con una cobertura baja y basados en transceptores de bajo costo.
    Gracias a este protocolo, los dispositivos que lo implementan pueden comunicarse entre ellos cuando se encuentran dentro de su alcance. Las comunicaciones se realizan por radiofrecuencia de forma que los dispositivos no tienen que estar alineados y pueden incluso estar en habitaciones separadas si la potencia de transmisión lo permite. Estos dispositivos se clasifican como "Clase 1", "Clase 2" o "Clase 3" en referencia a su potencia de transmisión, siendo totalmente compatibles los dispositivos de una clase con los de las otras.



    ClasePotencia máxima permitida
    (
    mW)
    Potencia máxima permitida
    (
    dBm)
    Rango
    (aproximado)
    Clase 1100 mW20 dBm~100 metros
    Clase 22.5 mW4 dBm~10 metros
    Clase 31 mW0 dBm~1 metro
    En la mayoría de los casos, la cobertura efectiva de un dispositivo de clase 2 se extiende cuando se conecta a un transceptor de clase 1. Esto es así gracias a la mayor sensibilidad y potencia de transmisión del dispositivo de clase 1, es decir, la mayor potencia de transmisión del dispositivo de clase 1 permite que la señal llegue con energía suficiente hasta el de clase 2. Por otra parte la mayor sensibilidad del dispositivo de clase 1 permite recibir la señal del otro pese a ser más débil.
    Los dispositivos con Bluetooth también pueden clasificarse según su ancho de banda:


    •CONEXION A INTERNET


    Internet es un conjunto descentralizado de redes de comunicación interconectadas que utilizan la familia de protocolos TCP/IP, garantizando que las redes físicas heterogéneas que la componen funcionen como una red lógica única, de alcance mundial. Sus orígenes se remontan a 1969, cuando se estableció la primera conexión de computadoras, conocida como ARPANET, entre tres universidades en California y una en Utah, Estados Unidos.
    Uno de los servicios que más éxito ha tenido en Internet ha sido la World Wide Web (WWW, o "la Web"), hasta tal punto que es habitual la confusión entre ambos términos. La WWW es un conjunto de protocolos que permite, de forma sencilla, la consulta remota de archivos de hipertexto. Ésta fue un desarrollo posterior (1990) y utiliza Internet como medio de transmisión.
    Existen, por tanto, muchos otros servicios y protocolos en Internet, aparte de la Web: el envío de correo electrónico (SMTP), la transmisión de archivos (FTP y P2P), las conversaciones en línea (IRC), la mensajería instantánea y presencia, la transmisión de contenido y comunicación multimedia -telefonía (VoIP), televisión (IPTV)-, los boletines electrónicos (NNTP), el acceso remoto a otros dispositivos (SSH y Telnet) o los juegos en línea.
    El género de la palabra Internet es ambiguo, según el Diccionario de la lengua española de la Real Academia Española


    La familia de protocolos de Internet es un conjunto de protocolos de red en los que se basa Internet y que permiten la transmisión de datos entre computadoras. En ocasiones se le denomina conjunto de protocolos TCP/IP, en referencia a los dos protocolos más importantes que la componen: Protocolo de Control de Transmisión (TCP) y Protocolo de Internet (IP), que fueron dos de los primeros en definirse, y que son los más utilizados de la familia. Existen tantos protocolos en este conjunto que llegan a ser más de 100 diferentes, entre ellos se encuentra el popular HTTP (HyperText Transfer Protocol), que es el que se utiliza para acceder a las páginas web, además de otros como el ARP (Address Resolution Protocol) para la resolución de direcciones, el FTP (File Transfer Protocol) para transferencia de archivos, y el SMTP (Simple Mail Transfer Protocol) y el POP (Post Office Protocol) para correo electrónico, TELNET para acceder a equipos remotos, entre otros.
    El TCP/IP es la base de Internet, y sirve para enlazar computadoras que utilizan diferentes sistemas operativos, incluyendo PC, minicomputadoras y computadoras centrales sobre redes de área local (LAN) y área extensa (WAN).
    TCP/IP fue desarrollado y demostrado por primera vez en 1972 por el Departamento de Defensa de los Estados Unidos, ejecutándolo en ARPANET, una red de área extensa de dicho departamento.
    La familia de protocolos de Internet puede describirse por analogía con el modelo OSI (Open System Interconnection), que describe los niveles o capas de la pila de protocolos, aunque en la práctica no corresponde exactamente con el modelo en Internet. En una pila de protocolos, cada nivel resuelve una serie de tareas relacionadas con la transmisión de datos, y proporciona un servicio bien definido a los niveles más altos. Los niveles superiores son los más cercanos al usuario y tratan con datos más abstractos, dejando a los niveles más bajos la labor de traducir los datos de forma que sean físicamente manipulables.
    El modelo de Internet fue diseñado como la solución a un problema práctico de ingeniería.
    El modelo OSI, en cambio, fue propuesto como una aproximación teórica y también como una primera fase en la evolución de las redes de ordenadores. Por lo tanto, el modelo OSI es más fácil de entender, pero el modelo TCP/IP es el que realmente se usa. Sirve de ayuda entender el modelo OSI antes de conocer TCP/IP, ya que se aplican los mismos principios, pero son más fáciles de entender en el modelo OSI.
    El 1 de enero de 2011 el Protocolo TCP/IP cumplió 28 años.