Page 1

La computació n

abril 17

2011

Se trae a colación lo mas significativo de la computación desde su invención hasta nuestros días, haciendo énfasis en su procedimiento para el procesamiento interno de datos, como su utilidad y necesidades en la vida cotidiana del ser humano

Taller Nº 1


Índice

Introducción Objetivo general La computadora – concepto básico ¿Qué es un computador? – ¿qué utilidad?

4 5 6

La computadora en la historia Primera generación Segunda generación Tercera generación Cuarta generación Quinta generación Dato interesante

7 9 11 13 15 17 18

Conclusión: El computador

19

El sistema operativo ¿Qué es un sistema operativo? (SO) Características

21

Tipos de (SO) MS-DOS Su historia Versiones Microsoft Windows Su historia Windows 1.0 Windows 2.0 Windows 3.0 OS/2.1 OS/2.20 OS/23.0 y 4.0 Windows 3.1 y Windows 3.11 Windows NT Windows NT 3.1 Windows NT 3.5/3.51 Windows NT 4.0 Windows 95 Windows 98 Windows 98 Second Edition Windows Millenium Edition Windows 2000 Windows XP Windows Sever 2003 Windows Vista Curiosidades Unix (familias mas significativas) Ventajas Desventajas Linux Características Ventajas Desventajas ¿Qué es Software libre? Importancia Ventajas Desventajas

22 23 24

25 26 27 28 29 30 31 34 35 36 37 39 40 41 42

Trayecto Inicial 2011 de la Misión Sucre – Universidad Marítima del Caribe

Materia: Alfabetización y Tecnología - Prof. Mariangel Damas


Comparación SO Windows / MS-DOS

44

Conclusión SO

45

¿Cual es el procedimiento interno que realiza una computadora desde que se enciende hasta que carga completamente los datos para trabajar?

46

Componentes de un computador Periféricos Hardware /software UCP O CPU Dispositivos de Entrada: En esta se encuentran Teclado Mouse o Ratón Escáner o digitalizador de imágenes Dispositivos de Almacenamiento: Disco Duro Diskettes 3 ½ Maletón-ópticos de 5,25 Dispositivos de Salida: en esta se encuentran: Impresoras Monitor Funcionamiento Interno Del Computador

48 50

Bibliografía Glosario – términos informáticos Anexos

54 55 58..

Trayecto Inicial 2011 de la Misión Sucre – Universidad Marítima del Caribe

Materia: Alfabetización y Tecnología - Prof. Mariangel Damas


Introducción

En este taller se verá la forma en que los seres humanos, valiéndose de su ingenio y de acuerdo a sus necesidades, han realizado diversos inventos para simplificarse la vida. Es así como nace El Computador. Este taller contendrá el concepto básico de computación. Pasearemos por su historia y, en un perfecto resumen, conoceremos las distintas e importantes creaciones así como sus características durante el medio evolutivo de esta vital herramienta, así como el Sistema Operativo (OS). Finalmente se estudiará el funcionamiento interno y otros datos importantes de complementación y funcionamiento y para llegar a la conclusión del trabajo acá realizado.

Trayecto Inicial 2011 de la Misión Sucre – Universidad Marítima del Caribe

Materia: Alfabetización y Tecnología - Prof. Mariangel Damas


Objetivo General

Comprender el concepto de computación, su evolución en el tiempo, su importancia en el mundo actual así como sus diferentes aplicaciones. De igual forma, la importancia del Sistema Operativo del computador, las partes que lo componen y el funcionamiento interno del mismo.

Trayecto Inicial 2011 de la Misión Sucre – Universidad Marítima del Caribe

Materia: Alfabetización y Tecnología - Prof. Mariangel Damas


La Computadora Concepto Básico

¿Qué es una computadora? La computadora es una maquina capaz de realizar y controlar a gran velocidad cálculos y procesos complicados que requieren una toma rápida de decisiones. Debemos reconocer que las computadoras son simplemente herramientas diseñadas, programadas y utilizadas por personas. ¿Qué utilidad? Las computadoras pueden, entre otras cosas (almacenar grandes volúmenes de información, procesar datos rápidamente y con exactitud, representar números gráficamente, simular posibles resultados basados en un conjunto determinado de condiciones, recomendar o tomar una acción basada en los resultados, etc.) Hoy en día es indispensable para la vida cotidiana del ser humano. La limitación más importante de las computadoras es que no pueden pensar por si mismas, no pueden resolver problemas ni tomar decisiones sin la intervención del hombre.

Trayecto Inicial 2011 de la Misión Sucre – Universidad Marítima del Caribe

Materia: Alfabetización y Tecnología - Prof. Mariangel Damas


La computadora en la historia

Uno de los primeros dispositivos mecánicos para contar fue el ábaco, cuya historia se remonta a las antiguas civilizaciones griega y romana. Este dispositivo es muy sencillo, consta de cuentas ensartadas en varillas que a su vez están montadas en un marco rectangular. Al desplazar las cuentas sobre varillas, sus posiciones representan valores almacenados, y es mediante dichas posiciones que este representa y almacena datos. A este dispositivo no se le puede llamar computadora por carecer del elemento fundamental llamado programa. Otro de los inventos mecánicos fue la Pascalina inventada por Blaise Pascal (1623 - 1662) de Francia y la de Gottfried Wilhelm von Leibniz (1646 1716) de Alemania. Con estas máquinas, los datos se representaban mediante las posiciones de los engranajes, y los datos se introducían manualmente estableciendo dichas posiciones finales de las ruedas, de manera similar a como leemos los números en el cuentakilómetros de un automóvil.

La primera computadora fue la máquina analítica creada por Charles Babbage, profesor matemático de la Universidad de Cambridge en el siglo XIX. La idea que tuvo Charles Babbage sobre un computador nació debido a que la elaboración de las tablas matemáticas era un proceso tedioso y propenso a errores. En 1823 el gobierno Británico lo apoyo para crear el proyecto de una máquina de diferencias, un dispositivo mecánico para efectuar sumas repetidas. Mientras tanto Charles Jacquard (francés), fabricante de tejidos, había creado un telar que podía reproducir automáticamente patrones de tejidos leyendo la información codificada en patrones de agujeros perforados en tarjetas de papel rígido. Al enterarse de este método Babbage abandonó la Trayecto Inicial 2011 de la Misión Sucre – Universidad Marítima del Caribe

Materia: Alfabetización y Tecnología - Prof. Mariangel Damas


máquina de diferencias y se dedico al proyecto de la máquina analítica que se pudiera programar con tarjetas perforadas para efectuar cualquier cálculo con una precisión de 20 dígitos. La tecnología de la época no bastaba para hacer realidad sus ideas. El mundo no estaba listo, y no lo estaría por cien años más. En 1944 se construyó en la Universidad de Harvard, la Mark I, diseñada por un equipo encabezado por Howard H. Aiken. Esta máquina no está considerada como computadora electrónica debido a que no era de propósito general y su funcionamiento estaba basado en dispositivos electromecánicos llamados relevadores. En 1947 se construyó en la Universidad de Pennsylvania la ENIAC (Electronic Numerical Integrator And Calculator) que fue la primera computadora electrónica, el equipo de diseño lo encabezaron los ingenieros John Mauchly y John Eckert. Esta máquina ocupaba todo un sótano de la Universidad, tenía más de 18 000 tubos de vacío, consumía 200 KW de energía eléctrica y requería todo un sistema de aire acondicionado, pero tenía la capacidad de realizar cinco mil operaciones aritméticas en un segundo. El proyecto, auspiciado por el departamento de Defensa de los Estados Unidos, culminó dos años después, cuando se integró a ese equipo el ingeniero y matemático húngaro John von Neumann (1903 - 1957). Las ideas de von Neumann resultaron tan fundamentales para su desarrollo posterior, que es considerado el padre de las computadoras. La EDVAC diseñada por este usaba un tipo de circulaban señales

(Electronic Discrete Variable Automatic Computer) fue nuevo equipo. Tenía aproximadamente cuatro mil bulbos y memoria basado en tubos llenos de mercurio por donde eléctricas sujetas a retardos.

La idea fundamental de von Neumann fue: permitir que en la memoria coexistan datos con instrucciones, para que entonces la computadora pueda ser programada en un lenguaje, y no por medio de alambres que eléctricamente interconectaban varias secciones de control, como en la ENIAC. Todo este desarrollo de las computadoras suele divisarse por generaciones y el criterio que se determinó para determinar el cambio de generación no está muy bien definido, pero resulta aparente que deben cumplirse al menos los siguientes requisitos: La forma en que están construidas. Forma en que el ser humano se comunica con ellas. Trayecto Inicial 2011 de la Misión Sucre – Universidad Marítima del Caribe

Materia: Alfabetización y Tecnología - Prof. Mariangel Damas


Trayecto Inicial 2011 de la Misión Sucre – Universidad Marítima del Caribe

Materia: Alfabetización y Tecnología - Prof. Mariangel Damas


Primera Generación

En esta generación había un gran desconocimiento de las capacidades de las computadoras, puesto que se realizó un estudio en esta época que determinó que con veinte computadoras se saturaría el mercado de los Estados Unidos en el campo de procesamiento de datos. Esta generación abarco la década de los cincuenta. Y se conoce como la primera generación. Estas máquinas tenían las siguientes características: Estas máquinas estaban construidas por medio de tubos de vacío. Eran programadas en lenguaje de máquina. En esta generación las máquinas son grandes y costosas (de un costo aproximado de ciento de miles de dólares). En 1951 aparece la UNIVAC (NIVersAl Computer), fue la primera computadora comercial, que disponía de mil palabras de memoria central y podían leer cintas magnéticas, se utilizó para procesar el censo de 1950 en los Estados Unidos. En las dos primeras generaciones, las unidades de entrada utilizaban tarjetas perforadas, retomadas por Herman Hollerith (1860 - 1929), quien además fundó una compañía que con el paso del tiempo se conocería como IBM (International Bussines Machines). Después se desarrolló por IBM la IBM 701 de la cual se entregaron 18 unidades entre 1953 y 1957. Posteriormente, la compañía Remington Rand fabricó el modelo 1103, que competía con la 701 en el campo científico, por lo que la IBM desarrollo la 702, la cual presentó problemas en memoria, debido a esto no duró en el mercado. La computadora más exitosa de la primera generación fue la IBM 650, de la cual se produjeron varios cientos. Esta computadora que usaba un esquema de memoria secundaria llamado tambor magnético, que es el antecesor de los discos actuales. Otros modelos de computadora que se pueden situar en los inicios de la segunda generación son: la UNIVAC 80 y 90, las IBM 704 y 709, Burroughs 220 y UNIVAC 1105. Trayecto Inicial 2011 de la Misión Sucre – Universidad Marítima del Caribe

Materia: Alfabetización y Tecnología - Prof. Mariangel Damas


Las computadoras características:

de

este

periodo

comparten

las

siguientes

 Sus funciones se basaban en el uso de tubos al vació.  Uso de Tarjetas Perforadas.  Su tamaño era grande y complicado su mantenimiento  La programación se hacia en lenguaje maquina (bajo nivel)  El procesador inmediato de calculo pesaba 30 toneladas  Eran tan difíciles de mantener que parecían estar más fuera de servicio que operando  La fiabilidad era escasa.  Consumían mucha energía y generaban mucho calor.  Costaban millones de dólares.

Trayecto Inicial 2011 de la Misión Sucre – Universidad Marítima del Caribe

Materia: Alfabetización y Tecnología - Prof. Mariangel Damas


Segunda Generación

Cerca de la década de 1960, las computadoras seguían evolucionando, se reducía su tamaño y crecía su capacidad de procesamiento. También en esta época se empezó a definir la forma de comunicarse con las computadoras, que recibía el nombre de programación de sistemas. En esta generación las computadoras se reducen de tamaño y son de menor costo. Aparecen muchas compañías y las computadoras eran bastante avanzadas para su época como la serie 5000 de Burroughs y la ATLAS de la Universidad de Manchester. Algunas de estas computadoras se programaban con cintas perforadas y otras más por medio de cableado en un tablero. Los programas eran hechos a la medida por un equipo de expertos: analistas, diseñadores, programadores y operadores que se manejaban como una orquesta para resolver los problemas y cálculos solicitados por la administración. El usuario final de la información no tenía contacto directo con las computadoras. Esta situación en un principio se produjo en las primeras computadoras personales, pues se requería saberlas "programar" (alimentarle instrucciones) para obtener resultados; por lo tanto su uso estaba limitado a aquellos audaces pioneros que gustaran de pasar un buen número de horas escribiendo instrucciones, "corriendo" el programa resultante y verificando y corrigiendo los errores o bugs que aparecieran. Además, para no perder el "programa" resultante había que "guardarlo" (almacenarlo) en una grabadora de astte, pues en esa época no había discos flexibles y mucho menos discos duros para las PC; este procedimiento podía tomar de 10 a 45 minutos, según el programa. El panorama se modificó totalmente con la aparición de las computadoras personales con mejore circuitos, más memoria, unidades de disco flexible y sobre todo con la aparición de programas de aplicación general en donde el usuario compra el programa y se pone a trabajar. Aparecen los programas procesadores de palabras como el célebre Word Star, la impresionante hoja de cálculo (spreadsheet) Visicalc y otros más que de la noche a la mañana cambian la imagen de la PC. El software empieza a tratar de alcanzar el paso del hardware. Pero aquí aparece un nuevo elemento: el usuario. El usuario de las computadoras va cambiando y evolucionando con el tiempo. De estar totalmente desconectado a ellas en las máquinas grandes pasa la PC a ser pieza clave en el diseño tanto del hardware como del software. Aparece el concepto de human interface que es la relación entre el usuario y su computadora. Se habla entonces de hardware ergonómico (adaptado a las dimensiones humanas para reducir el cansancio), diseños de Trayecto Inicial 2011 de la Misión Sucre – Universidad Marítima del Caribe

Materia: Alfabetización y Tecnología - Prof. Mariangel Damas


pantallas antirreflejos y teclados que descansen la muñeca. Con respecto al software se inicia una verdadera carrera para encontrar la manera en que el usuario pase menos tiempo capacitándose y entrenándose y más tiempo produciendo. Se ponen al alcance programas con menús (listas de opciones) que orientan en todo momento al usuario (con el consiguiente aburrimiento de los usuarios expertos); otros programas ofrecen toda una artillería de teclas de control y teclas de funciones (atajos) para efectuar toda suerte de efectos en el trabajo (con la consiguiente desorientación de los usuarios novatos). Se ofrecen un sinnúmero de cursos prometiendo que en pocas semanas hacen de cualquier persona un experto en los programas comerciales. Pero el problema "constante" es que ninguna solución para el uso de los programas es "constante". Cada nuevo programa requiere aprender nuevos controles, nuevos trucos, nuevos menús. Se empieza a sentir que la relación usuario-PC no está acorde con los desarrollos del equipo y de la potencia de los programas. Hace falta una relación amistosa entre el usuario y la PC. Las computadoras de esta generación fueron: la Philco 212 (esta compañía se retiró del mercado en 1964) y la UNIVAC M460, la Control Data Corporation modelo 1604, seguida por la serie 3000, la IBM mejoró la 709 y sacó al mercado la 7090, la National Cash Register empezó a producir máquinas para proceso de datos de tipo comercial, introdujo el modelo NCR 315. La Radio Corporation of America introdujo el modelo 501, que manejaba el lenguaje COBOL, para procesos administrativos y comerciales. Después salió al mercado la RCA 601.  En dicha generación características:

se

experimentan

las

siguientes

 Utilización de las cintas magnéticas y el procesamiento por lotes.  La velocidad de cálculo se incremento en miles de veces.  La programación se hacia en lenguaje simbólico ( alto nivel)  Mayor capacidad de almacenamiento  Eran más confiables y fáciles de mantener  Las computadoras se hicieron más pequeñas (50 veces menor)  El costo era mucho menor que la primera generación

Trayecto Inicial 2011 de la Misión Sucre – Universidad Marítima del Caribe

Materia: Alfabetización y Tecnología - Prof. Mariangel Damas


Tercera generación

Con los progresos de la electrónica y los avances de comunicación con las computadoras en la década de los 1960, surge la tercera generación de las computadoras. Se inaugura con la IBM 360 en abril de 1964. La IBM produce la serie 360 con los modelos 20, 22, 30, 40, 50, 65, 67, 75, 85, 90, 195 que utilizaban técnicas especiales del procesador, unidades de cinta de nueve canales, paquetes de discos magnéticos y otras características que ahora son estándares (no todos los modelos usaban estas técnicas, sino que estaba dividido por aplicaciones). El sistema operativo de la serie 360, se llamó OS que contaba con varias configuraciones, incluía un conjunto de técnicas de manejo de memoria y del procesador que pronto se convirtieron en estándares. En 1964 CDC introdujo la serie 6000 con la computadora 6600 que se consideró durante algunos años como la más rápida. En la década de 1970, la IBM produce la serie 370 (modelos 115, 125, 135, 145, 158, 168). UNIVAC compite son los modelos 1108 y 1110, máquinas en gran escala; mientras que CDC produce su serie 7000 con el modelo 7600. Estas computadoras se caracterizan por ser muy potentes y veloces. A finales de esta década la IBM de su serie 370 produce los modelos 3031, 3033, 4341. Burroughs con su serie 6000 produce los modelos 6500 y 6700 de avanzado diseño, que se reemplazaron por su serie 7000. Honey Well participa con su computadora DPS con varios modelos. A mediados de la década de 1970, aparecen en el mercado las computadoras de tamaño mediano, o minicomputadoras que no son tan costosas como las grandes (llamadas también como mainframes que significa también, gran sistema), pero disponen de gran capacidad de procesamiento. Algunas minicomputadoras fueron las siguientes: la PDP - 8 y la PDP - 11 de Digital Equipment Corporation, la VAX (Virtual Address eXtended) de la misma compañía, los modelos NOVA y ECLIPSE de Data General, la serie 3000 y 9000 de Hewlett - Packard con varios modelos el 36 y el 34, la Wang y Honey - Well -Bull, Siemens de origen alemán, la ICL fabricada en Inglaterra. En la Unión Soviética se utilizó la US (Sistema Unificado, Ryad) que ha pasado por varias generaciones.  Los aspectos más significativos de estas maquinas eran:  Mayor Espacio de Almacenamiento Trayecto Inicial 2011 de la Misión Sucre – Universidad Marítima del Caribe

Materia: Alfabetización y Tecnología - Prof. Mariangel Damas


 El Tamaño Físico de la Computadora se vio reducido  Podían procesar un millón de instrucciones por segundo  Podían ejecutar varios programas simultáneamente  Poseían unidades de almacenamiento auxiliar (Discos)

Trayecto Inicial 2011 de la Misión Sucre – Universidad Marítima del Caribe

Materia: Alfabetización y Tecnología - Prof. Mariangel Damas


Cuarta Generación

Aquí aparecen los microprocesadores que es un gran adelanto de la microelectrónica, son circuitos integrados de alta densidad y con una velocidad impresionante. Las microcomputadoras con base en estos circuitos son extremadamente pequeñas y baratas, por lo que su uso se extiende al mercado industrial. Aquí nacen las computadoras personales que han adquirido proporciones enormes y que han influido en la sociedad en general sobre la llamada "revolución informática". En 1976 Steve Wozniak y Steve Jobs inventan la primera microcomputadora de uso masivo y más tarde forman la compañía conocida como la Apple que fue la segunda compañía más grande del mundo, antecedida tan solo por IBM; y esta por su parte es aún de las cinco compañías más grandes del mundo. En 1981 se vendieron 800 00 computadoras personales, al siguiente subió a 1 400 000. Entre 1984 y 1987 se vendieron alrededor de 60 millones de computadoras personales, por lo que no queda duda que su impacto y penetración han sido enormes. Con el surgimiento de las computadoras personales, el software y los sistemas que con ellas de manejan han tenido un considerable avance, porque han hecho más interactiva la comunicación con el usuario. Surgen otras aplicaciones como los procesadores de palabra, las hojas electrónicas de cálculo, paquetes gráficos, etc. También las industrias del Software de las computadoras personales crece con gran rapidez, Gary Kildall y William Gates se dedicaron durante años a la creación de sistemas operativos y métodos para lograr una utilización sencilla de las microcomputadoras (son los creadores de CP/M y de los productos de Microsoft). No todo son microcomputadoras, por su puesto, las minicomputadoras y los grandes sistemas continúan en desarrollo. De hecho las máquinas pequeñas rebasaban por mucho la capacidad de los grandes sistemas de 10 o 15 años antes, que requerían de instalaciones costosas y especiales, pero sería equivocado suponer que las grandes computadoras han desaparecido; por el contrario, su presencia era ya ineludible en prácticamente todas las esferas de control gubernamental, militar y de la gran industria. Las enormes computadoras de las series CDC, CRAY, Hitachi o IBM por ejemplo, eran capaces de atender a varios cientos de millones de operaciones por segundo. Debido al surgimiento del microprocesador caracteriza por los siguientes aspectos:

esta

generación

se

Trayecto Inicial 2011 de la Misión Sucre – Universidad Marítima del Caribe

Materia: Alfabetización y Tecnología - Prof. Mariangel Damas


 Aparece el ordenador personal (Personal Computer o PC)  Dispositivos de entrada y salida de alta velocidad  El Tamaño es mucho menor y expiden menos calor  Se incrementa la capacidad y fiabilidad  Lenguajes de programación interactivos

Trayecto Inicial 2011 de la Misión Sucre – Universidad Marítima del Caribe

Materia: Alfabetización y Tecnología - Prof. Mariangel Damas


Quinta Generación

En vista de la acelerada marcha de la microelectrónica, la sociedad industrial se ha dado a la tarea de poner también a esa altura el desarrollo del software y los sistemas con que se manejan las computadoras. Surge la competencia internacional por el dominio del mercado de la computación, en la que se perfilan dos líderes que, sin embargo, no han podido alcanzar el nivel que se desea: la capacidad de comunicarse con la computadora en un lenguaje más cotidiano y no a través de códigos o lenguajes de control especializados. Japón lanzó en 1983 el llamado "programa de la quinta generación de computadoras", con los objetivos explícitos de producir máquinas con innovaciones reales en los criterios mencionados. Y en los Estados Unidos ya está en actividad un programa en desarrollo que persigue objetivos semejantes, que pueden resumirse de la siguiente manera: Procesamiento en paralelo mediante arquitecturas y diseños especiales y circuitos de gran velocidad. Manejo de lenguaje natural y sistemas de inteligencia artificial. El futuro previsible de la computación es muy interesante, y se puede esperar que esta ciencia siga siendo objeto de atención prioritaria de gobiernos y de la sociedad en conjunto. Las técnicas utilizadas en estos ordenadores son las siguientes:  El Haz de Electrones  Los Rayos X  Los Rayos Láser  La Fibra Óptica (Telemática)  La Inteligencia Artificial (Robótica)  Uso de Pantallas Liquidas (LCD)

Trayecto Inicial 2011 de la Misión Sucre – Universidad Marítima del Caribe

Materia: Alfabetización y Tecnología - Prof. Mariangel Damas


Dato interesante

Las computadoras digitales actuales se ajustan al modelo propuesto por el matemático John Von Neumann. De acuerdo con el, una característica importante de este modelo es que tanto los datos como los programas, se almacenan en la memoria antes de ser utilizados.

Trayecto Inicial 2011 de la Misión Sucre – Universidad Marítima del Caribe

Materia: Alfabetización y Tecnología - Prof. Mariangel Damas


Conclusión

“El computador” Llamado también el ordenador, recibe y envía la información a través de los periféricos por medio de los canales. La UCP es la encargada de procesar la información que le llega al ordenador. El intercambio de información se tiene que hacer con los periféricos y la UCP. s un sistema complejo que puede llegar a estar constituido por millones de componentes electrónicos elementales. Esto que en le teoría parece tan fácil es bastante mas complicado en la práctica, ya que aparte de los bus de datos y de direcciones existen también casi dos docenas más de líneas de señal en la comunicación entre la CPU y la memoria, a las cuales también se acude. Dentro de la tecnología SCSI hay 2 generaciones y una tercera que está a la vuelta de la esquina. La primera generación permitía un ancho de banda de 8 bits y unos ratios de transferencia de hasta 5 MBps. El mayor problema de esta especificación fue que para que un producto se denominara SCSI solo debía cumplir 4 códigos de operación de los 64 disponibles por lo que proliferaron en el mercado gran cantidad de dispositivos SCSI no compatibles entre sí. El microprocesador lo que hace es procesar ordenes sencilla, para procesar ordenes mayores deberemos construir un programa. Con un micro de 16 bits solo se puede direccionar hasta 64 k de memoria, pero ya sabemos que se debe acceder a más de ellas, esto lo logramos con el esquema de direccionamiento de 20 bits utilizado por el microprocesador Una vez seleccionada y analizada la instrucción deberá accionar los circuitos correspondientes de otras unidades, para que se cumplimente la instrucción, a través del secuenciador o reloj. El chip más importante de cualquier placa madre es el procesador. Las teclas están sobre los puntos de intersección de las líneas conductoras horizontales y verticales. Cuando se pulsa una tecla. Se establece un contacto eléctrico entre la línea conductora vertical y horizontal que pasan por debajo de la misma realizar las operaciones con los datos procesados por el ordenador. Puede realizar las operaciones aritméticas básicas: suma, resta, multiplicación y división, así como, controlada por la UC operaciones como la de desplazamiento. Este desplazamiento se puede realizar hacia la derecha o hacia la izquierda. La UAL utiliza un registro denominado acumulador donde almacena los resultados de las operaciones antes de ser enviados a la memoria. Cuando vamos a acceder a la dirección de memoria especificada en el CP, esta dirección deberá transferirse al RDM, a través del cual accederemos a dicha dirección. Esto se realiza al iniciar cada ciclo de instrucción.

Trayecto Inicial 2011 de la Misión Sucre – Universidad Marítima del Caribe

Materia: Alfabetización y Tecnología - Prof. Mariangel Damas


La memoria está compuesta de chips. Lo único que realizan estos chips es almacenar la información hasta que esta es requerida. El número de chips de que consta la memoria es el que determina la capacidad de la misma.

Trayecto Inicial 2011 de la Misión Sucre – Universidad Marítima del Caribe

Materia: Alfabetización y Tecnología - Prof. Mariangel Damas


El sistema operativo ¿Qué es un sistema operativo (SO)?

Es un conjunto de programas destinados a permitir la comunicación del usuario con un ordenador y gestionar sus recursos de manera eficiente. Comienza a trabajar cuando se enciende el ordenador, y gestiona el hardware de la máquina desde los niveles más básicos. Hoy en día un sistema operativo se puede encontrar normalmente en la mayoría de los aparatos electrónicos complejos que podamos utilizar sin necesidad de estar conectados a un ordenador y que utilicen microprocesadores para funcionar, ya que gracias a estos podemos entender la máquina y que ésta cumpla con sus funciones; éste es el caso de: teléfonos móviles, reproductores de DVD, mini cadenas, auto radios, y muchos más; incluyendo más visiblemente a los ordenadores. Características del SO  Multitarea: ejecuta varias tareas de manera simultánea  Multiusuario: permite a más de un usuario accesar a una computadora  Multiproceso: permite coordinar y ejecutar procesos diferentes

Trayecto Inicial 2011 de la Misión Sucre – Universidad Marítima del Caribe

Materia: Alfabetización y Tecnología - Prof. Mariangel Damas


Tipos de SO

Sistema operativo de disco de Microsoft, es un sistema operativo comercializado por Microsoft perteneciente a la familia DOS. Fue un sistema operativo para el IBM PC que alcanzó gran difusión. MS-DOS Su historia El MS-DOS tiene el origen en el QDOS, sistema operativo escrito por Tim Paterson para la Seattle Computer Products y comercializado bajo la denominación 86-DOS. Se diseñó como un clon a corto plazo del sistema operativo CP/M, para dar compatibilidad con la base instalada existente de programas comerciales como WordStar y dBase. Cuando IBM encargó a Microsoft un sistema operativo para su entonces novedoso IBM PC, Microsoft se vio incapaz de cumplir los plazos y compró el QDOS a sus propietarios, saliendo al mercado en dos versiones: PC-DOS (versión de IBM) y MS-DOS (versión de Microsoft). El MS-DOS fue el producto clave en la transformación de Microsoft desde sus orígenes en los años 70 como proveedor especializado en lenguajes de programación a su actual estado como gigante en la industria informática. Precisamente los ingresos por las ventas de MS-DOS (particularmente mediante contratos exclusivos con marcas, probados como ilegales en Estados Unidos más tarde) hicieron posible un espectacular crecimiento de la compañía. De hecho, hasta la salida de Windows 95, los ingresos por MS-DOS eran superiores a los de Windows. Con el tiempo MS-DOS imitó otros sistemas operativos; MS-DOS 2.0 introdujo características de Unix tales como subdirectorios, redirección de entrada/salida de órdenes y tuberías (en inglés pipe). MS-DOS no es multiusuario o multitarea, pero se hicieron muchos intentos para agregarle estas capacidades en un futuro. Muchos programas utilizaron la técnica terminar y permanecer residente o TSR (Terminate and Stay Resident) y otras funciones normalmente indocumentadas para proporcionar aplicaciones pop up incluyendo el popular Sidekick de Borland. Entornos añadidos como DesqView intentaron proporcionar características multitarea, logrando cierto grado de éxito al combinarse con la administración de memoria del hardware del procesador Intel 80386.

Trayecto Inicial 2011 de la Misión Sucre – Universidad Marítima del Caribe

Materia: Alfabetización y Tecnología - Prof. Mariangel Damas


Tras la aparición del Apple Macintosh en 1984, el público se interesó por la interfaz de usuario gráfica o GUI (Graphical User Interface), aunque el primer entorno gráfico fue el Alto de Xerox en 1973, basado en un sistema operativo propio. Muchos programas crearon sus propias interfaces gráficas, como Microsoft Word para DOS, XTree y el Norton Shell. Sin embargo, esto exigía duplicar esfuerzos y no proporcionaba mucha consistencia, lo que hizo crear entornos GUI completos. Así, IBM y Microsoft se aliaron en un proyecto llamado OS/2, originalmente una versión en modo protegido de MS-DOS con una GUI, pero Microsoft pronto abandonó el proyecto para concentrar sus recursos en Windows. Por su parte, Digital Research creó el entorno GEM sin alcanzar mucha popularidad. Finalmente, tanto el OS/2 como el GEM se abandonaron, al parecer por contratos de exclusividad de Microsoft con vendedores de hardware de ordenadores. En teoría, hasta Windows 95, Windows no era un sistema operativo, sino una shell o capa que se interponía entre el usuario y el MS-DOS para facilitar su utilización. No obstante, hay expertos que alargan esta transformación hasta el Windows NT - Windows XP. Actualmente, MS-DOS ha sido sustituido por la familia de sistemas Windows de Microsoft, sin embargo la consola de comando del sistema permite acceder a un entorno de texto con casi los mismos comandos de MS-DOS. Las primeras versiones de Windows podían ejecutar programas para MSDOS. Las últimas versiones de DOS "extendidas" usaban el modo protegido. Las últimas versiones de Windows se ejecutan independientemente de DOS pero incluyen una parte importante de viejo código que puede ejecutarse en máquinas virtuales (virtual machines). Versiones •

Liberado en 1981 como complemento al IBM-PC. Primera versión de DOS. Soporta 16 Kb de RAM, disquetes de 5,25 pulgadas de una sola cara de 160 Kb. o Corregidos muchos errores, soporta disquetes de doble densidad de 320 Kb. Complemento del IBM XT liberado en 1983. Más del doble de nuevas órdenes, soporte de disco duro (muy pequeño, alrededor de 5 MB). o Complemento del IBM PCjr. Añadidas algunas mejoras. Diseñado para soportar el nuevo hardware del IBM-AT. Añadidas unas pocas características de LAN. o Añadidas más características y soporte LAN. o Añadida capacidad para disquetes de 3,5 pulgadas y 720 Kb. o Añadida capacidad para PS/2 de IBM y los nuevos disquetes de 3,5 pulgadas de alta capacidad (1,44 MB). Capacidad para crear Trayecto Inicial 2011 de la Misión Sucre – Universidad Marítima del Caribe

Materia: Alfabetización y Tecnología - Prof. Mariangel Damas


particiones de disco superiores a 32 MB. Nuevos caracteres internacionales añadidos con soporte para 17 países. Soporte de 4 puertos serie (antes sólo 2). Incorporación de la orden "Files" para poder abrir hasta 255 archivos simultáneamente. • Agregado shell DOS, algunas mejoras y arreglos. • Implementado en 1991, incluyendo más características de administración de memoria y herramientas para soporte de macros, mejora del intérprete de órdenes o shell. • 6.X Soporte para Microsoft Windows, desfragmentación del disco, compresión de archivos, copias de seguridad, anti-virus, Memmaker, etc. Microsoft Windows Microsoft Windows es un sistema operativo gráfico para computadoras personales propiedad de la empresa Microsoft. La primera versión popular, windows 3.1 es una interfaz gráfica que funciona sobre MS-DOS. MS Windows, como también se le conoce, es el sistema operativo más utilizado en el mundo. Su historia Windows 1.0 En 1985 Microsoft publicó la primera versión de Windows (Windows 1.0), una interfaz gráfica de usuario (GUI) para su propio sistema operativo (MSDOS) que había sido incluido en el IBM PC y ordenadores compatibles desde 1981. Es la copia de Apple usando la interfaz gráfica fue creada imitando el MacOS de Apple. Las primera versión de Microsoft Windows premium nunca fue demasiado potente ni tampoco se hizo popular. Estaba severamente limitada debido a los recursos legales de Apple, que no permitía imitaciones de sus interfaces de usuario. Por ejemplo, las ventanas sólo podían disponerse en mosaico sobre la pantalla; esto es, nunca podían solaparse u ocultarse unas a otras. Tampoco había "papelera de reciclaje" debido a que Apple creía que ellos tenían la patente de este paradigma o concepto. Ambas limitaciones fueron eliminadas cuando el recurso de Apple fue rechazado en los tribunales. Por otro lado, los programas incluidos en la primera versión eran aplicaciones "de juguete" con poco atractivo para los usuarios profesionales. Windows 2.0 Apareció en 1987, y fue un poco más popular que la versión inicial. Gran parte de esta popularidad la obtuvo de la inclusión en forma de versión "runtime" de nuevas aplicaciones gráficas de Microsoft, Microsoft Excel y Microsoft Word para Windows. Éstas podían cargarse desde MS-DOS, ejecutando Windows a la vez que el programa, y cerrando Windows al salir de ellas. Trayecto Inicial 2011 de la Misión Sucre – Universidad Marítima del Caribe

Materia: Alfabetización y Tecnología - Prof. Mariangel Damas


Windows 2 todavía usaba el modelo de memoria 8088 y por ello estaba limitado a 1 megabyte de memoria, sin embargo mucha gente consiguió hacerlo funcionar bajo sistemas multitareas como DesqView. Windows 3.0 La primera versión realmente popular de Windows fue la versión 3.0, publicada en 1990. Ésta se benefició de las mejoradas capacidades gráficas para PC de esta época, y también del microprocesador 80386, que permitía mejoras en las capacidades multitarea de las aplicaciones Windows. Esto permitiría ejecutar en modo multitarea viejas aplicaciones basadas en MSDOS. Windows 3 convirtió al IBM PC en un serio competidor para el Apple Macintosh. OS/2 1 Durante la segunda mitad de los 80, Microsoft e IBM habían estado desarrollando conjuntamente OS/2 como sucesor del DOS, para sacar el máximo provecho a las capacidades del procesador Intel 80286. OS/2 utilizaba el direccionamiento hardware de memoria disponible en el Intel 80286 para poder utilizar hasta 16 MB de memoria. La mayoría de los programas de DOS estaban por el contrario limitados a 640 KB de memoria. OS/2 1.x también soportaba memoria virtual y multitarea. Más adelante IBM añadió, en la versión 1.1 de OS/2, un sistema gráfico llamado Presentation Manager (PM). Aunque en muchos aspectos era superior a Windows, su API (Programa de Interfaz de Aplicaciones) era incompatible con la que usaban los programas de este último. (Entre otras cosas, Presentation Manager localizaba el eje de coordenadas X,Y en la parte inferior izquierda de la pantalla como las coordenadas cartesianas, mientras que Windows situaba el punto 0,0 en la esquina superior izquierda de la pantalla como otros sistemas informáticos basados en ventanas). A principio de los 90, crecieron las tensiones en la relación entre IBM y Microsoft. Cooperaban entre sí en el desarrollo de sus sistemas operativos para PC y cada uno tenía acceso al código del otro. Microsoft quería desarrollar Windows aún más, mientras IBM deseaba que el futuro trabajo estuviera basado en OS/2. En un intento de resolver estas diferencias, IBM y Microsoft acordaron que IBM desarrollaría OS/2 2.0 para reemplazar a OS/2 1.3 y Windows 3.0, mientras Microsoft desarrollaría un nuevo sistema operativo, OS/2 3.0, para suceder más adelante al OS/2 2.0. Este acuerdo pronto fue dejado de lado y la relación entre IBM y Microsoft terminó. IBM continuó desarrollando IBM OS/2 2.0 mientras que Trayecto Inicial 2011 de la Misión Sucre – Universidad Marítima del Caribe

Materia: Alfabetización y Tecnología - Prof. Mariangel Damas


Microsoft cambió el nombre de su (todavía no publicado) OS/2 3.0 a Windows NT. (Microsoft promocionó Windows NT con tanto éxito que la mayoría de la gente no se dio cuenta de que se trataba de un OS/2 remozado.) Ambos retuvieron los derechos para usar la tecnología de OS/2 y Windows desarrollada hasta la fecha de terminación del acuerdo. OS/2 2.0 IBM publicó OS/2 versión 2.0 en 1992. Esta versión suponía un gran avance frente a OS/2 1.3. Incorporaba un nuevo sistema de ventanas orientado a objetos llamado Workplace Shell como sustituto del Presentation Manager, un nuevo sistema de ficheros, HPFS, para reemplazar al sistema de ficheros FAT de DOS usado también en Windows y aprovechaba todas las ventajas de las capacidades de 32 bit del procesador Intel 80386. También podía ejecutar programas DOS y Windows, ya que IBM había retenido los derechos para usar el código de DOS y Windows como resultado de la ruptura. OS/2 3.0 y 4.0 IBM continuó vendiendo OS/2, produciendo versiones posteriores como OS/2 3.0 (también llamado Warp) y 4.0 (Merlin). Pero con la llegada de Windows 95 OS/2 comenzó a perder cuota de mercado. Aunque OS/2 seguía corriendo aplicaciones de Windows 3.0 carecía de soporte para las nuevas aplicaciones que requerían Windows 95. Al contrario que con Windows 3.0, IBM no tenía acceso al código fuente de Windows 95; y tampoco tenía el tiempo ni los recursos necesarios para emular el trabajo de los programadores de Microsoft con Windows 95, no obstante, OS/2 3.0 (Warp) apareció en el mercado antes que Windows 95 (que se retrasaba respecto a la fecha inicial de lanzamiento), como mejoras incorporaba una reducción en los requisitos de hardware (pasaba de pedir 8 Mb de RAM de su antedecesor OS/2 2.1 a pedir sólo 4 Mb) y como gran añadido, incorporaba el llamado BonusPack, un conjunto de aplicaciones de oficina, comunicaciones, etc que ahorraban el tener que comprar software adicional como en el caso de Windows. Todo esto unido a una gran campaña publicitaria y a un muy reducido precio (el equivalente a unos 59.40 € frente a los 100 € de Windows) provocaron que mucha gente se animase a probarlo en lugar de esperar la llegada de Windows 95. Lamentablemente, el posterior abandono por parte de IBM hizo que fuese quedando relegado (aunque sigue siendo utilizado -cada vez menos- en sectores bancarios por su alta estabilidad). Windows 3.1 y Windows 3.11 En respuesta a la aparición de OS/2 2.0 , Microsoft desarrolló Windows 3.1, que incluía diversas pequeñas mejoras a Windows 3.0 (como las fuentes Trayecto Inicial 2011 de la Misión Sucre – Universidad Marítima del Caribe

Materia: Alfabetización y Tecnología - Prof. Mariangel Damas


escalables TrueType), pero que consistía principalmente en soporte multimedia. Más tarde Microsoft publicó el Windows 3.11 (denominado Windows para trabajo en grupo), que incluía controladores y protocolos mejorados para las comunicaciones en red y soporte para redes punto a punto.

Trayecto Inicial 2011 de la Misión Sucre – Universidad Marítima del Caribe

Materia: Alfabetización y Tecnología - Prof. Mariangel Damas


Windows NT Mientras tanto Microsoft continuó desarrollando Windows NT. Para ello reclutaron a Dave Cutler, uno de los jefes analistas de VMS en Digital Equipment Corporation (hoy parte de Compaq que en 2005 fue comprada por HP) para convertir NT en un sistema más competitivo. Cutler había estado desarrollando un sucesor del VMS en DEC (Digital Equipment Corporation) llamado Mica, y cuando DEC abandonó el proyecto se llevó sus conocimientos y algunos ingenieros a Microsoft. DEC también creyó que se llevaba el código de Mica a Microsoft y entabló una demanda. Microsoft finalmente pagó 150 millones de dólares y acordó dar soporte al microprocesador Alpha de DEC en NT. Siendo un sistema operativo completamente nuevo, Windows NT sufrió problemas de compatibilidad con el hardware y el software existentes. También necesitaba gran cantidad de recursos y éstos estaban solamente disponibles en equipos grandes y caros. Debido a esto muchos usuarios no pudieron pasarse a Windows NT. La interfaz gráfica de NT todavía estaba basada en la de Windows 3.1 que era inferior a la Workplace Shell de OS/2 Windows NT 3.1 Windows NT 3.1 (la estrategia de marketing de Microsoft era que Windows NT pareciera una continuación de Windows 3.1) apareció en su versión beta para desarrolladores en la Conferencia de Desarrolladores Profesionales de Julio de 1992 en San Francisco. Microsoft anunció en la conferencia su intención de desarrollar un sucesor para Windows NT y Chicago (que aún no había sido lanzada). Este sucesor habría de unificar ambos sistemas en uno sólo y su nombre clave era Cairo. (Visto en retrospectiva Cairo fue un proyecto más difícil de lo que Microsoft había previsto y como resultado NT y Chicago no sería unificados hasta la aparición de Windows XP). Las versiones antiguas de Windows NT se distribuían en disquettes y requerían unos elevados recursos de hardware (además de soportar relativamente poco hardware) por lo que no se difundieron demasiado hasta llegar a Windows NT 4.0 y sobre todo a Windows 2000. Por primera vez daba soporte para el sistema de ficheros NTFS. Windows NT 3.5/3.51 Las novedades que presentaba Windows NT 3.5 fueron la diferenciación entre versiones Workstations y Server, soporte para OpenGL y ficheros de hasta 255 caracteres. Poco después apareció Windows NT 3.51 que tenía como mejoras más notables, la capacidad para funcionar en procesadores Pentium o superiores (Windows NT 3.5, al igual que NT 3.1 cancelaban la instalación al Trayecto Inicial 2011 de la Misión Sucre – Universidad Marítima del Caribe

Materia: Alfabetización y Tecnología - Prof. Mariangel Damas


detectar un proceador superior al Pentium) y una libreria de controladores más extensa. Otras características fueron el soporte para BackOffice y el arranque y la instalación remota de Windows 95 en los clientes. Cabe destacar que el interfaz gráfico de Windows NT 3.5 y Windows 3.51 era el mismo que el de sus predecesores, Windows NT 3.1 y Windows 3.1, con el Administrador de Programas. Por otra parte, Microsoft distribuyó un añadido llamado NewShell, cuyo nombre completo es "Shell Technology Preview Update", que no era otra cosa más que una versión Beta del nuevo interfaz gráfico de Windows 95 y NT 4.0, con el botón y menú inicio, pero para Windows NT 3.5x. Su función principal era que los usuarios de Windows evaluaran el nuevo interfaz gráfico, que iba a ser presentado en Windows 95 y NT 4.0, pero como "daño colateral" le daba a Windows NT 3.5x el nuevo interfaz gráfico. Windows NT 4.0 Windows NT 4.0 presentaba varios componentes tecnológicos de vanguardia y soporte para diferentes plataformas como MIPS, ALPHA, Intel, etc. Las diferentes versiones como Workstation, Server, Terminal server, Advancer server, permitían poder adaptarlo a varias necesidades. El uso de componentes como tarjetas de sonido, modems, etc, tenían que ser diseñados específicamente para este sistema operativo. Windows 95 Microsoft adoptó "Windows 95" como nombre de producto para Chicago cuando fue publicado en Agosto de 1995. Chicago iba encaminado a incorporar una nueva interfaz gráfica que compitiera con la de OS/2. Aunque compartía mucho código con Windows 3.x e incluso con MS-DOS, también se pretendía introducir arquitectura de 32 bits y dar soporte a multitarea preventiva, como OS/2 o el mismo Windows NT. Sin embargo sólo una parte de Chicago comenzó a utilizar arquitectura de 32 bits, la mayor parte siguió usando una arquitectura de 16 bits, Microsoft argumentaba que una conversión completa retrasaría demasiado la publicación de Chicago y sería demasiado costosa. Microsoft desarrolló una nueva API para remplazar la API de Windows de 16 bits. Esta API fue denominada Win32, desde entonces Microsoft denominó a la antigua API de 16 bits como Win16. Esta API fue desarrollada en tres versiones: una para Windows NT, una para Chicago y otra llamada Win32s, que era un subconjunto de Win32 que podía ser utilizado en sistemas con Windows 3.1. de este modo Microsoft intentó asegurar algún grado de compatibilidad entre Chicago y Windows NT, aunque los dos sistemas tenían arquitecturas radicalmente diferentes Trayecto Inicial 2011 de la Misión Sucre – Universidad Marítima del Caribe

Materia: Alfabetización y Tecnología - Prof. Mariangel Damas


Windows 95 tenía dos grandes ventajas para el consumidor medio. Primero, aunque su interfaz todavía corría sobre MS-DOS, tenía una instalación integrada que le hacía aparecer como un solo sistema operativo (ya no se necesitaba comprar MS-DOS e instalar Windows encima). Segundo, introducía un subsistema en modo protegido que estaba especialmente escrito a procesadores 80386 o superiores, lo cual impediría que las nuevas aplicaciones Win32 dañaran el área de memoria de otras aplicaciones Win32. En este respecto Windows 95 se acercaba más a Windows NT, pero a la vez, dado que compartía código de Windows 3.x, las aplicaciones podían seguir bloqueando completamente el sistema en caso de que invadiesen el área de aplicaciones de Win16. Tenía también como novedad el incluir soporte para la tecnología Plug&Play. Windows 95 se convirtió en el primer gran éxito de los de Redmond a nivel mundial. La evolución de Internet y la potencia de los equipos, cada vez más capaces, dio lugar a un binomio en el que Intel y Microsoft dominaban el panorama mundial con solvencia. Los fabricantes comenzaban a volcarse en este sistema a la hora de sacar sus controladores de dispositivos y, aunque con algunos problemas por incompatibilidades inevitables, el éxito de la plataforma fue absoluto. Windows 98 El 25 de Junio de 1998 llegó Windows 98. Incluía nuevos controladores de hardware y el sistema de ficheros FAT32 (también soportado por Windows 95 OSR 2 y OSR 2.5) que soportaba particiones mayores a los 2 GB permitidos por Windows 95. Dio soporte también a las nuevas tecnologías como DVD, FireWire, USB o AGP. Era novedosa también la integración del explorador de Internet en todos los ámbitos del sistema. Pero la principal diferencia de Windows 98 sobre Windows 95 era que su núcleo había sido modificado para permitir el uso de controladores de Windows NT en Windows 9x y viceversa. Esto se consiguió con la migración de parte del núcleo de Windows NT a Windows 98 aunque éste siguiera manteniendo su arquitectura MS-DOS/Windows GUI. Esto permitió la reducción de costes de producción, dado que Windows NT y Windows 98 ahora podían utilizar casi idénticos controladores. Windows 98 Second Edition En 1999 Microsoft sacó al mercado Windows 98 Second Edition, cuya característica más notable era la capacidad de compartir entre varios equipos una conexión a Internet a través de una sola línea telefónica. También eliminaba gran parte de los errores producidos por Internet Explorer en el Trayecto Inicial 2011 de la Misión Sucre – Universidad Marítima del Caribe

Materia: Alfabetización y Tecnología - Prof. Mariangel Damas


sistema. Esta versión es la más estable de todas las de esta serie, y aún se sigue utilizando en 2006 en muchos equipos. Windows Millenium Edition En 2000 Microsoft introdujo Windows ME que era una copia de Windows 98 con más aplicaciones añadidas. Windows ME fue un proyecto rápido de un año para rellenar el hueco entre Windows 98 y el nuevo Windows XP, y eso se notó mucho en la poca estabilidad de esta versión. En teoría Windows 2000 iba a ser la unificación entre las dos familias de Windows, la empresarial y la de hogar, pero por retrasos, se lanzó este pequeño avance. En esta versión se aceleraba el inicio del sistema y oficialmente ya no se podía distinguir entre el MS-DOS y el entorno gráfico (aunque aparecieron parches que permitían volver a separarlo como se hacía en versiones anteriores). Esta versión no traía unidad de proceso de 16 bits, centrándose únicamente en la compatibilidad con nuevo hardware de 32 bits. Como consecuencia, sólo funcionaba correctamente con los equipos nuevos que lo traían instalado, ya que si se instalaba sobre un equipo antiguo (mediante una actualización de software) el hardware de 16 bits era más complejo de configurar, o bien no funcionaba en absoluto. Cabe destacar que este Sistema Operativo fue muy popular por sus continuos errores (bugs). Windows 2000 En este mismo año vio Windows NT muy útil para los cantidad de servicios de red Plug&Play que venían siendo un

la luz Windows 2000, una nueva versión de administradores de sistemas y con una gran y lo más importante: admitía dispositivos problema con Windows NT.

La familia de Windows 2000 estaba formada por varias versiones del sistema: una para las estaciones de trabajo (Windows 2000 Professional) y varias para servidores (Windows 2000 server, advanced server, datacenter server). Windows 2000 incorporaba importantes innovaciones tecnológicas para entornos Microsoft, tanto en nuevos servicios como en la mejora de los existentes. Algunas de las características que posee son: Almacenamiento: • • •

Soporte para FAT16, FAT32 y NTFS. Encriptación de ficheros (EFS). Servicio de indexación. Trayecto Inicial 2011 de la Misión Sucre – Universidad Marítima del Caribe

Materia: Alfabetización y Tecnología - Prof. Mariangel Damas


Sistema de archivos distribuido (DFS). Nuevo sistema de backup (ASR). Sistema de tolerancia a fallos (RAID) con discos dinámicos (software). Comunicaciones: • • •

• • • • • •

Servicios de acceso remoto (RAS, VPN, RADIUS y Enrutamiento). Nueva versión de IIS con soporte para HTTP/1.1. Directorio Activo. Balanceo de carga (clustering) Servicios de instalación desatendida por red (RIS). Servicios nativos de Terminal Server. Estos avances marcan un antes y un después en la historia de Microsoft.

Windows XP La unión de Windows NT/2000 y la familia de Windows 9.x se alcanzó con Windows XP liberado en 2001 en su versión Home y Professional. Windows XP usa el núcleo de Windows NT. Incorpora una nueva interfaz y hace alarde de mayores capacidades multimedia. Además dispone de otras novedades como la multitarea mejorada, soporte para redes inalámbricas y asistencia remota. Se puede agregar inmediatamente de haber lanzado el último Service Pack (SP2) Microsoft diseño un sistema orientado a Empresas y Corporaciones llamado Microsoft Windows XP Corporate Edition, algo similar al Windows XP Profesional, solo que diseñado especialmente a Empresas. En el apartado multimedia, XP da un avance con la versión Media Center. Esta versión ofrece una interfaz de acceso fácil a todo lo relacionado con multimedia (TV, fotos, reproductor DVD, Internet...) Windows Server 2003 Sucesor de la familia de servidores de Microsoft a Windows 2000 Server. Es la versión de Windows para servidores lanzada por Microsoft en el año 2003. Está basada en el núcleo de Windows XP, al que se le han añadido una serie de servicios, y se le han bloqueado algunas de sus características (para mejorar el rendimiento, o simplemente porque no serán usadas). Windows Vista Futura versión de Windows que sucederá a Windows XP y saldrá en noviembre de 2006 para negocios y al público en enero de 2007. Las diferentes versiones que se podrán adquirir són tres para el consumidor, Vista Home Basic, Vista Home Premium y Ultimate Edition y dos versiones para las empresas, Vista Business y Vista Enterprise, más Vista Starter, para los mercados emergentes. Los Requisitos minimos para que la Nueva Versión de Windows Funcione en un equipo son los siguientes: Trayecto Inicial 2011 de la Misión Sucre – Universidad Marítima del Caribe

Materia: Alfabetización y Tecnología - Prof. Mariangel Damas


Procesador de 32 Bits de por lo menos 800Mhz 512 MB de RAM (para trabajar a una velocidad aceptable), se recomienda 1GB • Tarjeta Gráfica compatible con DirectX 9 con por lo menos 32MB de memoria • Disco duro de 20GB con 15GB disponibles • DVD-ROM Cabe destacar que durante su desarrollo fue conocido como Windows Longhorn. Las Ediciones de Windows Vista serán las siguientes: • •

Windows Vista Starter Destinada a sustituir a Windows XP Starter Edition. Estará dirigido a mercados emergentes, y estará muy limitado. • Windows Vista Home Basic Parecido al Windows XP Home Edition. No incluirá "Aero Glass" con efectos translúcidos. Soportará 8 GB de RAM. • Windows Vista Home Premium Más similar al Windows XP Media Center Edition. Por ejemplo soportará HDTV y hasta 16 GB de memoria RAM. • Windows Vista Business Equivalente al Windows XP Profesional. No incluye características del Media Edition, pero a cambio ofrece herramientas más orientadas hacia los negocios, como pueden ser soporte de Fax, servidor web IIS, hasta 128 GB. No requerirá activación del producto. • Windows Vista Enterprise Basado en la anterior versión (Windows Vista Business). Tiene todo lo del anterior, más Virtual PC, interfaz multiidioma, y podrá soportar aplicaciones UNIX. No se venderá a través de los medios tradicionales de venta. • Windows Vista Ultimate Combina las características del Home Premium junto con las del Enterprise. Como las versiones para el mercado profesional, no requerirá de activación del producto. • Además de estas versiones, estarán disponibles para el mercado Europeo las ediciones "Home Basic N" y "Business N", idénticas a las anteriores, salvo por no contar con el Windows Media Player. • Las versiones Home, Home Premium y Ultimate se venderán en el mismo DVD, y se podrá pasar a una versión superior simplemente pagando una actualización de la licencia a través del Windows Anytime Upgrade. • Tambien cabe destacar que Windows vista traera una nueva interfaz grafica llamada Aero que es una evolucion de la interfaz grafica denominada de windows xp. Versiones para Tablet PC's •

Windows XP Tablet PC Edition Versiones para pequeños dispositivos •

Windows CE Windows Mobile Sistemas de archivos • •

Trayecto Inicial 2011 de la Misión Sucre – Universidad Marítima del Caribe

Materia: Alfabetización y Tecnología - Prof. Mariangel Damas


El sistema de archivos utilizado por estos sistemas operativos comenzó siendo FAT16 o FAT "a secas". La primera versión de Windows en incorporar soporte nativo para FAT32 fue Windows 95 OSR2. Por otro lado, los Sistemas Operativos basados en NT emplean los sistemas de archivos NTFS desde el origen y a partir de Windows 2000 se otorgó también soporte para FAT32. Seguridad En todas sus versiones de Windows, Microsoft ha dejado muy por debajo la seguridad de éstos y sus demás programas ya que se preocupa solo a la futura generación sin tomar en cuenta la actual y pasadas, desde Windows XP esto está cambiando.

Trayecto Inicial 2011 de la Misión Sucre – Universidad Marítima del Caribe

Materia: Alfabetización y Tecnología - Prof. Mariangel Damas


Curiosidades Desde la salida de Windows 95, Windows ha sido el Sistema Operativo más popular y usado entre usuarios, superando numéricamente a Apple y a otros fabricantes; también se le llama el SO "básico" ya que debido a su popularidad, la mayoría de software son realizados para plataformas de Windows. Ahora se dice que el mayor competidor de Windows es Linux ya que este ultimo ha ofrecido a la gran mayoría de empresas la estabilidad que nunca ofreció Windows, aparte, Linux no cierra sus recursos ni acapara el ámbito de soporte como Windows, por el cual han estado en polémica con Windows.

Trayecto Inicial 2011 de la Misión Sucre – Universidad Marítima del Caribe

Materia: Alfabetización y Tecnología - Prof. Mariangel Damas


Unix Es un sistema operativo portable, multitarea y multiusuario; desarrollado en principio por un grupo de empleados de los laboratorios Bell de AT&T, entre los que figuran Ken Thompson, Dennis Ritchie y Douglas McIlroy. sistema operativo de tiempo compartido, controla los recursos de una computadora y los asigna entre los usuarios. Permite a los usuarios correr sus programas. Controla los dispositivos de periféricos conectados a la máquina. Las familias UNIX más significativas son: AT&T: la familia que tuvo su origen en el UNIX de AT&T. Considerada la familia UNIX "pura" y original. Sus sistemas operativos más significativos son UNIX System III y UNIX System V. • BSD: familia originada por el licenciamiento de UNIX a Berkely. BSD incorpora propiedad intelectual no originaria de AT&T, la primera implementación de los protocolos TCP/IP que dieron origen a Internet. • AIX: esta familia surge por el licenciamiento de UNIX System III a IBM. • Xenix: familia derivada de la adquisición de los derechos originales de AT&T por parte de SCO. • GNU/Linux: En 1983, Richard Stallman anunció el Proyecto GNU, un ambicioso esfuerzo para crear un sistema similar a Unix, que pudiese ser distribuido libremente. El software desarrollado por este proyecto -por ejemplo, GNU Emacs y GCC - también han sido parte fundamental de otros sistemas UNIX. En 1991, cuando Linus Torvalds empezó a proponer el kernel Linux y a reunir colaboradores, las herramientas GNU eran la elección perfecta. Al combinarse ambos elementos, conformaron la base del sistema operativo (basado en POSIX) que hoy conocemos como GNU/Linux o simplemente Linux. Las distribuciones basadas en el kernel, el software GNU y otros agregados entre las que podemos mencionar a Red Hat Linux y Debian GNU/Linux se han hecho populares tanto entre los aficionados a la computación como en el mundo empresarial. Obsérvese que Linux tiene un origen independiente, por lo que se considera un 'clónico' de UNIX y no un UNIX en el sentido histórico. Ventajas • Unix es sin lugar a dudas el Sistema Operativo más importante y serio desde que en los años 70 los Sistemas Operativos se empezaron a estandarizar. Inicialmente UNIX fue desarrollado en C (de hecho C se inventó para desarrollar UNIX) y pertenecía a una empresa: la empresa AT&T Bell; tras una serie de malentendidos respecto a la propiedad de este sistema aparecen variantes en forma de Minix, FreeBSD (Berkeley San Diego), Linux, todas de tipo software libre, abierto, gratuito y en continuo desarrollo por programadores no pertecientes a ninguna empresa. Todos los tipos de UNIX comparten muchas ideas y en su conjunto se diferencian mucho de otros sistemas operativos menos robustos o sin la sencillez arquitectónica de UNIX. •

Trayecto Inicial 2011 de la Misión Sucre – Universidad Marítima del Caribe

Materia: Alfabetización y Tecnología - Prof. Mariangel Damas


UNIX es un sistema operativo multitarea (el propio kernel del sistema se encarga de repartir el tiempo de uso de procesador de cada aplicación que esté funcionando), y es multiusuario: para usar cualquier cosa en UNIX uno ha de estar identificado con un nombre de usuario/palabra de paso (login/password) que lo identifica de cara al sistema y le permite (con una permanente atención a privilegios de acceso a ficheros, memoria, puertos de comunicaciones, etc.) usar todo o parte de los recursos del sistema, protegiendo así al sistema ante ataques o uso inexperto del mismo. • UNIX presta (desde sus primeras versiones en los años 70) una especial atención a las comunicaciones, uso remoto de los equipos y compartición de recursos. Esto lo ha mantenido en cabeza siempre conforme estos aspectos de la informática se han popularizado. • UNIX es un sistema abierto: no sólo es posible acceder a las diferentes versiones desarrolladas para cada máquina conforme han ido creándose éstas, sino también a los programas originales (en C, porsupuesto) que son el código fuente de UNIX. Por otro lado, siendo un sistema operativo moderno y sencillo es la base del estudio del puntode partida del cómo funcionan (a nivel pedagógico) los sistemas operativos en general; típicamente el libro de texto de la mayoría de universidades de todo el mundo para la introducción al estudio de sistemas operativos es "Minix" una forma simplificada, pero operativa y compilable, de UNIX. • UNIX es un sistema especialmente robusto. Particularmente son elogiadas en este aspecto las versiones de UNIX con un microkernel más pequeños como son las implantadas en el UNIX Mach del ya abandonado sistema Next o el constantemente en desarrollo UNIX FreeBSD. La ventaja de este tipo de UNIX es que la parte protegida del sistema es menor y está menos acoplada con partes no esenciales del sistema. Esta ha sido siempre la filosofía de protección de este sistema. Y así es realmente. Cuando una aplicación se bloquea por algún tipo de error de funcionamiento, el resto del sistema permanece en correcto funcionamiento sin verse afectado, siendo fácil, en general, el volver al punto en el que se estaba trabajando. Desventajas •

• • • •

• • •

Carencia de soporte técnico. No ofrece mucha seguridad. Problemas de hardware, no soporta todas las plataformas, y no es compatible con algunas marcas específicas. No existe un control de calidad al momento de elaborar software para Linux, pues muchas veces las aplicaciones se hacen y se liberan sin control alguno. Es poco probable que aplicaciones para DOS y OS/2, se ejecuten correctamente bajo Linux. No hay forma segura de instalarlo sin reparticionar el disco duro. El reparticionar el disco duro, implica borrar toda la información del mismo y después restablecerla. Trayecto Inicial 2011 de la Misión Sucre – Universidad Marítima del Caribe

Materia: Alfabetización y Tecnología - Prof. Mariangel Damas


Se requiere experiencia y conocimiento del sistema para administrarlo, pues como es un sistema por línea de comandos, estos poseen muchas opciones y en ocasiones es difícil realizar algunas tareas, que en otros sistemas operativos de red son triviales.

Linux Linux es la denominación de un sistema operativo y el nombre de un núcleo. Es uno de los paradigmas del desarrollo de software libre (y de código abierto), donde el código fuente está disponible públicamente y cualquier persona, con los conocimientos informáticos adecuados, puede libremente estudiarlo, usarlo, modificarlo y redistribuirlo. Características • • •

• • •

• •

• •

Multitarea: La palabra multitarea describe la habilidad de ejecutar varios programas al mismo tiempo. Multiusuario: Muchos usuarios usando la misma maquinan al mismo tiempo. Multiplataforma: Las plataformas en las que en un principio se puede utilizar linux son 386-, 486-. Pentium, Pentium Pro, Pentium II, Amiga y Atari, también existen versiones para su utilización en otras plataformas, como Alpha, ARM, MIPS, PowerPC y SPARC. Cargas ejecutables por demanda: Linux solo lee del disco aquellas partes de un programa que están siendo usadas actualmente. Emulación de iBCS2, casi completamente compatible con SCO, SVR3 y SVR4 a nivel binario. Todo el código fuente está disponible, incluyendo el núcleo completo y todos los drivers, las herramientas de desarrollo y todos los programas de usuario; además todo ello se puede distribuir libremente. Hay algunos programas comerciales que están siendo ofrecidos para linux actualmente sin código fuente, pero todo lo que ha sido gratuito sigue siendo gratuito. Control de tareas POSIX. Emulación de 387 en el núcleo, de tal forma que los programas no tengan que hacer su propia emulación matemática. Cualquier máquina que ejecute linux parecerá dotada de coprocesador matemático. Por supuesto, si el ordenador ya tiene una FPU (unidad de coma flotante), esta será usada en lugar de la emulación, pudiendo incluso compilar tu propio kernel sin la emulación matemática y conseguir un pequeño ahorro de memoria. Soporte para muchos teclados nacionales o adaptados y es bastante fácil añadir nuevos dinámicamente. Consolas virtuales múltiples: varias sesiones de login a través de la consola entre las que se puede cambiar con las combinaciones adecuadas de teclas (totalmente independiente del hardware de video). Se crean dinámicamente y puedes tener hasta 64. Soporte para varios sistemas de archivo comunes, incluyendo minix-1, Xenix y todos los sistemas de archivo típicos de System V, y tiene un Trayecto Inicial 2011 de la Misión Sucre – Universidad Marítima del Caribe

Materia: Alfabetización y Tecnología - Prof. Mariangel Damas


• •

• •

• • •

avanzado sistema de archivos propio con una capacidad de hasta 4 Tb y nombres de archivos de hasta 255 caracteres de longitud. Acceso transparente a particiones MS-DOS (o a particiones OS/2 FAT) mediante un sistema de archivos especial: no es necesario ningún comando especial para usar la partición MS-DOS, esta parece un sistema de archivos normal de Unix (excepto por algunas restricciones en los nombres de archivo, permisos, y esas cosas). Las particiones comprimidas de MS-DOS 6 no son accesibles en este momento, y no se espera que lo sean en el futuro. El soporte para VFAT (WNT, Windows 95) ha sido añadido al núcleo de desarrollo y estará en la próxima versión estable. Un sistema de archivos especial llamado UMSDOS que permite que linux sea instalado en un sistema de archivos DOS. Política de copia en escritura para la comparición de páginas entre ejecutables: esto significa que varios procesos pueden usar la misma zona de memoria para ejecutarse. Cuando alguno intenta escribir en esa memoria, la página (4Kb de memoria) se copia a otro lugar. Esta política de copia en escritura tiene dos beneficios: aumenta la velocidad y reduce el uso de memoria. Memoria virtual usando paginación (sin intercambio de procesos completos) a disco: A una partición o un archivo en el sistema de archivos, o ambos, con la posibilidad de añadir más áreas de intercambio sobre la marcha Un total de 16 zonas de intercambio de 128Mb de tamaño máximo pueden ser usadas en un momento dado con un límite teórico de 2Gb para intercambio. Este limite se puede aumentar facilmente con el cambio de unas cuantas lineas en el codigo fuente. La memoria se gestiona como un recurso unificado para los programas de usuario y para el caché de disco, de tal forma que toda la memoria libre puede ser usada para caché y ésta puede a su vez ser reducida cuando se ejecuten grandes programas. Librerías compartidas de carga dinámica (DLL's) y librerías estáticas. Se realizan volcados de estado (core dumps) para posibilitar los análisis post-mortem, permitiendo el uso de depuradores sobre los programas no sólo en ejecución sino también tras abortar éstos por cualquier motivo. Compatible con POSIX, System V y BSD a nivel fuente. Soporte en sólo lectura de HPFS-2 del OS/2 2.1 Sistema de archivos de CD-ROM que lee todos los formatos estándar de CD-ROM.

Trayecto Inicial 2011 de la Misión Sucre – Universidad Marítima del Caribe

Materia: Alfabetización y Tecnología - Prof. Mariangel Damas


Ventajas •

• •

Linux es totalmente confiable: Probablemente una de las características de los sistemas operativos, a la que mayor importancia le dan los administradores de sistemas es la confiabilidad. Linux tiene tras de sí 30 años de desarrollo en Unix, el cual tiene la reputación de ser el más confiable de todos, y no es una reputación gratuita, muchos servidores han estado en operación durante años sin tener que ser arrancados de nuevo por alguna falla. Esto significa que con Linux usted le dirá adiós a los errores graves y a las pantallas azules. A la compañía de las ventanas le falta mucho camino por recorrer para lograr la estabilidad y confiabilidad de Unix. Linux es altamente seguro: Dado el avance tecnológico en las telecomunicaciones, hoy día los sistemas de cómputo trabajan en un ambiente de intercomunicación global, por lo tanto la seguridad en los sistemas operativos es un aspecto de máxima importancia. A este respecto, podemos afirmar categóricamente que Unix es el sistema operativo más seguro que existe. Generalmente se cree que en Unix la administración de la seguridad es un rol de todo o nada, sin embargo sobran ejemplos que demuestran que la seguridad en Unix puede se configurada de acuerdo a necesidades particulares. Esta capacidad se debe a que la seguridad en Unix viene implementada desde el kernel, de modo que es posible configurarla a nivel de sistema de archivos, de servicios de red, de facilidades en el host y de capacidades de usuario. Linux posee las más poderosa funcionalidad: Entre las características mínimas que debe poseer un sistema operativo podemos mencionar: la capacidad para trabajar en un ambiente de red, comunicarse con diversos tipos de equipos, proporcionar servicios seguridad y autenticación para mantener segura la información, etc. Unix y NT pueden efectuar estas tareas, de hecho Unix puede hacer todo lo que NT puede y más. Linux es fácil de administrar: El argumento de que Windows XXXX es más fácil de administrar debido a su interfaz gráfica es infundado. En el mundo Unix existen, desde hace algún tiempo, entornos gráficos muy poderosos que proporcionan una interfaz gráfica de alto nivel. Para muchos resulta agradablemente sorprendente el hecho de que los parámetros de configuración de Unix se almacenan en archivos de texto. Linux tiene el mejor desempeño: Tal vez uno de los aspectos más polémicos de los sistemas operativos es el del desempeño. A este respecto es muy importante resaltar el hecho de que el hardware es responsable en gran medida, del desempeño del sistema. De modo que sería ridículo comparar los servidores de IBM o Sun con los equipos de Compaq o Dell. El meollo del asunto radica en la capacidad del sistema operativo para correr sobre plataformas de hardware poderosas y escalables. Tradicionalmente Unix ha sido el campeón en esta arena, es por eso que las empresas con grandes necesidades de procesamiento ejecutan sus sistemas en alguna versión de este. Ahora Linux ha aparecido en la escena y ha venido a complementar el mercado de Unix. Trayecto Inicial 2011 de la Misión Sucre – Universidad Marítima del Caribe

Materia: Alfabetización y Tecnología - Prof. Mariangel Damas


Como ya se mencionó Linux corre en diversas plataformas de hardware -Intel, Alpha, SPARC, MIPS, PowerPC-, contrariamente a lo que Microsfot ha hecho al reducir el número de plataformas en las que NT funciona. • Linux se puede adquirir al más bajo costo: Tal vez este sea el factor más determinante en la adopción de Linux como plataforma de trabajo, por que (seamos sinceros), si Linux fuera igual de inestable, inseguro, disfuncional y con la misma fea interfaz del otro sistema operativo que usted conoce, solo por se de libre distribución podría usarlo ¿no es cierto? Así es que, si somos realistas Linux vale por lo menos lo mismo que cualquiera de los otros sistemas operativos comerciales. Desventajas • • •

• • •

• • • • •

Linux no cuenta con una empresa que lo respalde, por lo que no existe un verdadero soporte como el de otros sistemas operativo La pendiente de aprendizaje es lenta. No es tan fácil de usar como otros sistemas operativos, aunque actualmente algunas distribuciones están mejorando su facilidad de uso, gracias al entorno de ventanas, sus escritorios y las aplicaciones diseñadas específicamente para él, cada día resulta más sencillo su integración y uso. Documentación y terminología muy técnica. Para usuarios corrientes, todavía no es un sistema de escritorio. Funciona únicamente con proveedores de hardware que accedieron a la licencia GPL y en algunas instancias no es compatible con variedad de modelos y marcas. Requiere consulta, lectura e investigación en lista, foros o en bibliografía dedicada al tema. La configuración de dispositivos de entrada y salida no es trivial. Muy sensible al hardware. Muchas distribuciones e idiomas. Hay que leer y entender código

Trayecto Inicial 2011 de la Misión Sucre – Universidad Marítima del Caribe

Materia: Alfabetización y Tecnología - Prof. Mariangel Damas


¿Que es software libre?

Software libre (en inglés free software) Es el software que, una vez obtenido, puede ser usado, copiado, estudiado, modificado y redistribuido libremente. El software libre suele estar disponible gratuitamente en Internet, o a precio del coste de la distribución a través de otros medios; sin embargo no es obligatorio que sea así y, aunque conserve su carácter de libre, puede ser vendido comercialmente. Análogamente, el software gratis o gratuito (denominado usualmente freeware) incluye en algunas ocasiones el código fuente; sin embargo, este tipo de software no es libre en el mismo sentido que el software libre, al menos que se garanticen los derechos de modificación y redistribución de dichas versiones modificadas del programa. No debe confundirse software libre con software de dominio público. Éste último es aquél por el que no es necesario solicitar ninguna licencia y cuyos derechos de explotación son para toda la humanidad, porque pertenece a todos por igual. Cualquiera puede hacer uso de él, siempre con fines legales y consignando su autoría original. Este software sería aquél cuyo autor lo dona a la humanidad o cuyos derechos de autor han expirado. Si un autor condiciona su uso bajo una licencia, por muy débil que sea, ya no es dominio público. En resumen, el software de dominio público es la pura definición de la libertad de usufructo de una propiedad intelectual que tiene la humanidad porque así lo ha decidido su autor o la ley tras un plazo contado desde la muerte de éste, habitualmente 70 años. El Software Libre es un tipo particular de software que le permite al usuario el ejercicio de cuatro libertades básicas: Ejecutarlo con cualquier propósito Estudiar como funciona y adaptarlo a sus necesidades Distribuir copias Mejorarlo, y liberar esas mejoras al público Cualquiera que redistribuya el software, con o sin cambios, debe dar las mismas libertades que antes), y con el requisito de permitir el acceso al código fuente (imprescindible para ejercer las libertades 1 y 3) • • • •

Trayecto Inicial 2011 de la Misión Sucre – Universidad Marítima del Caribe

Materia: Alfabetización y Tecnología - Prof. Mariangel Damas


Importancia

La importancia del SO LINUX radica en que éste es parte importante de la corriente de la informática que se conoce como FREEWARE, que es cuando las licencias de software son gratis, siempre y cuando se adquiera el compromiso de que si uno logra mejorarla en algún aspecto este software, se compartirán estos cambios para obtener el beneficio común. Ventajas del Software Libre Escrutinio Publico: Al ser muchos las personas que tienen acceso al código fuente, eso lleva a un proceso de corrección de errores muy dinámico, no hace falta esperar que el proveedor del software saque una nueva versión. • Independencia del proveedor: Al disponer del código fuente, cualquier persona puede continuar ofreciendo soporte, desarrollo u otro tipo de servicios para el software. O no estamos supeditados a las condiciones del mercado de nuestro proveedor, es decir que si este se va del mercado porque no le conviene y discontinua el soporte, nosotros podemos contratar a otra persona. Desventajas del software libre •

Si observamos la situación actual, es decir la existencia mayoritaria de Software Propietario, tenemos: •

Dificultad en el intercambio de archivos: esto se da mayormente en los documentos de texto (generalmente creados con Microsoft Word), ya que si los queremos abrir con un Software Libre (p/ ej. Open Office o LaTeX) nos da error o se pierden datos. Pero esta claro que si Microsoft Word creara sus documentos con un formato abierto (o publico) esto no sucedería. Mayores costos de implantación e interoperabilidad: dado que el software constituye "algo nuevo", ello supone afrontar un costo de aprendizaje, de instalación, de migración, de interoperabilidad, etc., cuya cuantía puede verse disminuida por: mayor facilidad en las instalaciones y/o en el uso, uso de emuladores (p/ej. Si el usuario utiliza Microsoft Windows, la solución seria instalar alguna distribución de GNU/Linux y luego un emulador de Windows, como Wine, VMWare. Terminal X, Win4Lin). Vale aclarar que el costo de migración esta referido al software, ya que en lo que hace a Hardware generalmente el Software Libre no posee mayores requerimientos.

Trayecto Inicial 2011 de la Misión Sucre – Universidad Marítima del Caribe

Materia: Alfabetización y Tecnología - Prof. Mariangel Damas


Comparaciones

Cuadro comparativo del sistema operativo Windows y MS-DOS

Comparación que tiene Linux sobre Windows: LINUX es un sistema operativo menos visual que WINDOWS, por ejemplo, pero es más estable que éste, es un sistema operativo complicado, por lo que hay que tener nociones básicas para poderlo manejar.

Trayecto Inicial 2011 de la Misión Sucre – Universidad Marítima del Caribe

Materia: Alfabetización y Tecnología - Prof. Mariangel Damas


Conclusión

“El Sistema Operativo”

Hoy en día un sistema operativo se encontrar en todas partes como: Los teléfonos móviles, reproductores de DVD, mini cadenas, auto radios, y muchos más; incluyendo más visiblemente a los ordenadores. No es necesario estar conectado a un ordenador que utilice un microprocesador para que funciones. Aunque la creencia general es que el sistema fue creado por Microsoft Corporation, esto no es cierto ya que el verdadero creador de este sistema fue Tim Paterson, un empleado de Seattle Computer Products. El SO creado por Microsoft MS-DOS, esta instalado la mayoría de los ordenadores PC. Es DOS es a parte de un sistema operativo, un conjunto de programas que nos permiten manipular información contenida en discos, de esta forma podemos trabajar con facilidad, comodidad y rapidez; a demás, el DOS coordina el funcionamiento del microprocesador para que todo funcione bien en el interior de nuestro ordenador. MS-DOS no es multiusuario o multitarea, Las primeras versiones de Windows podían ejecutar programas para MS-DOS. MICROSOFT WINDOWS, es el SO ampliamente aceptado que ha sabido implantarse en la Informática que funciona sobre MS-DOS y el más utilizado en el mundo. UNIX, es un SO multitarea y multiusuario. Un Sistema operativo de tiempo compartido, controla los recursos de una computadora y los asigna entre los usuarios. Permite a los usuarios correr sus programas. Controla los dispositivos periféricos conectados a la máquina. , existen varias familias del sistema operativo UNIX que han evolucionado de manera independiente a lo largo de los años. Cada familia se distingue no tanto por sus diferencias técnicas, como por sus diferencias en propiedad intelectual. LINUX como SO funciona sobre más de 20 plataformas diferentes de hardware. Su gran flexibilidad ha permitido que sea utilizado en un rango muy amplio de sistemas de cómputo y arquitecturas: computadoras personales, supercomputadoras, dispositivos portátiles, etc. ¿Cual es el procedimiento interno que realiza una computadora desde que se enciende hasta que carga completamente los datos para trabajar? Trayecto Inicial 2011 de la Misión Sucre – Universidad Marítima del Caribe

Materia: Alfabetización y Tecnología - Prof. Mariangel Damas


1. Comienzo. La secuencia de eventos que ocurren entre el tiempo que usted enciende su computadora y el tiempo que se pone ready para aceptar comandos recibe el nombre de proceso de arranque. Micros, mini y maiframes computadoras todas requieren un proceso de arranque. 2. Una computadora necesita de alguna manera dar a la memoria RAM los archivos del Sistema Operativo para que esta pueda iniciar. Este es uno de los principales objetivos del proceso de arranque. En general el proceso de arranque sigue estas seis etapas: a) Encendido (Cuando usted presiona el botón de encendido del case, el power light es iluminado y la energía es distribuida por circuitos internos de la computadora) b) Comienzo del programa de arranque (El microprocesador empieza a ejecutar las instrucciones almacenadas en la memoria ROM). c) Auto prueba de encendido o power-on self-test (La computadora realiza un diagnostico crucial del sistema y de cada componente de la computadora) d) Carga del Sistema Operativo(El sistema operativo es copiado desde el disco duro a la memoria RAM) e) Chequeo de la configuración(El microprocesador lee los datos de configuración del CMOs y ejecuta cualquier rutina especifica para su uso) f) Lista para aceptar datos y comandos.(La computadora esta lista para aceptar comandos y datos) 3. Comienzo del programa de arranque.Cuando usted energiza la computadora, el microprocesador comienza a ejecutar el "Programa de arranque esta almacenado en la memoria ROM. 4. Carga del sistema operativo. ¿Cómo la computadora encuentra el Sistema Operativo para cargarlo en la RAM? a) Después que el POST es completamente realizado, la computadora continua siguiendo las instrucciones que están en la memoria ROM para cargar el sistema operativo. La computadora primero chequea el driver A: para ver si contiene un disco, si hay un disquete aquí convierte al driver A: en el driver por defecto (driver o unidad de arranque). Si no encuentra un disco en el driver A: pero la computadora tiene un disco duro, el driver c: será el driver por defecto, por lo que es mejor si su computadora tiene un disco duro no poner disquete en la unidad A: durante el proceso de arranque, luego la computadora busca en el driver por defecto los archivos del Sistema Operativo. Lo primero que hace es buscar dos archivos del Sistema Operativo llamados: Io.sys y Trayecto Inicial 2011 de la Misión Sucre – Universidad Marítima del Caribe

Materia: Alfabetización y Tecnología - Prof. Mariangel Damas


Msdos.sys. si esos archivos no existen o no están en el disco duro, el proceso de arranque para y un mensaje de error es mostrado en la pantalla de monitor: "No system disk" o "disk error" o "Cannot load a file", si le aparecen uno de estos mensajes es muy probable que su disco duro tenga problemas; sino hay problema el microprocesador procede a cargar otro archivo del Sistema Operativo llamado: Command.com. dos problemas podrían ocurrir en este punto del proceso de arranque y ambos problemas presenta el mismo mensaje de error en la pantalla: "Bad o missing command interprete". Primer problema el archivo command.Com podría ser erróneo porque usted inadvertidamente lo borro. Y segundo problema: su disco podría contener una versión equivocada del command.com, porque alguien inadvertidamente copio una versión diferente del mismo en su computadora. 5. Chequeo de la configuración. Al comenzar el proceso de arranque, la computadora chequea los datos que están en la CMOS, para determinar la cantidad de memoria RAM instalada y el tipo de disco duro, las unidades de disquete entre otras cosas, estos datos de configuración son necesarios para la computadora pueda acceder a cada dispositivo. El próximo paso del proceso de arranque la computadora busca en el directorio raíz del disco para ver la configuración de archivos. Algunas computadoras tiene esos datos almacenados en un archivo llamado: autoexec.bat. 6. Lista para aceptar comando y dato. ¿Cómo yo se que la computadora ha finalizado el proceso de arranque? El proceso de arranque esta finalizado cuando su computadora esta lista para aceptar comando y datos. Usualmente la computadora muestra la pantalla principal de su sistema operativo, si esta usando Windows será el escritorio de Windows si esta usando el DOS será el promt*

Trayecto Inicial 2011 de la Misión Sucre – Universidad Marítima del Caribe

Materia: Alfabetización y Tecnología - Prof. Mariangel Damas


Componentes del Computador

Es un sistema compuesto de cinco elementos diferenciados: una CPU (unidad central de Procesamiento), dispositivo de entrada, dispositivos de almacenamiento, dispositivos de salida y una red de comunicaciones, denominada bus, que enlaza todos los elementos del sistema y conecta a éste con el mundo exterior. UCP O CPU (central processing unit): UCP o procesador, interpreta y lleva a cabo las instrucciones de los programas, efectúa manipulaciones aritméticas y lógicas con los datos y se comunica con las demás partes del sistema. Una UCP es una colección compleja de circuitos electrónicos. Cuando se incorporan todos estos circuitos en un chip de silicio, a este chip se le denomina microprocesador. La UCP y otros chips y componentes electrónicos se ubican en un tablero de circuitos o tarjeta madre. El Procesador: El chip más importante de cualquier placa madre es el procesador. Sin el la computadora no podría funcionar. A menudo este componente se determina CPU, que describe a la perfección su papel dentro del sistema. El procesador es realmente el elemento central del proceso de procesamiento de datos. Los procesadores se describen en términos de su tamaño de palabra, su velocidad y la capacidad de su RAM asociada. Dispositivos de Entrada: En esta se encuentran: • Teclado • Mouse o Ratón • Escáner o digitalizador de imágenes Dispositivos de Almacenamiento: en esta se encuentran: • Disco Duro • Diskettes 3 ½ • Maletón-ópticos de 5,25 Dispositivos de Salida: en esta se encuentran: • Impresoras • Monitor • Funcionamiento Interno Del Computador •

Al iniciar el arranque, en la mayoría de computadores, cualquiera sea su tamaño o potencia, el control pasa mediante circuito cableado a unas memorias de tipo ROM, grabadas con información permanente (datos de Trayecto Inicial 2011 de la Misión Sucre – Universidad Marítima del Caribe

Materia: Alfabetización y Tecnología - Prof. Mariangel Damas


configuración, fecha y hora, dispositivos, etc.) Después de la lectura de esta información, el circuito de control mandará a cargar en la memoria principal desde algún soporte externo (disco duro o disquete) los programas del sistema operativo que controlarán las operaciones a seguir, y en pocos segundos aparecerá en pantalla el identificador o interfaz, dando muestra al usuario que ya se está en condiciones de utilización. Si el usuario carga un programa con sus instrucciones y datos desde cualquier soporte de información, bastará una pequeña orden para que dicho programa comience a procesarse, una instrucción tras otra, a gran velocidad, transfiriendo la información desde y hacia donde esté previsto en el programa con pausas si el programa es inactivo, en las que se pide al usuario entradas de información. Finalizada esta operación de entrada, el ordenador continuará su proceso secuencial hasta culminar la ejecución del programa, presentando sus resultados en pantalla, impresora o cualquier periférico. •

Cada una de las instrucciones tiene un código diferente expresado en formato binario. Esta combinación distinta de unos y ceros la interpreta el <<cerebro>> del ordenador, y como está diseñado para que sepa diferenciar lo que tiene que hacer al procesar cada una de ellas, las ejecuta y continúa con la siguiente instrucción, sin necesidad de que intervenga el ordenador.

El proceso de una instrucción se descompone en operaciones muy simples de transferencia de información u operaciones aritméticas y lógicas elementales, que realizadas a gran velocidad le proporcionan una gran potencia que es utilizada en múltiples aplicaciones.

Realmente, esa información digitalizada en binario, a la que se refiere con unos y ceros, el ordenador la diferencia porque se trata de niveles diferentes de voltaje. Cuando se emplean circuitos integrados, los niveles lógicos bajo y alto, que se representan por ceros y unos, corresponden a valores muy próximos a cero y cinco voltios en la mayoría de los casos. Cuando las entradas de las puertas lógicas de los circuitos digitales se les aplica el nivel alto o bajo de voltaje, el comportamiento muy diferente. Por ejemplo, si se le aplica nivel alto conducen o cierran el circuito; en cambio si se aplica nivel bajo no conducen o dejan abierto el circuito. Para que esto ocurra, los transistores que constituyen los circuitos integrados trabajan en conmutación, pasando del corte a la saturación.

Trayecto Inicial 2011 de la Misión Sucre – Universidad Marítima del Caribe

Materia: Alfabetización y Tecnología - Prof. Mariangel Damas


Periféricos (HARDWARE / SOFTWARE)

A demás de toda la información recabada anteriormente tenemos otra de suma importancia también, (los periféricos), y refieren al hardwere y el software, y se detallan a continuación: Periféricos: Son los medios o dispositivos a través de los cuales se le suministra y /o extrae información al computador. La función de estos componentes suelen dividirse en tres categorías principales: Entrada, salida y salida/entrada(Almacenamiento). Los componentes de esta categoría están conectados a través de un conjunto de cables o circuitos llamados bus a la unidad central de procesamiento (CPU) del ordenador. Hardware: Son las partes físicas utilizadas para el funcionamiento de una computadora. El Hardware se refiere a los componentes materiales o tangibles de un sistema informativo. Dispositivos de Entrada (Input): El Hardware de entrada consta de dispositivos externos que se utilizan para introducir información a la computadora. Estos componentes están situados fueran de CPU de la computadora y proporcionan información e instrucciones Ej: El Teclado y el Mouse. Dispositivos de Salida (Output): El Hardware de salida consta de dispositivos externos que transfieren información del CPU del computador al usuario informático. La pantalla o Monitor es uno de ellos y convierte la información generada por el ordenador en información visual. Dispositivos de Entrada / Salida (Input / Output): El Hardware de Entrada / Salida, es aquel que se utiliza para almacenar información y programas que el ordenador deberá recuperar en algún momento. Los dos tipos principales de dispositivos de almacenamiento son las unidades de disco y las memorias. Trayecto Inicial 2011 de la Misión Sucre – Universidad Marítima del Caribe

Materia: Alfabetización y Tecnología - Prof. Mariangel Damas


Unidad de memoria Es el recurso más importante que tiene el computador, ya que en esta se alojan todos los datos e instrucciones provenientes de un dispositivo de entrada o salida para que el computador ejecute las operaciones dictadas por el usuario. Las unidades de memoria se dividen en RAM y ROM. Memoria Ram: Es la que se encarga de almacenar datos y programas que el usuario deberá utilizar. Las Siglas Ram significan Randon Acces Memory, que traducido es, memoria de acceso aleatorio. La memoria Ram es volátil, lo cual significa, que el contenido de su información estará en el ordenador sólo cuando hay energía eléctrica, por esta razón utilizamos la memoria auxiliar. Memoria Rom: Memoria de solo lectura Rom (Read Only Memory); dicha memoria esta basada en semiconductores que contienen instrucciones o datos que se pueden leer pero no modificar. Medidas de las Memorias: La capacidad de la memoria se mide en unidades que corresponden a un digito Bit (Binary Digit) o Digito Binario. Según su tamaño estos Bit, se pueden expresar en: Bytes, Kilobytes, Megabytes, Gigabytes. Estas medidas serán explicadas en el próximo capitulo. Software: Son las instrucciones responsables de que el Hardware (la Maquina) realice su tarea. El Software se lee y se carga a la memoria de trabajo de la maquina (Ram) desde un dispositivo de memoria auxiliar como lo es el disco duro y / o discos flexibles. Como concepto general, el Software puede dividirse en varias categorías basadas en el tipo de trabajo realizado. Software del Sistema: Son aquellos programas que poseen instrucciones orientadas a manejar y controlar las funciones básicas del computador, creando la configuración del sistema y permitiendo la comunicación con el usuario. Como Software del Sistema Tenemos: • •

Programas de Control: Ej: el Sistema Operativo Programas de Procesamiento: Ej: Traductores Programación

de

Lenguaje

de

Trayecto Inicial 2011 de la Misión Sucre – Universidad Marítima del Caribe

Materia: Alfabetización y Tecnología - Prof. Mariangel Damas


Programas de Servicio (Utilitario) Software de Aplicación: •

Son los programas que contienen los procedimientos lógicos paso a paso, para obtener la respuesta planteada por el usuario. También lleva a cabo tareas de tratamiento de textos, gestión de bases de datos y similares. Los Software de Aplicación están compuestos por dos categorías: Software de Red, que permite comunicarse a grupos de usuarios y el Software de Lenguaje utilizado para escribir programas. Software Específico: Son los programas que el usuario elabora para resolver problema de casos específicos. Software de Paquetes: Son una serie de programas empacados que muestran un uso común a diferentes situaciones del usuario. Entre los paquetes mas usados tenemos: Manejadores de Hoja Electrónica Procesadores de Palabras Administradores de Bases de Datos Diseñadores Gráficos Además de estas categorías basadas en tareas, varios tipos de Software se describen basándose en su método de Distribución. • • • •

Entre estos se Encuentran: Programas Enlatados: Es el Software desarrollado por compañías y Vendido principalmente por Distribuidores.

Trayecto Inicial 2011 de la Misión Sucre – Universidad Marítima del Caribe

Materia: Alfabetización y Tecnología - Prof. Mariangel Damas


El Freeware o Software: Es el de dominio público sin costo alguno, el Shareware, que es similar al Freeware, pero suele conllevar una pequeña tasa a pagar por los usuarios que lo utilicen profesionalmente.

Trayecto Inicial 2011 de la Misión Sucre – Universidad Marítima del Caribe

Materia: Alfabetización y Tecnología - Prof. Mariangel Damas


Bibliografía

Sitios web: •

Monografias.com: http://www.monografias.com/trabajos/histocomp/histocomp.shtml? monosearch

http://es.wikipedia.org/wiki/Tim_Paterson

Trayecto Inicial 2011 de la Misión Sucre – Universidad Marítima del Caribe

Materia: Alfabetización y Tecnología - Prof. Mariangel Damas


Glosario Términos informáticos

LÓGICA: Es una secuencia de operaciones realizadas por el hardware o por el software. Lógica del hardware, Son los circuitos y Chips que realizan las operaciones de control de la computadora. Lógica del software o lógica del programa, Es la secuencia de instrucciones en un programa. ARCHIVO: Son un conjunto de registros lógicos. BASE DE DATOS: Es un almacenamiento colectivo de las bibliotecas de datos que son requeridas y organizaciones para cubrir sus requisitos de procesos y recuperación de información. BUFFERS: Memoria intermedia, una porción reservada de la memoria, que se utiliza para almacenar datos mientras son procesados. BASIC: ( BIGINNERS ALL PURPUS SIMBOLIC INSTRUTION CODE ), Lenguaje de instrucciones simbólicas de propósito general para principiantes, esta disponible en modo compilador e interprete, siendo este ultimo el mas popular para el usuario circunstancial y para el programador principiante. CÓDIGO FUENTE: Programa en su forma original, tal y como fue escrito por el programador, el código fuente no es ejecutable directamente por el computador, debe convertirse en lenguaje de maquina mediante compiladores, ensambladores o interpretes. CAMPO: Es el espacio en la memoria que sirve para almacenar temporalmente un dato durante el proceso, Su contenido varia durante la ejecución del programa. CAMPO NUMÉRICO, el que solo puede almacenar valores ( dígitos ). CAMPO ALFANUMERICO, el que puede almacenar cualquier carácter ( dígito, letra, símbolo especial ). COMPILADOR: Programa de computadora que produce un programa en lenguaje de maquina, de un programa fuente que generalmente esta escrito por el programador en un lenguaje de alto nivel. INTERPRETE: Dispositivo o programa que recibe una por una las sentencias de un programa fuente, la analiza y la convierte en lenguaje de maquina si no hay errores en ella. También se puede producir el listado de las instrucciones del programa. DATO: El termino que usamos para describir las señales con las cuales trabaja la computadora es dato; Aunque las palabras dato e información muchas veces son usada indistintamente, si existe una diferencia importante entre ellas. En un sentido estricto, los datos son las señales individuales en bruto y sin ningún significado que manipulan las computadoras para producir información. Trayecto Inicial 2011 de la Misión Sucre – Universidad Marítima del Caribe

Materia: Alfabetización y Tecnología - Prof. Mariangel Damas


HARDWARE: Es la parte tangible del computador. SOFTWARE: Conjunto de programas, documentos, procesamientos y rutinas asociadas con la operación de un sistema de computadoras, es decir, la parte intangible de computador. INFORMACION: Es lo que se obtiene del procesamiento de datos, es el resultado final. PROGRAMA: Es una colección de instrucciones que indican a la computadora que debe hacer. Un programa se denomina software, por lo tanto , programa, software e instrucción son sinónimos. PROGRAMA FUENTE: Instrucción escrita por el programador en un lenguaje de programación para plantear al computador el proceso que debe ejecutar. PROGRAMA OBJETO: Instrucciones en lenguaje maquina producida por el computador. MEMORIA RAM: (RADOM ACCESS MEMORY), memoria de acceso aleatorio cuyo contenido permanecerá presente mientras el computador permanezca encendido. MEMORIA ROM: Memoria de solo lectura. Chip de memoria que solo almacena permanentemente instrucciones y datos de los fabricantes. REGISTRO: Es un grupo de campos relacionados que se usan para almacenar datos acerca de un tema ( registro maestro ) ó actividad ( registro de transacción ). FUNCION: En programación, una rutina que hace una tarea particular. Cuando el programa pasa el control a una función, ésta realiza la tarea y devuelve el control a la instrucción siguiente a la que llamo. USUARIO: Cualquier individuo que iteractúa con la computadora a nivel de aplicación. Los programadores, operadores y otro personal técnico no son considerados usuarios cuando trabajan con la computadora a nivel profesional. PROGRAMADOR: Un individuo que diseña la lógica y escribe las líneas de código de un programa de computadora. PROGRAMADOR DE APLICACIONES: Individuo que escribe programas de aplicación en una organización usuaria. La mayoría de los programadores son programadores de aplicación. PROGRAMADOR DE SISTEMAS: En el departamento de procesamiento de datos de una gran organización, técnico experto en parte o en la totalidad de software de sistema de computadora, tal como el sistema operativo, el programa de control de red y el sistema de administración de base de datos. Los programadores de sistemas son responsables del rendimiento eficiente de los sistemas de computación. ALMACENAMIENTO PRIMARIO: La memoria interna de la computadora ( RAM ). CÓDIGO MAQUINA: para que se pueda ejecutar un programa, debe estar en lenguaje de maquina de la computadora que lo esta ejecutando. PROGRAMA EJECUTABLE: Los archivos de programa a menudo se denominan programas ejecutables, puesto que, al teclear su nombre ó al hacer clic sobre el icono que le corresponda en un entorno gráfico, logra que la computadora cargue y corra, o ejecute las instrucciones del archivo. DEPURADOR (debugger): Es un programa que asiste en la depuración de un programa. Trayecto Inicial 2011 de la Misión Sucre – Universidad Marítima del Caribe

Materia: Alfabetización y Tecnología - Prof. Mariangel Damas


PERIFERICOS: cualquier dispositivo de hardware conectado a una computadora.

Periféricos

El Hardware

Trayecto Inicial 2011 de la Misión Sucre – Universidad Marítima del Caribe

Materia: Alfabetización y Tecnología - Prof. Mariangel Damas


Periféricos

El Hardware y softwere

Trayecto Inicial 2011 de la Misión Sucre – Universidad Marítima del Caribe

Materia: Alfabetización y Tecnología - Prof. Mariangel Damas


Trayecto Inicial 2011 de la Misión Sucre – Universidad Marítima del Caribe

Materia: Alfabetización y Tecnología - Prof. Mariangel Damas

Historia del computador  

Un breve paseo por el pasado y el presente de esta herramienta tan indispensable...

Read more
Read more
Similar to
Popular now
Just for you