Issuu on Google+


QUE ES INFORMATICA El vocablo informática proviene del alemán informatik acuñado por Karl Steinbuch en 1957.aparecieron en francés, italiano, español, rumano, portugués y holandés, entre otras lenguas, refiriéndose a la aplicación de las computadoras para almacenar y procesar la información. Es una contracción de las palabras information y automatik (información automática). En lo que hoy día conocemos como informática confluyen muchas de las técnicas, procesos y máquinas (ordenadores) que el hombre ha desarrollado a lo largo de la historia para apoyar y potenciar su capacidad de memoria, de pensamiento y de comunicación. En el Diccionario de la lengua española de la Real Academia Española se define informática . Conceptualmente, se puede entender como aquella disciplina encargada del estudio de métodos, procesos, técnicas, desarrollos y su utilización en ordenadores (computadoras), con el fin de almacenar, procesar y transmitir información y datos en formato digital. En 1957 Karl Steinbuch acuñó la palabra alemana Informatik en la publicación de un documento denominado Informatik: Automatische Informationsverarbeitung (Informática: procesamiento automático de información). En ruso, Alexander Ivanovich Mikhailov fue el primero en utilizar informatika con el significado de «estudio, organización, y la diseminación de la información científica», que sigue siendo su significado en dicha lengua IMPORTANCIA DE LA INFORMATICA La informática es la disciplina que estudia el tratamiento automático de la información utilizando dispositivos electrónicos y sistemas computacionales. También es definida como el procesamiento de la información en forma automática. Para esto los sistemas informáticos . El vocablo Informática es proveniente del francés informatique, acuñado por el ingeniero Philippe Dreyfus en 1962, es acrónimo de las palabras information y automatique. En lo que hoy conocemos como informática confluyen muchas de las técnicas y de las máquinas que el hombre ha desarrollado a lo largo de la historia para apoyar y potenciar sus capacidades de memoria, de pensamiento y de comunicación.La informática se aplica a numerosas y variadas áreas, como por ejemplo: gestión de negocios, almacenamiento y consulta de información, monitorización y control de procesos, robots industriales, comunicaciones, control de transportes, investigación, desarrollo de juegos, diseño computarizado, aplicaciones/herramientas multimedia, etc. QUE ES HADWARE Hardware (pronunciación AFI: *ˈhɑːdˌwɛə+ ó *ˈhɑɹdˌwɛɚ+) corresponde a todas las partes tangibles de un sistema informático; sus componentes son: eléctricos, electrónicos, electromecánicos y mecánicos.1 Son cables, gabinetes o cajas, periféricos de todo tipo y cualquier otro elemento físico involucrado; contrariamente, el soporte lógico es intangible y es llamado software. El término es propio del idioma inglés (literalmente traducido: partes duras), su traducción al español no tiene un significado acorde, por tal motivo se la ha adoptado tal cual es y suena; la Real Academia Española lo define como «Conjunto de los componentes que integran la parte material de una computadora».2 El término, aunque es lo más común, no solamente se aplica a una computadora tal como se la conoce, también, por ejemplo, un robot, un teléfono móvil, una cámara fotográfica o un reproductor multimedia poseen hardware (y software).3 4 La historia del hardware del computador se puede clasificar en cuatro generaciones, cada una caracterizada por un cambio tecnológico de importancia. Este hardware se puede clasificar en: básico, el estrictamente necesario para el funcionamiento normal del equipo; y complementario, el que realiza funciones específicas.


Un sistema informático se compone de una unidad central de procesamiento (UCP/CPU), encargada de procesar los datos, uno o varios periféricos de entrada, los que permiten el ingreso de la información y uno o varios periféricos de salida, los que posibilitan dar salida (normalmente en forma visual o auditiva) a los datos procesados

TIPOS DE HARDWARE Una de las formas de clasificar el hardware es en dos categorías: por un lado, el "básico", que abarca el conjunto de componentes indispensables necesarios para otorgar la funcionalidad mínima a una computadora; y por otro lado, el hardware "complementario", que, como su nombre indica, es el utilizado para realizar funciones específicas (más allá de las básicas), no estrictamente necesarias para el funcionamiento de la computadora. Así es que: un medio de entrada de datos, la unidad central de procesamiento (C.P.U.), la memoria RAM, un medio de salida de datos y un medio de almacenamiento constituyen el "hardware básico". Los medios de entrada y salida de datos estrictamente indispensables dependen de la aplicación: desde el punto de vista de un usuario común, se debería disponer, al menos, de un teclado y un monitor para entrada y salida de información, respectivamente; pero ello no implica que no pueda haber una computadora (por ejemplo controlando un proceso) en la que no sea necesario teclado ni monitor; bien puede ingresar información y sacar sus datos procesados, por ejemplo, a través de una placa de adquisición/salida de datos QUE ES SOFTWARE Se conoce como software1 al equipamiento lógico o soporte lógico de un sistema informático, comprende el conjunto de los componentes lógicos necesarios que hacen posible la realización de tareas específicas, en contraposición a los componentes físicos, que son llamados hardware. Los componentes lógicos incluyen, entre muchos otros, las aplicaciones informáticas; tales como el procesador de texto, que permite al usuario realizar todas las tareas concernientes a la edición de textos; el software de sistema, tal como el sistema operativo, que, básicamente, permite al resto de los programas funcionar adecuadamente, facilitando también la interacción entre los componentes físicos y el resto de las aplicaciones, y proporcionando una interfaz con el usuario.


MEMORIA RAM La memoria de acceso aleatorio (en inglés: random-access memory),se utiliza como memoria de trabajo para el sistema operativo, los programas y la mayoría del software. Es allí donde se cargan todas las instrucciones que ejecutan el procesador y otras unidades de cómputo. Se denominan "de acceso aleatorio" porque se puede leer o escribir en una posición de memoria con un tiempo de espera igual para cualquier posición, no siendo necesario seguir un orden para acceder a la información de la manera más rápida posible. Durante el encendido del computador, la rutina POST verifica que los módulos de memoria RAM estén conectados de manera correcta. En el caso que no existan o no se detecten los módulos, la mayoría de tarjetas madres emiten una serie de pitidos que indican la ausencia de memoria principal. Terminado ese proceso, la memoria BIOS puede realizar un test básico sobre la memoria RAM indicando fallos mayores en la misma.

MEMORIA ROM Es memoria no volátil de solo lectura. Igualmente, también hay dos características a destacar en esta definición. La memoria ROM es memoria no volátil: Los programas almacenados en ROM no se pierden al apagar el ordenador, sino que se mantienen impresos en los chips ROM durante toda su existencia además la memoria ROM es, como su nombre indica, memoria de solo lectura; es decir los programas almacenados en los chips ROM son inmodificables. El usuario puede leer ( y ejecutar ) los programas de la memoria ROM, pero nunca puede escribir en la memoria ROM otros programas de los ya existentes. La memoria ROM es ideal para almacenar las rutinas básicas a nivel de hardware, por ejemplo, el programa de inicialización de arranque el ordenador y realiza el chequeo de la memoria y los dispositivos.La memoria ROM suele estar ya integrada en el ordenador y en varios periféricos que se instalan ya en el ordenador. Por ejemplo, en la placa madre del ordenador se encuentran los chips de la


ROM BIOS, que es el conjunto de rutinas mas importantes para comunicarse con los dispositivos. O, también, las tarjetas de vídeo, las tarjetas controladoras de discos y las tarjetas de red tienen un chip de ROM con rutinas especiales para gestionar dichos periféricos.

GENERACIONES DE LAS COMPUTADORAS Las primeras computadoras eran verdaderos gigantes, como la ENIAC. Las siglas de ENIAC corresponden a Electronic Numerical Integrator and Computer fue el nombre que recibió la primera computadora electrónica que en 1943 comenzaron a construir John W. Mauchly y John P. Eckert en la universidad de Pensilvania (EE.UU.). Esta enorme máquina medía más de 30 metros de largo y pesaba 32 toneladas, estaba compuesta por 17.468 válvulas. El calor de las válvulas elevaba la temperatura de la sala donde se hallaba instalada hasta los 50º C. y para que llevase a cabo las operaciones para las que se había diseñado. Cuando la ENIAC se terminó en 1946, la II Guerra Mundial ya había terminado. El fin de la contienda hizo que los esfuerzos hasta entonces dedicados principalmente a objetivos militares, se destinaran también a otro tipo de investigación científica más relacionada con las necesidades de la empresa privada. Los esfuerzos múltiples dieron resultados en 1945 Mauchly y Eckert comenzaron a trabajar en una sucesora de la ENIAC, el EDVAC (Electronic Discrete Variable Automatic Computer) y Aiken inició el diseño de la Mark II. En 1951, el que está considerado como la primera computadora ampliamente comercializada, la UNIVAC I , comenzó a funcionar con éxito. En 1952 John Neumann y Herman Goldstine construyeron la computadora IAS, que incorporaba notables mejoras al respecto a sus predecesoras. En 1928 la empresa Fairchild y Texas Instruments produjeron los primeros circuitos integrados basados en semiconductores y en 1962, Steven Russell creó el primer juego para computadoras. Se llamaba Spacewar y desde la evolución ha sido continua. En 1952 la computadora UNIVAC se utilizó para realizar el recuento de votos en las elecciones presidenciales de EE.UU. El resultado victoria ( Eisenhower sobre Adlai Stevenson ) se conoció 45 minutos después de que se cerraran los colegios electorales.

CPU La unidad central de procesamiento, UCP o CPU (por el acrónimo en inglés de central processing unit), o simplemente el procesador o microprocesador, es el componente del computador y otros dispositivos


programables, que interpreta las instrucciones contenidas en los programas y procesa los datos. Los CPU proporcionan la característica fundamental de la computadora digital (la programabilidad) y son uno de los componentes necesarios encontrados en las computadoras de cualquier tiempo, junto con el almacenamiento primario y los dispositivos de entrada/salida. Se conoce como microprocesador el CPU que es manufacturado con circuitos integrados. Desde mediados de los años 1970, los microprocesadores de un solo chip han reemplazado casi totalmente todos los tipos de CPU, y hoy en día, el término "CPU" es aplicado usualmente a todos los microprocesadores. La expresión "unidad central de proceso" es, en términos generales, una descripción de una cierta clase de máquinas de lógica que pueden ejecutar complejos programas de computadora. Esta amplia definición puede fácilmente ser aplicada a muchos de los primeros computadores que existieron mucho antes que el término "CPU" estuviera en amplio uso. Sin embargo, el término en sí mismo y su acrónimo han estado en uso en la industria de la informática por lo menos desde el principio de los años 1960. La forma, el diseño y la implementación de los CPU ha cambiado drásticamente desde los primeros ejemplos, pero su operación fundamental ha permanecido bastante similar.

MICROPROCESADORES Desde la introducción del primer microprocesador, el Intel 4004, en 1971, y del primer microprocesador ampliamente usado, el Intel 8080, en 1974, esta clase de CPUs ha desplazado casi totalmente el resto de los métodos de implementación de la Unidad Central de Proceso. Los fabricantes de mainframes y minicomputadores de ese tiempo lanzaron programas de desarrollo de IC propietarios para actualizar sus más viejas arquitecturas de computador, y eventualmente produjeron microprocesadores con conjuntos de instrucciones que eran compatibles hacia atrás con sus más viejos hardwares y softwares. Combinado con el advenimiento y el eventual vasto éxito del ahora ubicuo computadora personal, el término "CPU" es aplicado ahora casi exclusivamente a los microprocesadores. Las generaciones previas de CPUs fueron implementadas como componentes discretos y numerosos circuitos integrados de pequeña escala de integración en una o más tarjetas de circuitos. Por otro lado, los microprocesadores son CPUs fabricados con un número muy pequeño de IC; usualmente solo uno. El tamaño más pequeño del CPU, como resultado de estar implementado en una simple pastilla, significa tiempos de conmutación más rápidos debido a factores físicos como el decrecimiento de la capacitancia parásita de las puertas.


MONITOR O PANTALLA Los primeros monitores surgieron en el año 1981, siguiendo el estándar MDA (Monochrome Display Adapter) eran monitores monocromáticos (de un solo color) de IBM. Estaban expresamente diseñados para modo texto y soportaban subrayado, negrita, cursiva, normal, e invisibilidad para textos. Poco después y en el mismo año salieron los monitores CGA (Color Graphics Adapter-gráficos adaptados a color) fueron comercializados en 1981 al desarrollarse la primera tarjeta gráfica a partir del estándar CGA de IBM. Al comercializarse a la vez que los MDA los usuarios de PC optaban por comprar el monitor monocromático por su costo. Tres años más tarde surgió el monitor EGA (Enhanced Graphics Adapter - adaptador de graficos mejorados) estándar desarrollado por IBM para la visualización de gráficos, este monitor aportaba más colores (16) y una mayor resolución. En 1987 surgió el estándar VGA (Video Graphics Array - graficos de video arreglados) fue un estándar muy acogido y dos años más tarde se mejoró y rediseñó para solucionar ciertos problemas que surgieron, desarrollando así SVGA (Super VGA), que también aumentaba colores y resoluciones, para este nuevo estándar se desarrollaron tarjetas gráficas de fabricantes hasta el día de hoy conocidos como S3 Graphics, NVIDIA o ATI entre otros.

QUE ES UNA IMPRESORA Una impresora es un periférico de ordenador que permite producir una gama permanente de textos o gráficos de documentos almacenados en formato electrónico, imprimiéndolos en medios físicos, normalmente en papel o transparencias, utilizando cartuchos de tinta o tecnología láser. Muchas impresoras son usadas como periféricos, y están permanentemente unidas al ordenador por un cable. Otras impresoras, llamadas impresoras de red, tienen una interfaz de red interno (típicamente


wireless o ethernet), y que puede servir como un dispositivo para imprimir en papel algún documento para cualquier usuario de la red. Además, muchas impresoras modernas permiten la conexión directa de aparatos de multimedia electrónicos como las tarjetas CompactFlash, Secure Digital o Memory Stick, pendrives, o aparatos de captura de imagen como cámaras digitales y escáneres. También existen aparatos multifunción que constan de impresora, escáner o máquinas de fax en un solo aparato. Una impresora combinada con un escáner puede funcionar básicamente como una fotocopiadora.

QUE ES WORD La primera versión de Microsoft Word fue un desarrollo realizado por Charles Simonyi y Richard Brodie, dos ex-programadores de Xerox contratados en 1981 por Bill Gates y Paul Allen. Estos programadores habían trabajado en Xerox Bravo, que fuera el primer procesador de textos desarrollado bajo la técnica WYSIWYG (“What You See Is What You Get”); es decir el usuario podía ver anticipadamente, en pantalla, el formato final que aparecería en el impreso del documento. Esta primera versión, Word 1.0, salió al mercado en octubre de 1983 para la plataforma Xenix MS-DOS; en principio fue rudimentario y le siguieron otras cuatro versiones muy similares que no produjeron casi impacto en las ventas a usuarios finales. La primera versión de Word para Windows salió en el año 1989, que si bien en un entorno gráfico resultó bastante más fácil de operar, tampoco permitió que las ventas se incrementaran notablemente. Cuando se lanzó al mercado Windows 3.0, en 1990, se produjo el real despegue. A Word 1.0 le sucedieron Word 2.0 en 1991, Word 6.0 en 1993. El posterior salto en los números de versión se introdujo a fin de que coincidiera con la numeración del versionado de Windows, tal como fue Word 95 y Word 97. Con la salida del Windows 2000 (1999) también surgió la versión homóloga de Word. La versión Word 2002 emergió en la misma época que el paquete Microsoft Office XP, en el año 2001. Un año después le siguió la versión Microsoft Word 2003. Posteriormente se presentó Microsoft Word 2007 junto con el resto de aplicaciones del paquete Office 2007, en esta versión, Microsoft marcó un nuevo cambio en la historia de las aplicaciones office presentando la nueva interfaz Ribbons más sencilla e intuitiva que las anteriores (aunque muy criticada por usuarios acostumbrados a las versiones anteriores). La versión más reciente lanzada al mercado es Microsoft Word 2010, en el mismo año en el que salió el sistema Microsoft Windows 7.


QUE ES UNA TARJETA MADRE La placa base, también conocida como placa madre o tarjeta madre (del inglés motherboard o mainboard) es una tarjeta de circuito impreso a la que se conectan los componentes que constituyen la computadora u ordenador. Es una parte fundamental a la hora de armar una PC de escritorio o portátil. Tiene instalados una serie de circuitos integrados, entre los que se encuentra el chipset, que sirve como centro de conexión entre el microprocesador, la memoria de acceso aleatorio (RAM), las ranuras de expansión y otros dispositivos. Va instalada dentro de una caja o gabinete que por lo general está hecha de chapa y tiene un panel para conectar dispositivos externos y muchos conectores internos y zócalos para instalar componentes dentro de la caja. La placa base, además, incluye un firmware llamado BIOS, que le permite realizar las funcionalidades básicas, como pruebas de los dispositivos, vídeo y manejo del teclado, reconocimiento de dispositivos y carga del sistema operativo.

Que es un escáner Un escáner de computadora (escáner proviene del idioma inglés scanner) es un periférico que se utiliza para convertir, mediante el uso de la luz, imágenes impresas o documentos a formato digital. El scanner nace en 1984 cuando Microtek crea el MS-200, el primer scanner blanco y negro que tenia una resolución de 200dpi. Este scanner fue desarrollado para Apple Macintosh. Los escáneres pueden tener accesorios como un alimentador de hojas automático o un adaptador para diapositivas y transparencias. Al obtenerse una imagen digital se puede corregir defectos, recortar un área específica de la imagen o también digitalizar texto mediante técnicas de OCR. Estas funciones las puede llevar a cabo el mismo dispositivo o aplicaciones especiales.



resumen de informatica