Manual de Informatica

Page 1

2013 MANUAL DE INFORMATICA

Manual de Informática diseñada por Andrea González


Historia de Informatica………………………………………3 La informática en el Siglo XXI………………………………11 Historia del Hardware………………………………………13 Historia del Software………………………………………..14


Historia de la Informática La Informática es una compleja disciplina que puede considerarse como una de las grandes culminaciones de la Humanidad y cuyas posibilidades aún no se han agotado. Sus aplicaciones en el campo de la genética han culminado en la codificación del genoma humano y, en su fusión con la Biología, la Bioinformática posee un potencial extraordinario que facilita el descubrir las funciones de las proteínas y que permite la extracción de información de grandes bases de datos para correlacionar secuencias de ADN a una velocidad inusitada. ‘Informática’ es un neologismo acuñado por el francés Philippe Dreyfus en 1962 (INFORmación + autoMÁTICA) que hunde sus raíces en lo más profundo de las abstracciones creadas por la mente del hombre, y su evolución corre paralela a descubrimientos propios de otras muchas disciplinas, como el Álgebra, el Cálculo, la Lógica, la Biología, la Física y la Metafísica. Incluso la Religión también ha tenido su influencia. Números y cuentas El Egipto de los faraones poseía ya un sistema de numeración fraccional basado en el ojo de Horus, dios del Sol. Las fracciones se creaban combinando las secciones del ojo, de forma que cada sección poseía un valor distinto (figura 1). El ojo completo tenía por valor la unidad (en realidad valía 63/64 que se redondeaba a 1). Por otro lado, en Mesopotamia, los sumerios utilizaban para contar las falanges de los dedos de una mano, exceptuando el pulgar. Si se contaban todas estas falanges (un total de doce), se extendía un dedo de la otra mano; así cinco dedos equivalían a cinco veces doce, esto es 60 (sistema sexagesimal). Además fueron los creadores del primer asistente de cálculo de la historia, el ábax o ábaq (del semita abhaq, polvo), predecesor del ábaco, que consistía en una superficie plana con surcos de polvo donde se depositaban guijarros. El diseño del ábaco actual tiene sus orígenes en oriente y se cree que fue empleado por primera vez en China (3000 a.C.) donde, al igual que en Japón, se sigue utilizando en la actualidad. La civilización hindú también ha realizado grandes aportaciones al mundo de la ciencia, como el trascendental sistema de numeración posicional en base 10 que incluye al cero, si bien los antiguos mayas también lo conocieron paralelamente (siglos IV al VII). En occidente fue introducido por los árabes, y constituyó un impulso definitivo a todo el desarrollo ulterior de las matemáticas.


Figura 1. El ojo de Horus

A pesar de no conocer el cero, Grecia fue la cuna de importantes pensadores cuyos dogmas quedaron inamovibles hasta la Edad Media. Pitágoras (~582 a.C.-~507 a.C.) afirmaba que la estructura del universo era aritmética y geométrica, a partir de lo cual las Matemáticas se convirtieron en una disciplina fundamental para toda investigación científica. En el siglo XII, la escolástica llamó al teorema de Pitágoras «el puente de los asnos», ya que para ellos era el punto de la geometría hasta el que cualquier persona podía llegar. Años después, Aristóteles (384 a.C.322 a.C.) estableció las bases matemáticas de la Lógica e introdujo el concepto de variable, usando letras para la designación de conceptos.

Y se hizo la oscuridad durante mil años Desde el final del apogeo griego, las ciencias entraron en un periodo progresivo de oscurantismo hasta el final de la Edad Media y principios del Renacimiento. Por suerte, la expansión de la cultura islámica hizo grandes aportaciones al mundo de los números y al conocimiento en general, como las del matemático y astrónomo musulmán Al-Khwarizmi (~780~850) considerado el padre del álgebra e introductor del sistema decimal en occidente. Trabajó en La casa de la sabiduría de Bagdad (Bayt al-Hikma, comparada con la biblioteca de Alenjandría) y debemos a su nombre y al de su obra principal, «Ilm Al-jabr Wa’l Mugabalab», nuestras palabras

álgebra, guarismo y algoritmo. Las dificultades que representaban los cálculos con los números romanos hicieron que la notación árabe fuera tomando más y más fuerza a lo largo del tiempo. Sus trabajos fueron continuados por el algebrista egipcio Abu Kamil y éstos, a su vez, fueron utilizados posteriormente por Fibonacci (matemático del siglo XII referido en el best seller «El código da Vinci»). En el occidente cristiano, esta época está caracterizada por el estudio de la Lógica, siendo los máximos exponentes Ramón Lull y William de Ockham (autor de la premisa denominada «la navaja de Ockham»: en igualdad de condiciones la solución más sencilla es probablemente la

correcta).


Figura 2. Discos concéntricos de Ramón Lull.

Ramón Lull fue la primera persona en la historia de la Lógica formal en usar un dispositivo mecánico para generar pruebas. En 1274, Lull gestó su «Ars Magna», donde describía técnicas lógicas excéntricas, entre las que destacaba la basada en discos concéntricos montados en un eje central (figura 2). Su idea era que cada disco contuviera un número de palabras o símbolos distintos, que se podrían combinar de diversas maneras rotando los discos: su verdadero propósito era probar la veracidad de la Biblia. El trabajo de Lull activó en cierta manera la imaginación de varios personajes ilustres como Leibniz. Renacimiento y empuje del comercio Los primeros bocetos de una calculadora mecánica (denominada codex) fueron obra de Leonardo Da Vinci, y se datan aproximadamente en el año 1500. En 1614, el matemático escocés John Napier, da a conocer los logaritmos o números artificiales. Sus tablas logarítmicas —en forma de ábaco neperiano— simplificaron la realización manual de los cálculos aritméticos (las multiplicaciones y divisiones se reducían a simples sumas y restas) y permitieron realizar otros que, sin su invención, habrían sido casi imposibles. El empuje protagonizado por el comercio a partir del siglo XV hizo que salieran a la luz las primeras calculadoras mecánicas, como el reloj de cálculo creado en 1623 por el alemán Wilhelm Schickard, capaz de realizar las cuatro operaciones aritméticas con muy poca intervención manual pero con escasa fiabilidad debido a sus carencias mecánicas, al igual que otras máquinas predecesoras. La Pascalina supuso un punto de inflexión pues demostró de manera general su eficacia. Fue inventada por Blaise Pascal en 1642, a los 19 años, para ayudar a su padre en la contabilidad de la Hacienda Francesa (figura 3). En 1672, Gottfried Wilhelm von Leibniz modificó la Pascalina para que pudiera hacer productos y divisiones.


Figura 3. La Pascalina de Blaise Pascal

La Iglesia aseguraba que era imposible que una máquina pudiera realizar las operaciones de sumas y restas sin tener conocimientos de aritmética. Como dijo el propio Pascal: La máquina

aritmética produce resultados que se acercan al pensamiento que cualquier animal pueda hacer; pero no hace nada que nos pueda llevar a decir que posee el libre albedrío propio de los animales. Sea como fuere, la aparición de un invento responde a ciertas necesidades, y un claro ejemplo de ello es la máquina inventada por el español Batista Esteve hacia el año 1700, quien sufría una deformidad en sus dedos que le impedía realizar las operaciones manualmente. Esta máquina era capaz de recuperar y registrar información mediante pesas y varillas. Autómatas El francés Jacques de Vaucanson (1709-1782) construyó un increíble pato mecánico que fue la admiración de toda Europa. En 1868 se describe a este pato como la pieza mecánica más

maravillosa que se haya hecho (figura 4). El pato alargaba su cuello para tomar el grano, lo tragaba y lo digería por disolución conduciéndolo hacia el ano, donde había un esfínter que permitía evacuarlo; también graznaba y chapoteaba en el agua.

Figura 4. Autómata de Vaucanson


Siguiendo sus pasos, el relojero suizo Pierre Jaquet Droz (1721-1790) y sus hijos Henri-Louis y Jaquet construyeron diversos muñecos capaces de escribir (1770), dibujar (1772) y tocar diversas melodías en un órgano (1773). Estos se conservan en el museo de arte e Historia de Neuchâtel, Suiza. Pero no todos los autómatas perseguían ser el centro de atención de la Corte Real. Doscientos años antes, en pleno Siglo de Oro español, Blasco de Garay flotó en Málaga, España, el primer barco movido por paletas (aunque a base de fuerza manual); y el ingeniero Juanelo Turriano (relojero de Carlos I) creó un hombre de palo con el que consiguió salvar sin esfuerzo un desnivel de 100 metros para subir agua desde el río Tajo hasta el Alcázar de Toledo.

Preludio de la computación Uno de los grandes promotores de las Ciencias de la Computación fue el inglés Charles Babbage quien propuso a la Real Academia Británica de Astronomía un modelo de artefacto mecánico que podía resolver ecuaciones polinómicas mediante diferencias sucesivas: la Máquina Diferencial. Por desgracia su fabricación se canceló en 1834 pero, curiosamente, fue parcialmente construida en 1991 por encargo del museo Británico de la Ciencia, lo que demostró su viabilidad (figura 5).

Figura 5. Parte de la Máquina Diferencial de Babbage


A pesar de este revés Babbage, basándose en las tarjetas perforadas del francés Joseph-Marie Jaquard quien las utilizaba en sus telares para crear motivos diferentes en las telas producidas, ideó un ingenio mucho más poderoso: la Máquina Analítica. Esta máquina poseía todos los elementos básicos de un ordenador moderno: un almacén o memoria, un molino o procesador y un programa a base de tarjetas perforadas. La separación entre memoria y procesador constituye uno de los primeros logros de la computación. Augusta Ada Byron, condesa de Lovelace e hija de Lord Byron, es considerada la primera programadora para la Máquina Analítica de Babbage, aun cuando ésta era tan sólo una idea abstracta cuya fabricación nunca comenzó. Tales fueron sus logros que llegó a concluir la necesidad de utilizar estructuras básicas de control ampliamente utilizadas hoy día, como los saltos, bucles y subrutinas. Mientras tanto, el matemático inglés George Boole, en la búsqueda de los componentes básicos del razonamiento humano trazó en los límites de la Metafísica las bases que conectan la Lógica con el Cálculo dando lugar a un álgebra con sólo dos valores: el Universo y la Nada, junto con un conjunto de operaciones para tratar con ellos. Conceptos tan abstractos tuvieron poca utilidad en su época pero, como sabemos hoy día, suponen el fundamento lógico de los ordenadores: el álgebra booleana o lógica compuesta tan sólo del 0 y el 1 (bit-binary digit). Siguiendo con las tarjetas perforadas, el estadounidense Herman Hollerith identificó un nuevo uso para éstas: su enorme potencial como medio para almacenar datos. Hollerith trabajaba para la Oficina Censal de EE.UU., la cual realizaba un censo nacional por década: el de 1870 acabó cerca de 1880 y se estimaba que los siguientes censos se solaparían unos con otros si se realizaban con los medios convencionales. Hollerith solucionó el problema usando tarjetas perforadas para almacenar los datos censales facilitando su transporte, lectura y replicación. Por ello, Hollerith es considerado como el primer informático, es decir, el primero que logró el tratamiento automático de la información. La empresa creada por Hollerith para comercializar su invento acabó con el nombre de International Business Machines, IBM.

Dispositivos de entrada y salida


De poco sirve una máquina de cómputo si no dispone de mecanismos para introducir datos y visualizar resultados. La disposición de los caracteres en un teclado QWERTY fue diseñada por Chistopher Sholes en 1868, y está pensada para que sea difícil escribir rápido, porque si se pulsaban dos teclas muy seguidas, los martillos impresores chocaban entre sí, y la máquina se atascaba; la disposición QWERTY, además, está diseñada para minimizar atascos mediante una distribución estadística de las letras (figura 6).

Figura 6. Máquina de escribir de Sholes

En 1874 el sueco Wilgodt Odhner patentó en Rusia una calculadora pequeña y simple, fácil de usar, y popularmente económica. Vemos que una buena interfaz de usuario es importante. De esta manera las calculadoras se fueron haciendo más pequeñas, más fáciles de utilizar y mucho más robustas. Algunas mejoras fueron decisivas, como la del francés H. Pottin quien, en 1874, creó una máquina registradora que imprimía las cifras en papel a medida que se desarrollaba el cálculo. A finales del siglo XIX, cuando EE.UU. y las potencias europeas demostraban su inventiva, España se hundía en la denigración científica por falta de recursos: en 1878, Ramón Verea, español residente en Nueva York, inventó la primera máquina capaz de dividir y multiplicar directamente. Verea dijo que no hizo la máquina con intención de comercializarla, sino para probar que un

español puede inventar tan bien como lo puede hacer un americano. Mientras tanto, la Física y el conocimiento de la electricidad y sus propiedades iban avanzando vertiginosamente en una inevitable carrera en la que los dispositivos mecánicos serían sustituidos por los eléctricos y electrónicos.


La Informática en el Siglo 21 

2001: Microsoft desarrolla, como parte de su plataforma .NET, el lenguaje de

programación C#, que después fue aprobado como un estándar por la ECMA e ISO.   

2001: Se lanza el sistema operativo Windows XP por parte de Microsoft. 2001: Se crea Wikipedia.

2002: Lanzamiento del navegador web Mozilla Firefox, llamado en un primer momento Phoenix.

2002: Puesta en marcha del supercomputador Earth Simulator que sería el ordenador más potente según el TOP500.

2005: Los usuarios de Internet con conexión de banda ancha superan a los usuarios de internet con conexión vía módem en la mayoría de países desarrollados.

    

2005: Se lanza el programa Google Earth.

2005: Lanzamiento de Windows XP Media Center Edition

2005: Puesta en funcionamiento del supercomputador MareNostrum en el BSC. 2005: Creación de YouTube.

2006: Lanzamiento del sistema operativo de Microsoft Windows Vista: Entra en servicio el supercomputador Magerit perteneciente al CeSViMa.


2007: La empresa Dell lanza al mercado la primera computadora portátil (laptop) con la distribución Linux Ubuntu preinstalada.

2007: La empresa de Steve Jobs, Apple, lanza al mercado la nueva versión el Mac OS X Leopard 10.5

2008: Apple lanza al mercado la MacBook Air la cual, al parecer, es la laptop más delgada del mundo en ese momento.

 

2008: Apple lanza en toda Europa y América, el iPhone 3G.

2008: Google, contrarresta a Apple lanzando el G1 con su nuevo sistema Android para móviles.

  

2008: Lanzamiento del navegador Google Chrome. 2008: Lanzamiento de KDE 4.0.

2008: El supercomputador IBM Roadrunner es el primero en superar el PetaFLOP alcanzando el número 1 en la lista de los más veloces, TOP500.

    

2009: Debian GNU/Linux 5.0 2009: KDE 4.2 RC

2009: Apple, lanza al mercado la nueva versión el Mac OS X Snow Leopard 10.6 2009: El 22 de octubre se lanza el sucesor de Windows Vista, el Windows 7.

2010: Se espera el lanzamiento de Google Chrome OS, un sistema operativo creado por la empresa Google y basado en Linux.

 

2010: IBM crea un procesador de grafeno con una frecuencia efectiva de 100 GHz

2010: Se espera el lanzamiento de USB versión 3.0, que representaría un avance en la velocidad de transmisión de datos entre el dispositivo conectado y la computadora.

 

2010: Qualcomm lanza el primer procesador móvil doble núcleo a 1,5 Ghz 2012: Microsoft lanza windows 8.


Historia del hardware

La máquina analítica de Charles Babbage, en el Science Museum de Londres.

El hardware ha sido un componente importante del proceso de cálculo y almacenamiento de datos desde que se volvió útil para que los valores numéricos fueran procesados y compartidos. El hardware de computador más primitivo fue probablemente el palillo de cuenta;1 después grabado permitía recordar cierta cantidad de elementos, probablemente ganado o granos, en contenedores. Algo similar se puede encontrar cerca de las excavaciones de Minoan. Estos elementos parecen haber sido usadas por los comerciantes, contadores y los oficiales del gobierno de la época.


Los dispositivos de ayuda provenientes de la computación han cambiado de simples dispositivos de grabación y conteo al ábaco, la regla de cálculo, lacomputadora analógica y los más recientes, la computadora u ordenador. Hasta hoy, un usuario experimentado del ábaco usando un dispositivo que tiene más de 100 años puede a veces completar operaciones básicas más rápidamente que una persona inexperta en el uso de las calculadoras electrónicas, aunque en el caso de los cálculos más complejos, los computadores son más efectivos que el humano más experimentado.

Historia del Software

Mapa conceptual del software libre. La historia del software libre como lo conocemos actualmente, se remonta a inicios de los años 1980, época en la que la mayoría de software era privativo y surgió la necesidad, por parte de 1

algunos programadores, de crear proyectos que impulsaran la creación de software libre. Cabe mencionar

que

antes,

cuando

las

primeras computadoras nacieron

(y

por

ende

los

primeros programas informáticos), el software tenía un modelo de desarrollo cooperativo, similar al de otras ciencias como la física; esto empezó a cambiar en los años 1960 y los años 1970, cuando 2

nacieron las primeras compañías que «privatizaron» su código.

Es importante señalar que el software libre y de código abierto, no debe ser confundido con el llamado "freeware"; el software libre y de código abierto suele ser gratuito, lo que puede llevar a confusión. El FOSS (acrónimo en inglés para free and open source software) también puede ser comprado y vendido. La confusión es aún mayor en países de habla inglesa por la ambigüedad de la palabra free que significa tanto libertad, como gratuidad.


Esta es una l铆nea del tiempo acerca de c贸mo el software libre y de c贸digo abierto ha existido y evolucionado desde su concepci贸n.


Issuu converts static files into: digital portfolios, online yearbooks, online catalogs, digital photo albums and more. Sign up and create your flipbook.