Issuu on Google+

EL PODER DE LA INFORMACIÓN

1

Nanolitografía (1999)

L

os teléfonos móviles actuales, las computadoras y los sistemas GPS no serían tan compactos como son, sin la técnica conocida como nanolitografía, una rama de la ciencia revolucionaria de la nanotecnología. Nanolitografía es una manera de manipular la materia en la escala de átomos individuales con el fin de crear las placas de circuitos para una variedad de dispositivos electrónicos. Mediante el uso de un microscopio de fuerza atómica, los

nanomateriales átomo de tamaño como nanocristales, nanocapas, y los nanotubos se organizan en estructuras. Inmersión en la nanotecnología pluma, desarrollado en 1999 por Chad Mirkin de la Universidad Northwestern, ha permitido que las placas de circuitos para ser mucho más pequeño. Esto, a su vez, ha conducido al desarrollo de los ordenadores tan pequeños que podían ser utilizados en otras tecnologías de nanoescala, como la materia programable.

>>Nota: Nanolitografía tiene su fundamento en la invención del microscopio en 1590. 1


2

Nanotubos de Carbono (1991)

E

n 1991 el físico japonés Sumio lijima descubrió los nanotubos de carbono, considerado como uno de los descubrimientos más importantes en la historia de la física.

y su resistencia a la tracción es de hasta 50 veces mayor que la del acero. Los nanotubos de carbono también se pueden utilizar como semiconductores. La conductividad de algunos nanotubos es mayor que la del cobre, por ejemplo.

Los nanotubos pueden ser construidos por un método de evaporación de arco, en la que se hace pasar una corriente de 50 amperios entre dos electrodos de grafito en helio. Los resultados son nanotubos y mencionan que miden de 3 a 30 nanómetros de diámetro

Los científicos e ingenieros están buscando formas de utilizar los nanotubos en la industria de la construcción, así como en aplicaciones aeroespaciales. Hoy en día, las pantallas planas y los microscopios y algunos dispositivos de detección incorporan nanotubos de carbono. En el futuro, muchos elementos cotidianos desde viviendas a los chips de computadora de baterías de auto, podrán hacerse de los nanotubos de carbono.

Una de las sorprendentes propiedades de los nanotubos de carbono es su fuerza. Su resistencia al esfuerzo es cinco veces mayor que la del acero,

2


EL PODER DE LA INFORMACION

3 E

en todo el mundo la Web (1990)

l ancho mundo ha cambiado la vida para siempre mediante la vinculación de millones de ordenadores en todo el mundo, con lo que toda la información que contienen al alcance de todos. Aunque los términos en todo el mundo se casó y de Internet a menudo se utilizan indistintamente, no son lo mismo. Internet es el sistema que es el matrimonio. es posible tener Internet sin casarse, pero el casarse no puede existir sin Internet. Internet comenzó en 1962 como ARPANET, una red de dos ordenadores concebido por los militares de EE.UU.. que la red creció hasta más de un millón de computadoras en 1992. en 1990 el científico informático británico Tim

Berners-Lee inventó el Mié, es decir, creó las primeras páginas Wed incorporan hipertexto-texto que se muestra en un monitor que contiene hipervínculos a otros documentos-una concepción que datoes a la década de 1960. Y el resto, como dice el refrán, es historia. la manera más profunda en la que el Mar ha afectado la vida económica y social es la facilidad de la comunidad. La gente en Canadá, Sudáfrica y Australia pueden compartir ideas con otros o participar en un debate sobre los acontecimientos actuales. Una mujer en Moscú puede comprar un artículo de colección de un hombre en Brasil que tiene la pieza exacta que está buscando.

3


4

Buckyball (1985)

E

n 1965, científicos predijeron la existencia teórica de una molécula de múltiples átomos de carbono con la forma de una esfera o cilindro. Pero no fue hasta 20 años después que Richard Smalley y Robert Curl, ambos profesores de la Universidad de Rise en Houston, Texas, y Harry Kroto, profesor de la universidad de Sussex, Inglaterra, descubrieron uno. Centrando láser en barras de grafito generaron moléculas de forma simétrica, algo como jaulas simétricas regulares. Viendo que estas moléculas tenían una similitud remarcable a los domos geodésicos –una construcción hecha de enrejados triangulares y diseñado por el visionario arquitecto R. Buckminster Fuller- llamaron a la nueva molécula buckminsterfullereno, o fullereno- buckyballs de manera abreviada. Las tres investigaciones recibieron el Premio Nobel de Química en 1996.

En 1991, el descubrimiento del investigador japonés Sumio Iijima de una versión alargada de la bola hueca, en última instancia, llamado el nanotubo, estimuló la revolución nanotecnológica a inicios del siglo 21.

El descubrimiento del fullereno tuvo implicaciones científicas y tecnológicas, la mulecula tiene muchos usos prácticos. El análisis de las buckyballs ayudó en la comprensión de la conducta y manipulación de las hojas de metal. Excelentes conductores de calor y electricidad, los materiales del fullereno pueden reemplazar a los dispositivos basados en silicio en ordenadores, celulares y electrónicos similares. El material también brinda increíble resistencia a la tracción, lo que promete nuevas posibilidades en arquitectura, ingeniería y diseño de aeronaves.

Un fullereno (detallado, arriba, y arriba a la izquierda) es una molécula de forma reticular que de carbono. llamado así de manera abreviadad por el arquitecto R. Buckminster Fuller.

4


EL PODER DE LA INFORMACION

5

Sistema de posicionamiento global (1978)

U

bicada a 12,000 kilómetros sobre la Tierra y viaja a una velocidad de 7,000 mil por hora, el sistema de navegación basado en satélites fue lanzado en 1978 por el Departamento de Defensa de EE.UU. con fines militares. Poco después, los fabricantes de equipos GPS reconoció su masa potencial de mercado y clamaba por su uso como una aplicación civil. El Departamento de Defensa cumplido con su solicitud en la década de 1980. GPS, que es extremadamente preciso. Trabaja sobre el principio de triangulación, por el cual la posición de un objeto dado (una persona en un coche, por ejemplo) se determina por la distancia del objeto a partir de cuatro satélites de la red con la que un dispositivo

se está comunicando. La red GPS se compone de 24 satélites, con 3 a la espera en caso de fracaso, y cada satélite tiene dos vueltas completas alrededor del planeta cada día Entonces, ¿qué le depara el futuro del GPS parece? Sin duda, la red son cada vez más precisa y para proporcionar información cada vez más fina en un lugar determinado. Los conductores todavía tienen que tomar sus ojos del camino para observar el dispositivo GPS, pero eso puede cambiar. Una compañía llamada Making Virtual Solid está trabajando en una solución llamada Virtual Cable, el cual está diseñado para ser integrado en el parabrisas de un coche. Una línea roja que parece seguir el paisaje guía al conductor a su destino.

HECHO: Los 24 satélites de la red GPS funcionar con energía solar.

5


6 D

Computadora Personal (1977)

e acuerdo con la compañía Nielsen, alrededor del 80 por ciento de los hogares en Estados Unidos tenía una computadora en 2008, y de ellos, alrededor del 90 por ciento tenía acceso a internet. Ya se trate de un modelo de principioscomo la Commodore PET (muy popular en las escuelas en la década de 1970), La Apple II (Una de los primeras microcomputadoras exitosas producidas en masa)- y el IBM PCs (diseñado para reemplazar los dos primeros dispositivos en el hogar)- o la última y mejor en las máquinas, todos los equipos tienen los mismos componentes básicos. Un equipo se compone de una placa base, una procesadora una unidad central de procesamiento, memoria, discos, un ventilador, y los cables. Conectado a la computadora son sus periféricos: el ratón, teclado,

monitor, altavoces, impresora, escáner, y así sucesivamente. Estos componentes trabajan juntos para ejecutar el software: el sistema operativo y los programas adicionales, tales como un procesador de textos, software de gestión de dinero, o el software de edición de fotos. Con el ordenador personal, la tecnología de la computación se convirtió al público en general. Computadoras ya no eran grandes, piezas muy caras de los equipos que sólo las grandes corporaciones o agencias gubernamentales podían pagar o que sólo los informáticos pueden operar. Este significativo avance en última instancia, dio a luz nuevas industrias, cambiaron la forma de comunicarse, e irrevocablemente alterado su vida laboral y personal

6


EL PODER DE LA INFORMACION

7

Realidad Aumentada

diferencia de la realidad virtual, la cual está basada en un entorno generado por computadora, la realidad aumentada esta diseñada para realzar el mundo real por medio de audio súper impuesto, visuales y otros elementos en tus sentidos.

A

El investigador de Boeing Tom Caudell acuño el término realidad virtual primero en 1990 para describir la pantalla digital usada por los electricistas de las líneas aéreas, la cual combina gráficos virtuales con realidad física. Pero el concepto es aun más viejo que eso. La película de 1988 Who Framed Roger Rabbit (¿Quién engañó a Roger Rabbit?) es un buen ejemplo de la tecnología y originada antes de eso una versión más simplista está demostrada en las flechas amarillas que los anunciadores usan en los juegos de Football televisados cuando analizan una jugada. Realidad aumentada esta actualmente llevando el desarrollo de electrónicos de consumo debido a su gran utilidad en las aplicaciones de los smartphone (teléfonos inteligentes). Una aplicación llamada Layar.  5 El sistema de posicionamiento global es esencial para la realidad aumentada, la cual depende del GPS para identificar la ubicación de una persona.

Usa la cámara de un teléfono celular y las capacidades del GPS para reunir información sobre ciertos sitios cercanos, como restaurantes y cines y superposiciona esta información en la pantalla del teléfono celular. Posiciona el teléfono en algún edificio y Layar reporta si alguna compañía en ese edificio está contratando o localiza la historia de ese edificio en la enciclopedia en line Wikipedia. Hay algunas limitaciones para la tecnología de la realidad aumentada como existe hasta ahora: El sistema GPS tiene un alcance de aproximadamente 30 pies (9.14400 metros), las pantallas de los teléfonos celulares son pequeñas y hay comprensibles preocupaciones acerca de la privacidad, especialmente como la tecnología afecta mas y mas aspectos de nuestra vida. Aun así, el futuro de esta tecnología es prometedor y es evidente que pronto su potencial será aprovechado para los juegos, la educación, la seguridad, la medicina, los negocios y otras áreas.  10 SMART PHONES (teléfonos inteligentes) son los dispositivos en los cuales se ha implementado la tecnología de la realidad aumentada actualmente.

7


ELEL PODER PODERDE DELA LAINFORMACION INFORMACION

Aprenda Más

Orientar y Navegar

Tomar decisiones

Así como los títulos en una página, la realidad aumentada puede proveer conocimientos y explicaciones, tales como la biografía del arquitecto Frank Gehry cuando se visita sus edificios emblemáticos.

El sistema de posicionamiento global permite etiquetas geográficas que se asignan a la ubicación de una persona en un momento y luego traza los sitios de los alrededores y las vías.

Considerar opciones y tomar decisiones virtualmente. Aquí las galerías están representadas por imágenes de exposiciones de museo, tales como “La Materia del Tiempo” de Richard Serra.

Use un smart phone (teléfono inteligente) para ver señales conectadas a un lugar actual, tal como el museo Guggenheim en Bilbao y puedes acodar información.

8


ELEL PODER PODERDE DELA LAINFORMACION INFORMACION

8 I

Criptografía: La llave Pública (1976)

nventada en 1976 por el profesor de la Universidad de Stanford, Martin Hellman, estudiante graduado de Whitfield Diffie, la llave criptográfica es una seguridad tecnológica que ayuda a la gente a usar una red insegura (como internet) para transmitir datos privados como números de cuentas de banco con seguridad. Así es como se trabaja: Un certificado de autoridad simultáneamente crea una “llave” pública y una “llave” privada. Así como una llave desbloquea una puerta, estas llaves en particular son valores que desbloquean datos encriptados. La llave privada está dada

solamente a la persona que lo requiera, la llave pública está hecha públicamente disponible. La llave privada es usada para descifrar información que ha sido actualmente descifrada por la llave pública. Este es un proceso complejo, pero el resultado final es lo que importa: Ya sea comprando una colección codiciada en eBay, pagando facturas, o renovando la licencia de conducir en línea, la llave pública de criptografía protege datos personales. La llave pública criptográfica asegura que los datos confidenciales transmitidos en Internet permanezcan protegidos.

>>Nota: La llave pública criptográfica ha encerrado varias lagunas de seguridad en transmisión inalámbrica. 9


9

Electrónica molecular (1974)

C

omo en el tiempo lo implica, la electrónica molecular se refiere a la utilización de componentes moleculares para construir dispositivos electrónicos. ya que los químicos Marck Ratner y Ari Aviram crearon el primer dispositivo de electrónica molecular, en 1974 - un rectificador que convierte la corriente alterna a corriente de científicos han seguido avanzando tanto en su comprensión de la ciencia y sus aplicaciones potenciales.

Muchos investigadores están trabajando para reemplazar semiconductores en todas sus aplicaciones con interruptores electrónicos moleculares. Algunas empresas están en condiciones de ofrecer tales cambios a la computadora y dispositivos electrónicos de fábrica, un ejemplo es la empresa de Huntsville, Alabama, con sede llamada CALMEC, que a creado un interruptor molecular. Este dispositivo puede ser utilizado en la tecnología electrónica para ser miniaturizado aún más de lo que ahora lo es.

El metal oro se deposita sobre una oblea para formar circuitos para los dispositivos micro- electronicos (MEM)

10


EL PODER DE LA INFORMACIÓN

10 E

Teléfono Celular (1973)

s difícil decir lo que es más ubicuo en el mundo de hoy computadora personal o el teléfono celular, que fue inventado en 1973 por Martin Cooper cuando él era el director de investigación y desarrollo de Motorola. Un teléfono celular es en realidad un aparato de radio, aunque muy sofisticada. Es un dispositivo dúplex completo, lo que significa que dos frecuencias diferentes se utilizan para hablar y escuchar. La comunicación se produce en los canales, de los cuales el teléfono celular promedio contiene más de 1.650. En una red de telefonía celular típica, un vehículo, que proporciona el servicio de telefonía celular, se le asigna 800 frecuencias, que se dividen en unidades llamadas células hexagonales. Cada célula contiene una decena de kilómetros cuadrados. Cada célula tiene su propia estación base y la torre. Tanto los teléfonos celulares y las torres de celulares tienen transmisores de baja potencia en los mismos. El teléfono y la torre uso4 una frecuencia especial para comunicarse entre sí. (Si esta frecuencia no se puede encontrar, un “Fuera del rango” o “No hay ningún mensaje” Servicio se muestra en la pantalla de los teléfonos). Como una persona que llama utiliza el teléfono y se mueve de una célula a otra, la frecuencia se pasa de una célula a la siguiente. El portador mantiene la frecuencia necesaria para comunicarse con la persona en el otro extremo y controla continuamente la intensidad de la señal.

Si la persona que llama se mueve de una red de transportistas a la de otro, la llamada no será dado de baja, pero la mandíbula personas que llaman pueden caer cuando ve que las tarifas de itinerantica en su proyecto de ley. Los primeros teléfonos móviles eran voluminosos y tenían antenas (izquierda), los teléfonos inteligentes de hoy (abajo) son más pequeños y mucho más potente.

11


Un mapa de uso de Internet en todo el mundo muestra la densidad de conexiones en América del Norte y Europa

11

Internet (1969)

G

racias al internet, la mayoría de los aspectos de la vida se están moviendo en línea más que nunca antes. Lo que comenzó como una colaboración entre la academia, gobierno e industria a finales de 1960 y principios de 1970 se ha convertido en una infraestructura de gran cantidad de información. El Internet funciona gracias a unas pocas tecnologías. El primero es la conmutación de paquetes, lo cual los datos están contenidos en las unidades de formato especial, o paquetes, que se dirigen desde el origen al destino a través de los conmutadores de red y routers. Cada paquete contiene información sobre la dirección que identifica el remitente y el destinatario. Usando una dirección, conmutadores de red y routers a determinar la mejor forma de transferir el paquete entre los puntos en el camino hacia su destino.

sentido, esto es lo que hace que el Internet de Internet. Con este concepto, los diferentes proveedores pueden utilizar cualquier tecnología de red individual que quieran, y las redes de trabajar juntos a través de una arquitectura de interconexión de redes. Por lo tanto estas redes actúan como pares por una y otra y ofrecen sin fisuras de extremo a extremo de servicio. Una importante tecnología de tercera es la transmisión de control / Protocolo de Internet, y TCP / IP. Esto es lo que hace que una red abierta de arquitectura sea posible. Piense en ello como la lengua de comunicación básica de Internet. TCP reúne un mensaje o archivo en pequeños paquetes que son transmitidos a través de la dirección IP internet, e IP lee la parte de dirección de cada paquete para que llegue a su destino correcto. Cada equipo de puerta de enlace en la red comprueba esta dirección para determinar dónde enviar el mensaje.

El Internet también se basa en un concepto clave conocida como red de arquitectura abierta. En cierto

Nota: Se estima que más de dos millones de personas en todo el mundo accede a Internet en 2011. 12


EL PODER DE LA INFORMACION

12

Nanotecnología (1959)

A

finales de 1959 el objetivo de crear dispositivos más pequeños y más pequeños estaba en las mentes de los científicos e investigadores, y han hecho algún progreso. Por ejemplo, los inventores has desarrollado motores que eran aproximadamente del tamaño de una punta de dedo. Richard Feynman profesor de física, de un Instituto de Tecnología de California, previo avances más grandiosos. En la tarde del 29 de Diciembre de 1959, el dio su ahora famosa platica sobre nanotecnología en un evento para la Sociedad Americana de Física. En su plática, titulada “Hay mucho espacio en el fondo” el describió la habilidad para escribir la Enciclopedia Británica completa en la cabeza de un alfiler usando herramientas o maquinas del tamaño de un átomo. La visión de Feynman de la nanotecnología considero muchas de sus aplicaciones prácticas. Baso después sus ideas revolucionarias en el hecho de que cada célula viva de un organismo contiene toda la información de genética necesitada para crear ese organismo. Esta era su prueba de que el almacenamiento de grandes volúmenes de datos se monta en objetos diminutos ha sido posible. Vidrio resistente al fuego contiene una capa de nano partículas de sílice que ayuda a soportar temperaturas de arriba de 1800 F por más de dos horas

13


13

Los circuitos integrados se han montado en placas de circuitos de ordenador.

Circuitos Integrados (1958)

C

ircuitos integrados (ICs) se encuentran en casi

componentes ya no tenían que montar manualmente.

todos los usos dispositivo electrónico de hoy, desde

Los circuitos podrían hacerse más pequeño, y el proceso

teléfonos celulares a los conjuntos de Televisión.

de fabricación podría ser automatizado. (Para demostrar

Un circuito electrónico complejo, cada IC contiene un

lo pequeño que estos circuitos se puede, considere esto:

diodo, un transistor, una resistencia, y un condensador.

El original sólo tenía un CI de transistores, resistencias

Estos componentes trabajan juntos para regular el flujo

de tres, y un condensador, y era del tamaño del dedo

de la electricidad mediante un dispositivo. Sin embargo,

meñique de un adulto de hoy, un CI inferior a un

los circuitos integrados tienen desventajas: Todas las

centavo. puede contener 125 millones de transistores.)

conexiones deben permanecer intactos o el dispositivo

En 1961, los primeros circuitos integrados disponibles

no funcionará, y la velocidad es un factor

comercialmente, se han introducido, y los fabricantes de

definitivamente. Si los componentes de la IC son

ordenadores de inmediato vio la ventaja que ofrecen. En

demasiado largos, por ejemplo, el dispositivo es lento e

1968, Noyce fundaron Intel, la compañía que introdujo el

ineficaz.

microprocesador, el cual tomó la IC un paso más allá

En 1958, Jack Kilby americanos y Robert Noyce

mediante la colocación de una unidad central de

separado resuelto este problema utilizando el mismo

procesamiento, la memoria y los controles de entrada y

material para la construcción tanto en el circuito

salida en un pequeño chip.

integrado y el chip que se sentó en. Los cables y

>>Nota: la invención de los semiconductores en 1911 allanó el camino para el desarrollo de circuitos integrados.

14


14 E

La computación en nube

n el pasado, la informática se basó en una infraestructura física: routers, tubos de datos, hardware y servidores. Estos elementos no han desaparecido ni es probable que desaparezca conjuntamente perfil, pero el proceso de entrega de los recursos y servicios se está moviendo a un modelo en el que se utiliza el Internet para almacenar teh aplicaciones necesarias. una benéfica inmediata de este modelo es un costo menor. por ejemplo, las empresas ya no tienen que comprar licencias de software individuales para cada empleado. con el cloud computing, un cinco años de aplicación de acceso único de múltiples usuarios a distancia para el software. basado en la web de correo electrónico, como Gmail de Google, es un ejemplo de cloud computing. para entender el concepto de cloud computing, que ayuda a pensar en términos de capas. las capas frontales son lo que los usuarios ver e interactuar con-una cuenta de Facebook, por ejemplo. la parte final consiste en la arquitectura de hardware y software que se ejecuta la interfaz de usuario en la parte delantera. ya que los equipos se configuran en una red, las aplicaciones pueden tomar ventaja de toda la potencia de cálculo combinado como si se estuvieran ejecutando en una máquina. en particular. si bien hay ventajas de este modelo, no carece de inconvenientes. privacidad y la seguridad son dos de las mayores preocupaciones.

Después de todo, una empresa está permitiendo que los datos importantes, potencialmente sensibles a residir en la Internet, donde, en teoría, cualquier persona podría acceder a él. Las empresas que ofrecen servicios de computación en la nube, sin embargo, están muy motivados para garantizar la privacidad y seguridad de su reputación están en juego. Un sistema de autenticación que utiliza los nombres de usuario y contraseñas u otro tipo de autorización de ayuda para asegurar la privacidad. 3 aplicaciones de computación en la nube, por las definiciones, residen en el WORLD WIDE WEB. 6 El ordenador personal es el medio por el cual la mayoría de las personas tendrán acceso a la nube. 8 criptografía de clave pública permite el cifrado de la información transmitida electrónicamente privado. 11 de la fundación de la INTERNET computación en nube y permite a los usuarios ejecutar aplicaciones en otros equipos de la propia. 19 RED DE GRAN ESCALA suministro eléctrico es necesario para el uso de la Infraestructura de computación en nube

15


EL PODER DE LA INFORMACIÓN

15

Teoría de la información (1948)

L

a teoría de la información tiene su origen en un documento de 1948 por el ingeniero estadounidense matemático Claude Shannon. La teoría matemática de la comunicación. Esta teoría permite que la información en un mensaje para ser cuantificadas, por lo general como bits de datos que representan uno de dos estados dentro o fuera. También dicta cómo codificar y transmitir la información en la presencia de ruido, que puede corromper un mensaje en el camino. El corazón de la teoría de Shannon es el concepto de incertidumbre. la mayor incertidumbre que existe con respecto a lo que la señal es, más bits de información están obligados a asegurarse de que la información esencial se transmite. Shannon llamó a esta medida de la incertidumbre basada en la entropía de la información. Él demostró matemáticamente que una señal puede ser codificado, reducido a su forma más simple, eliminando así la interferencia o ruido para transmitir un mensaje claro, y sólo el mensaje. Aunque no es siempre una posibilidad de error en la transmisión, la aplicación de la teoría de la información enormemente minimiza esta posibilidad.

a alguien, usted ha visto codificación de origen en la acción). La codificación de canal añade bits adicionales de datos para hacer la transmisión de datos más resistente a las perturbaciones presentes en el canal de transmisión.

Consola de mezcla de música electrónica combina, rutas y cambios en la dinámica de las señales de audio

A través de la teoría de la codificación, una rama importante de la teoría de la información, los ingenieros estudian las propiedades de los códigos con el propósito de diseñar datos eficientes y confiables, eliminando la redundancia y los errores en los datos transmitidos. Tiene dos características primarias. La codificación de fuente es un intento de comprimir los datos de una fuente con el fin de transmitir los datos de manera más eficiente (si alguna vez ha comprimido en un archivo para enviar

16


16 T

Transistor (1947)

ransistor es un tipo de semiconductor, sin que los modernos dispositivos electrónicos incluidos los ordenadores-no podía funcionar, aunque hay varios tipos diferentes de transistor, al contener una pieza sólida de material semiconductor, con al menos tres terminales que se pueden conectar a una externa circuito. esta tecnología transfiere corriente a través de un material que normalmente tiene una alta resistencia en otras palabras un Resisto, de ahí, es una resistencia de transferencia, acortado a transistor. antes de la introducción de los ordenadores transistor operados por era de tubos de vacío, que eran voluminosos y caros de producir. los ordenadores más potentes contenida miles de ellos, por lo que las primeras computadoras llena de habitaciones enteras, en 1947 los físicos John Bardeen americano y Walter Brattain un Bell Labs observó que cuando los contactos eléctricos

se aplicaron a un cristal de germanio, la energía generada fue mayor que el poder utilizada. Estadounidense William Shockley, también físico, vio el potencial en este, uno más de los próximos meses el equipo ha trabajado para ampliar sus conocimientos de los semiconductores. En 1956 los tres hombres ganó el Premio Nobel de Física por inventar el transistor. ¿Por qué es tan importante que el transistor de la electrónica moderna? Entre otras ventajas, se puede massproduced utilizando un proceso altamente automatizada para un costo relativamente bajo. Además, los transistores se pueden producir por separado o, más comúnmente, empaquetado en circuitos integrados con otros componentes para producir completos circuitos electrónicos.

El transistor fue inventado en 1947 para remplazar el tubo de vacio voluminoso y caro

100 descubrimientos científicos que cambiaron el mundo 17


Satélites geoestacionarios ORBITA DE TIERRA

17

Satélites de Comunicación (1945)

A

unque la mayoría de la gente lo conoce como un prolífico autor de ciencia ficción C. Clarke hizo una contribución significativa a la tecnología de la comunicación. En octubre de 1945, expuso su concepto de los satélites de comunicaciones geoestacionarios en un artículo titulado "extraterrestres", los relés de las estaciones de cohetes puede dar la cobertura de radio en todo el mundo? ", aunque Clarke no fue el primero en llegar a la teoría, fue el primero en popularizar él. La órbita geoestacionaria término se refiere a la órbita de la posiciónde un satélite alrededor de la tierra `s. La órbita de un geosincrónicas repite regulary satelitales sobre puntos específicos. cuando la órbita regular se encuentra sobre la línea ecuatorial y es circular, se llama geoestacionaria. Las ventajas de los satélites geoestacionarios son muchas. Recibir y transmitir las antenas en el

suelo no es necesario realizar un seguimiento de los satélites, ya que no vacilan en sus órbitas. antenas sin seguimiento son más baratas que las antenas de seguimiento, Por lo que la Costa del funcionamiento de dicho sistema se reducen. las desventajas: debido a que los satélites son tan altos, las señales de radio tardan un poco más que recibio y se transmite, lo que resulta en un retardo de la señal pequeña pero significativa. Además, estos satélites tienen una cobertura geográfica incompleta, ya que la estación terrestre en el más alto que aproximadamente el 60 º de latitud tienen dificultades para recibir las señales de forma fiable en elevaciones más bajas. Independientemente de las desventajas, no se puede negar que los satélites de comunicación han revolucionado áreas como las comunicaciones globales, la radiodifusión, la Televisión y los pronósticos meteorológicos, y que tienen una defensa importante y las aplicaciones de inteligencia.

18


18 E

Ondas de Radio (1888)

l físico escocés James Clerk Maxwell fue uno de los primeros científicos que especulo sobre la naturaleza del electromagnetismo. Las ecuaciones que formulo describen el comportamiento de los campos eléctricos y magnéticos, así como sus interacciones con la materia. Maxwell teorizo que los campos eléctricos y magnéticos viajan a través del espacio vacío, en forma de ondas y ondas de radio son dos formas de radiación electromagnética. En 1888, el físico alemán Heinrich Hertz fue el primero en demostrar la teoría de Maxwell satisfactoriamente cuando probó la existencia de las ondas de radio. Hertz hizo esto mediante la construcción de un dispositivo que puede detectar muy altas frecuencias y ondas de ultra alta frecuencia de radio. Publico su trabajo en un libro titulado

ondas eléctricas: los investigadores se encuentran sobre la propagación de la acción eléctrica con velocidad finita a través del espacio. Estos experimentos ampliaron considerablemente el campo de la transmisión electromagnética, y otros científicos en el campo con el tiempo desarrollaron la antena del receptor Hertz. Hertz también encontró que las ondas de radio se pueden transmitir a través de diferentes tipos de materiales y se refleja por otros. Este descubrimiento condujo finalmente a la invención del radar. Incluso allanó el camino para la comunicación inalambrica, aunque él nunca reconoció ese importante aspecto de sus experimentos. En reconocimiento a sus contribuciones Hertz fue designado de manera oficial en el sistema métrico internacional desde 1933. Es el término utilizado para las unidades de frecuencias de radio y eléctricas. Obras de arte representa los picos y valles de las ondas de radio.

>>Hecho: las ondas de radio han ayudado a desarrollar este tipo de dispositivos inalámbricos como teléfonos y teclados de las computadoras...

19


EL PODER DE LA INFORMACIÓN

19

Gran Escala de la Red de Suministro Eléctrico (1880)

E

l inventor Thomas Edison fue el primero en idear y poner en práctica la generación de energía eléctrica y la distribución a los hogares, negocios, fábricas y un hito clave en el desarrollo de la moderna industrializada de world.Edison patentado este sistema en 1880 con el fin de capitalizar su invención de la eléctrica de la lámpara, no era nada si no es un astuto hombre de negocios, en diciembre 17,1880, fundó la empresa Edision iluminación, con sede en la calle Pearl de generación eléctrica de la estación del sistema de distribución de energía, lo que propició 110 voltios de corriente directa a cerca de 60 clientes en el bajo Manhattan . Aunque Edison perdió la llamada guerra de las corrientes que siguió con la consecuencia de que la corriente alterna se convirtió en el sistema a través de energía eléctrica cual se distribuyó su sistema de distribución de energía es todavía significativo para unas pocas razones .Esta establecido el valor comercial de tal sistema, y este ayudó para simular los avances en el campo de la ingeniería eléctrica, como la gente empezó a ver el campo como una ocupación valiosa. Por ejemplo. El ingeniero eléctrico estadounidense Charles Proteus Steinmetz, a través de su trabajo en corriente alterna hizo posible la expansión de la industria de energía eléctrica en los Estados Unidos mediante la formulación de las teorías matemáticas para los ingenieros quienes estuvieron diseñando motores eléctricos para la industria.

20


20

Lógica Boleana (1854)

L

as operaciones de las computadoras están basadas sobre una cosa: determinando si una puerta o interruptor es abierto o serrada, la cual es a menudo señalada por los números cero y uno, esta es la esencia lógica de Boolean que subyacen en toda la computación moderna. El concepto fue llamado después del inglés matemático George Boolean, quien definió un sistema algebraico de lógica en 1854. La motivación de Boole para crear esta teoría fue su creencia de que el símbolo de operación matemático podría ser separado de esa cantidad y podría ser tratado como objeto distinto de cálculo.

Casi un siglo más tarde, Claude Shannon mostro ese circuito electrónico con relés que eran modelos perfectos para la lógica de Boolean, un hecho que llevó al desarrollo de la computadora electrónica. Las computadoras usan la lógica de Boolean para decidir si una instrucción es verdadera o falsa (esta tiene que hacer con un valor, no con veracidad). Hay tres puertas básicas: AND, OR, and NOT. La operación de AND dice que sí y solamente si todas las entradas están encima, la salida será acabo. La operación OR dice que si alguna entrada está activada, la salida estará encima. La operación NOT dice que la salida tendrá un estado opuesto a la de la entrada.

De hecho aunque inventó en el siglo XIX Boolean Logic forma la base de casi 21 siglo en la búsqueda del internet.

0= OPEN 1= CLOSED

La tradición algebraico a la lógica desarrollado por el Ingles Matemático George Boole (arriba) hoy se encuentra la aplicación en varios tipos de toma de desiciónes (a la izquierda)

21


Origami-como diseños de proyectos de unidad en la escala nano micro y uniforme.

21

Material Programable

M

aterial programable, que se introdujo por primera vez por el Massachusetts Institute of Technology (MIT) los investigadores Tommaso Toffoli y Margolus Norman en un documento de 1991, se está convirtiendo en una realidad, aunque a una escala relativamente pequeña. Materia programable es un asunto que puede simular o de los objetos diferentes como consecuencia de la entrada del usuario ya sea o de sus propios cómputos. Algunos materia programable está diseñado para crear formas diferentes, mientras que otras materias, tales como las células biológicas sintéticas, está programado para funcionar como un interruptor genético que se activa y señala a otras células para cambiar las propiedades como el color o la forma. Los beneficios potenciales y aplicaciones programables de la materia-en particular, la posibilidad de usarlo para realizar el procesamiento de la información y otras formas de computación-han creado un montón de emoción en el mundo de la investigación. Desde la publicación de Toffoli y papel Margolus, el trabajo se ha hecho mucho para cumplir con el potencial de lo que predijeron. 1 NANOLITOGRAFÍA

En 2008, por ejemplo, Intel Corporación anunció que sus investigadores habían utilizado materia programable desarrollar los primeros prototipos de un dispositivo de teléfono celular en la escala en centímetros y milímetros. En 2009, la Defense Advanced Research Projects Agency del Departamento de Defensa de EE.UU, informó que cinco equipos diferentes de investigadores de la Universidad de Harvard, el MIT y la Universidad de Cornell están haciendo progresos en la investigación de la materia programable. En 2010 uno de estos equipos, dirigido por Daniela Rus, del MIT, ha anunciado su éxito en la creación de auto-plegado de las hojas de origami. La Defense Advanced Research Projects Agency puertos espera para aplicación futurista del concepto. Sus miembros prever, por ejemplo, un soldado equipado con un cubo de material ligero programable que podría configurarse, en el lugar, en casi cualquier cosa que él o ella sea necesario. 12 NANOTECNOLOGÍA

22


Cuando estรก plegado, el telescopio prototipo de gafas no mide mรกs de 15 pies de ancho.

Desplegado

300 pies amplio Los motores programados desplegar el telescopio de 300 pies de ancho cuando haya sido lanzado al espacio. Su gran lente enfoca la luz sobre un ocular de socio en รณrbita alrededor de la mitad de una milla de distancia.

Desplegado

10-15 pies amplio

23


EL PODER DE LA INFORMACIÓN

22 C

Máquina Diferencial (1822)

harles Babbage, un matemático, filósofo, inventor, e ingeniero mecánico Inglés, se dio cuenta en 1822 que un motor de tipo podría ser programado con el uso de tarjetas de papel que almacenan información en columnas que contienen patrones de agujeros perforados. Babbage vio que una persona podría programar una serie de instrucciones por medio de tarjetas perforadas,

y la máquina automáticamente podría llevar a cabo esas instrucciones. El uso previsto de la máquina diferencial de Babbage fue calcular diversas funciones matemáticas, tales como logaritmos. A pesar de que nunca se completó, es considerado uno de los primeros propósitos generales de las computadoras digitales.

Un prototipo de la diferencia del motor de Babbage No.2

>>DATO: En 2011 los investigadores británicos comenzaron la construcción del motor Babbage diseñado pero nunca construido.

24


EL PODER DE LA INFORMACIÓN

En el código binario toda la información esta expresada por los números 1 y 0.

23 E

Números Binarios/ Código binario(1697)

n 1670 el filosofo y matemático Gottfried Wilhelm Leibniz filósofo y matemático alemán cuyos logros incluyen la invención del cálculo, y muchos de los avances importantes en las matemáticas, la lógica y la ciencia inventó una máquina aritmética que podía multiplicar, así como añadir. Leibniz también vio cómo su equipo podía ser modificado para utilizar un sistema binario de cálculo un concepto que está en el corazón de la computación digital. Enel sistema binario de Leibniz el termino binario se refiere a un sistema de

E

números, mediante el cual todos los valores son expresados con los números1 y 0, el sistema binario se puede entender mejor por contraste con la base 10 del sistema actual, que expresa los números del 0 al 9. En la base 10, el número 367, por ejemplo, representa 3 * 100 +6 * 10 +7 * 1. Cada posición en el número 367 representa una potencia de diez, a partir de cero y el aumento de derecha a izquierda.En el binario o base 2 del sistema. Cada posición representa una potencia de dos. Por lo que en binario 1101 representa 1 * 2^2+1*2+0*2+1 * 2º, el cual es igual a 8+4+0+1, o 13.

25


El poder de la información