Page 1

El poder de la información

El arte de la computadora muestra un nano tubo convertido en anillo. La Nanolitografía es un método usado para crear tableros de circuitos

Nano-litografía (1999) Los celulares computadoras y los sistemas de GPS de hoy no serian tan compactos como los son, sin la técnica conocida como nano litografía, una rama de la ciencia revolucionaria de la nanotecnología. Nano tipografía es una manera de manipular la materia, en una escala de de átomos individuales con el fin de crear tableros de circuitos para una variedad de dispositivos eléctricos. A través del uso de un microscopio de fuerza atómica, nano materiales del tamaño de nano cristales, nano capas, y nano tubos son organizados en estructuras. La nano tecnología Dip Pen fue desarrollada en 1999 por Chad Mirkin de la universidad del noroeste ha permitido a los tableros de circuitos ser mas pequeños. Esto, a su vez ha permitido el desarrollo de computadoras tan pequeñas que podrían ser usadas en otra tecnología de nano escala como la materia programable. Hecho: Nano tipografía ha tenido sus inicios en la invención del microscopio en 1590.


Nanotubos de Carbono (1991) En 1991 el físico Japonés Sumio Lijuma descubrió los nanotubos de carbono, considerado uno de los más importantes descubrimientos en la historia de los físicos. Los nanotubos pueden ser construidos por un método de evaporación en arco, en el cual una corriente de 50 amp pasa en medio de dos electrodos de grafito en helio. Los resultados son notables a la medida de 3 a 30 nanómetros en diámetro. Una de la más impresionante propiedad de los nanotubos de carbono es su fuerza. Su resistencia a la presión es 5 veces que la del metal, y su fuerza de tensión está 50 veces arriba que la del metal. Los nanotubos de Los nanotubos de carbono están hechos

carbono pueden ser también usados como semiconductores. Algo de la conductividad de los nanotubos es más grande que la del cobre, por ejemplo. Científicos e ingenieros están buscando maneras de usar los nanotubos en la construcción industrial tanto como en aplicaciones aeroespaciales. Hoy en día, las pantallas de paneles planos y algunos microscopios y aparatos sensibles incorporan nanotubos de carbono. En el futuro muchos artículos diarios desde los chips de las computadoras de los hogares hasta las baterías de los autos podrían ser hechos de nanotubos de carbono.


WORLD WIDE WEB (1990) El ancho mundo de la web a cambiado vidas desde siempre conectando computadoras a través del mundo, de esta manera haciendo toda la información y su contenido al alcance para todos. Además el termino ancho mundo de la web e internet son usados como intercambiables, pero no son lo mismo. El internet es el sistema que conecta las redes de información esa es la red. Es posible tener internet sin la red pero la red no puede existir sin el internet.

Un mapa global de la internet mostro una red extensa para la búsqueda de hoy

El internet empezó en 1962 como ARPANET, una red de dos computadoras adquiridas por el ejército de estados unidos. La red creció con más de un millón de computadoras para 1992. En 1990 el científico británico Tim Berners –lee invento la web, eso es el primer buscador de web y páginas web con el cual accedes vía internet, páginas web con hipertexto- texto desplazado en un monitor con hiperconectores a otros documentos- en un monitor.


4 BUCKYBALL (1985) A principios de 1965 científicos predijeron la teoría existente de una molécula hecha de múltiples átomos de carbón en forma de esfera o cilindro. Pero 20 años más tarde Richard Smalley y otros profesores de Houston, Texas y profesores de Sussex, Inglaterra se centraron en el láser, ellos generaron imitando simétricamente y geométricamente, en esta notable semejanza hicieron construcciones de ángulos. El arquitecto R. Buckminster llamo al nuevo kminsterfullerene o buchyball para acortarlo. El recibió el premio novel en 1996. Cada fullerene tenía tecnología implicada en moléculas. Análisis de buckyball hiso entender

la manipulación de hojas conductoras de calor y materiales de silicón basado en dispositivos como computadoras, celulares y eléctricos similares. El material también exhibe increíble resistencia a la tracción así prometiendo nuevas posibilidades en arquitectura, ingeniería y diseños de avión. En 1991 un investigador japonés Sumio Lijima descubrió un oblond versión de el buckyball últimamente llamado nanotubo, estimulando la revolución de la nanotecnología del siglo 21


5

Sistema Posicionamiento Global (1978)

L

ocalizado 12000 millas Tierra morada y

viajando a una velocidad 7.000 millas por hora, el sistema de navegación basado en satélite fue lanzado en 1978 por el Departamento de EE.UU. de Dfense con fines militares. Poco después, los manofactures de equipos GPS reconocido su potencial de mercado masivo para su uso como una aplicación civil. El departamento de Defensa cumplido con su solicitud en la década de 1980. GPS, que es extremadamente preciso, funciona según el principio de triangulación, en la que la posición de un objeto determinado (una persona en un coche, por ejemplo) está determinada por la distancia del objeto desde cuatro satélites de la red con un dispositivo está

comunicando. La red GPS se compone de 24 satélites, con 3 de reserva en caso de fracaso, y cada satélite realiza dos vueltas completas alrededor del planeta cada día. Entonces, ¿qué significa el futuro del GPS parece? Sin duda, la red son cada vez más

precisos y proporcionar información cada vez más de grano fino a en un lugar determinado. Los conductores todavía tienen que quitar los ojos del camino para mirar el dispositivo GPS, pero que mi cambio. Una compañía llamada Haciendo Solida Virtual está trabajando en una solución llamada Virtual Cable, el cual está diseñado para ser construido en el parabrisas de un coche. La línea roja que aparece a seguir el guía del conductor de su destino.


6

LACOMPUTADORA PERSONAL (1997)

De acuerdo a la compañía Nielsen, en 2008, más del 80 por ciento de las familias de E.U tenían una computadora en casa, y de estas, cerca del 90 por ciento tenían acceso a internet. Ya sea uno de los primeros modelos – como el Commodore PET (Muy popular en las escuelas en la década de 1970). La Apple II (Uno de los primeros microcomputadores de producción masiva) y la IBM PC (Diseñada para reemplazar los primeros dos dispositivos en los hogares)- O lo ultimo y lo mejor en maquinas, todas las computadoras tienen los mismos componentes básicos. Una computadora está construida con una tarjeta madre (Mother Board), un procesador, una unidad central d procesamiento (CPU), memoria, controladores, un ventilador y cables. Agregados a la computadora están los periféricos: el ratón,

teclado, monitos, bocinas, impresora, escáner y más. Estos componentes trabajan juntos para correr software: el sistema operativo y programas adicionales, tales como el procesador de textos, las hojas de cálculo, o un programa editor de fotografías. Con la computadora personal, la tecnología de la computación ha llegado a estar disponible al público en general. Las computadoras han dejado de ser grandes, o piezas de equipos demasiado costosos solo grandes corporaciones o agencias gubernamentales pueden pagar o computadoras que solo los científicos pudieran operar. Este significante desarrollo ha permitido el nacimiento de nuevas industrias, ha cambiado el cómo la gente se comunica e irrevocablemente ha alterado su trabajo y vidas personales.


AUMENTO DE REALIDAD A diferencia de la realidad virtual, cual está basado en un ambiente generado por computadora, el aumento de realidad está diseñado para aumentar el mundo real, con la súper presentación en audio, visual, y otros elementos de tus sentidos. El investigador de Boeing Tom Caulled fue el primero en acuñar el término de aumento de realidad en 1990 para describir la explosióndigitalusada por los electricistas de las aerolíneas, cual combina graficas virtuales con la realidad física. Pero el concepto es mucho más antiguo que eso. En la película Quien engaño al conejo Roger de 1988, es un buen ejemplo de esta tecnología- y originalmente antes en una versión simple en las demostraciones de las flechas amarillas de los anunciadores de la televisión en los juego de futbol americano cuando analizaban las jugadas. El aumento de realidad actualmente está dirigido al desarrollo de consumo de electrónicos porque esta es usada en las aplicaciones the Smartphone. Una

aplicación llamada Layar usa la cámara de un celular y las capacidades de un GPS para obtener la información de los alrededores de una área. Layar entonces muestra la información de ciertos sitios cercanos, como restaurantes o cines, entonces aparece información de estos en la pantalla del celular. Apunta el celular hacia unaedificación y Layr te dirá si en esaedificaciónestán contratando o localiza edificios históricos en la enciclopedia en línea Wikipedia. Hay algunas limitaciones para el aumento de realidad que actualmente existen; el sistema GPS tiene solo un rango de 30 pasos, las pantallas de celular son pequeñas, y haytambién unos entendimientos en las cláusulas de privacidad, especialmente la tecnología afecta más y más nuestras vidas. Sin embargo, el futuro de estas tecnologías es brillante, con ambición pronto será usado para los videos juegos, la educación, seguridad, medicina, negocios y otras áreas.


Aprende más Como subtítulos en una página, realmente puede proporcionar antecedentes y explicaciones, tales como una biografía del arquitecto Frank Gehry cuando visitó sus edificios firmados.

Oriente y navegar Los sistemas de posición global permite marcar geográficamente la ubicación de las personas notifica en momentos y luego los alrededores de las parcelas y los senderos.

Haz decisiones Considera opciones y haz decisiones virtualmente. Aquí, galerías son representadas por imágenes de museos conservados, como Richard Serra’s “La materia del tiempo”. (Illustrado)

Usa un teléfono inteligente para visualizar entradas conectadas a un lugar actual, tales como el museo Guggenheim Bilbao, y puedes descargar información.


ELECTRONICA MOLECULAR (1974) Como su nombre implica, la electronica molecular se refiere al uso molecular de componentes para la construccion de dispositvos electronicos. Desde que los quimicos, Mark Ratner and Ari Aviram crearon el primer dispositivo electrónico molecular rectificado en 1974, los cuales se convirtieron de corriente alterna a corriente directa. Los científicos tuvieron que continuar en avanzar juntos y entender de la ciencia y sus aplicaciones potenciales. Muchos investigadores han trabajo para reemplazar semiconductores en todas El metal oro es depositado en agua para formar circuitos electrónicos para los dispositivos mecánicos micro electrónicos (MEM).

sus aplicaciones con los interruptores moleculares electrónicos Algunas compañías están preparadas para insertar interruptores en las computadoras y en dispositivos electrónicos manufacturados. Un ejemplo es en Huntsville, Alabama basada en la compañía llamada CALMEC el cual ha creado un dispositivo molecular, este dispositivo puede ser usado en semiconductores electrónicos el cual permiten que sea monitorizada a tecnología más de lo que es en día.


10 Teléfonos celulares (1973) s difícil decir qué es más omnipresente en Eel mundo de hoy ordenador personal o el teléfono celular, que fue inventado en 1973 por Martin Cooper cuando era el director de investigación y desarrollo de Motorola. Una célula es en realidad una radio si bien de manera muy sofisticada. se trata de un dispositivo de full-duplex significa que dos frecuencias diferentes se utilizan para hablar y escuchar. Las Comunicaciones se produce en los canales de los que se cuenta en medio de celda de teléfono más que 1650 en un teléfono celular típico Netwok un vehículo que proporciona el servicio de teléfono móvil se le asigna frecuencias 800 se dividen intohexagonal unidades llamadas células cada célula contiene alrededor de diez millas cuadradas. Cada célula de su propia estación base y la torre. Tanto los teléfonos celulares y las torres celulares tienen transmisores de baja potencia en los mismos. el teléfono y la torre utilizar una frecuencia especial para comunicarse entre sí (si esta frecuencia no se puede encontrar un "fuera de rango" o "no servicio" mensaje aparece en la pantalla del teléfono) como una

persona que llama utiliza el teléfono y películas desde un célula a otra, la frecuencia se pasa de una célula a la siguiente. el portador mantiene la frecuencia necesaria para comunicarse con la persona en el otro extremo y controla continuamente la intensidad de la señal. si la persona que llama se mueve de una red de transportistas de otro, la llamada no será dado de baja de la mandíbula, pero las personas que llaman pueden dejar que se vean las tarifas de itinerancia en su factura. Los primeros celulares tenían una primera celda voluminosa y tenía antenas Los primeros teléfonos móviles eran voluminosos y tenían antenas (a la izquierda).


Un mapa del uso del Internet muestra la densidad de conexiones en Norte América y Europa.

Gracias al Internet, más aspectos de la vida se mueven “en línea” como nunca antes. Lo que comenzócomo una colaboración entre academia, gobierno e industria en los últimos años de los 60´s y losprimeros de los 70´s, se ha visto envuelto en una vasta información de infraestructura. El internet funciona gracias a solo unas cuantas tecnologías. La primera de ellas es el paquete deswitch”, que contiene la información en unidades especialmente formateadas o paquetes, que estándirigidos desde la fuente al destinatario vía red de trabajo y enrutadores. Cada paquete contiene lainformación de la dirección que identifica al remitente y al destinatario. Usando estas direcciones, la red el trabajo y los enrutadores determinan la mejor manera de transferir el paquete entre ambos puntos enel camino para su llegada. En un segundo plano, el Internet está basado en un concepto clave conocido como arquitectura de red

de trabajo abierta. En este sentido, esto es lo que hace que el Internet sea Internet Con este concepto,diferentes proveedores pueden usar cualquier red de trabajo individual que ellos quieran, y la red detrabajo funciona junta a través de esta arquitectura. De esta manera, las redes de trabajo actúan demanera semejante en una unión que ofrece un servicio de principio a fin. Una tercera tecnología importante es el protocolo de control de transmisión /protocolo de Internet oTCP/IP. Esto es lo que hace posible una arquitectura de red de trabajo. Se piensa de esto como elsistema básico de comunicación del lenguaje de Internet. TCP transforma un mensaje o documento enpaquetes más pequeños que son transmitidos a través del Internet y el IP lee la dirección de cadapaquete de manera que obtiene el correcto destino. Cada computadora en la red checa esta direcciónpara determinar de donde es el mensaje.

<<HECHO: Se estima que arriba de 2 billones de personas en el mundo ingresaron a Internet en el 2011.


EL PODER DE LA INFORMACION

NANOTECNOLOGIA (1959) Por el año 1959 el objetivo de crear dispositivos más inteligentes estaba en las mentes de científicos y investigadores, y ellos hicieron algunos progresos. Por ejemplo, inventores desarrollaron motores que eran sobre el tamaño de un dedo. Richard Feynman, profesor de física del instituto de tecnología de california , ambicionaba en extremo hacer grandes avances. En la noche del 29 de diciembre de 1959, el dio su nuevo famoso discurso de nanotecnología en el evento para la sociedad de físicos americanos. En su discurso, titulado “hayun montón de espacio en la parte inferior”el describió la habilidad para escribir la enciclopedia británica entera en la cabeza de un código usando herramientas y maquinas del tamaño de un átomo. La visión de nanotecnología de Feynman consideraba que tiene muchas aplicaciones. El basaba sus revolucionarias ideas en el hecho de que cada célula viva de un organismo contenía toda la información genética necesaria para crear ese organismo. Esta fue la evidencia de la que almaceno más cantidades de información por minuto de objetos como fuera posible.

Los vidrios resistentes al fuego contienen una capa de nanopartículas de sílice con paneles que ayudan a resistir temperaturas de hasta 1800° F. por más de 2 horas.


CIRCUITOS INTEGRADOS (1958) Los circuitos integrados (iCs) son encontrados en casi todos los electrónicos usados hoy endía, desde los celulares hasta los equipos de televisión. Un circuito e electrónico complejo.Cada CI contiene un diodo, un transistor, y un capacitor. Estos componentes trabajan juntospara regular el fluido de electricidad atreves de dispositivo. Pero los circuitos integradostienen desventajas. Todas las conexiones deben permanecer intactas o el dispositivo “n” trabaje y la rapidez es definitivamente un factor. Si los componentes del CI son muy largos o los cables de conexión de los componentes son largos, por ejemplo, l dispositivo eslento e inefectivo. En 1958, los americanos Jack Kilby y Robert Noyce separadamente resolvieron esteproblema usando el mismo material para instruir ambos, el circuito integrado y el chipcolocado.

Los cable4s y componentes no tan largos tienen que ser ensamblados manualmente. Estoscircuitos pueden ser hechos más pequeños y el proceso manual puede ser automático.(Para demostrar solo que tan pequeños estos pueden ser, consideran esto: el Ci originaltenía un solo transistor tres resistores y un capacitor y era del tamaño del dedo meñique den adulto. Hoy en día un Ci más pequeño que un penique puede sostenes 125 millones detransistores.) En 1961 el primer circuito integrado comercialmente disponibles fue integrado fueintroducido y los productores de computadoras inmediatamente vieron la ventaja queofrecían. En 1968 Noyce fundo INTEL, la compañía que introdujo el microprocesor el cualtomo un CI un paso adelante para posicionar la unidad de proceso central de lacomputadora memoria y controles de entada y salida con un pequeño chip.

<< HECHO: La invencion de los semiconductores en 1911 allanaron el camino para el desarrollo de los circuito


NUBES DE INFORMATICA En el pasado, la computadora era tomada en una infraestructura física: rutas, enlace de datos, hardware y servidores. Estos objetos aun no desaparecen- y no parece que vayan a desaparecer al mismo tiempo- pero el proceso de entrega de fuentes y servicios se transforma en un modelo en donde el internet es usado para almacenar las aplicaciones necesarias. Un inmediato beneficio de este modelo es un costo menos elevado. Por ejemplo, las compañías no comprarían licencias de software individual a cada empleado. Con ´´nubes de informática´´, una simple aplicación daría a múltiples usuarios un acceso remoto a software. La dirección de un servidor, como Gmail de google, es un ejemplo de computación en las nubes. Para entender el concepto de computación en las nubes, ayuda a pensar en los términos de las capas. Los principios de un proceso que es visto e interactuado por los usuarios con- la cuenta de Facebook, por ejemplo. El final de un proceso consiste en la arquitectura de que corre la interface del software y el hardware hacia el primer proceso. Porque las computadoras son establecidas en una red, las aplicaciones pueden tomar ventaja de todas las combinaciones de cableado como si estuvieran conectadas a una maquina en particular. Mientras hay ventajas de este modelo, no existe sin inconvenientes. Privacidad y seguridad son dos de

Visitar sitios web de medios sociales tales como Facebook, Twiter, Flickr, o el disparo de National Geographic (en la imagen) y puedas entrar en la nube.

las más grandes preocupaciones. Después de todo, la compañía permite importante, datos potentemente sensibles que están en línea, donde en teoría, nadie puede accesar a ellos. Las compañías que proveen servicios de ‘’ nubes de informática’’, sin embargo, son altamente motivadas para garantizar su privacidad y seguridad- su reputación está estancada. Una autenticación del sistema de seudónimos y contraseñas u otras autorizaciones para los empleados ayudaría a asegurar la privacidad. · 3 las aplicaciones de computación en las nubes, por definición, en las redes de todo el mundo. · 6 la computadora personal es el significado por el cual la mayoría de gente accesa a la nube. · 8 la clave pública criptográfica enlaza el cifrado electrónico transmitido para la información privada. · 11 el internet es la fundación de computación en las nubes que permite a los usuarios a correr aplicaciones en otras computadoras tanto como en casa.


·

15 T

Teoria de la Informacion (1948)

eoría de la información tiene su origen en un documento de 1948 por el ingeniero americano matemático Claude Shannon: "La teoría matemática de comunicación esta teoría permite que la información en un mensaje a ser cuantificados, usando como bits de datos que representan uno de dos estados: Dentro o fuera de. También dicta cómo codificar y transmitir información en la presencia de "ruido". Genérale puede corromper un mensaje en el camino. en el oído de la teoría de Shannon es el concepto de incertidumbre. La mayor incertidumbre que hay con respecto a lo que es la señal. La más vista de información tiene la obligación de asegurarse de que la información esencial se transmite. Shannon llamó a esta incertidumbre-medida basada entro de información. Que matemáticamente probado que una señal puede ser codificado-reducido a su forma más simple. Eliminando de este modo la interferencia o ruido para transmitir un mensaje claro y sólo el mensaje. Aunque hay siempre una posibilidad de error en transmisión, la aplicación de la teoría de la información ampliamente minimiza esa posibilidad. A través de teoría de la codificación, una rama importante de la teoría de la información, los >>HECHO, la teoría de la información se desarrolló a partir de Shannon deseo de aclarar el "ruido" en las conversaciones telefónica

ingenieros de estudiar las propiedades de los códigos para el diseño eficiente propósito de, por datos fiables la eliminación de redundancia y los errores en los datos transmitidos. Tiene dos características principales. Codificación de fuente es un intento para comprimir los datos de una fuente con el fin de transmitir los datos de forma más eficiente en una fuente con el fin de transmisión de los datos de manera más eficiente (si alguna vez ha "comprimido" en un archivo para enviar a alguien). Codificación de canal añade bits de datos extra para hacer la transmisión de datos más resistentes a las perturbaciones presentes en el canal de transmisión.


EL PODER DE LA INFORMACION

16

TRANSISTOR (1947)

Transistor es un tipo de semiconductor, sin que módem dispositivos electrónicos -. Incluyendo ordenadores-no podría funcionar Aunque hay varios tipos diferentes de transistores, todos contienen una pieza sólida de material semiconductor, con al menos terminales que se pueden conectar a un dispositivo externo transferencias circuito. Actuales de la tecnología a través de un material que normalmente tiene una resistencia alta (en otras palabras, una resistencia): por lo tanto, es una resistencia de transferencia, acortado a transistor. Antes de la introducción del transistor, los ordenadores operados por medio de tubos de vacío, que eran voluminosos y caros para producir. Los ordenadores más potentes contenían miles de ellos, por lo que los primeros ordenadores llena habitaciones enteras. estadounidenses John Bardeen y Walter Brattain en los Laboratorios Bell observó que cuando los contactos eléctricos se aplicaron a un cristal de germanio, la energía generada fue mayor que la potencia utilizada. Americano William Shockley, también físico, vio el potencial en esto, y en los meses el equipo ha trabajado para ampliar su conocimiento de los semiconductores, en 1956, los tres hombres ganó el premio Nobel de Física por la invención del transistor. ¿Por qué es tan importante el transistor a la electrónica moderna? entre otros beneficios, que pueden ser producidos en masa usando un proceso altamente automatizado para una adición cost.in relativamente bajo. Transistores se puede producir por separado o, más comúnmente, empaquetado en circuitos integrados con otra componentes para producir circuitos electrónicos completos.


EL PODER DE LA INFORMACION

PODER DE LA INFORMACION

SATELITES DE COMUNICACIÓN (1945) Aunque la mayoría lo conoce como un prolífico autor de ciencia ficción, Arthur C. Clarke hizo una contribución significante a las tecnologías de la comunicación. En octubre de el esquematizó su concepto de satélites de comunicación geoestacionario en un documento titulado “Relevancia Extraterrestre ¿Pueden las estaciones espaciales dar cobertura de radio mundial?” Aunque Clarke no fue el primero en llegar con la teoría, el fue el primero en popularizarla. El término geoestacionario se refierea la posición de la órbita del satélite alrededor de la Tierra. La orbita de un satélite “geosynchronus” se repiten regularmente a través de puntos específicos. Cuando esa orbita regular yace cerca del Ecuador y es circular, es llamado: geoestacionario Las ventajas de los satélites geoestacionarios son muchas. Recibiendo y transmitiendo antenas al suelo no es necesario enviar satélites porque no…… en sus orbitas. Las antenas no enviadas son más baratas que las antenas enviadas, así que el costo de operación

como un sistema, son reducidos. Las desventajas: Porque los satélites están tan altos, las señales de radio tardan un poco para ser recibidas y transmitidas, resultando en un pequeño pero significante retraso. En adición, estos satélites tienen cobertura geográfica incompleta porque las estaciones terrestres a mayor una mayor altura más o menos 60º de latitud tienen dificultad …..a elevaciones bajas. Independientemente de las desventajas, no se puede negar que las comunicaciones satelitales han revolucionado áreas como las comunicaciones globales, radiodifusión televisiva y predicciones de clima, y tienen defensa importante y aplicaciones de inteligenci


EL PODER DE LA INFORMACIÓN

18

Radio Ondas (1888)

E

l físico escocés James Clerk Maxwell fue uno de los primeros en scientissts especulan sobre la naturaleza del electromagnetismo. Las ecuaciones que formuló describir el comportamiento de los campos eléctricos y magnéticos, así como sus interacciones con la materia. Maxwell teoría de que los viajes campos eléctrico y magnético a través espacio vacío, en el de las olas, a una velocidad constante. También propuso que las ondas de luz y las ondas de radio son dos formas de radiación electromagnética. En 1888, el alemán Heinrich Hertz pysicist se convirtió en la primera persona de demostrar la teoría de Maxwell ¨ s satisfactoriamente cuando demostró la existencia de ondas de radio, Hertz hizo esto bulding un dispositivo capaz de detectar muy alta frecuencia y ondas de radiofrecuencia iltrahigh. Ha publicado sus trabajos en un libro titulado

Ondas eléctricas: ser investigaciones sobre la propagación de la acción eléctrica con velocidad finita a través del espacio. Estos experimentos ampliado considerablemente el campo de la transmisión electromagnética, y otros científicos en el campo futher eventualmente desarrolló la antena receptora Hertz. hertz también encontraron que las ondas de radio podría ser transmitido throungh diferentes tipos de materiales ans se reflejaron por otros. Este descubrimiento en última instancia condujo a la invención del radar. Su incluso allanó el camino para la comunicación inalámbrica, aunque él nunca reconoció ese importante aspecto de sus experimentos. En reconocimiento a sus contribuciones, la designación hertz tiene la abeja una parte oficial del sistema métrico internacional desde 1933, es el término que se utiliza para las unidades de radio y frecuencias eléctricas. Obra representa los picos y los valles de radio olas

>> HECHO: Las ondas de radio han ayudado a desarrollar este tipo de dispositivos inalámbricos como teléfonos y teclados de computadora.


EL PODER DE LA INFORMACIÓN

A GRAN ESCALA DE LA RED (1880) Inventor Thomas Edison fue el primero en diseñar e implementar la generación de energía eléctrica y la distribución a los hogares, negocios y fábricas, un hito clave en el desarrollo de la palabra industrializada moderna. Edison patentó este sistema en 1880 con el fin de sacar provecho de su invención de la lámpara eléctrica-no era nada si no es un astuto hombre de negocios. El 17 de diciembre de 1880, se fundó la Edison Illuminating Company, con sede en Pearl Street Station en New York City. El 4 de septiembre de 1882, Edison encendió el sistema eléctrico de potencia de su estación Pearl Street generadora de distribución, que proporcionan 110 voltios de corriente directa a cerca de 60 clientes en el Bajo Manhattan. Aunque Edison perdió la llamada guerra de las corrientes que siguieron-con la consecuencia de que la corriente alterna se convirtió en el sistema a través del cual se distribuye la energía eléctrica, su sistema de distribución de energía sigue siendo importante por varias razones. Estableció el valor comercial de dicho sistema, y que ayudó a estimular los avances en el campo como ocupación valiosa. Por ejemplo, el ingeniero eléctrico americano Charles Proteus Steinmetz, a través de su trabajo en corriente alterna, hizo posible la expansión de la industria de la energía eléctrica en los Estados Unidos mediante la formulación de teorías matemáticas para ingenieros que diseñaban motores eléctricos para su uso en la industria.

>>HECHO: El sistema electrónico de poder de los estados unidos es el más largo en el mundo. DULCE FÁTIMA AGUILAR JUÁREZ CARLOS MOZENCAHUATZI FLORES


EL PODER DE LA INFORMACIÓN

LÓGICA BOOLEANO (1854) La operación de las computadoras está basada en una cosa: Determinar si una puerta o cambio está abierto o cerrado, lo cual es usualmente señalado por los numero 0 y 1. Esta es la esencia de la Lógica Booleano que subraya toda la informática moderna. El concepto fue llamado después por el matemático ingles George Boole, quien definió un sistema de lógica algebraica en 1854. La motivación de Boole para crear esta teoría fue su creencia de que los símbolos de la operación matemática podrían estar separados de esas cantidades y podrían estar tratadas como distintos objetos de cálculo.

transmisiones eran modelos perfectos para la lógica de Boolean, un hecho que permite el desarrollo de la computadora eléctrica.las computadoras usan la lógica de Boolean para decidir si una declaración es verdadera o falsa ( esto tenía que ser con una evaluación, no verazmente). Estas son tres puertas básicas: Y, O Y NO. La operación Y dice que si solamente todas las entradas están encendidas las salidas estarán encendidas. La operación O dice que si alguna entrada está encendida la salida estará encendida. La operación NO dice que las salidas tendrá un estado opuesto al de la entrada.

Cercano al siglo siguiente, Claude Shannon demostró que los circuitos eléctricos con

HECHO.: aunque inventada en el siglo XIX, las formas lógicas de Boolean las bases de la mayoría de las investigaciones de internet del siglo XXI.

0: ABIERTO 1: CERRADO

La tradición algebraica en lógica, desarrollado por el matemático ingles George Boole (anteriormente). Hoy encontramos esta aplicación den varios tipos de tomas de daciones

DULCE FÁTIMA AGUILAR JUÁREZ CARLOS MOZENCAHUATZI FLORES


EL PODER DE LA INFORMACIÓN

Diseños como el origami conducen proyectos en micro y hasta nano escala.

Materia programable, que se introdujo por primera vez por el Instituto de Tecnología de Massachusetts (MIT) por los investigadores Tommaso Toffoli y Margolus Norman en un documento de 1991, se está convirtiendo rápidamente en una realidad, aunque a una escala relativamente pequeña. Materia programable es materia que puede simular o formar objetos diferentes como resultado de la entrada del usuario o en sus propios cálculos. Alguna materia programable está diseñada para crear formas diferentes, mientras que en otro asunto, como células biológicas sintéticas, están programadas para funcionar como un interruptor genético que se activa e indica a otras células a cambiar propiedades como el color o la forma. Los posibles beneficios y aplicaciones de la materia programable-en particular, la posibilidad de usarla para realizar el procesamiento de información y otras formas de computación- han creado un gran entusiasmo en el mundo de la investigación. Desde la publicación del documento de Toffoli y Margolus, se ha hecho mucho

trabajo para cumplir el potencial que predijeron. En 2008, por ejemplo, la Corporación Intel anunció que sus investigadores habían utilizado la materia programable para desarrollar los primeros prototipos de un dispositivo móvil en la escala de centímetro y milímetro. En 2009, el Departamento de Defensa de la Agencia en Defensa Avanzada de Proyectos de Investigación de los EE.UU. informó que cinco equipos de investigadores diferentes de la Universidad de Harvard, el MIT y la Universidad de Cornell están haciendo progresos en la investigación de la materia programable. En 2010 uno de estos equipos, dirigido por Daniela Rus, del MIT, ha anunciado su éxito en creación de hojas de origami auto-plegables. La Agencia en Defensa Avanzada de Proyectos de Investigación ha creado esperanzas para aplicaciones futuristas del concepto. Sus miembros imaginan, por ejemplo, un soldado equipado con un cubo de material ligero programable que podría convertirse, en el lugar, en casi cualquier cosa que él o ella necesite.

DULCE FÁTIMA AGUILAR JUÁREZ CARLOS MOZENCAHUATZI FLORES


EL PODER DE LA INFORMACIÓN

22

Diferencia del motor (1822)

C

harles Babbage, Inglés, matemático e, filósofo, inventor e ingeniero mecánico, se dio cuenta en 1822 que el motor de corto plazo podría ser programado con las tarjetas de papel de que almacenan información en las columnas que contienen patrones de agujeros perforados. Babbage vio que una persona puede programar una serie de instrucciones por medio de tarjetas perforadas, y la máquina automáticamente podría llevar a cabo esas instrucciones. El uso previsto de motor de diferencia Babbages fue calcular diversas funciones matemáticas, tales como logaritmos. A pesar de que nunca fue terminado, se considera uno de los primeros ordenadores de propósito generales encuentros digitales.

>>HECHO: En 2011 los investigadores británicos comenzaron a

construir el motor diseñado por Babbage, pero nunca avía construido construido. DULCE FÁTIMA AGUILAR JUÁREZ CARLOS MOZENCAHUATZI FLORES


EL PODER DE LA INFORMACIÓN

NUMEROS BINARIOS / CÓDIGO BINARIO (1697)

23

En 1670 el filósofo y matemático alemán Gottfried Wilhelm Leibniz, cuya realización se incluyen la invención del cálculo y muchos avances importantes en las matemáticas, la lógica y la ciencia inventada y máquina aritmética que podría multiplicar y sumar. Leibniz también vio cómo se máquina podría ser modificado para utilizar un sistema binario de cálculo, un concepto que está en el corazón de la computación digital.

En el sistema de Leibniz, el término binario se refiere a un sistema de número por el que todos los valores se expresan con los números 1 y 0. El sistema binario puede entenderse mejor mediante su comparación con la base actual sistema de 10, cosa que expresa los números del 0 al 9 utilizando. En la base 10, el NÚMEROS número 367, por ejemplo, representa 3 x 100 + 6 x 10 +7 x. Cada posición en el numeral 367 representa una potencia de diez, a partir de cero y el aumento de derecha a izquierda. En el binario, o base 2, un sistema, cada posición representa una potencia de dos. Así, en binario, 1101 representa 1 x 23 + 1 x 22 + 0 x21 +1 x 20 , cosa que es igual 8+ 4+ 0+ 1, o 13. DULCE FÁTIMA AGUILAR JUÁREZ CARLOS MOZENCAHUATZI FLORES


EL PODER DE LA INFORMACIÓN

24 E

Moderno número Sistema (800)

l sistema de numeración hindú-árabe

sobre la que se basa el sistema de numeración módem se desarrolló probablemente en el siglo IX por los matemáticos indios, adoptadas por el matemático persa Al-Khwarizmi y matemático árabe Al-Kindi, y se extendió a todo el mundo Westem por la alta Edad Media. Las características del sistema de numeración módem son los conceptos de valor relativo y valores deciman. El sistema de valor posicional indica que el valor de cada dígito en un número de varios dígitos depende de su posición. Tome el número 279, por ejemplo. De acuerdo con el sistema de valor de posición, el 2 representa las decenas, y el 9 representa unos. Así, el número aparece como 279. Mientras tanto, el sistema decimal relacionada presenta números en incrementos de diez. En otras palabras, cada valor de posición es diez veces el

valor del lugar antes de ella. El sistema decimal matemáticos permite realizar operaciones aritméticas con números altos que de otro modo sería muy engorroso de manipular. Ordenadores hacer uso de la sistema de numeración posicional. Ya que un equipo utiliza una pequeña cantidad de memoria.Para almacenar un número, algunos números son demasiado grandes o demasiado pequeños para ser representado. Que es donde números de punto flotante vienen pulg punto decimal puede "flotar" en relación con los dígitos significativos en un número. Por ejemplo, una representación de punto fijo que tiene siete dígitos decimales con dos cifras decimales pueden representar los números, 12345,67 123,45, 1,23, y así sucesivamente, mientras que la misma representación de coma flotante también puede representar a 1,234567, 123456,7, 0,00001234567, y así sucesivamente.

DULCE FÁTIMA AGUILAR JUÁREZ CARLOS MOZENCAHUATZI FLORES

Revista Traducida  

Es una revista muy interesnate ... Veanla :P

Read more
Read more
Similar to
Popular now
Just for you