Issuu on Google+

Nano-litografía (1999) Los celulares computadoras y los sistemas de GPS de hoy no serian tan compactos como los son, sin la técnica conocida como nano litografía, una rama de la ciencia revolucionaria de la nanotecnología. Nano tipografía es una manera de manipular la materia, en una escala de de átomos individuales con el fin de crear tableros de circuitos para una variedad de dispositivos eléctricos. A través del uso de un microscopio de fuerza atómica, nano materiales del tamaño de nano cristales, nano capas, y nano tubos son organizados en estructuras. La nano tecnología Dip Pen fue desarrollada en 1999 por Chad Mirkin de la universidad del noroeste ha permitido a los tableros de circuitos ser mas pequeños. Esto, a su vez ha permitido el desarrollo de computadoras tan pequeñas que podrían ser usadas en otra tecnología de nano escala como la materia programable. Hecho: nano tipografía ha tenido sus inicios en la invención del microscopio en 1590.


2. Nanotubos de Carbono En 1991 el físico Japonés Sumio Lijuma descubrió los nanotubos de carbono, considerado uno de los más importantes descubrimientos en la historia de los físicos. Los nanotubos pueden ser construidos por un método de evaporación en arco, en el cual una corriente de 50 amp pasa en medio de dos electrodos de grafito en helio. Los resultados son notables a la medida de 3 a 30 nanómetros en diámetro. Una de la más impresionante propiedad de los nanotubos de carbono es su fuerza. Su resistencia a la presión es 5 veces que la del metal, y su fuerza de tensión está 50 veces arriba que la del metal. Los nanotubos de carbono pueden ser también usados como semiconductores. Algo de la conductividad de los nanotubos es más grande que la del cobre, por ejemplo. Científicos e ingenieros están buscando maneras de usar los nanotubos en la construcción industrial tanto como en aplicaciones aeroespaciales. Hoy en día, las pantallas de páneles planos y algunos microscopios y aparatos sensibles incorporan nanotubos de carbono. En el futuro muchos artículos diarios desde los chips de las computadoras de los hogares hasta las baterías de los autos podrían ser hechos de nanotubos de carbono.


El ancho mundo de la web a cambiado vidas desde siempre conectando computadoras a través del mundo, de esta manera haciendo toda la información y su contenido al alcance para todos. Además el termino ancho mundo de la web e internet son usados como intercambiables, pero no son lo mismo. El internet es el sistema que conecta las redes de información esa es la red. Es posible tener internet sin la red pero la red no puede existir sin el internet. El internet empezó en 1962 como ARPANET, una red de dos computadoras adquiridas por el ejército de estados unidos. La red creció con mas de un millón de computadoras para 1992. En 1990 el científico británico Tim Berners –lee invento la web, eso es el primer buscador de web y paginas web con el cual accedes vía internet, paginas web con hipertexto- texto desplazado en un monitor con hiperconectores a otros documentos-


(4) Buckyball (1985) Tan temprano como 1965, científicos predijeron la existencia teórica de una molécula hecha de átomos de carbono y forma múltiples de cilindro o esfera. Pero 20 años mas tarde que Richard smalley… El material también presenta una resistencia a la tracción increíble, prometiendo nuevas posibilidades en el diseño de la arquitectura, la ingeniería y las aeronaves. En 1991 el descubrimiento del investigador japonés de una versión alargada de la buckyball finalmente llamado nanotubo, impulsó la revolución de la nanotecnología del siglo 21.


Localizado a 12,000 millas debajo de la tierra y navegando a la velocidad de 7,000 millas por hora, el satĂŠlite basado en el sistema de navegaciĂłn se puso


en marcha en 1978 por el departamento de defensa de Estados Unidos de América con propósitos militares. Poco después las manifacturas del equipo de GPS reconocieron que el mercado de masas mas potencial y clamado utilizado para la aplicación civil. El departamento de defensa cumplió con su solicitud en 1980. GPS, el cual es muy exacto trabaja en principio de triangulación, en la posición del objeto dado (una persona en un auto, por ejemplo) es determinada la distancia del objeto por cuatro satélites en la red con la cual divisada es comunicando. La red del GPS esta compuesta por 24 satélites, tres es espera en caso de una falla, y cada satélite hace dos revoluciones completas alrededor del mundo todos los días. ¿Entonces como se ve el futuro de un GPS? para estar seguro la red continuara a ser mas exacta proporcionar información cada vez de grano fino en una ubicación dada. Conductores todavía deben de quitar la vista al camino para poder observar el GPS, pero eso cambiara. Una compañía llamada Virtual Solid esta trabajando en una solución llamada Virtual cable, la cual esta diseñada para construir parabrisas en los carros. Una Línea roja que parece seguir el paisaje del conductor a su destino.


6. La Computadora Personal (1997)

De acuerdo a la compañía Nielsen, en 2008, más del 80 porciento de las familias de E.U tenían una computadora en casa, y de estas, cerca del 90 porciento tenían acceso a internet. Ya sea uno de los primeros modelos –como el Commodore PET (Muy popular en las escuelas en la década de 1970). La Apple II (Uno de los primeros microcomputadores de producción masiva) y la IBM PC (Diseñada para reemplazar los primeros dos dispositivos en los hogares)- O lo ultimo y lo mejor en maquinas, todas las computadoras tienen los mismos componentes básicos. Una computadora esta construida con una tarjeta madre (Mother Board), un procesador, una unidad central d procesamiento (CPU), memoria, controladores, un ventilador y cables. Agregados a la computadora están los periféricos: el ratón, teclado, monitos, bocinas, impresora, escáner y mas. Estos componentes trabajan juntos para correr software: el sistema operativo y programas adicionales, tales como el procesador de textos, las hojas de cálculo, o un programa editor de fotografías. Con la computadora personal, la tecnología de la computación ha llegado a estar disponible al público en general. Las computadoras han dejado de ser grandes, o piezas de equipos demasiado costosos solo grandes corporaciones o agencias gubernamentales pueden pagar o computadoras que solo los científicos pudieran operar. Este significante desarrollo ha permitido el nacimiento de nuevas industrias, ah cambiado el como la gente se comunica e irrevocablemente ha alterado su trabajo y vidas personales.


7. Aumento de realidad


A diferencia de la realidad virtual, cual esta basado en un ambiente generado por computadora, el aumento de realidad esta diseñado para aumentar el mundo real, con la superpresentasion en audio, visual , y otros elementos de tus sentidos. El invetigador de Boeing Tom Caulled fue el primero en acuñar el término de aumento de reallidad en 1990 para descrevir la exposion degital usadad por los electricistas de las aerolineas, cual combina graficas virtuales con la realidad fisica. Pero el concepto es mucho más antigo que eso. En la pelicula Quien engaño al conejo Roger de 1988, es un buen ejemplo the esta tecnologia- and originalmente antes en una vercion simple en las demostrasiones de las flechas amarillas de los anunciadores de la television en los juego de futbol americano cuando analizaban las jugadas. El aumento de realidad actualmente esta dirigido al desarrollo de consumo de electronicos porque esta es usada en las aplicasiones the smart-phones. Una aplicasion llamada Layar usa la camara de un cellular y las capasidades de un GPS para obtener la informasion de los alrrededores de una area. Layar entoses muestra la informasion de siertos sitios sercanos, como restaurantes o cines, entoses aparece informasion de estos en la pantalla del celular. Apunta el celular hacia un edificion y Layr te dira si en ese edificion estan contratando o localisa edificios historicos en la enciclopedia en linea Wikipedia. Hay algunas limitasiones para el aumento de realidad que actualmente existen; el sistema GPS tiene solo un rango de 30 pasos, las pantallas de cellular son pequeñas, y hat tambien unos unentendimientos en las clausulas de privacidad, espesialmente la tecnologia afecta mas y mas nuestras vidas. Sin enbargo, el futoro de estas tecnologia es brillante, con ambision pronto sera usado para los video juego, la educasion, sewguridad, medicina, negosion


8

Aprende más

Oriente y navegar

Como subtítulos en una página, realmente puede proporcionar antecedentes y explicaciones, tales como una biografía del arquitecto Frank Gehry cuando visitó sus edificios firmados.

Los sistemas de posición global permite marcar geográficamente la ubicación de las personas notifica en momentos y luego los alrededores de las parcelas y los senderos.

Haz decisiones Considera opciones y haz decisiones virtualmente. Aquí, galerías son representadas por imágenes de museos conservados, como Richard Serra’s “La materia del tiempo”. (Illustrado)

Usa un teléfono inteligente para visualizar entradas conectadas a un lugar actual, tales como el museo Guggenheim Bilbao, y puedes descargar información.


9. Electrónicos

moleculares!!

ELECTRÓNICOS MOLECULARES ( 1974 )

Como su nombre implica los electrónicos moleculares se refieren a los componentes moleculares para crear dispositivos electrónicos Desde que los químicos Mark Ratner and Ari aviram crearon el primer dispositivo electrónico molecular rectificado en 1974 el cual convirtió alternando corriente. Los científicos han continuado con su avance y entendimiento ellos mismos, de la ciencia y su aplicación potencial. Muchos investigadores han trabajado para reemplazar semiconductores en todas sus aplicaciones con los interruptores moleculares electronicos. Algunas compañías están preparadas insertar interruptores en las computadoras y en dispositivos electrónicos manufacturados. Un ejemplo es en Huntsville, Alabama basada en la compañía llamada CALMEC el cual ah creado un dispositivo molecular, este dispositivo puede ser usado en semiconductores electrónicos el cual permiten que sea miniturizada la tecnología mas de lo que es en día.


11. Internet (1969)

Un mapa del uso del Internet muestra la densidad de conexiones en Norte América y Europa.

Gracias al Internet, más aspectos de la vida se mueven “en línea” como nunca antes. Lo que comenzó como una colaboración entre academia, gobierno e industria en los últimos años de los 60´s y los primeros de los 70´s, se ha visto envuelto en una vasta información de infraestructura. El internet funciona gracias a solo unas cuantas tecnologías. La primera de ellas es el paquete de “switch”, que contiene la información en unidades especialmente formateadas o paquetes, que están dirigidos desde la fuente al destinatario vía red de trabajo y enrutadores. Cada paquete contiene la información de la dirección que identifica al remitente y al destinatario. Usando estas direcciones, la red de trabajo y los enrutadores determinan la mejor manera de transferir el paquete entre ambos puntos en el camino para su llegada. En un segundo plano, el Internet está basado en un concepto clave conocido como arquitectura de red de trabajo abierta. En este sentido, esto es lo que hace que el Internet sea Internet Con este concepto, diferentes proveedores pueden usar cualquier red de trabajo individual que ellos quieran, y la red de trabajo funciona junta a través de esta arquitectura. De esta manera, las redes de trabajo actúan de manera semejante en una unión que ofrece un servicio de principio a fin. Una tercera tecnología importante es el protocolo de control de transmisión /protocolo de Internet o TCP/IP. Esto es lo que hace posible una arquitectura de red de trabajo. Se piensa de esto como el sistema básico de comunicación del lenguaje de Internet. TCP transforma un mensaje o documento en paquetes más pequeños que son transmitidos a través del Internet y el IP lee la dirección de cada paquete de manera que obtiene el correcto destino. Cada computadora en la red checa esta dirección para determinar de donde es el mensaje. Hecho: Se estima que arriba de 2 billones de personas en el mundo ingresaron a Internet en el 2011.


El poder de la información

NANOTECNOLOGIA (1959) Por el año 1959 el objetivo de crear dispositivos mas inteligentes estaba en las mentes de científicos y investigadores, y ellos hicieron algunos progresos. Por ejemplo, inventores desarrollaron motores que eran sobre el tamaño de un dedo. Richard Feynman, profesor de física del instituto de tecnología de california , ambicionaba en extremo hacer grandes avances. En la noche del 29 de diciembre de 1959, el dio su nuevo famoso discurso de nanotecnología en el evento para la sociedad de físicos americanos. En su discurso, titulado “hay un montón de espacio en la parte inferior”el describió la habilidad para escribir la enciclopedia británica entera en la cabeza de un código usando herramientas y maquinas del tamaño de un átomo. La visión de nanotecnología de Feynman consideraba que tiene muchas aplicaciones. El basaba sus revolucionarias ideas en el hecho de que cada célula viva de un organismo contenía toda la información genética necesaria para crear ese organismo. Esta fue la evidencia de la que almaceno mas cantidades de información por minuto de objetos como fuera posible


CIRCUITOS INTEGRADOS

Los circuitos integrados (iCs) son encontrados en casi todos los electrónicos usados hoy en día, desde los celulares hasta los equipos de televisión. Un circuito e electrónico complejo. Cada CI contiene un diodo, un transistor, y un capacitor. Estos componentes trabajan juntos para regular el fluido de electricidad atreves de dispositivo. Pero los circuitos integrados tienen desventajas. Todas las conexiones deben permanecer intactas o el dispositivo n trabajare y la rapidez es definitivamente un factor. Si los componentes del CI son muy largos o los cables de conexión de los componentes son largos, por ejemplo, l dispositivo es lento e inefectivo.


 

En 1958, los americanos Jack Kilby y Robert Noyce separadamente resolvieron este problema usando el mismo material para instruir ambos, el circuito integrado y el chip colocado. Los cable4s y componentes no tan largos tienen que ser ensamblados manualmente. Estos circuitos pueden ser hechos más pequeños y el proceso manual puede ser automático. (Para demostrar solo que tan pequeños estos pueden ser, consideran esto: el Ci original tenía un solo transistor tres resistores y un capacitor y era del tamaño del dedo meñique de n adulto. Hoy en día un Ci más pequeño que un penique puede sostenes 125 millones de transistores.) En 1961 el primer circuito integrado comercialmente disponibles fue integrado fue introducido y los productores de computadoras inmediatamente vieron la ventaja que ofrecían. En 1968 Noyce fundo INTEL, la compañía que introdujo el microprocesor el cual tomo un CI un paso adelante para posicionar la unidad de proceso central de la computadora memoria y controles de entada y salida con un pequeño chip.


14. COMPUTACION EN LAS NUBES EN EL PASADO, COMPUTAR ERA TOMADO EN UNA INTRAESTRUCTURA FISICA: RUTAS, ENLACE DE DATOS, HARDWARE Y SERVIDORES. ESTOS OBJETOS AUN NO DESAPARECEN- Y NO PARECE QUE VAYAN A DESAPARECER AL MISMO TIEMPO- PERO EL PROCESO DE ENTREGA DE FUENTES Y SERVICIOS SE TRANSFORMA EN UN MODELO EN DONDE EL INTERNET ES USADO PARA ALMACENAR LAS APLICACIONES NECESARIAS. UN INMEDIATO BENEFICIO DE ESTE MODELO ES UN COSTO MENOS ELEVADO. POR EJEMPLO, LAS COMPAÑIAS NO COMPRARIAN LICENCIAS DE SOFTWARE INDIVIDUALES A CADA EMPLEADO. CON ´´COMPUTACION EN LAS NUBES´´, UNA SIMPLE APLICACIÓN DARIA A MULTIPLES USUARIOS UN ACCESO REMOTO A SOFTWARE. LA DIRECCION DE UN SERVIDOR, COMO GMAIL DE GOOGLE, ES UN EJEMPLO DE COMPUTACDION EN LAS NUBES. PARA ENTENDER EL CONCEPTO DE COMPUTACION EN LAS NUBES, AYUDA A PENSAR EN LOS TERMINOS DE LAS CAPAS. LOS PRINCIPIOS DE UN PROCESO QUE ES VISTO E INTERACTUADO POR LOS USUARIOS CON- LA CUENTA DE FACEBOOK, POR EJEMPLO. EL FINAL DE UN PROCESO CONSISTE EN LA ARQUITECTURA DE QUE CORRE LA INTERFASE DEL SOFTWARE Y EL HARDWARE HACIA EL PRIMER PROCESO. PORQUE LAS COMPUTADORAS SON ESTABLECIDAS EN UNA RED, LAS APLICACIONES PUEDEN TOMAR VENTAJA DE TODAS LAS COMBINACIONES DE CABLEADO COMO SI ESTUVIERAN CONECTADAS A UNA MAQUINA EN PARTICULAR. MIENTRAS HAY VENTAJAS DE ESTE MODELO, NO EXISTE SIN INCONVENIENTES. PRIVACIDAD Y SEGURIDAD SON DOS DE LAS MÁS GRANDES PREOCUPACIONES. DESPUES DE TODO, LA COMPAÑÍA PERMITE IMPORTANTE, DATOS POTENTEMENTE SENCIBLES QUE ESTAN EN LINEA, DONDE EN TEORIA, NADIE PUEDE ACCESAR A ELLOS. LAS COMOPAÑIAS QUE PROVEEN SERVICIOS DE ‘’ COMPUTACION EN LAS NUBES’’, SIN EMBARGO, SON ALTAMENTE MOTIVADAS PARA GARANTIZAR SU PRIVACIDAD Y SEGURIDAD- SU REPUTACION ESTA ESTANCADA. UNA AUTENTICACION DEL SISTEMA DE SEUDONIMOS Y CONTRASEÑAS U OTRAS AUTORIZACIONES PARA LOS EMPLEADOS AYUDARIA A ASEGURAR LA PRIVACIDAD. · 3 LAS APLICACIONES DE COMPUTACION EN LAS NUBES, POR DEFINICION, EN LAS REDES DE TODO EL MUNDO. · 6 LA COMPUTADORA PERSONAL ES EL SIGNIFICADO POR EL CUAL LA MAYORIA DE GENTE ACCESA A LA NUBE. · 8 LA CLAVE PUBLICA CRIPTOGRAFICA ENLAZA EL CIFRADO ELECTRONICO TRANSMITIDO PARA LA INFORMACION PRIVADA. · 11 EL INTERNET ES LA FUNDACION DE COMPUTACION EN LAS NUBES QUE PERMITE A LOS USUARIOS A CORRER APLICACIONES EN OTRAS COMPUTADORAS TANTO COMO EN CASA. · 19 UNA GRAN ESCALA DE UNA RED ELECTRICA SUMINISTRADA ES NECESARIO PARA EL USO DE LA INFRAESTRUCTURA DE COMPUTACION EN LAS NUBES.


EL PODER DE LA INFORMACION

15 INFORMACION TEORICA (1948)


La información teórica fue originada en 1948 por el americano Claude Shanon un ingeniero matemático: La teoría de comunicación matemática; esta teoría permitió que la información en un mensaje estuviera cuantificada, usualmente los bits de data que representan uno de los dos estados; encendido o apagado, esto también dictamina como para encode y transmitir información en presencia del ruido que puede interrumpir un mensaje en transición. En el corazón de Shannon la teoría es un concepto desacertado. Lo más desacertado ahí es considerar que es la señal. Muchos bits de información fueron requeridos para hacer segura la transmisión de la información esencial. Shannon llamo a esto como incertainty-based medida de información de entrada. El matematico permitió que una seña puede ser extensa-reducida por una simple forma , para eliminar interferencias o ruidos, para transmitir un mensaje limpio. Y solo el mensaje. Aunque esto es siempre una posibilidad de error en la transmisión. La aplicación de la información de esta teoría enormemente minimiza las posibilidades. La teoría via código, es un importante offshoot importante de teoría, los ingenieros estudian


Transistor


Un transistor es un tipo de semiconductor sin un cual un dispositivo moderno electrónico incluyendo computadoras no podrían funcionar. Aunque hay demasiada variación de tipos de transistores, todos contienen una pieza solida de material semiconductor, con al menos tres terminales que pueden ser conectadas al circuito externo. Esta tecnología transfiere cuando, a traviesa un material que normalmente tiene una resistencia alta (en otras palabras un resistor) por lo tanto es un resistor transferente, reducido al transistor. Antes de la introducción al transistor las computadoras operan por los tubos de vacío, los cuales son caros y difíciles para producir. Lo más potente de las computadoras contiene miles de estos, el por qué, de las antiguas computadoras, llenaban un cuarto entero. En 1947 el físico americano John bardeen y Walter Brattain en el laboratorio Bell, observaron que cuando contactos eléctricos eran aplicados a un cristal de germanio el poder que generaba era más fuerte que el poder usado, el físico americano, William Shockley vio el potencial en esto, sobre los siguientes meses el grupo trabajo en expandir su conocimiento de semiconductores. En 1956 los tres hombres ganaron la medalla del premio Nobel en física por inventar el transistor. Esto es porque el transistor es muy importante entre otros beneficios puede ser, producido fácilmente usando un proceso automático para un costo relativamente bajo. En adición el transistor puede ser producido solo o más comúnmente integrado en paquetes de circuitos con otros componentes para producir circuitos electrónicos completos. Y los transistores son versátiles el cual es que ellos son usados en prácticamente en todo dispositivo electrónico conocido hoy.

Yesenia Saldaña Cuahquentzi, Eribey Pérez Gutiérrez


17. Satélites de Comunicación. Aunque la mayoría lo conoce como un prolífico autor de ciencia ficción, Arthur C. Clarke hizo una contribución significante a las tecnologías de la comunicación. En octubre de el esquematizó su concepto de satélites de comunicación geoestacionario en un documento titulado “Relevancia Extraterrestre - ¿Pueden las estaciones espaciales dar cobertura de radio mundial?” Aunque Clarke no fue el primero en llegar con la teoría, el fue el primero en popularizarla. El termino geoestacionario se refiere a la posición de la orbita del satélite alrededor de la Tierra. La orbita de un satélite “geosynchronus” se repiten regularmente a través de puntos específicos. Cuando esa orbita regular yace cerca del Ecuador y es circular, es llamado: geoestacionario Las ventajas de los satélites geoestacionarios son muchas. Recibiendo y transmitiendo antenas al suelo no es necesario enviar satélites porque no…… en sus orbitas. Las antenas no enviadas son mas baratas que las antenas enviadas, así que el costo de operación como un sistema, son reducidos. Las desventajas: Porque los satélites están tan altos, las señales de radio tardan un poco para ser recibidas y transmitidas, resultando en un pequeño pero significante retraso. En adición, estos satélites tienen cobertura geográfica incompleta porque las estaciones terrestres a mayor una mayor altura mas o menos 60º de latitud tienen dificultad …..a elevaciones bajas. Independientemente de las desventajas, no se puede negar que las comunicaciones satelitales han revolucionado áreas como las comunicaciones globales, radiodifusión televisiva y predicciones de clima, y tienen defensa importante y aplicaciones de inteligencia.


18. Ondas de Radio. El físico escoses James Clerk Maxwell fue uno de los primeros científicos en especular sobre la naturaleza del electromagnetismo. Las ecuaciones que el formulo describen el comportamiento de los campos eléctricos y magnéticos, así como la importancia de sus interacciones. Maxwell postulo que los campos eléctricos y magnéticos viajan a través de de espacio vacío, en forma de ondas, a


una velocidad constante. También propuso que las ondas de luz y las ondas de radio son dos formas de de radiación electromagnética.

En 1888. El físico alemán Heinrich Hertz se convirtió en la primera persona en demostrar satisfactoriamente la teoría de Maxwell al probar la existencia de las ondas de radio. Hertz lo logro al construir un dispositivo que pudo detectar altas e intensas frecuencias de ondas de radio. Publico su trabajo en un libro llamado Ondas Eléctricas: Siendo búsquedas en la propagación de acciones eléctricas finitas a través del espacio. Estos experimentos expandieron en gran cantidad el campo de transmisiones electromagnéticas, y otros científicos en la rama eventualmente apoyaron la teoría de de Hertz de la recepción de la antena. Hertz también encontró que las ondas de radio pueden transmitirse a través de diferentes maneras y ser reflejadas por otras. Este descubrimiento ayudo a la invención del radar. El incluso implemento la manera de comunicarnos inalámbricamente, sin embargo el nunca reconoció la importancia de sus experimentos. En reconocimiento a sus contribuciones, el diseño de hertz ha sido una parte oficial del sistema métrico internacional desde 1933. Es el término usado para las terminaciones


19. Gran Escala Eléctrica en la Red (1880) El inventor Thomas Edison fue la primera persona que dispuso e implemento la generación de poder eléctrico y la distribución a casas, negocios y fabricas, una llave “Hito” en el desarrollo del moderno mundo de la industrialización. Edison patento este sistema en 1980 en lugar de capitalizar en su invención de la lámpara eléctrica, él no era nada, sino un sagaz hombre de negocios. El 17 de Diciembre de 1880 él encontró la compañía de iluminación “Edison”, sede en la calle “Pearl” en la ciudad de Nueva York. El 4 de Septiembre de 1882, Edison conmuto en su estación “Pearl”, generando estaciones con sistemas de poder de distribución eléctrica, las cuales previeron 110 volteos de corriente directa a cerca de 60 clientes en Lower Manhattan. Aunque Edison perdió la entonces llamada “Guerra de Corrientes” eso permitió como consecuencia que la corriente alterna fuera el sistema a través del cual se distribuyera la energía eléctrica. Su sistema de distribución es aun importante por pocas razones. El valor comercial fue establecido como tal y eso ayudo a simular avances en el campo de la ingeniería eléctrica, ya que la gente comenzó a ver al campo como una ocupación valiosa. Por ejemplo, el ingeniero eléctrico Americano Charles Proteus Steinmetz a través de su trabajo en corrientes alternas, hizo posible la expansión de la industria eléctrica en Estados Unidos formulando teorías Matemáticas para ingenieros quienes estuvieron diseñando motores eléctricos para el uso de la industria.

Hecho: El sistema de poder eléctrico en Estados Unidos, es el más grande en el mundo.

Fransue Alberto Angulo Terova y Luz María Cruz Sanchez 2A


20. Boolean Logic Las operaciones computarizadas están basadas en una sola cosa: Determinar si n portal o un interruptor está abierto o cerrado y generalmente se representa por los números o y 1. Esta es la esencia de la lógica de Boolean, la razón fundamental de La computación moderna. Esta idea posteriormente fue denominada por el matemático ingles George Bool, quien definió un sistema lógico algebraico en 1854. La motivación de Boole para crear esta teoría fue que creía que los simbolos de operaciones matemáticas podían ser separados de esas cantidades y podrían ser distintos objetos de cálculo. Aproximadamente un año después Claude Shannon demostró que los circuitos eléctricos con relaciones eran modelos perfectos de la lógica de Boolean fue un hecho

que

incremento

el

desarrollo

de

la

computadora

eletrica.

Las

computadoras usan la lógica de Bolean para decidir si la relaciin es cierta o falsa. Hay tres portales básicos AND, OR y NOT. La operación And dice que si todas la entradas están abiertas la salida también estarlo. La operación OR dice que si alguna entrada está abierta la salida estará abierta. La operación NOT dice que la salida debe estar abierta opuestamente a la entrada.

Materia programable La materia programable la cual fue la primera introducida por Massachusetts instituto de tecnología (MIT) los investigadores Tommaso Tofoli y Norman Margolus en el tratado de 1991, es rápidamente convertido en realidad, albeit relativamente a pequeña escala. La materia programable es materia que puede simular o formar diferentes objetos como un resultado de su propio uso puesto dentro de nuestras computaciones. Algunas materias programables son diseñadas para crear diferentes formas, mientras que otra materia, tal como las células biológicas sinteticas, es programado para trabajar como un interruptor genérico que encienda las señales de otras células, para cambiar las propiedades como el color o la forma. El potenmcial de los beneficios y aplicaciones de la materia programablen en particular la posibilidad del uso de este para interpretar información procesanda y otras formas de la


informática, muchos de los éxitos son creados en las investigaciones del mundo. Desde la publicación del tratado de Toffoli y Margolus´s ellos predijeron que han trabajado mucho para desempeñar su potencial. En 2008 por ejemplo, la corporación de intel anuncio que estas investigaciones han sido usadas para materia programable para desarrollar prototipos tempranamente de un dispositivo de teléfono celular en la escala de centimetro y milímetro. En 2009 la agencia de proyectos de la defensa de investigaciones avanzadas de estados unidos. El departamento de la defensa reporto que 5 equipos diferentes de investigadores de la universidad de Harvard . MIT. Y la universidad de Cornell fue haciendo progresos en la inestigacion de materia programable. En el 2010 estor equipos encabezados por Daniela Rus de MIT, anuncio este suceso en la creación de estas hojas de origami. La agencia de la defensa avanzada en la investigación de proyectos espera por conceptos de futuras aplicaciones , por ejemplo : un soldado equipado con luces fuertes de materia programable que puede ser moderno . justamente acerca algo que ella o el necesita.


21. materia programable


miércoles, 30 de enero de 2013

traduccion

Materia programable La materia programable la cual fue la primera introducida por Massachusetts instituto de tecnología (MIT) los investigadores Tommaso Tofoli y Norman Margolus en el tratado de 1991, es rápidamente convertido en realidad, albeit relativamente a pequeña escala. La materia programable es materia que puede simular o formar diferentes objetos como un resultado de su propio uso puesto dentro de nuestras computaciones. Algunas materias programables son diseñadas para crear diferentes formas, mientras que otra materia, tal como las células biológicas sinteticas, es programado para trabajar como un interruptor genérico que encienda las señales de otras células, para cambiar las propiedades como el color o la forma. El potenmcial de los beneficios y aplicaciones de la materia programablen en particular la posibilidad del uso de este para interpretar información procesanda y otras formas de la informática, muchos de los éxitos son creados en las investigaciones del mundo. Desde la publicación del tratado de Toffoli y Margolus´s ellos predijeron que han trabajado mucho para desempeñar su potencial. En 2008 por ejemplo, la corporación de intel anuncio que estas investigaciones han sido usadas para materia programable para desarrollar prototipos tempranamente de un dispositivo de teléfono celular en la escala de centimetro y milímetro. En 2009 la agencia de proyectos de la defensa de investigaciones avanzadas de estados unidos. El departamento de la defensa reporto que 5 equipos diferentes de investigadores de la universidad de Harvard . MIT. Y la universidad de Cornell fue haciendo progresos en la inestigacion de materia programable. En el 2010 estor equipos encabezados por Daniela Rus de MIT, anuncio este suceso en la creación de estas hojas de origami. La agencia de la defensa avanzada en la investigación de proyectos espera por conceptos de futuras aplicaciones , por ejemplo : un soldado equipado con luces fuertes de materia programable que puede ser moderno . justamente acerca algo que ella o el necesita.


21.1 DIFERENCIA DEL MOTOR (1822) Charles Babbage, un matemático inglés, filósofo, inventor, e ingeniero mecánico, realizó en 1822 que un tipo de máquina pudiera programarse con el uso de tarjetas de papel que almacena la información en columnas conteniendo patrones de agujeros perforados. Babbage observó que una persona podría programar un conjunto de instrucciones a modo de perforar las tarjetas, y la máquina automáticamente podría guardar esas instrucciones. El propósito de usar el motor de diferencia de Babagge era calcular varias funciones matemáticas, tal como logaritmos. Aunque nunca fue completado, es considerado uno de los primeros propósitos generales de las computadoras digitales.


21.2 CUANDO SE DESPLIEGA

El prototipo del lente telescopio es no medir más de 15 pies de ancho.

Desplegado a 300 pies de ancho.

Programado los motores para despegar el telescopio a 300 pies de ancho cuando ha sido puesto en marcha en el espacio, el gran lente enfoca la luz en el espejo del lente ocular orbitando a través de media milla de distancia.

Plegado de 10 a 15 pies de ancho.

úmeros binarios/ Código binario (1697) En 1670 un filósofo y matemático alemán Gottfied Wilhelm Leibniz, cuyo logro incluye la invención de cálculos y algunos avances importantes en matemáticas, lógica y ciencia, invento una maquina aritmética que podía multiplicar así como sumar. Leibniz también vio como su máquina podía ser alterada para usar un sistema binario de calculación, un concepto que es el corazón de la computación digital. En el sistema de Leibniz el término binario se refiere a un sistema de números por lo cual todos los valores son expresados con los números 1 y 0. El sistema binario puede ser mejor entendido contrastándolo con la base 10 del sistema de hoy, el cual expresa números usando 0 a 9. En la base 10, el numero 367, por ejemplo, representa 3 x 100 + 6 x 10 + 7 x 1. Cada posición en la numeración 367 representa un poder de 10 comenzando con cero e incrementando de derecha a izquierda. En el binario, o sistema base 2, cada posición representa un poder de dos. Entonces, en binario, 1101 representa 1 x 2 ³ + 1 x 2 ² + 0 x 2 + 1 x 2 º el cual es equivalente a 8 + 4 + 0 + 1 o 13.


Números binarios/ Código binario (1697) En 1670 un filósofo y matemático alemán Gottfied Wilhelm Leibniz, cuyo logro incluye la invención de cálculos y algunos avances importantes en matemáticas, lógica y ciencia, invento una maquina aritmética que podía multiplicar así como sumar. Leibniz también vio como su máquina podía ser alterada para usar un sistema binario de calculación, un concepto que es el corazón de la computación digital. En el sistema de Leibniz el término binario se refiere a un sistema de números por lo cual todos los valores son expresados con los números 1 y 0. El sistema binario puede ser mejor entendido contrastándolo con la base 10 del sistema de hoy, el cual expresa números usando 0 a 9. En la base 10, el numero 367, por ejemplo, representa 3 x 100 + 6 x 10 + 7 x 1. Cada posición en la numeración 367 representa un poder de 10 comenzando con cero e incrementando de derecha a izquierda. En el binario, o sistema base 2, cada posición representa un poder de dos. Entonces, en binario, 1101 representa 1 x 2 ³ + 1 x 2 ² + 0 x 2 + 1 x 2 º el cual es equivalente a 8 + 4 + 0 + 1 o 13.


24. EL PODER DE LA INFORMACION


SISTEMA NUMERICO MODERNO El sistema numérico Hinduarábico cual el sistema numérico moderno es basado fue probablemente desarrollado en el siglo nueve por matemáticos de india, adoptado por el matemático de Persia AI-Khwarizmi y el matemático Árabe AI-Kindi y difundido por el oeste del mundo a mitad de la edad media. Las características del sistema numérico moderno son el concepto del valor de lugar y el valor decimal. El sistema de valor de lugar indica que el valor de cada digito en un número multidigital depende de su posición. Tomar el número 279, por ejemplo. De acuerdo al sistema del valor de lugar el 2 representa cientos, el 7 representa decenas, y el 9 representa unidades. Así el número aparece como 279. Mientras tanto la relación del sistema decimal presenta números en incremento de diez. En otras palabras, cada valor de lugar es diez veces el valor del lugar anterior. El sistema decimal permite a los matemáticos transformar aritmética con números grandes que podrían ser de lo contrario extremadamente manipulados. Las computadoras hacen uso del sistema numérico posicional. Desde una computadora usas pequeñas cantidades de memoria, algunos números son muy largos o muy cortos para ser representados. Que es donde un punto flotante viene. El numero decimal puede flotar relativo a.


Revista 2A