Page 1

Web 1.0 La 'Web 1.0 (1991-2003) es la forma más básica que existe, con navegadores de sólo texto bastante rápidos. Después surgió el HTML que hizo las páginas web más agradables a la vista, así como los primeros navegadores visuales tales como IE, Netscape,explorer (en versiones antiguas), etc. La Web 1.0 es de sólo lectura. El usuario no puede interactuar con el contenido de la página (nada de comentarios, respuestas, citas, etc), estando totalmente limitado a lo que el Webmaster sube a ésta. Web 1.0 se refiere a un estado de la World Wide Web, y cualquier página web diseñada con un estilo anterior del fenómeno de la Web 2.0. Es en general un término que ha sido creado para describir la Web antes del impacto de la fiebre punto com en el 2001, que es visto por muchos como el momento en que el internet dio un giro.1 Es la forma más fácil en el sentido del término Web 1.0 cuando es usada en relación a término Web 2.0, para comparar los dos y mostrar ejemplos de cada uno.

Web 2.0 Web 2.0 beta. El término Web 2.0 (2004–presente) esta comunmente asociado con un fenómeno social, basado en la interacción que se logra a partir de diferentes aplicaciones web, que facilitan el compartir información, lainteroperabilidad, el diseño centrado en el usuario o D.C.U. y la colaboraciónen la World Wide Web. Ejemplos de la Web 2.0 son las comunidades web, los servicios web, las aplicaciones Web, los servicios de red social, losservicios de alojamiento de videos, las wikis, blogs, mashups yfolcsonomías. Un sitio Web 2.0 permite a sus usuarios interactuar con otros usuarios o cambiar contenido del sitio web, en contraste a sitios web no-


interactivos donde los usuarios se limitan a la visualización pasiva de información que se les proporciona. La Web 2.0 esta asocia estrechamente con Tim O'Reilly, debido a la conferencia sobre la Web 2.0 de O'Reilly Media en 2004. Aunque el término sugiere una nueva versión de la World Wide Web, no se refiere a una actualización de las especificaciones técnicas de la web, sino más bien a cambios acumulativos en la forma en la que desarrolladores de software y usuarios finales utilizan la Web. El hecho de que la Web 2.0 es cualitativamente diferente de las tecnologías web anteriores ha sido cuestionado por el creador de la World Wide Web Tim Berners-Lee , quien califico al termino como "tan solo una jerga"- precisamente porque tenía la intención de que la Web incorporase estos valores en el primer lugar

Web 3.0 Web 3.0 es un neologismo que se utiliza para describir la evolución del uso y la interacción en la red a través de diferentes caminos. Ello incluye, la transformación de la red en una base de datos, un movimiento hacia hacer los contenidos accesibles por múltiples aplicaciones non-browser, el empuje de las tecnologías de inteligencia artificial, laweb semántica, la Web Geoespacial, o la Web 3D. Frecuentemente es utilizado por el mercado para promocionar las mejoras respecto a la Web 2.0. El término Web 3.0 apareció por primera vez en 2006 en un artículo de Jeffrey Zeldman, crítico de la Web 2.0 y asociado a tecnologías como AJAX. Actualmente existe un debate considerable en torno a lo que significa Web 3.0, y cual es la definición acertada.1

Wiki Un wiki (o una wiki) (del hawaiano wiki, «hacer las cosas de forma sencilla y rápida») es un sitio web cuyas páginaspueden ser


editadas por múltiples voluntarios a través del navegador web. Los usuarios pueden crear, modificar o borrar un mismo texto que comparten. Los textos o «páginas wiki» tienen títulos únicos. Si se escribe el título de una «página wiki» en algún lugar del wiki entre dobles corchetes (...), esta palabra se convierte en un «enlace web» a la página wiki. En una página sobre «alpinismo», por ejemplo, puede haber una palabra como «piolet» o «brújula» que esté marcada como palabra perteneciente a un título de página wiki. La mayor parte de las implementaciones de wikis indican en elURL de la página el propio título de la página wiki (en Wikipedia ocurre así: http://es.wikipedia.org/wiki/Alpinismo), facilitando el uso y comprensibilidad del link fuera del propio sitio web. Además, esto permite formar en muchas ocasiones una coherencia terminológica, generando una ordenación natural del contenido. La aplicación de mayor peso y a la que le debe su mayor fama hasta el momento ha sido la creación de enciclopediascolectivas, género al que pertenece la Wikipedia. Existen muchas otras aplicaciones más cercanas a la coordinación de informaciones y acciones, o la puesta en común de conocimientos o textos dentro de grupos. La mayor parte de los wikis actuales conservan un historial de cambios que permite recuperar fácilmente cualquier estado anterior y ver qué usuario hizo cada cambio, lo cual facilita enormemente el mantenimiento conjunto y el control de usuarios destructivos. Habitualmente, sin necesidad de una revisión previa, se actualiza el contenido que muestra la página wiki editada.

Inteligencia artificial Web 3.0 también ha sido utilizada para describir el camino evolutivo de la red que conduce a la inteligencia artificial. Algunos escépticos lo ven como una visión inalcanzable. Sin embargo, compañías como IBM y Google están implementando nuevas tecnologías que cosechan información sorprendente, como


el hecho de hacer predicciones de canciones que serán un éxito, tomando como base información de las webs de música de la Universidad. Existe también un debate sobre si la fuerza conductora tras Web 3.0 serán los sistemas inteligentes, o si la inteligencia vendrá de una forma más orgánica, es decir, de sistemas de inteligencia humana, a través de servicios colaborativos comodel.icio.us, Flickr y Digg, que extraen el sentido y el orden de la red existente y cómo la gente interactúa con ella.

RSS Este artículo se refiere a una familia de formatos de archivos de texto. Para el artículo sobre las Repúblicas Socialistas Soviéticas, véase Repúblicas de la URSS. Lecturas de Wikinoticias en inglés realizadas en el formato RSS. Icono que señala la presencia de fuentes web convertido enestándar de facto. RSS son las siglas de RDF Site Summary or Rich Site Summary , un formato XML para sindicar o compartir contenido en la web. Se utiliza para difundir información actualizada frecuentemente a usuarios que se han suscrito a la fuente de contenidos. El formato permite distribuir contenidos sin necesidad de un navegador, utilizando un software diseñado para leer estos contenidos RSS (agregador). A pesar de eso, es posible utilizar el mismo navegador para ver los contenidos RSS. Las últimas versiones de los principales navegadores permiten leer los RSS sin necesidad de software adicional. RSS es parte de la familia de los formatos XMLdesarrollado específicamente para todo tipo de sitios que se actualicen con frecuencia y por medio del cual se puede compartir la información y usarla en otros sitios web o programas. A esto se le conoce como redifusión web o sindicación web (una traducción incorrecta, pero de uso muy común).


¿Como se usa? Podemos usar el formato RSS en dos sentidos diferentes: Para recibir información desde otros sitios Web Para ofrecer información desde nuestra propia Web Según seamos consumidores o creadores de contenidos elegirermos una u otra opción, aunque también podemos utilizar ambas a la vez...

Cómo usar el RSS para recibir información Para poder utilizar el RSS y recibir contenidos, el usuario debe disponer de un agregador. Existe una gran variedad de lectores RSS, pero todos ellos se pueden clasificar en tres categorías: Agregadores de escritorio: se instalan en el ordenador del usuario. Agregadores en línea: no necesitan de instalación por parte del usuario. Suele bastar con darse de alta en el sitio del agregador para poder utilizarlo. Agregadores como plug-ins: algunos navegadores y gestores de correo como Firefox, Nestcape, Opera, Thunderbird, etc. los incluyen en sus programas como servicio de valor añadido al usuario.

Una vez que el usuario dispone del agregador que haya elegido, debe seleccionar aquellos feeds o archivos RSS que sean de mayor interés para él y realizar la sindicación de contenidos.

Cómo usar el RSS para ofrecer información


Otro uso del RSS es el de ofrecer información desde nuestro sitio Web, pero esta opción requiere del creador de contenidos conocimientos sobre el lenguaje XML. No obstante, aquí intentaremos explicar fácilmente qué datos contienen este tipo de archivos y cómo se organizan.

El código necesario para crear un feed o documento RSS debe incluir información sobre el sitio web al que pertenece y que, por tanto, será información no variable, así como datos sobre los contenidos que ofrece y que se actualizarán cada breve periodo de tiempo. Esta será la información variable ofrecida en la sindicación.

Todos estos datos deben ir correctamente ordenados con sus correspondientes etiquetas de principio y final según lo establecido en el lenguaje de marcado XML. Así crearemos nuestro propio feed que puede contener varios artículos o ítems.

Una vez creado el archivo RSS lo validamos para asegurarnos de que es correcto y lo registramos en varios agregadores para así comprobar cuántos usuarios se interesan por la información que les ofrecemos en nuestro feed.

Podcasting (Redirigido desde Podcast) El podcasting consiste en la distribución de archivos multimedia (normalmente audio o vídeo, que puede incluir texto como subtítulos y notas) mediante un sistema de redifusión (RSS) que permita suscribirse y usar un programa que lo descarga para que el usuario lo escuche en el momento que quiera. No es necesario estar suscrito para descargarlos.

Contenidos de un podcast


Un podcast se asemeja a una suscripción a un blog hablado en la que recibimos los programas a través de Internet. También una ventaja del podcast es la posibilidad de escuchar en lugares sin cobertura. Su contenido es diverso, pero suele ser una persona hablando sobre diversos temas. Esta es la definición base. Ahora bien, puede ser ampliada de diferentes maneras. Hay podcasts sobre diversos temas, sobre todo tecnológicos. Mucha gente prefiere usar un guión y otros hablan a capella y de forma improvisada. Algunos parecen un programa de radio, intercalando música, mientras que otros hacen podcasts más cortos y exclusivamente con voz, igual que con los weblogs.

Cómo se escucha un podcast? Se pueden escuchar o ver desde la página web en la que han sido colocados. Blogs como Wordpress y otros permiten realizar podcasting con el uso de herramientas gratuitas (plug-ins), como WordTube o Podpress. También se pueden descargar los archivos de sonido y video. A partir de ahí, es algo personal. Se pueden usar programas especiales que leen archivos de índices, descargan la música automáticamente y la transfieren a un reproductor mp3. También se puede optar por escucharlo en el ordenador e incluso copiarlo en CDs de audio a partir de los archivos mp3 u ogg, según el formato original. Otros programas que permiten escucharlos son Doppler, disponible sólo en inglés y con una interfaz muy sencilla, e Ipodder, ahora llamado Juice, disponible en español. El día 28 de junio de 2005 Apple lanzó iTunes 4.9 con soporte para Podcasting, lo que provocó que, por primera vez, un software usado por un amplio espectro de la población conociera este nuevo medio de comunicación.


Audacity Audacity es una aplicación informática multiplataforma libre, que se puede usar para grabación y edición de audio, fácil de usar, distribuido bajo la licencia GPL. Es el editor de audio más difundido en los sistemas GNU/Linux. Se puede grabar, reproducir, importar y exportar datos en varios formatos incluyendo WAV, AIFF y MP3. Usted puede tratar tus sonidos usando Cortar, Copiar y Pegar (con ilimitado deshacer), mezclar pistas y añadir efectos a tus grabaciones. Audacity también incluye un editor de envolvente de volumen y permite el análisis del sonido con pantalla configurable de espectrogramas

Características Grabación de audio en tiempo real; Edición archivos de audio tipo Ogg Vorbis, MP3, WAV, AIFF, AU y LOF; Conversión entre formatos de audio tipo; Importación de archivos de formato MIDI y RAW; Edición de pistas múltiples. Agregar efectos al sonido (eco, inversión, tono, etc). Posibilidad de usar plug-ins para aumentar su funcionalidad.


Conferencia web Una conferencia web es similar a una reunión personal porque permiten a los asistentes interactuar entre sí, participan entre 2 y 20 personas y pueden compartir documentos y aplicaciones. Diferencias entre videoconferencia web, seminario web y videoconferencia Las videoconferencias web son reuniones ‘virtuales’ a través de Internet cuyos participantes trabajan en distintas ubicaciones físicas. La sala de reuniones real se sustituye por el escritorio del ordenador del anfitrión de la reunión (la persona que la ha organizado). Cada participante se sienta ante su propio ordenador, donde puede ver todo lo que el presentador va mostrando en su pantalla (función de ‘desktop sharing’ o escritorio compartido). Durante la reunión en línea, el anfitrión puede ceder el papel de presentador a cualquiera de los demás participantes. En esencia, las conferencias web poseen características similares a las reuniones ‘en persona’, porque permiten que los asistentes interactúen entre sí (principio de comunicación ‘de muchos a muchos’).’ En las conferencias web participan entre 2 y 20 personas, pudiendo compartir documentos y aplicaciones. En cambio los seminarios web (webinars) se utilizan básicamente para formación en línea o eventos en línea, como conferencias de prensa, y pueden tener más de 100 participantes. Las soluciones para seminarios web facilitan considerablemente el proceso de invitación y la presentación de información a grandes audiencias (principio de comunicación ‘de uno a muchos’). Las videoconferencias sirven básicamente para transmitir señal de vídeo en directo a los participantes.

Principios de las conferencias web La mayor parte de las conferencias web se celebran según los siguientes principios: el organizador de la reunión envía un correo


electrónico con las invitaciones, que contienen un enlace a una URL y una ID de usuario para acceder a la reunión. En el momento de comenzar ésta, cada participante introduce su identificación de usuario (ID) para la reunión en línea. Una vez iniciada la sesión, los participantes pueden ver el escritorio del ordenador del presentador de la reunión y compartir con él documentos y aplicaciones. Durante la reunión en línea, el papel de presentador puede ir pasando a cualquiera de los participantes, y éstos podrán ver todo lo que vaya mostrando el nuevo presentador en su escritorio. La mayoría de las soluciones para conferencia web, además, permiten a los asistentes ceder el control de su ratón y su teclado al escritorio del presentador. Éste, a su vez, puede decidir si pasa el control del ratón y el teclado a una persona en particular o a todos los participantes. [editar]Instalación: servicios hosted frente a servidor interno Las soluciones para reuniones en línea se pueden instalar de dos formas: en un servidor web que aloje el fabricante, o en un servidor propio. Si el cliente decide adquirir un servicio hosted, la solución se instalará en un servidor web que proporcionará el fabricante y el cliente sólo tendrá que pagar una cuota por su utilización. En cambio, los clientes pueden adquirir una licencia de servidor, que les autorizará a instalar la solución en el servidor interno. Si los clientes tienen una configuración de alta seguridad y un índice de utilización elevado, suelen preferir la instalación interna.

Funcionalidades Las soluciones para conferencia web ofrecen una amplia gama de funcionalidades y prestaciones, destinadas a incrementar la eficacia de las reuniones y la capacidad de comunicación. Aplicaciones compartidas. Cesión del control del teclado y el ratón a una persona en particular o a todos los participantes (permitiendo así a éstos manipular el


documento que esté abierto en ese momento en el escritorio del presentador). Cambio de presentador durante la reunión. Herramientas para notas y dibujos. Pizarra blanca (whiteboard). Chat. Integración de la solución para conferencia web con los clientes de correo electrónico para distribuir de forma muy práctica los correos con las invitaciones.

Red social (Redirigido desde Redes Sociales) Este artículo es sobre redes sociales como campo de investigación, no sobre los servicios de red socialinspirados en los trabajos de Milgram sobre un Mundo pequeño, como Facebook , MySpace ,msn , hi5, Una red social es una estructura social compuesta de personas , las cuales están conectadas por uno o varios tipos de relaciones, tales como amistad, parentesco, intereses comunes, intercambios económicos, relaciones sexuales, o que comparten creencias, conocimiento o prestigio. El análisis de redes sociales estudia esta estructura social aplicando la Teoría de Grafos e identificando las entidades como "nodos" o "vértices" y las relaciones como "enlaces" o "aristas". La estructura del grafo resultante es a menudo muy compleja. Como se ha dicho, puede haber muchos tipos de lazos entre los nodos. La investigación multidisciplinar ha mostrado que las redes sociales operan en muchos niveles, desde las relaciones de parentesco hasta las relaciones de organizaciones a nivel estatal (se habla en


este caso de Redes políticas), desempeñando un papel crítico en la determinación de la agenda política y el grado en el cual los individuos o las organizaciones alcanzan sus objetivos o reciben influencias. En su forma más simple, una red social es un mapa de todos los lazos relevantes entre todos los nodos estudiados. Se habla en este caso de redes "sociocéntricas" o "completas". Otra opción es identificar la red que envuelve a una persona (en los diferentes contextos sociales en los que interactúa); en este caso se habla de "red personal". La red social también puede ser utilizada para medir el capital social (es decir, el valor que un individuo obtiene de los recursos accesibles a través de su red social). Estos conceptos se muestran, a menudo, en un diagrama donde los nodos son puntos y los lazos, líneas.

Monitores SED | Nueva Tecnología La tecnología SED (Surface conduction Electron emitter Display) reúne casi todas las ventajas de la tecnología CRT y LCD y prácticamente ninguna desventaja, de los monitores conocidos actualmente. Canon comenzó a desarrollar esta tecnología en el año 1986. EN 1999, Toshiba se sumó a Canon, y desde ese entonces están logrando la solución definitiva en materia de pantallas planas para TV y PC : la tecnología SED. Conserva casi el mismo principio de funcionamiento que una pantalla CRT. Utiliza rayos catódicos, pero no solamente tres que son desviados para iluminar cada píxel, sino que emplean ¡miles de ellos! Es decir, tres rayos (RGB) para cada pìxel de la pantalla. Los emisores o cañones de rayos se encuentran a unos pocos centímetros de la rejilla y la pantalla de fósforo; por lo tanto,


la profundidad de estas pantallas disminuye hasta casi parecerse a una LCD o de plasma. La pantalla de vidrio tambièn está cerrada al vacío, como en el caso de losCRT, y poseen una diferencia de potencial de 10.000 voltios entre el emisor y el receptor. Todos los rayos de electrones viajan desde sus cañones hasta sus celdas de fósforo, iluminandólas y formando el color deseado. Empleando esta tecnología se evitan los efectos indeseados como los decontraste, ángulo de visión y profundidad de color, ademas de ser mas livianas y portátiles. En definitiva, la calidad de imagen es excelente, los costos son inferiores a los de una pantalla de plasma o LCD, y tienen una profundidad de tan sólo cuatro centímetros. Se espera que esta tecnología salga al mercado dentro de poco, ya que reúne lo mejor de cada uno de los sistemas empleados en las pantallas actuales. Existen, ademas, otras tecnologías como FED, LEP, PHOLED Y OLED.

Tecnología OLED La tecnología OLED ya se ha mostrado, y funciona. Permite reducir el consumo de energía en unos determinados dispositivos, y además aporta unas curiosas características. Una de ellas es la flexibilidad, tal y como se demostró con este curioso reloj/brazalete (aunque su utilidad puede ampliarse a diversas tareas). Otra no menos interesante es la transparencia, característica que están desarrollando en un estudio en New Jersey, en Estados Unidos, donde están probando monitores con tecnología OLED que al apagarlos tienen un 75% de transparencia. Desafortunadamente, toda esta nueva tecnología se encuentra actualmente en un estado de desarrollo y es más que probable que tengan que pasar unos cuantos años hasta que veamos algún producto final presentado.

Fed El FED es una tecnología similar a la SED pero utilizando un conjunto de nanotubos de carbono para emitir los electrones necesarios que muevan los puntos de fósforo y así crear la imagen .


El monitor presentado por Sony desarrollado con tecnología SED es de 19.2 pulgadas y una resolución de 1280x960 píxeles , una luminosidad de 400cd/m2 y un increible ratio de contraste de 20.000 :1. En cierta manera , la tecnología FED podría llegar a ser como la antigua Trinitron pero con menos consumo y un panel ultra fino como un LCD . Tiene un gran ángulo de visión y ausencia de píxeles muertos . Y además los monitores FED soportarán refrescos de 24 a 240 fotogramas por segundo , ahí es nada , y lo mejor de todo es que serían más baratos que un LCD equivalente ya que incorporan menos componentes .

Monitores CRT Ventajas: Permiten reproducir una mayor variedad cromática. Distintas resoluciones se pueden ajustar al monitor. En los monitores de apertura de rejilla no hay moire vertical. Desventajas: Ocupan más espacio (cuanto más fondo, mejor geometría). Los modelos antiguos tienen la pantalla curva. Los campos eléctricos afectan al monitor (la imagen vibra). Para disfrutar de una buena imagen necesitan ajustes por parte del usuario. En los monitores de apertura de rejilla se pueden apreciar (bajo fondo blanco) varias líneas de tensión muy finas que cruzan la pantalla horizontalmente.


Datos técnicos, comparativos entre sí En los CRT, la frecuencia de refresco es la que tiene la tarjeta gráfica, en los LCD no siempre es la que se le manda Los CRT pueden tener modo progresivo y entrelazado, los LCD tienen otro método de representación. En los CRT se pierde aproximadamente 1 pulgada del tamaño, que se utiliza para la sujeción del tubo, en los CRT es prácticamente lo que ocupa el LCD. El peso de un LCD se ve incrementado por la peana para darle estabilidad, pero el monitor en sí no pesa prácticamente nada. Los LCD suelen necesitar de un transformador externo al monitor, en los CRT toda la electrónica va dentro del monitor. En los LCD el consumo es menor, y la tensión de utilización por parte de la electrónica también. En los CRT pueden aparecer problemas de "quemar" el fósforo de la pantalla, esto ocurre al dejar una imagen fija durante mucho tiempo, como la palabra "insert coin" en las recreativas, en los LCD los problemas pueden ser de píxeles muertos (siempre encendido o, siempre apagado), aparte de otros daños. El parpadeo de ambos tipos de pantallas es debido a la baja frecuencia de refresco, unido a la persistencia del brillo del fósforo, y a la memoria de cada píxel en un CRT y LCD respectivamente, que mitigan este defecto. Con alta velocidad de refresco y un tiempo grande de persistencia del fósforo, no hay parpadeo, pero si la persistencia del fósforo es baja y el refresco es bajo, se produce este problema. Sin embargo esto puede causar un efecto de desvanecimiento o visión borrosa, al permanecer aún encendido un punto, en el siguiente refresco de la pantalla.


Long Term Evolution El siguiente paso en la evolución hacia las Redes de Cuarta Generación o 4G se conoce como LTE (3GPP Long Term Evolution), y corresponde a las siglas del proyecto UTRA & UTRAN Long Term Evolution, promovido por el 3rd Generation Partner Ship Project (3GPP) a finales de 2004 para trabajar sobre la evolución del estándar de comunicación de Tercera Generación WCDMA, que es la base del sistema UMTS. Desde que el 3GPP desarrolló la primera versión de WCDMA y de su red de acceso radio (compuesta por los elementos que se encargan de la gestión de los recursos radioeléctricos y la conexión a la red) a finales de 1999, denominada UTRAN (UMTS Terrestrial Radio Access Network), se han desarrollado diferentes versiones. A modo de resumen, los principales hitos se presentan a continuación: Release 99: primera versión de WCDMA desarrollada a finales de 1999, y que formó parte del conjunto de normas IMT-2000. Release 5: desarrollada en 2002, introdujo mejoras de velocidad en las comunicaciones desde la red al usuario (enlace descendente) conocidas como HSDPA. Release 6: concluida a finales de 2004, introdujo mejoras de velocidad en las comunicaciones entre el usuario y la red (enlace ascendente) conocidas como HSUPA. Releases 7 a 10, son pasos hacia un acceso con mayor ancho de banda, menor latencia y mayor capacidad para poder atender la demanda de las zonas urbanas.

Antivirus Los antivirus son una herramienta simple cuyo objetivo es detectar y eliminar virus informáticos. Nacieron durante la década de 1980.


Con el transcurso del tiempo, la aparición de sistemas operativos más avanzados e Internet, ha hecho que los antivirus hayan evolucionado hacia programas más avanzados que no sólo buscan detectar virus informáticos, sino bloquearlos, desinfectarlos y prevenir una infección de los mismos, y actualmente ya son capaces de reconocer otros tipos de malware, como spyware, rootkits, etc.

Qué son los Spywares? La figura del espía ha sido habitual en el cine y la literatura. Tipos misteriosos, capaces de pasar desapercibidos en cualquier lugar y extremadamente inteligentes. Su misión: recoger información y enviarla. Como personaje de ficción, resultan atractivos, pero seguro que no te gustaría vivir siempre con la sospecha de que hay alguien en tu casa, al que no puedes ver y que se encarga de informar sobre todo lo que haces en tu vida cotidiana.

En el mundo de la informática a esto es lo que le llamamos programas espía (spyware). Tienen cierta similitud con los Virus pero a diferencia de estos los spyware no tiene código dañino para nuestros PC (por lo tanto los Anti-Virus comunes no los pueden reconocer ni eliminar). Simplemente se dedican a utiliza nuestra conexión de Internet para robar nuestros datos e información sobre el contenido de nuestro PC o nuestro comportamiento. Todo ello, claro, sin avisarnos y sin solicitar nuestro consentimiento.

¿Cómo entran en nuestras PCs? 1. Al visitar sitios de Internet que nos descargan su código malicioso (ActiveX, JavaScripts o Cookies), sin nuestro consentimiento. 2. Acompañando algún virus o llamado por un Troyano


3. Estando ocultos en un programa gratuitos (Freeware) los cuales al aceptar sus condiciones de uso (casi siempre en ingles y que no leemos) estamos aceptando que cumplan sus funciones de espías.

¿Qué información nos pueden sacar?

Pueden tener acceso por ej a: Tu correo electrónico y el password, dirección IP y DNS, teléfono, país, paginas que visitas y de que temas te interesan, que tiempos estas en ellas y con que frecuencia regresas, quesoftware tienes y cuales descargas, que compras haces por internet y datos mas importantes como tutarjeta de crédito y cuentas de banco.

¿Cuáles son los Spywares mas comunes? CoolWebSearch, 180Solutions, Alexa, Cydoors, Gator, Web3000, Webhancer, Look2Me, Hotbar, KaZaa, New.net, Win-eto, Lop.com, VX2, Home Search Assistent, ISTBar, n-Case, eZula, MyWay, etc...

Listado de los mejores Antispywares

Malwarebytes' Anti-Malware

Una excelente utilidad gratuita para que busca, detecta y eliminar todo tipo de Malware, desarrollado por la gente de MalwareBytes (creadores de About:Buster, FileASSASSIN y otros


tantos buenos programas).

SpyBot Search & Destroy 1.6 Detecta, elimina y elimina mas de un millar de spywares y malwares, incluye protección en tiempo real (TeaTimer) para prevenir infecciones.

SUPERAntiSpyware Free edition SuperAntiSpyware analiza tu sistema en busca de cualquier tipo de amenaza que pueda colarse en tu PC.: spyware, troyanos, dialers, rootkits, gusanos, adware, malware y cualquier otro tipo de elemento de software malintencionado.

SpywareBlaster 4.3 Una herramienta fundamental para la prevención de ataques de spywares. no los elimina simplemente deshabilita los controles ActiveX de los mas conocidos spywares. Lo recomienda Spybot para inmunizar el sistema! Ad-Aware 2009 Free Nueva versión de esta poderosa e indispensable herramienta totalmente gratuita, de fácil utilización, diseñada para eliminar todo tipo de Spywares/Adwares, con total seguridad y garantía. Se actualiza casi semanalmente añadiendo remedio a cuanto nuevo Spyware es detectado. HijackThis 2.0.4 Es una pequeña herramienta que nos permite detectar y, eventualmente, eliminar las modificaciones hechas por programas de terceros en nuestro navegador Explorer. (Toolbars, Paginas de


Inicio, Paginas de búsqueda, etc) Hay que tener mucho cuidado con los cambios en el Registro. Úselo bajo su responsabilidad.

Navegadores Un navegador web , hojeador o web browser no es más que una aplicación software que permite al usuario recuperar y visualizar documentos de hipertexto, comúnmente descritos en Lenguaje de Marcado de HiperTexto (HTML ó Hyper Text Markup Language), desde servidores web de todo el mundo a través de Internet. Esta red de documentos es denominadaWorld Wide Web (WWW) o Telaraña Mundial. Los navegadores actuales permiten mostrar y/o ejecutar: gráficos, secuencias de vídeo, sonido, animaciones y programas diversos además del texto y los hipervínculos o enlaces. La funcionalidad básica de un navegador web es permitir la visualización de documentos de texto, posiblemente con recursos multimedia incrustrados. Los documentos pueden estar ubicados en la computadora en donde está el usuario, pero también pueden estar en cualquier otro dispositivo que este conectado a la computadora del usuario o a través de Internet, y que tenga los recursos necesarios para la transmisión de los documentos (un software servidor web). Tales documentos, comúnmente denominados páginas web , poseen hipervínculos que enlazan una porción de texto o una imagen a otro documento, normalmente relacionado con el texto o la imagen.

¿Definitivamente Chore es el mejor? Con la llegada de Chrome el usuario final tiene una opción más para elegir entre el amplio abanico de programas para navegar por la Web. Aunque por tradición, pereza o falta de conocimientos los usuarios prefieran el navegador que lleva instalado su sistema operativo (Explorer en Windows, Safari en Mac OS X, Firefox y otros en Linux) desde hace tiempo es habitual instalar alternativas, probarlas y «cambiarse» de navegador al que más convenga. Es muy fácil instalar Chrome para compararlo con los demás porque permite conservar los datos ya existentes de otros navegadores, por ejemplo los enlaces favoritos. Varios navegadores pueden convivir en la misma máquina sin problemas.


La barra llamada “Omnibox” sirve para teclear las direcciones de las páginas web, buscar palabras o revisar las webs visitadas

Google ha apostado por la simplicidad y el redimiento al crear su navegador. La interfaz es asolutamente minimalista e incluso resulta un poco extraña: no hay un menú tradicional y hasta la barra de navegación es única. Llamada Omnibox, sirve para todo: teclear las direcciones de las páginas web, buscar palabras o revisar las webs visitadas. En cuanto a la velocidad, incorpora el motor gráfico WebKit, considerado el más rápido, y también V8, una versión especial de JavaScript que es tremendamente veloz. En las pruebas la carga de páginas web convencionales es rápida, pero los servicios y aplicaciones web modernos, muchos de la propia Google (GMail, Google Reader, Google Maps y similares) se benefician enormemente.

Smartphone Smartphone (teléfono inteligente en español) es un término comercial para denominar a un teléfono móvil con características similares a las de un ordenador personal. Casi todos los teléfonos inteligentes son móviles que soportan completamente un cliente de correo electrónico con la funcionalidad completa de un organizador personal. Una característica importante de casi todos los teléfonos inteligentes es que permiten la instalación de programas para incrementar el procesamiento de datos y la conectividad. Estas aplicaciones pueden ser desarrolladas por el fabricante del dispositivo, por el operador o por un tercero. El término "Inteligente" hace referencia a cualquier interfaz, como un teclado QWERTY en miniatura, una pantalla táctil, o simplemente el sistema operativo móvil que posee, diferenciando su uso mediante una exclusiva disposición de los menúes, teclas, atajos, etc. El completo soporte al correo electrónico parece ser una característica indispensable encontrada en todos los modelos existentes y anunciados en 2007, 2008, 2009 y 2010. Casi todos los


teléfonos inteligentes también permiten al usuario instalar programas adicionales, normalmente inclusive desde terceros, pero algunos vendedores gustan de tildar a sus teléfonos como inteligentes aun cuando no tienen esa característica. Algunos ejemplos de teléfonos denominados inteligentes son: Serie MOTO Q de Motorola, Nokia series E y series N, BlackBerry, iPhone y Nexus One. Entre otras características comunes está la función multitarea, el acceso a Internet via WiFi, a los programas de agenda, a una cámara digital integrada, administración de contactos, acelerometros y algunos programas de navegación así como ocasionalmente la habilidad de leer documentos de negocios en variedad de formatos como PDF y Microsoft Office

Software libre El software libre (en inglés free software, esta denominación también se confunde a veces con gratis por el doble sentido delinglés free en castellano) es la denominación del software que respeta la libertad de los usuarios sobre su producto adquirido y, por tanto, una vez obtenido puede ser usado, copiado, estudiado, cambiado y redistribuido libremente. Según la Free Software Foundation, el software libre se refiere a la libertad de los usuarios para ejecutar, copiar, distribuir, estudiar, modificar el software y distribuirlo modificado. El software libre suele estar disponible gratuitamente, o al precio de costo de la distribución a través de otros medios; sin embargo no es obligatorio que sea así, por lo tanto no hay que asociar software libre a "software gratuito" (denominado usualmentefreeware), ya que, conservando su carácter de libre, puede ser distribuido comercialmente ("software comercial"). Análogamente, el "software gratis" o "gratuito" incluye en ocasiones el código fuente; no obstante, este tipo de software no es libre en el mismo sentido que el software libre, a menos que se garanticen los derechos de modificación y redistribución de dichas versiones modificadas del programa.


Tampoco debe confundirse software libre con "software de dominio público". Éste último es aquel software que no requiere de licencia, pues sus derechos de explotación son para toda la humanidad, porque pertenece a todos por igual. Cualquiera puede hacer uso de él, siempre con fines legales y consignando su autoría original. Este software sería aquel cuyo autor lo dona a la humanidad o cuyos derechos de autorhan expirado, tras un plazo contado desde la muerte de este, habitualmente 70 años. Si un autor condiciona su uso bajo una licencia, por muy débil que sea, ya no es del dominio público. Historia Richard Stallman, creador de los conceptosFree Software, y fundador de la FSF. Entre los años 60 y 70 del Siglo XX, el software no era considerado un producto sino un añadido que los vendedores de las grandes computadoras de la época (las mainframes) aportaban a sus clientes para que éstos pudieran usarlos. En dicha cultura, era común que los programadores y desarrolladores de software compartieran libremente sus programasunos con otros. Este comportamiento era particularmente habitual en algunos de los mayores grupos de usuarios de la época, como DECUS (grupo de usuarios de computadoras DEC). A finales de los 70, las compañías iniciaron el hábito de imponer restricciones a los usuarios, con el uso de acuerdos de licencia. Allá por el 1971, cuando la informática todavía no había sufrido su gran boom, las personas que hacían uso de ella, en ámbitos universitarios y empresariales, creaban y compartían elsoftware sin ningún tipo de restricciones. Con la llegada de los años 80 la situación empezó a cambiar. Las computadoras más modernas comenzaban a utilizar sistemas operativos privativos, forzando a los usuarios a aceptar condiciones restrictivas que impedían realizar modificaciones a dicho software.


En caso de que algún usuario o programador encontrase algún error en la aplicación, lo único que podía hacer era darlo a conocer a la empresa desarrolladora para que esta lo solucionara. Aunque el programador estuviese capacitado para solucionar el problema y lo desease hacer sin pedir nada a cambio, el contrato le impedía que mejorase el software. El mismo Richard Stallman cuenta que por aquellos años, en el laboratorio donde trabajaba, habían recibido una impresora donada por una empresa externa. El dispositivo, que era utilizado en red por todos los trabajadores, parecía no funcionar a la perfección, dado que cada cierto tiempo el papel se atascaba. Como agravante, no se generaba ningún aviso que se enviase por red e informase a los usuarios de la situación. La pérdida de tiempo era constante, ya que en ocasiones, los trabajadores enviaban por red sus trabajos a imprimir y al ir a buscarlos se encontraban la impresora atascada y una cola enorme de trabajos pendientes. Richard Stallman decidió arreglar el problema, e implementar el envío de un aviso por red cuando la impresora se bloqueara. Para ello necesitaba tener acceso al código fuente de los controladores de laimpresora. Pidió a la empresa propietaria de la impresora lo que necesitaba, comentando, sin pedir nada a cambio, qué era lo que pretendía realizar. La empresa se negó a entregarle el código fuente. En ese preciso instante, Richard Stallman se vio en una encrucijada: debía elegir entre aceptar el nuevo software privativo firmando acuerdos de no revelación y acabar desarrollando más software privativo con licencias restrictivas, que a su vez deberían ser más adelante aceptadas por sus propios colegas. Con este antecedente, en 1984, Richard Stallman comenzó a trabajar en el proyecto GNU, y un año más tarde fundó la Free Software Foundation (FSF). Stallman introdujo la definición de free software y el concepto de "copyleft", que desarrolló para otorgar libertad a los usuarios y para restringir las posibilidades de apropiación del software.<0>


← Diagnosticando Fallas en La Fuente de Poder Componentes Internos de Una Computadora En el interior de un gabinete de computadora, veras cables y conectores llendo y viniendo de un lado a otro, Una cosa que hay que recordar es que cada computadora es distinta en cuanto a su interior se refiere. En algunas computadoras la tarjeta de video esta integrada a la tarjeta madre (motherboard) mientras que en otras computadoras, la tarjeta de videopuede estar puesta en un conector PCI o AGP. Veremos un vistazo general de los tipos de componentes internos de una computadora. Hay que recordar que el interior de una computadora varia de modelo a modelo.

Lista de Componentes Internos Motherboard CPU BIOS RAM Tarjeta de Video Tarjeta de Sonido (Opcional) Tarjeta de Red (Opcional) Unidades de Almacenamiento Fuente de Poder Motherboard El motherboard es el corazón de la computadora. El motherboard (tarjeta madre) contiene los conectores para conectar tarjetas adicionales (también llamadas tarjetas de expansión por ejemplo tarjetas de video, de red, MODEM, etc.). Típicamente el motherboard contiene el CPU, BIOS, Memoria, interfaces para dispositivos de almacenamiento, puertos serial yparalelo aunque estos puertos ya son menos comunes por ser tecnología vieja ahora se utilizan mas los puertos USB, ranuras de expansión, y todos los controladores requeridos para manejar los dispositivos periféricos estándar, como el teclado, la pantalla de video y el dispositivo de disco flexibAl comprar un motherboard es indispensable que concuerde con el tipo de procesador que vamos a utilizar ya que los


distintos procesadores utilizan un conector diferente, por lo tanto deben de hacer juego, también hay que asegurarse de que la velocidad del procesador y la memoria pueda ser manejado por el motherboard. Así que cuando compres un motherboard, procesador y memoria asegúrate de que sean compatibles entre sí. Otro aspecto a considerar en el motherboard es que existen distintas tipos de formas de la tarjeta madre (form-factor), que definen como se conecta el motherboard al gabinete, losconectores para la fuente de poder y las características eléctricas. Hay bastantes formas de motherboard disponibles Baby AT, ATX, microATX y NLX. Hoy en día se consideran el Baby AT y el ATX como motherboards genéricos. No se puede poner un motherboard ATX en un Gabinete baby AT, pero si puedes poner un motherboard baby AT y su fuente de poder en muchos Gabinetes ATX que tienen la preparación para montar ambos tipos de motherboard. Muchos motherboard recientes de forma baby AT traen conectores para corriente para los dos tipos de Fuentes de poder.baby AT y ATX. Lista de Componentes Internos.

CPU Es la abreviación de las siglas en ingles de las palabras Unidad Central de Procesamiento (central processing unit). El CPU es el cerebro de la computadora. Algunas veces se le dice simplemente el procesador o procesador central. El CPU es donde se realizan la mayoría de los cálculos. En términos de poder de computación, el CPU es el elemento más importante de un sistema de computo. En computadoras personales y pequeños servidores, el CPU esta contenido en una pastilla llamada microprocesador. Dos componentes típicos del CPU son: La unidad lógica aritmética (ALU), la cual realiza las operaciones lógicas y matemáticas. La unidad de control, la cual extrae instrucciones de la memoria la decodifica y ejecuta, llamando al ALU cuando es necesario.


Actualmente hay 2 productores principales de Procesadores, Intel y AMD. Intel tiene 2 familias de procesadores, El Celeron para los equipos menos poderosos y el Pentium 4 para los mas poderosos con el Pentium 5 en camino. AMD también tiene 2 familias de productos, El Duron para los equipos económicos y el Athlon para los mas poderosos. Los CPU´s de Intel y AMD requieren un motherboard diseñado especialmente para ellos. El procesador determina el tipo de motherboard que necesitas para tu sistema. En precio y rendimiento los CPU´s de Intel y AMD están muy parejos. El rendimiento de un CPU generalmente se mide en ciclos de reloj por segundo. Entre mas alto los ciclos de reloj por segundo, es mas rápido el procesador, Aunque esto no siempre es verdad. Los procesadores AMD corren a menos ciclos de reloj por segundo que los CPU´s de Intel, pero siguen teniendo un rendimiento igual por el precio. Esto se debe a que los procesadores AMD son mas eficientes por ciclo de reloj, Los ciclos de reloj por segundo se expresan en Giga Hertz. Un procesador que corre a 1 Giga Hertz es considerado de baja velocidad y un procesador que corre a 3 o mas Giga Hertz se considera de alta velocidad. Los procesadores AMD usan un sistema de calificación basado en el rendimiento en vez de calificar solo la velocidad. Un procesador AMD calificado a 3200+ significa que tiene un rendimiento al mismo nivel que un CPU Pentium de 3200 MHZ o 3.2 GHZ. Los procesadores también se califican por la velocidad a la cual se conectan al motherboard. Esto se llama velocidad FSB (Front Side Bus). Los procesadores de Intel pueden tener una velocidad hasta 800 MHz FSB y el AMD hasta 400 MHz FSB. Por eso te debes de asegurar que el motherboard soporte la velocidad FSB del procesador.


BIOS Bios es un acrónimo de Basic input/output system (sistema básico de entrada / salida). El BIOS es el software que determina que puede hacer una computadora sin acceder programas de un disco. En las PCs, el BIOS contiene todo el código requerido para controlar el teclado, el monitor, las unidades de discos, las comunicaciones seriales, y otras tantas funciones. El BIOS típicamente se pone en una pastilla ROM que viene con la computadora (también se le llama ROM BIOS. Esto asegura que el BIOS siempre estará disponible y no se dañara por falla en el disco. También hace posible que la computadora inicie por sí sola. A causa de que la RAM es más rápida que el ROM, muchos fabricantes de computadoras diseñan sistemas en los cuales el BIOS es copiado de la ROM a la RAM cada vez que la computadora es iniciada. Esto se conoce como shadowing. Muchas computadoras modernas tienen Flash BIOS, que significa que el BIOS se grabo en una pastilla de memoria flash, que puede ser actualizado si es necesario. RAM RAM es acrónimo para random access memory (memoria de acceso aleatorio), es un tipo de memoria que puede ser accesado aleatoriamente; esto es, que cualquier byte de memoria puede ser accesado sin tocar los bytes predecesores. RAM es el tipo de memoria mas común encontrado en computadoras y otros dispositivos, como impresoras. Hay dos tipos básicos de RAM RAM dinámica (DRAM) RAM estatica (SRAM) Los 2 tipos difieren en la tecnología que utilizan para retener datos, el tipo mas común es la RAM dinámica. La RAM Dinámica necesita refrescarse miles de veces por segundo. La RAM estática no necesita ser refrescada, lo cual la hace mas rápida, pero también mas cara que la RAM dinámica. Ambos tipos de RAM son volátiles, ya que pierden su contenido cuando la energía es apagada. Tarjeta de Video


La tarjeta de video, es el componente encargado de generar la señal de video que se manda a la pantalla de video por medio de un cable. La tarjeta de video se encuentra normalmente en integrado al motherboard de la computadora o en una placa de expansión. La tarjeta gráfica reúne toda la información que debe visualizarse en pantalla y actúa como interfaz entre el procesador y el monitor; la información es enviada a éste por la placa luego de haberla recibido a través del sistema de buses. Una tarjeta gráfica se compone, básicamente, de un controlador de video, de la memoria de pantalla o RAM video, y elgenerador de caracteres, y en la actualidad también poseen un acelerador de gráficos. El controlador de video va leyendo a intervalos la información almacenada en la RAM videoy la transfiere al monitor en forma de señal de video; el número de veces por segundo que el contenido de la RAM video es leído y transmitido al monitor en forma de señal de videose conoce como frecuencia de refresco de la pantalla. Entonces, como ya dijimos antes, la frecuencia depende en gran medida de la calidad de la placa de video. Tarjeta de Sonido (Opcional) - La mayoría de las tarjetas madre ahora cuentan con algún tipo de controlador de sonido integrado. Por lo tanto, las tarjetas de sonido no son necesarios a menos que quieras mayor fidelidad de sonido en tu computadora o liberar un poco de carga al CPU con el control del sonido. Tarjeta de RED (Opcional) - Estar en Red ya sea Internte o una Intranet es tan comun e indispensable que esta debería ser una característica estándar en todas las placas base. Algunas placas base, incluso, ofrecen adaptadores de red inalámbrica construido adentro Si la placa no tiene un conector Ethernet, puede ser necesario instalar una tarjeta PCI Ethernet o tal vez una tarjeta inalámbrica 802.11. Unidades de Almacenamiento Refiriéndonos a varias técnicas y dispositivos para almacenar grandes cantidades de datos. Los primeros dispositivos de almacenamiento fueron las tarjetas perforadas, que fueron usadas desde el año 1804 en maquinas tejedoras de ceda. Los dispositivos modernos de almacenamiento incluyen todo tipos de unidades de


disco y de unidades de cinta. Almacenamiento masivo es distinto al de memoria, que se refiere a almacenamiento temporal, en cambio los dispositivos de almacenamiento masivo retienen los datos aun cuando la computadora es apagada. Los tipos principales de dispositivos de almacenamiento masivo son: Discos flexibles (disquetes): Relativamente lentos y pequeña capacidad, pero muy portables, baratos y universales (casi obsoletos, las computadoras nuevas ya no los utilizán) Discos Duros:

rápidos y mucho mayor capacidad, pero más caros, Algunos dispositivos de disco duro son portátiles pero la mayoría no. Discos Ópticos: (conocidos como CDs y DVD´s) al contrario de los discos flexibles y los discos duros, los cuales usan electromagnetismo para codificar los datos, los sistemas de discos ópticos usan un láser para leer y escribir datos. Los discos ópticos tienen buena capacidad, pero no son tan rápidos como los discos duros. Y por lo general son de solo lectura, aunque también hay reescribibles. Cintas: Relativamente baratas y pueden tener una gran capacidad, pero no permiten acceso aleatorio a los datos. Discos de memoria Flash USB: ( Jumpdrives, Pocket Drives, Pen Drives, thumb drives) dispositivos muy pequeños, ligeros y portátiles pueden almacenar hasta 2gb de datos estos dispositivos se han vuelto muy populares y están sustituyendo a los discos flexibles al tener mayor capacidad y velocidad, estos dispositivos pueden mantener la información hasta por 10 años. Fuente de Poder


La fuente de poder es el componente que proporciona el poder eléctrico a la computadora. La mayoría de las computadoras pueden conectarse a un enchufe eléctrico estándar. La fuente de poder jala la cantidad requerida de electricidad y la convierte la corriente AC a corriente DC. También regula el voltaje para eliminar picos y crestas comunes en la mayoría de los sistemas eléctricos. Pero no todas las fuentes de poder, realizan el regulado de voltaje adecuadamente, así que una computadora siempre esta susceptible a fluctuaciones de voltaje. Las fuentes de poder se califican en términos de los watts que generan. Entre más poderosa sea la computadora, mayor cantidad de watts necesitan sus componentes.

Marcas Y Tipos De Microprocesadores MARCAS Y TIPOS DE MICROPROCESADORES En cuanto a los fabricantes, actualmente se encuentra procesadores de: * INTEL: es la marca estándar. * AMD * CYRIX: fabrica procesadores para Texas, IBM y Thompson * TEXAS INSTRUMENTS: son procesadores Cyrix con la marca Texas Instruments. * IBM: son procesadores Cyrix con la marca IBM. * THOMPSON: son procesadores Cyrix con la marca Thompson. * NEXGEN: necesitan placas especiales al no ser compatibles a nivel de patillaje. No se recomiendan.

Tipos de computadoras Computador analógico


Computador híbrido Supercomputadora Computadora central Minicomputadora Microcomputadora Computadora de escritorio Computador personal Computadora doméstica Multiseat Computadora portátil de escritorio Computadora portátil Tablet PC Subportátil PC Ultra Móvil PDA Smartphone Cliente: cliente ligero, cliente pesado, cliente híbrido Sistema embebido Tipos de computadoras

Supercomputadora: es la computadora más potente disponible en un momento dado. Estas máquinas están construidas para procesar enormes cantidades de información en forma muy rápida. Las


supercomputadoras pueden costar desde 10 millones hasta 30 millones de dólares, y consumen energía eléctrica suficiente para alimentar 100 hogares. Macrocomputadoras: son sistemas que ofrecen mayor velocidad en el procesamiento y mayor capacidad de almacenaje que una mini computadora típica. Las macrocomputadoras (mainframe) están diseñadas para manejar grandes cantidades de entrada, salida y almacenamiento. Minicomputadoras: al igual que las micros son de propósitos generales, pero mayormente son más poderosas y más costosas que las micros. En tamaño varían de un modelo de escritorio a una unidad del grande de un archivo. La mejor manera de explicar las capacidades de una Minicomputadora es diciendo que están en alguna parte entre las de una macrocomputadora o mainframe y las de las computadoras personales. Al igual que las Macrocomputadoras, las Minicomputadoras pueden manejar una cantidad mucho mayor de entradas y salidas que una computadora personal. Aunque algunas minis están diseñadas para un solo usuario, muchas pueden manejar docenas o inclusive cientos de terminales. Estaciones de trabajo: diseñados para apoyar una red de computadoras, permitiendo a los usuarios el compartir archivos, programas de aplicaciones y hardware", como por ejemplo las impresoras. Microcomputadoras: Son sistemas pequeños de propósitos generales. Pero pueden ejecutar las mismas operaciones y usar las mismas instrucciones de muchos sistemas grandes. Estas pequeñas computadoras se encuentran comúnmente en oficinas, salones de clase y hogares. Las computadoras personales vienen en todas formas y tamaños. Modelos de escritorio El estilo de computadora personal más común es también el que se introdujo primero: el modelo de escritorio. Computadoras notebook Las computadoras notebook, como su nombre lo indica, se aproximan a la forma de una agenda. Las Laptop son las predecesoras de las computadoras notebook y son ligeramente más grandes que éstas. Asistentes personales digitales Los asistentes


personales digitales (PDA) son las computadoras portátiles más pequeñas. Las PDA también llamadas a veces palmtops, son mucho menos poderosas que los modelos notebook y de escritorio. Se usan generalmente para aplicaciones especiales, como crear pequeñas hojas de cálculo, desplegar números telefónicos y direcciones importantes, o para llevar el registro de fechas y agenda. Muchas pueden conectarse a computadoras más grandes para intercambiar datos.

Marcas más conocidas: Advent, Acer, Compaq, Dell, HP, Mesh, Mac, Sony, Parkard, Bell, Philips, Toshiba.

Mejor computadora para jugar En el caso de ser un amante de los videojuegos online por computadora una opción que se debe abarajar es la de adquirir unaAurora Alienware, propiedad de la marca Dell, PC que tiene un mayor apartado con relación al manejo de gráficos, aunque bien vale decir que en términos generales resultan muy poderosas para todo tipo de actividad. Poseen un procesador Intel Core i7 con cuatro núcleos y aceleración de hasta 3.6 GHz, esto las vuelve favorables para el cumplimiento de varias tareas al mismo tiempo sin ralentizar el servicio. Entre otras características hallamos 8MB de memoria cache, hasta 24 GB en Memoria Ram y un decodificador de video unificado ATI para una alta definición.

Netbooks Ofrecen conectividad inalámbrica (Wi-Fi), rasgo fundamental para su uso. Dependiendo de los fabricantes y sus modelos, la mayoría ofrece 1 GB de RAM, y algunas cuentan con cámaras web y micrófono incorporados, distintas cantidades de puertos USB, conexión Bluetooth, lectores multiformato de tarjetas flash y hasta salidas para conectarles un monitor externo.


Sistemas operativos: los 5 mejores sistemas operativos para netbooks son Jolicloud, Windows 7, Ubuntu Netbook Remix,Mac OS X y Linux Mint Mejores netbooks para comprar: Acer Aspire One 532h-2326: cuenta con una pantalla de 10,1 pulgadas con una resolución de hasta 1.024 x 600 pixeles. Además, integra un procesador Intel Atom N450 a 1,66 GHz, 1GB de memoria RAM, un disco duro de 250GB, y un chipset Intel NM10. También cuenta con 802.11b/g/n Wi-Fi, una cámara web integrada y micrófono, y touchpad multigesture. Se ejecuta sobre Windows 7 Starter. ASUS Eee PC 1001P-MU17: pantalla de 10,1 pulgadas, un procesador Intel Atom N450 a 1.66 GHz con una GPU integrada 3150, 1 GB de memoria RAM DDR2 y un disco duro de 160 GB. Los puertos son también típicos de una netbook: tres puertos USB, uno VGA, uno de CA, Ethernet 10/100, una sola ranura SDHC, además de audio in / out y un puerto de seguridad Kensington. También cuenta con una tecnología Express Gate desarrollada por ASUS, introducida en sus placas madre P5E3, que utiliza Splastop, un entorno reducido de Linux que está integrado a la placa madre. ASUS Eee PC 1201N: posee una pantalla WXGA de 12,1 pulgadas retroiluminada por LED y con una resolución de hasta 1.366 x 768 pixeles. Ofrece tecnología NVIDIA ION de procesamiento de gráficos que proporciona una experiencia multimedia superior incluyendo soporte para video HD y juegos para PC. NVIDIA CUDA mejora aún más la capacidad de la Eee PC 1201Nde trabajar con el contenido visual, lo que acelera las tareas intensas del procesador como la edición de vídeo y la conversión. También viene con ArcSoft SimHD preinstalado, que incrementa el contenido estándar de definición de vídeo a alta definición. SimHD mejora enormemente la calidad de las imágenes y soporta una amplia gama de formatos de archivo. Los usuarios pueden disfrutar de una experiencia de alta definición de vídeo sin problemas en la pantalla de 12,1 de alta definición, o tener la opción de disfrutar de vídeo de 1080p HD con verdadera fidelidad de audio. Esta netbook integra un procesador Intel Atom 330 Dual Core y


gráficos NVIDIA ION. Además, posee un disco duro de 320GB y viene con Windows 7 Home Premium preinstalado. Gateway LT2118u: cuenta con una pantalla WSVGA de 10,1 pulgadas retroiluminada por LED con una resolución de hasta 1.024 x 600 píxeles. Integra un procesador Intel Atom N450 a 1.66 GHz y 1GB de memoria RAM DDR2, disco duro SATA de 250 GB y acelerador de gráficos Intel Media Accelerator 3150. La Gateway LT2118u brinda una autonomía llegando a las 11 horas y 17 minutos por carga. Gateway LT2120u: posee una pantalla WSVGA de 10,1 pulgadas retroiluminada por LED con una resolución de hasta 1.024 x 600 pixeles. Integra un procesador Intel Atom N450 a 1.66 GHz, una GPU 3150, 1 GB de memoria RAM y un disco duro SATA de 250 GB. Viene con Windows 7 Starter preinstalado. En cuanto a su batería, duró unas 9 horas y 40 minutos en las pruebas Este equipo también tiene un puerto de seguridad Kensington en el borde derecho, así como una ranura SD para cargar y guardar archivos. HP Mini 5102: fue elegida en Las Mejores Netbooks como el mejor equipo para los usuarios de negocios. Es la última en línea de HP de negocios para netbooks, con un chasis de metal solido y elementos de diseño a medida para el viajero de oficina. Cuenta con una pantalla táctil de 10,1 pulgadas, 2GB de memoria RAM, un procesador Intel Atom N450 y una batería extendida de seis celdas. Lenovo IdeaPad S10-3: cuenta con una pantalla de 10,1 pulgadas retroiluminada por LED con una resolución de hasta 1.024 x 600 pixeles. Integra un procesador Intel Atom N455 a 1.66GHz, hasta 2 GB de memoria RAM, Intel Graphics Media Accelerator 3150, disco duro de 250GB (5400 rpm), tres puertos USB 2.0, lector de tarjetas 5-en-1, VGA y protección APS contra caídas. Pesa 1,25 Kg, corre sobre Windows 7 Starter. Lenovo ThinkPad X100e: pantalla de alta resolución de 11,6 pulgadas, un teclado espacioso y un disco duro más grande que el de la mayoría de las laptops. Es un poco más pesada que las netbooks y tiene duración de la batería limitada.Procesador AMD Turion Neo X2 Dual-Core L625 a 1.6 GHz y 2 GB de memoria RAM,


cuenta con una tarjeta gráfica AMD M780G ATI Radeon HD 3200 y 320 GB de disco duro. Samsung N210: no es muy bueno para la reproducción de vídeo pero tiene altavoces bastante decentes. Cuenta con una funcion de encendido rápido que permite conectarse a internet sin tener que esperar a que Windows se inicie. También cuenta con una pantalla mate WSVGA de 10,1 pulgadas con retroiluminación LED y resolución de hasta 1.024 x 600 pixeles,procesador Intel Atom N450 a 1,66 GHz, 1GB de memoria RAM, un disco duro de 250GB, y se ejecuta sobre Windows 7 Starter. Tiene gráficos Intel GMA3150, WiFi 802.11b/g/n, Bluetooth y una webcam integrada y micrófono. Toshiba mini NB305-N310: cuenta con una pantalla WSVGA de 10,1 pulgadas retroiluminada por LED y con una resolución de hasta 1.024 x 600 pixeles. Integra un procesador Intel Atom N450 de 1,66 GHz con procesador gráfico integrado GMA3150, un disco duro de 160 GB y 1 GB de memoria RAM. Se ha construido en combinación Webcam y micrófono, Wi-Fi 802.11b/g/n (pero no Bluetooth). Este netbook pesa 1,3 Kg, viene con Windows XP preinstalado y se puede actualizar aWindows 7.

Notebooks

Funcionan empleando una batería o un adaptador que permite tanto cargar la batería como dar suministro de energía. Poseen una batería en caso de falta de energía. Suelen tener menos potencia que las computadoras de escritorio, menor capacidad en los discos duros, menos poder de video y audio, y menor potencia en los microprocesadores. Suelen consumir menos energía y son más silenciosas. Suelen contar con una pantalla LCD y un touchpad.


Cuentan con Tarjeta PC (antiguamente PCMCIA) o ExpressCard para tarjetas de expansión. Sistemas operativos para notebooks Ubunt SUSE Linux Red Hat IBM Microsoft Vista Novell Canonical Windows XP

Mejores notebooks para comprar Toshiba Satellite T235-S1350: pantalla de 13,3” y un procesador de bajo consumo de Intel (Pentium U5400 a 1,2GHz), la Toshiba de 1,7 kilos posee 4GB de RAM, disco de 320GB, Windows 7 Home Premium, salida HDMI, lector de tarjetas 4 en 1 y puertos USB. No posee unidad óptica y entrega una autonomía de 8 horas. Tiene gráficos integrados con una Intel GMA. Acer TimelineX AS5820T-5951: posee una pantalla de 15,6” y un procesador Intel Core i3 M350 de 2,27GHz. Se complementa con Windows 7 Home Premium, 4GB de RAM, disco de 320GB y unidad de DVD. Su batería entrega una autonomía de 7 horas y media. Su peso es de 2,35 kilos. Sus gráficos son integrados (Intel GMA HD), ideal para ver contenidos en alta definición y jugar algunos video juegos que no requieran mucho procesamiento.


Samsung R540-11: tiene una pantalla de 15,6” y un Intel Core i5 450M de 2,4GHz en su interior. Se complementa con un 4GB de RAM y una ATI Mobility Radeon 545v. Agrega Windows 7 Home Premium, un peso de 2,35 kilos, disco de 500GB y unidad de Bluray. La autonomía de la batería es de 3 horas. Asus U45Jc-A1: con una pantalla de 14” y un procesador Intel Core i3-370M de 2,4GHz. Conjuga 4GB de RAM con gráficos Intel GMA HD con una NVIDIA GeForce 310M, lo que permite consumir contenido en alta definición, editar videos y jugar video juegos que no requieran demasiado sacrificio de la placa. Pesa 2,1 kilos, tiene un disco de 500GB y unidad de DVD. Viene con Windows 7 Home Premium y ofrece una autonomía de 9 horas y media. HP Pavilion dv7-4083cl: tiene una pantalla de 17,3” y viene con Windows 7 Home Premium, un Intel Core i5-450M de 2,4GHz, 4GB de RAM, ATI Mobility Radeon 4570, disco de 500GB y unidad de Blu-ray. Con esas características es posible jugar video juegos sin problemas. La autonomía es de 4 horas y 45 minutos y su peso es de 3,17 kilos. Lenovo ThinkPad T410s: posee una pantalla de 14,1”, Windows 7 Professional, Intel Core i5-520M de 2,4GHz, 4GB de RAM, disco de 250GB y unidad de DVD. Su peso es de 1,7 kilos. Posee un slot dual para ExpressCard y tarjetas, 3G, bluetooth y dos puertos USB. La autonomía de su batería es de 4 horas. Dell Latitude E5510: tiene una pantalla de 15,6”, Windows 7 Premium Edition, Intel Core i5-520M de 2,4GHz, 4GB de RAM, disco de 320GB y unidad de DVD. Su peso asciende a 2,76 kilos. Omite la presencia de HDMI y eSATA. La autonomía que ofrece su batería llega a 7 horas. HP Envy 14: peso de 2,35 kilos, demasiado para una notebook, con pantalla de 14,5” de completas características. Se complementa con Windows 7 Home Premium, Intel Core i5-450M de 2,4GHz, ATI Mobility Raderon 5650, disco de 500GB y unidad de DVD. La HP Envy 14 es una buena opción para juegos y uso multimedia. La batería entrega una autonomía de 4 horas. Gateway ID49C07u: tiene una pantalla de 14”, Windows 7 Home Premium, Intel Core i3-M350 de 2,27GHz, 4GB de RAM, disco de 500GB, unidad de DVD y cuatro puertos USB. Falla por el lado del


teclado, demasiado flexible, y por su touchpad, ruidoso al utilizarlo. Pero compensa con la buena performance del equipo y la duración de la batería: 5 horas y media. Pesa 2,13 kilos. Toshiba Portégé R705-25: pantalla de 13,3”. Se caracteriza por su fino diseño en metal y la presencia de una unidad de DVD. Viene con Windows 7 Home Premium, un Intel Core i3-M350 de 2,27GHz, 4GB de RAM, disco de 500GB, HDMI y un peso de apenas 1,4 kilos. Viene con la opción de emplear la tecnología Wi-Di de Intel. La autonomía de la batería es de 6 horas y 20 minutos.

Mejores impresoras

HP Deskjet 5150: Clasificada en 6,8 ppm monocromática/4,6 ppm en colores. Resolución máxima de 4.800 por 1.200 ppp, entrada para 150 hojas, salida para 50; un cartucho negro y uno tricolor. RESUMEN: Produjo un texto nítido, arte lineal bien definido y fotos en colores muy detalladas. Tiene disponible un mecanismo de impresión dúplex. Canon Pixma iP500: Clasificada en 25 ppm monocromática/17 ppm en colores. Resolución máxima de 9.600 por 2.400 ppm, entrada para 100 hojas; un cartucho negro y uno tricolor. RESUMEN: Esta impresora de bajo costo produjo una salida de alta calidad para el color y el texto. HP Deskjet 5740: Clasificada en 23 ppm monocromática/18 ppm en colores. Resolución máxima de 4.800 por 1.200 ppm, entrada para 100 hojas, salida para 50; un cartucho negro y uno tricolor. RESUMEN: Esta unidad sin adornos ofrece una impresión de alta calidad y produjo el arte lineal más nítido que hemos visto en un modelo de inyección de tinta. HP Deskjet 5850: Clasificada en 7,7 ppm monocromática/5 ppm en colores. Resolución máxima de 4.800 por 1.200 ppp, entrada para 150 hojas, salida para 50; un cartucho negro y uno tricolor. RESUMEN: La calidad de impresión y la velocidad están al nivel de la Deskjet 5150, pero este modelo tiene además Wi-Fi y ethernet.


Lexmark Z615 Color Jetprinter: clasificada en 14 ppm monocromática/8 ppm en colores (modo de borrador). Resolución máxima de 4.800 por 1.200 ppp, entrada para 100 hojas, salida para 25; un cartucho negro y uno tricolor. RESUMEN: Imprimió fotos más atractivas en el papel brillante que la Lexmark Z715. Los colores lucían demasiado claros al imprimir en papel corriente.

Google

Historia de Google. Los comienzos - primavera 1995: Sergey Brin (23 años entonces) y Larry Page (24), cofundadores de Google y actualmente presidente y CEO, se conocen en un acto que la Universidad de Stanford organiza para los candidatos de su Doctorado en Informática. - otoño 1995: Larry y Sergey comienzan a trabajar en el 'Digital Library Project' de la Universidad de Stanford. Larry Page, con experiencia en diseño web y el título de Ingeniero Eléctrico, y Sergey Brin, un experto en tratamiento de datos y Licenciado en Informática y Ciencias Matemáticas, comienzan a crear un algoritmo para la búsqueda de datos. Esta tecnología se convertirá mas tarde en el corazón que hará funcionar a Google. El nombre que Larry Page da a esta tecnología fue 'PageRank'. En su página web personal de la Universidad de Stanford, colgará en 1997 una presentacion que lo explica: 'PageRank: Bringing Order to the Web'. - enero 1996: Comienzan a desarrollar un buscador llamado 'BackRub'. Este nombre se lo dan debido a que la mayor habilidad de este motor de búsqueda es analizar los 'back links' (enlaces que apuntan a una determinada página). Tal y como indican en su descripción, Backrub está escrito en Java y Python (incluso Larry Page postea alguna duda en los 'newsgroups'), y corre sobre varias máquinas Sun Ultra y Intel


Pentium con Linux. La Base de Datos está alojada en un ordenador Sun Ultra II con 28GB de disco duro. - 1997: 'Backrub' se transforma en 'Google'. Le otorgan este peculiar nombre por su parecido a la palabra 'googol', que en inglés es el nombre que se da a la cifra '10 elevado a 100' (un uno seguido de 100 ceros). Ya tienen indexadas 24 millones de páginas. Mucho antes, ya han tenido problemas de capacidad en sus discos duros, y han tenido que idear ingenios basados en Lego, como este. En los comienzos de Google (en el dominio google.stanford.edu), su diseño es aún más austero de lo que será posteriormente. En esta antigua versión se incluyen fotografías de los equipos que utilizan.

Comienzos Steve Wozniak nacido en 1950, era totalmente diferente a los chicos de su edad y le gustaba la electrónica. A los trece años obtuvo un premio científico por construir su propia máquina de restar y sumar, con transistores que le regaló un ingeniero de Fairchild, "Llegué a interesarme en la electrónica gracias a él", diría más tarde el "Woz". En 1968, a la temprana edad de dieciocho años, se dirigió a un colegio en Colorado, finalmente se trasladó a California, para seguir en la Universidad de Berkeley, de Ingeniería y Ciencias de la Computación. Wozniak conoció a Steve Jobs quien era cinco años menor que él; Jobs se había criado en Mountain View, y sus padres adoptivos, no conocían muy bien sobre la alta tecnología. Después de que la familia de Jobs se mudó a Los Altos, Woz lo conoció un poco más a través de un amigo en común, justo antes de que Jobs cumpliera los catorce años. Aunque compartían su interés por los ordenadores, diferían en su forma de ser. Woz era una persona que llevaba sus ideas a la práctica, en cambio Jobs parecía ver a la electrónica como un medio para llegar a un fin. Como diría Woz, "ganar no me resulta tan importante como correr detrás de la pelota" refiriéndose al tenis. Woz, no tenía ambición y Jobs no tenía otra cosa en su cabeza que ella. Wozniak y Jobs no tenían tanta pasión por el colegio, no les resultaba interesante el estilo académico y por ello, verán foto de


ambos con barba, pantalones gastados y sandalias. En esa época, Jobs tomo un trabajo en Atari, mientras que Wozniak había tomado una licencia en Berkeley para ir a trabajar a Hewlett-Packard, en el diseño de calculadoras. Atari era una nueva empresa en Sunnyvale que fabricaba videojuegos. Jobs fue reclutado por Atari, simplemente porque se presentó un día por allí. Al Alcorn el cofundador de Atari diría, "El director de personal me viene a ver y me dice, que tenía un hippie que parecía haber venido de las montañas, el tipo me pregunta…–¿Llamo a la policía?–". Alcorn quedó intrigado y optó por reclutarlo. Lo mejor que Jobs trajo a Atari fue a Woz, al que ya le había sido encargado un trabajo en Atari, después de demostrar su propia variante del Pong a Bushnell y Alcorn. Woz terminó siendo responsable del Pong para un sólo jugador que quería Bushnell. Se llamó BreakOut. Durante cuatro noches Wozniak desarrolló BreakOut y Jobs lo ensambló. Mientras que asistía a una exposición de ordenadores en San Francisco, Wozniak descubrió una pequeña firma fabricante de semiconductores que estaba vendiendo microprocesadores a $20. No era un chip de Intel pero la 6205 de MOS Technology, era más que suficiente para lo que tenía en mente. Al fin construyó un ordenador, aunque no estaba totalmente ensamblado. A pesar de su aspecto de producto sin terminar, proponía una mejora sobre la Altair, ya que utilizaba menos componentes. De esta manera Woz, asombró a sus amigos en el Homebrew Club. Pero como era de esperar en esta historia, a Woz solamente le gustaba eso, no contaba con el espíritu de ‘ambición’ que sí tenía Jobs, que vio este ‘asombro’ de otra manera, si un par de aficionados quedaban asombrados, ¿qué podría pasar con un mercado más grande? Jobs comprendió intuitivamente el significado de lo que Gordon Moore había reconocido una década atrás: debido a la miniaturización, los chips se harían más baratos y quedarían necesariamente al alcance de todo el mundo. Jobs pensó: ¿Qué pasaría si Wozniak pudiese ser persuadido a fabricar su ordenador en grandes cantidades? continuaría siendo Woz el ingeniero, y Jobs el vendedor. Corrían los comienzos de 1976, Jobs tenía veintiún años y Woz veintiséis. Ambos consideraban la idea de comenzar una empresa: Woz vendió su calculadora HP-65 y Jobs, su ómnibus VW.


De qué manera se pusieron de acuerdo en "Apple Computer", depende de cuál versión de la historia usted acepte. Pudo haber sido un buen recuerdo de Jobs en sus días de huerto en Oregón o su intermitente dieta en base a frutas. Inclusive "Apple" podría haber sido simplemente una manera de crear un nombre con un buen sonido, absolutamente americano, en una industria de la alta tecnología no conocida por irradiar calidez. El logotipo original de Apple era poco imaginativo, mostrando a alguien debajo de un manzano, pero la empresa salió con la amigable manzana del arco iris, que ha permanecido como la marca más conocida en el universo de la computación.

Microsoft Microsoft Corporation es una empresa multinacional de origen estadounidense, fundada en 1975 por Bill Gates y Paul Allen. Dedicada al sector de la informática, con sede en Redmond, Washington, Estados Unidos. Microsoft desarrolla, fabrica, licencia y produce software y equipos electrónicos. Siendo sus productos más usados el sistema operativo Microsoft Windows y la suite Microsoft Office, los cuales tienen una importante posición entre los ordenadores personales. Con una cuota de mercado cercana al 90% para Office en 2003 y para Windows en el 2006. Siguiendo la estrategia de Bill Gates de "tener una estación de trabajo que funcione con nuestro software en cada escritorio y en cada hogar".[] La compañía también suele ser nombrada como MS, por sus iniciales en el NASDAQ o simplemente como Redmond, debido a la gran influencia que tiene sobre la localidad de su centro de operaciones. Tiene 93.000 empleados en 102 países diferentes y contó con unos ingresos de 51.120 millones de dólares durante el año 2007[] Fundada para desarrollar y vender intérpretes de BASIC para el Altair 8800, a mediados de los 80 consiguió dominar el mercado de ordenadores personales con el sistema operativo MS-DOS. La compañía inició una Oferta Pública de Venta en el mercado de valores en 1986, la cual, debido a la subida de cotización de las


acciones, llevó a 4 empleados a convertirse en multimillonarios y a 12.000 en millonarios. Durante su historia, ha sido objeto de críticas, como acusaciones de realizar prácticas monopolísticas que la han llevado ante la Comisión Europea y el Departamento de Justicia de los Estados Unidos. Microsoft afianzó su posición en otros mercados como el de sistemas operativos y suites de oficina, con recursos como la red de televisión por cable MSNBC, el portal de Internet MSN, y la enciclopedia multimedia Microsoft Encarta, producto y servicio cancelado por la empresa a principios de 2009[ ]debido a la competencia de la libre Wikipedia. La compañía también comercializa hardware como el ratón de Microsoft y productos de entretenimiento casero como Xbox, Xbox 360, Zune y WebTV Microsoft ha dado soporte a sus usuarios a través de Usenet en grupos de noticias y en Internet, también premia con la categoría de Microsoft MVP (Most Valuable Professional) a aquellos voluntarios que demuestran ser útiles en la asistencia a los clientes. Su web oficial es una de las páginas más visitadas de la red, recibiendo por día más de 2'4 millones de visitas únicas según datos de Alexa, que situó el 11 de mayo de 2008 a Microsoft.com como la 14ª página web con más visitas del mundo.

Grandes inventos tecnológicos La humanidad ha sabido progresar y en el camino se han ido descubriendo grandes inventos tecnológicos que han traído cambios trascendentales en las comunidades. El fuego, la rueda, la escritura, la forja de metal. A través de los siglos, distintosinventos han ido cambiando la vida de las personas. Hoy traemos una breve reseña de algunos de los grandes inventos tecnológicos de los últimos tiempos: La energía solar: La posibilidad de obtener energía a partir del sol, que es una fuente inagotable, abre nuevos horizontes y nos permite soñar con la energía infinita creando toda una generación de alquimistas modernos.


Tecnología de microondas en teléfonos celulares: La transmisión de datos por microondas, que ha permitido la vertiginosaproliferación de teléfonos celulares, hace que todas las personas estén comunicadas sin importar donde se encuentren, para alegría de muchos y desgracia de otros, estos aparatitos han ido penetrando en la vida de las personas a tal punto que algunos no podrían vivir sin ellos. Ingeniería genética: Cuando finalmente se terminó de definir el mapa genético humano, se abrieron una amplia gama de posibilidades gracias a las manipulaciones genéticas. Esto fue decisivo en la aparición de la ingeniería genética, que actualmente sigue desarrollando nuevos métodos y aplicaciones, fundamentalmente para la identificación de personas y comoherramienta de la medicina. Pero por supuesto que si hablamos de grandes inventos tecnológicos, ninguno de estos se hubiera producido sin el inmenso e inestimable aporte que significó el descubrimiento de la electricidad. Este ha sido, y seguramente seguirá siendo por mucho tiempo, el invento más importante y revolucionario de todos los tiempos.

HTML5 HTML 5 (HyperText Markup Language, versión 5) es la quinta revisión importante del lenguaje básico de la World Wide Web, HTML. HTML 5 especifica dos variantes de sintaxis para HTML: un «clásico» HTML (text/html), la variante conocida comoHTML5 y una variante XHTML conocida como sintaxis XHTML5 que deberá ser servida como XML (XHTML) (application/xhtml+xml). Esta es la primera vez que HTML y XHTML se han desarrollado en paralelo. HTML 5 es una tecnología creada para modernizar la web y el desarrollo de aplicaciones web, online y offline, que aun tiene bastante camino por recorrer para ser una realidad. Por qué se crea HTML 5


Los que nos dedicamos a hacer páginas web sabemos que un sitio web es como un puzzle de tecnologías que operan entre si. Para hacer una página, en principio, se necesita simplemente HTML, pero esta afirmación hoy tiene poco que ver con la realidad y las necesidades de los desarrolladores para crear una rica experiencia de usuario. Es que hoy pocos sitios web se basan únicamente en HTML. Quien más quien menos utiliza CSS para definir el aspecto de la página, algún tipo de script del lado del cliente, en Javascript, vídeos en diversos formatos o Flash para realizar alguna animación o interacción con el usuario. Para poder beneficiarse e integrar todas estas tecnologías, existen multitud de etiquetas que se han ido creando al paso, según se iban necesitando, y las cuales no han pasado por el filtro de los normalizadores de tecnologías como el W3C. Por tanto, más de 10 años después que se publicase la última especificación del HTML, resulta primordial para el futuro de la web la creación de un nuevo estándar que recoja y solucione de alguna manera, las necesidades de los desarrolladores que se han ido creando a lo largo de todo este tiempo.

Tv digital La televisión digital (o DTV, de sus siglas en inglés: Digital TV) se refiere al conjunto de tecnologías de transmisión y recepción de imagen y sonido, a través de señales digitales. En contraste con la televisión tradicional, que codifica los datos de manera analógica, la televisión digital codifica sus señales de forma binaria, habilitando así la posibilidad de crear vías de retorno entre consumidor y productor de contenidos, abriendo la posibilidad de crear aplicaciones interactivas, y la capacidad de transmitir varias señales en un mismo canal asignado, gracias a la diversidad de formatos existentes. Un sistema integro de televisión digital, incorpora los siguientes actores: Cámaras de video digitales, que trabajan a resoluciónes mucho más altas que las cámaras analógicas.


Transmisión digital Display digital, de alta resolución (Ej: LCDs, Plasmas) Como funciona una tv digital La FCC adoptó un estándar para la transmisión de la televisión digital en los Estados Unidos. El formato de vídeo analógico contando sólo con una resolución y una frecuencia de cuadros está siendo retirado en favor de una variedad de formatos de vídeo digital que varían en resolución y frecuencia de cuadros. Básicamente, la NTSC define un cuadro de vídeo conteniendo un total de 525 líneas entrelazadas, de tal modo que las líneas impares se despliegan antes de todas las líneas impares a una frecuencia de 30 Hz aproximadamente. El equipo de televisión de un estudio se basa en esta estructura fija de tiempo y sincronización. En contraste, el nuevo estándar de la Advanced Television Systems Committee (ATSC) no es solo más versátil, también incluye compresión de las señales de vídeo y audio, así como usa transporte en paquetes para vídeo, audio y datos. El flujo resultante de bits de vídeo es modulado para la transmisión al aire. Claramente, la transición del estándar análogo NTSC al ATSC digital comprimido de alta definición va a transformar completamente la manera en la que los estudios de televisión captan, almacenan, procesan y transmiten la nueva señal de vídeo. La recompensa debe ser un mejor producto con mucha mayor eficiencia.

Importancia de atubecatcher ATube Catcher es un sencillísimo programa para la descarga de vídeos de YouTube, tiene una interfaz muy simple y tiene una característica especial que permite la descarga de videos con la nueva caracteristica de HD (Alta Definición) de YouTube. Con aTube Catcher puedes descargar videos en multitud de formatos, incluso en MP3 si no quieres la imagen.


Creatives Commons Creative Commons (CC) es una organización no gubernamental sin ánimo de lucro que desarrolla planes para ayudar a reducir las barreras legales de la creatividad, por medio de nueva legislación y nuevas tecnologías. Fue fundada por Lawrence Lessig, profesor de derecho en la Universidad de Stanford y especialista en ciberderecho, que la presidió hasta marzo de 2008. Creative Commons es también el nombre dado a las licencias desarrolladas por esta organización.

Protección infantil en Internet: formas de prevención Mantenga abierta la comunicación Anime a sus hijos para que le hablen sin temor acerca de lo que leen o ven en Internet. Coloque el equipo en una habitación común, no en el dormitorio del niño. Establezca reglas claras para el uso de Internet Los niños de cualquier edad necesitan que sus padres establezcan directrices claras acerca del uso de Internet. Establezca un conjunto de reglas en el que usted y su hijo estén de acuerdo. Después, coloque las reglas encima del equipo o en otro lugar común. Mantenga sus datos personales privados Dígale a su hijo que no comparta información personal en mensajes de correo electrónico, salones de charla, paneles de mensajes, blogs, sitios de redes sociales u otros lugares en línea. Use tecnología para reducir riesgos Use herramientas de seguridad para la familia como asistente para la orientación de los padres. El software


de filtrado de Internet puede ayudar a automatizar las limitaciones de contenido y contacto.

Computacion  

informatica

Read more
Read more
Similar to
Popular now
Just for you