Page 1

Una conferencia web es similar a una reunión personal porque permiten a los asistentes interactuar entre sí, participan entre 2 y 20 personas y pueden compartir documentos y aplicaciones. Las videoconferencias web son reuniones ‘virtuales’ a través de Internet cuyos participantes trabajan en distintas ubicaciones físicas. La sala de reuniones real se sustituye por el escritorio del ordenador del anfitrión de la reunión (la persona que la ha organizado). Cada participante se sienta ante su propio ordenador, donde puede ver todo lo que el presentador va mostrando en su pantalla (función de ‘desktop sharing’ o escritorio compartido).

wiziq elluminate

televisión digital a (o DTV, de sus siglas en inglés: Digital TV) se refiere al conjunto de tecnologías de transmisión y recepción de imagen y sonido, a través de señales digitales. En contraste con la televisión tradicional, que codifica los datos de manera analógica, la televisión digital codifica sus señales de forma binaria, habilitando así la posibilidad de crear vías de retorno entre consumidor y productor de contenidos, abriendo la posibilidad de crear aplicaciones interactivas, y la capacidad de transmitir varias señales en un mismo canal asignado, gracias a la diversidad de formatos existentes. Un sistema integro de televisión digital, incorpora los siguientes actores: • Cámaras de video digitales, que trabajan a resoluciónes mucho más altas que las cámaras analógicas. • Transmisión digital • Display digital, de alta resolución (Ej: LCDs, Plasmas) red social es una estructura social compuesta de personas , las cuales están conectadas por uno o varios tipos de relaciones, tales como amistad, parentesco, intereses comunes, intercambios


económicos, relaciones sexuales, o que comparten creencias, conocimiento o prestigio. 9 Badoo 8 Metroflog 7 Menéame 6 MySpace 5 Hi5 4 Yahoo Respuestas 3 Twitter 2 Facebook 1 YouTube navegador Un navegador o navegador web (del inglés, web browser) es un programa que permite ver la información que contiene una página web El navegador interpreta el código, HTML generalmente, en el que está escrita la página web y lo presenta en pantalla permitiendo al usuario interactuar con su contenido y navegar hacia otros lugares de la red mediante enlaces o hipervínculos. La funcionalidad básica de un navegador web es permitir la visualización de documentos de texto, posiblemente con recursos multimedia incrustados. Los documentos pueden estar ubicados en la computadora en donde está el usuario, pero también pueden estar en cualquier otro dispositivo que esté conectado a la computadora del usuario o a través de Internet, y que tenga los recursos necesarios para la transmisión de los documentos (un software servidor web). Tales documentos, comúnmente denominados paginas web, poseen hipervínculos que enlazan una porción de texto o una imagen a otro documento, normalmente relacionado con el texto o la imagen. Tipos de navegadores o exploradores web Algunos de los navegadores o exploradores web más populares son: Internet Explorer, Mozilla Firefox, Safari, Opera, Google Chrome y Flock. Otros navegadores no tan conocidos son: Maxthon, Avant, DeepNet, PhaseOut, SpaceTime, Amaya... componentes internos de la pc Motherboard CPU BIOS


RAM Tarjeta de Video Tarjeta de Sonido (Opcional) Tarjeta de Red (Opcional) Unidades de Almacenamiento Fuente de Poder tecnologia wifi ¿Qué es la tecnología wi-Fi? Wi-Fi (Wireless Fidelity) es la tecnología utilizada en una red o conexión inalámbrica, para la comunicación de datos entre equipos situados dentro de una misma área (interior o exterior) de cobertura. Conceptualmente, no existe ninguna diferencia entre una red con cables (cable coaxial, fibra óptica, etc.) y una inalámbrica. La diferencia está en que las redes inalámbricas transmiten y reciben datos a través de ondas electromagnéticas, lo que supone la eliminación del uso de cables y, por tanto, una total flexibilidad en las comunicaciones. De entre todos los tipos de redes inalámbricas, son las redes inalámbricas IEEE 802.11b las que son conocidas como Wi-Fi (Wireless Fidelity), debido a su amplia difusión en el mercado. Los productos y redes Wi-Fi aseguran la compatibilidad efectiva entre equipos, eliminando en los clientes las dudas que puedan surgir a la hora de comprar un nuevo terminal. El Wi-Fi no es, sin embargo, una alternativa a una red convencional, sino que es una nueva tecnología que viene a complementar a aquellas. Ambas redes (inalámbricas y de cables) ofrecen las mismas expectativas de comunicaciones (compartir periféricos, acceso a una base de datos o a ficheros compartidos, acceso a un servidor de correo, navegar a través de Internet, etc.). En una red inalámbrica cada ordenador dispone de un adaptador de red inalámbrico. Estos adaptadores se conectan enviando y recibiendo ondas de radio a través de un transceptor (transmisorreceptor), que puede situarse en cualquier lugar, interior o exterior, dentro del área de cobertura, sin la preocupación del cableado. Las redes inalámbricas permiten la transmisión de datos a velocidades de 11 Mbps o incluso superiores, lo que proporciona rapidez suficiente para la mayoría de las aplicaciones.


Se puede decir que el entorno Wi-Fi es la solución idónea que unifica movilidad y conectividad en la transmisión de datos, ofreciendo una nueva posibilidad de "oficina móvil", se esté donde se esté. pc para jugar

A que jugamos? NUESTRAS PREFERENCIAS Y HÁBITOS DE JUEGO PUEDEN HACER UNA DIFERENCIA A LA HORA DE ELEGIR EL HARDWARE. Una manera de ajustar el presupuesto a la hora de elegir componentes consiste en tener en cuenta cuáles son los tipos de juegos que nos más nos gustan. Hay gamers absolutos, que gustan de experimentar con títulos de todos los géneros, pero también hay muchos gamers especializados, que prefieren enfocarse puntualmente a la estrategia, las aventuras, las carreras, etc. En una computadora hay 3 puntos clave que definen su desempeño: procesador, cantidad de memoria y placa de video. Aquí, la clave es saber sobre cuál de estas 3 patas prefieren apoyarse nuestros juegos preferidos. Es decir: hay títulos que requieren una placa de video muy poderosa, pero que se las arreglan con un procesa dar modesto, y viceversa. En la actualidad, para la mayoría de los juegos basta con tener un procesador de doble núcleo de gama media-baja, mientras que la placa de video se ha convertido en un factor fundamental. Esto se debe a dos factores: por un lado, los microprocesadores alcanzaron un nivel de desarrollo tan alto, que incluso los modelos económicos son suficientemente poderosos. En segundo lugar, la calidad gráfica de los juegos no para de avanzar, lo que, obviamente, exige más al chip gráfico. No obstante, todavía se puede señar algún tipo de diferenciación basada en géneros. Veamos qué componente sobrecarga más cada tipo de juego:

Como la mayoría jugamos a títulos de acción (los simuladores quedan para unos pocos raros y sabiondos). es válido afirmar que


la tarjeta gráfica es, hoy en día, el componente gamer fundamental. El procesador, en tanto, ocupa un lugar no tan estelar como en el pasado. Sí afecta el rendimiento, pero hasta los modelos económicos brindan la potencia suficiente para jugar de manera acepta. Placas de Video LAS TARJETAS ENCARGADAS DE LOS GRÁFICOS SON LA ESTRELLA DE CUALQUIER PC GAMER ACTUAL. La pregunta suele ser directa, sin preámbulos: ¿Qué placa de video me compro para jugar? Pues bien, amigos, de esta manera no hay forma de responder. Antes es necesario saber algo fundamental: qué tipo de monitor tendrá la PC. La resolución de la pantalla nos da una indicación clara y real de cuánto trabajo deberá realizar la tarjeta gráfica en cada caso. Por ejemplo: en una pantalla a 1024 x 768 píxeles, la tarjeta tendrá que "dibujar" yalmacenar en su memoria 786432 píxeles. A la resolución de 1280 x 1024, la cifra se eleva a 1310720 píxeles. Este juego teórico sirve para comenzar a darnos cuenta de las implicancias de la resolución. Volvamos a la pregunta: ¿a qué resolución nos gusta ejecutar nuestros juegos? En los monitores LCD, los juegos se ven mejor a la resolución nativa de la pantalla. Y en los CRT (de tubo). sabemos que hay resoluciones que se adaptan más o menos bien al tamaño del marco de la pantalla. La resolución elegida debería ser nuestra "medida objetivo", y nos ayudará a elegir la placa de video. Si tenemos un monitor chico (y no pensamos cambiarlo). como puede ser un CRT de 17 pulgadas, una resolución de 1024 x 768 será suficiente para que los juegos se vean aceptablemente bien. Para esto nos bastará con una tarjeta gráfica de gama baja o media. Si tenemos una pantalla de 15 pulgadas con resolución de 800 x 600, podría bastarnos hasta con la potencia del video onboard del motherboard. Ahora bien, la realidad es que el estándar actual en monitores está en las 19 pulgadas widescreen, con una resolución de 1440 x 900 píxeles ... y los gamers ya buscan monitores de 20 o 22 pulgadas (1680 x 1050 píxeles). Para estos casos, ya estamos hablando de tarjetas de video de gama media o alta, con 512 o más megabytes de RAM. ANTIALlASING y FILTROS


Considerada la importancia de la resolución, deberemos agregar otros factores que también son responsabilidad de la placa de video. El primero es el suavizado de líneas, también llamado antialiasing. Se trata de un procedimiento incorporado en las placas de video que les permite eliminar los típicos dientes de sierra que se forman en los objetos 3D, principalmente en los bordes. Hay distintos niveles de antialiasing: 2x, 4, 8x y hasta 16x en las tarjetas de gama alta. Cuanto más alto es el valor, mayor será el postprocesado que requiera la imagen, mayor el impacto negativo en la performance y mejor el resultado visual. El uso de antialiasing es demandante, sobre todo, en lo que respecta a la velocidad de la memoria de video. Por esa razón, es poco recomendable si se tiene video onboard o una tarjeta gráfica de gama baja, soluciones cuyo punto más flojo es, justamente, la velocidad de la memoria. El filtro anisotrópico se encarga de darle nitidez a las texturas aplicadas sobre objetos 3D, a fin de evitar que se vean borrosas y con poca profanidad de campo. Siempre que se utiliza antialising, conviene aplicar también filtro anisotrópico. Este filtro también exige poder de proceso en el chip gráfico y su uso se hace más pausible en las tarjetas de gama media y alta. SOMBREADO EN DX 9 y DX 10 La mayoría de los juegos que ofrecen alta calidad visual requieren, hoy en día, como mínimo un unidad de proceso gráfico compatible con DirecX 9c. Esto es algo muy fácil de obtener, porque está presente en el hardware desde las GeForce 6000 o Radeon X800. Sin embargo, si se quiere experimentar la máxima calidad visual que permite la tecnología actual, hay que ir por placas compatibles con DirectX 10. Esto sería: GeForce 8000 o superior o, por el lado de AMD/AT!. Radeon HD 3000 o superior. La diferencia en calidad visual entre los modos DX9 y DXl O depende mucho de cómo haya sido programado cada juego en particular. En ciertos casos, la diferencia es prácticamente imperceptible, mientras que en otros (que por ahora son los menos) se aprovecha máximo las posibilidades del hardware moderno y se puede apreciar una mejora. En todo caso, conviene saber que nuestra solución gráfica debe ser compatible con DirectX 10. ATI VERSUS NVIDIA Los dos principales fabricantes de chips gráficos mantienen una


durísima competencia y suelen tener en el mercado modelos de similar desempeño y precio, que, más o menos, se equiparan. Aunque nunca ofrecen exactamente el mismo rendimiento, puede decirse que hay un equilibrio. En la tabla siguiente podemos observar los principales modelos y sus contrapartes.

ACELERACIÓN DE FISICAS Los chips gráficos integrados en las placas de video reciben el nombre de GPU (Unidad de Procesos Gráficos) y recientemente han superado a los procesadores de Intel y AMO en capacidad de cálculo teorice. Debido a esto, NVIDIA y ATI están promoviendo la idea de utilizar las GPU para realizar otro tipo de tareas, aparte de generar los gráficos 3D. Uno de los trabajos más interesantes para los que se puede aprovechar el inmenso poder 8e las placas de video actuales, es la aceleración de cálculos físicos en un juego. Gracias a la aceleración de físicas, se pueden generar efectos más precisos y realistas de ruptura de vidrios, polvo, viento y comportamiento de los objetos en general. Lo bueno,es que al utilizar la GPU para acelerar físicas, no sólo se gana en calidad, sino en performance. Hoy en día, todas las placas de video de NVIDIA de serie GeForce 8 y superiores ofrecen la posibilidad de funcionar como aceleradoras de físicas bajo el estándar PhysX. Sólo necesitan los drivers actualizados y, desde luego, un juego que haya sido programado específica mente para PhysX. En la actualidad, hay un número limitado pero en aumento de juegos que suportan PhysX, como Mirrors Edge, Warmonqer, Unreal Tournamente 3 (actualizado con un patch). En cuanto al hardware, se puede utiliza, la misma placa de video para efectuar la aceleración de físicas y el rendering 3D o utilizar dos tarjetas separadas (la de menor performance para físicas). La compañía AMD / ATI, por su parte, también está trabajando en el tema y adscribe al estándar de aceleración de físicas llamado Havok, pero por el momento no hay juegos que brinden esta capacidad en las placas Radeon. Recientemente, Intel anunció que también incluiría soporte para Havok en sus futuras GPU, así que esta área seguramente crecerá mucho en el futuro cercano. De hecho, se espera que la aceleración de físicas se implemente como


estándar dentro del futuro DirectX 11. De esa forma, se evitaría una inútil guerra de estándares entre PhysX y Havok (en la que, por el momento, NVIDIA lleva la delantera). Procesadores EL MOTOR DE LA PC TIENE UNA IMPORTANCIA FUNDAMENTAL. AQUÍ VEMOS LAS OPCIONES DE INTEL Y AMD. Hoy estamos en la era de lbs pracesadores de múltiples núcleos. Sin embargo, el software ha tardado un poco én alcanzar el ritmo del hardwaré. Recordemos queen 2007 todavía pocos juegos soportaban pracesadores de doble núcleo. Es decir, utilizaban sóló 1 núcleo. Después, en 2008, la mayoría de los títulos (muchos de los cuales todavía están dé moda)sólo estaban optimizados para chips de 2 núcleos, a pesar de que en mercado los procesadores Quad Core ya no eran novedad. Recién con la aparición de GTA IV, que viene preparado para aprovechar al máximo 2, 3 o 4 núcleos, los pracesadores de 4 núcleos se volvieron deseables para el jugador medio. Todavía son pocos los juegos diseñados para sacar el máximo provecho de un chip de cuatro núcleos. Algunos títulos se pueden mejorar mediante parches lanzados por sus desarrolladores, pero lo cierto es que todavía en 2009 un dual core es suficiente para jugar. Unreal Toumament 3 es otro título cuyo motor acepta 4 núcleos, pero se trata de un juego relativamente ligero, por lo que con 2 núcleos logra un rendimiento más que bueno.

LOS CHIPS DE AMD La línea más económica de procesadores AMD se llama Semprón y funcionan en motherboards con el socket AM2 o AM2+ Y DDR2. Hay chips Sempron de doble núcleo, pero al igual que el Celeron, se quedan cortos de potencial si piensa armar una PC para jugar a los últimos juegos durante un buen tiempo.


"Buenos y baratos" se pueden encontrar procesadores de doble núcleo Athlon X2, como el modelo 5200+, que se consigue por alrededor de 75 dólares. y por poco más se pueden obtener chips como el X2 7750 o el 7850, de 2,7 y 2,8 GHz. Estos chips serían los equivalentes aproximados a los E5000 y E7000 de Intel. AMD es, por el momento, la única compañía que ofrece procesadores de 3 núcleos: Athlon X3 y Phenom X3. Constituyen una opción que se ubica en precio y performance entre los chips de 2 y 4 núcleos. En la gama más alta de AMD, se encuentran los nuevos procesadores Phenom II de cuatro núcleos. Hay variantes de este chip que pueden funcionar tanto con motherboards que usen memoria DDR2 como DDR3 y socket AM2+ Y AM3 (Actual). Los Phenom II compiten a la par contra los chips Core 2 Ouad de alta gama (entre Q9550 y QX9770).

EL PHENOM II ES EL PROCESADOR MÁS RÁPIDO Y AVANZADO DE AMD. COMPITE CON LOS INTEL CORE 2 QUAD DE ALTA GAMA. LA IMPORTANCIA DE LA CACHÉ Los procesadores más caros y poderosos se suelen distinguir de los más economicos por dos cuestiones básicas: la frecuencia de funcionamiento (MHz o GHz) y la cantidad de memoria caché integrada en el chip. Para darnos una mejor idea de esto, podemos dar un vistazo, en la tabla de abajo, a la línea de procesadores Core 2 Duo de Intel y cómo los modelos de menor rendimiento tienen una menor cantidad de caché de segundo nivel (l2). El mismo tipo de segmentación realiza AMD con sus chips Phenom, Athlan y Sempron. Si dos procesadores basados en la misma arquitectura (digamos, dos Core 2 Duo) funcionan a la misma frecuencia (por ejemplo, 2 GHz) tendrá mejor desempeño aquel que tenga mayor cantidad de caché integrada.

Memoria RAM


DESDE DDR2 HACIA DDR3La industria de los juegos siempre ha sido demandante en lo que respecta a memoria RAM. Más allá del tipo que se utilice (que está directamente relacionado con el modelo de procesador elegido). lo que nos importa analizar aquí es cuánta memoria hace falta, realmente, para jugar con comodidad. Podemos decir que 2 GB es un buen punto de partida para cumplir los requerimientos de los juegos actuales. Pero para los más exigentes, 4 GB se está convirtiendo en el estándar, sobre todo si utilizan Vista. Los usuarios de Core i7, que tiene triple canal de memoria, optan por 3 GB o hasta 6 GB de RAM. Este último caso, debemos reconocer, es algo excesivo. Uno de los beneficios de tener una buena cantidad de memoria es que se evitan las lecturas de disco mientras se juega. Así, se minimizan los saltos o tirones en la acción. La memoria también ayuda mucho a mejorar la velocidad de inicio de un juego.

ACTUALMENTE ESTAMOS VIVIENDO UNA LENTA TRANSICIÓN DE DDR2 HACIA DDR3 TANTO INTEL COMO AMD ESTÁN APOSTANDO AHORA A LA TECNOLOGÍA MÁS NUEVA. EL LIMITE DE LOS 3GB Si usamos Windows XP o Vista de 32 bits, el sistema no reconocerá más uqe 3 GB de memoria, aunque le instalemos 4 GB o más. Esto se debe a una limitación propia de los sistemas de 32 bits. Por eso, si se quiere, disponer de más memoria, resulta indispensable utilizar un sistema operativo Windows de 64 bits. Antes de hacer semejante migración, hay que asegurarse de conseguir drivers de 64 bits para todos nuestros componentes y periféricos, porque los de 32 bits no nos servirán. Dispositivos menores, como adaptadores de red Ethernet o Wi-Fi pueden resultar un inconveniente en este sentido. ARMAMOS LA PC DE NUESTROS SUEÑOS Y TAMBIÉN LA QUE EL BOSILlO NOS PERMITE. Aquí nos vamos a tomar el atrevimiento de sugerir distintas configuraciones básicas que consideramos adecuadas para distintos rangos de precio. Decimos que estas son computadoras


balanceadas y pensadas para jugar, porque tienen en cuenta un equilibrio entre los 3 componentes principales (procesador, placa de video y memoria RAM). Muchos compradores inexpertos creen que para tener una computadora poderosa basta con asegurarse un procesador costoso de 4 núcleos y la mayor cantidad de memoria que puedan comprar. Pero, como señalamos al principio de este artículo, en el mundo de los juegos las placas de video han alcanzado un gran protagonismo, por lo que hay que tener una visión más amplia al elegir componentes. EL GAMER BÁSICO La configuración que proponemos con este nombre no es una PC "mínima" para jugar. Es un equipo rápido que puede ejecutar los juegos más modernos y que lo podrá seguir haciendo, tranquilamente, por un año o más tiempo. Desde luego, el jugador deberá ser cuidadoso con la configuración de los sus juegos, que generalmente tendrá que jugar en mediana calidad gráfica para no exigir más de lo que la máquina puede dar. El procesador es el AMD Athlon X2 7780, un chip de doble núcleo y 2,8 GHz capaz de entregar la potencia de cálculo necesaria hoy en día. El precio de este micro (U$SS 100). lo convierten en nuestro elegido cuando el dinero importa. Quienes gusten de Intel, pude ir por el Pentium E5200, que ofrece un desempeño similar. Si se busca algo más potente, una gran opción es el Core 2 Duo E7400, que por ronda los U$S 170 y, si se animan, ofrece un gran potencial de overclocking. La solución gráfica elegida puede ser una GeForce 9600 GT o una Radeon HD 4670. Si bien están en un nivel similar, la 9600 GT es un poco más rápida y un poco más costosa que la HD 4670. Pero la Radeon tiene a su favor que no requiere un conector adicional de energía, por lo que no necesita una fuente potente para ser utilizada. Ambas placas de video se desempeñan bien a resoluciones de 1440 x 900 píxeles, que es lo que encontramos en los típicos monitores de 19 pulgadas Widescreen. UN EQUIPO INTERMEDIO Para una PC intermedia, que ya llama la atención por su potencia,


elegimos un procesador de cuatro núcleos. Sin embargo, bien se podría preferir un chip de doble núcleo rápido, como el Core 2 Duo E8500. Como dijimos antes, los juegos recién ahora están empezando a aprovechar más de dos núcleos. Los chips elegidos son el Intel Core 2 Quad Q9400 (U$S 299) y el AMD Phenom 11 X4 940 (U$S 270). Ambos tienen un desempeño muy similar, así que la elección dependerá mucho del gusto que tengan por cada marca y la influencia que tenga la diferencia de precios. Para acompañar estos chips, hemos aumentado la cantidad de memoria hasta los 4 GB. En cuanto a la placa de video, encontramos opciones muy equilibradas de NVIDIA y ATI: La GeForce GTS 250 y la Radeon HD 4850. Usualmente, estos modelos se consiguen con 1 GB de memoria y proveen la potencia necesaria para jugar con detalles altos y aplicar filtros de antialiasing. LA PC PODEROSA Esta no es la PC más poderosa que el dinero pueda comprar, sino una computadora muy rápida en la que los componentes se han elegido con generosidad pero sin caer en gastos extremos. El procesador es el Intel Core i7 920. Este chip de cuatro núcleos más elegido de la nueva serie Core i7. Una característica de la arquitectura Core i7 es que se utiliza triple canal de memoria. Por eso, acompañamos el procesadar con un kit de RAM conformado por 3 módulos de 2 GB cada uno. La placa de video puede ser la Radeon HD 4890 de 1 GB o la GeForce GTX 275 de 896 MB. Ambas se ubican en un plano similar de precio y performance.

Medir el Rendimiento

LOS BENCHMARKS NOS PERMITEN CONOCER EL VERDADERO DESEMPEÑO DE NUESTRA PC. AQUÍ RELEVAMOS LAS PRINCIPALES OPCIONES. Es usual que en revistas especializadas en hardware o en sitios web encontremos datos que muestran el desempeño de distintos


componentes de la PC. Los programas que se utilizan para medir y evaluar el desempeño se llama benchmarks y podemos ejecutarlos en nuestra PC para comparar su funcionamiento con el de los productos que muestran las reviews o con el de las computadoras de nuestros amigos. A continuación detallaremos los benchmarks más adecuados para medir la performance de un equipo. * 3DMark 06 (http://www.futuremark.com): este es un benchmark clásico, orientado principalmente a cuantificar el desempeño de las placas de video. Está subvidivido en varias pruebas que son escenas en 3D, que se suceden por un lapso de aproximadamente 10 minutos. Al finalizar, brinda un puntaje que puede ser comparado con el obtenido por otras computadoras. El puntaje 3DMark se subdivide en 3 partes: Shader Model 2.0, que mide el rendimiento puro de la placa de video en aplicaciones DirectX 8, Shader Model 3.0/HDR, que evalúa la performance al aplicar efectos más avan- zados, propios de DirectX 9. Por último, está el puntaje atribuido al procesa dar de la PC (CPU). El benchmark de CPU sigue siendo, hoy en día, muy confiable para comparar distintos procesadores, debido a que soporta correctamente los chips de múltiples núcleos y los resultados son bastante independientes de la placa de video que se tenga instalada. ¿Por qué elegimos la versión 2006 y no el más nuevo 3DMark Vantage, publicado en 2008 Vantage requiere una PC poderosa, requiere estar instalado en Windows Vista y, a diferencia de la versión 06, su utilidad es muy limitada si no se compra la licencia. Lo bueno de Vantage es que permite evaluar el desempeño de los juegos en los modos de alta calidad provistos por DirectX 10 y también incluye soporte para aceleración de cálculos de física. Volviendo a 3DMark 06, se trata de una aplicación shareware, que puede utilizarse gratuitamente para realizar pruebas a resolución de 1280 x 1024 píxeles. Para utilizarlo a otras resoluciones y habilitar opciones como el antialiasing se debe comprar el número de serie para activarlo.


audacity Audacity es una aplicación informática multiplataforma libre, que se puede usar para grabación y edición de audio, fácil de usar, distribuido bajo la licencia GPL. creative commons Creative Commons (CC) es una organización no gubernamental sin ánimo de lucro que desarrolla planes para ayudar a reducir las barreras legales de la creatividad, por medio de nueva legislación y nuevas tecnologías. Fue fundada por Lawrence Lessig, profesor dederecho en la Universidad de Stanford y especialista en ciberderecho, que la presidió hasta marzo de 2008. prevención infantil Según una encuesta de la Sociedad Argentina de Pediatría, la mitad de los chicos en los hogares encuestados se conecta a diario a Internet, pero en casi la mitad de los hogares no hay un adulto supervisando qué hacen en la Red. Además, el 31% de los padres encuestados no conoce el apodo que usan los chicos al conectarse, y el 52% no sabe quiénes son los contactos que tienen sus hijos en el mensajero instantáneo. Y mientras que en el 90% de los hogares encuestados las PC tienen antivirus, el 71% de los padres no activa o no sabe si están activos los filtros de control parental, que intentan bloquear el acceso a páginas con contenidos no aptos para menores. La encuesta fue presentada el jueves último en la Semana de la Seguridad Informática, organizada por Microsoft. "Los padres les advierten a los chicos que no hablen con gente extraña, que no abran la puerta a un desconocido y controlan lo que los chicos ven por televisión o leen. Pero cuando se traslada esto a Internet, muchos padres no se dan cuenta de que deberían tener el mismo nivel de protección -advierte el doctor Ariel Melamud, uno de los pediatras que realizaron la encuesta- y dejan a los chicos solos y expuestos frente a una PC conectada." Internet puede parecer un entorno seguro y controlado, pero la Red arrastra las características que definen al resto de la sociedad, con


cosas fantásticas y otras que son claramente peligrosas para los chicos. El mensajero instantáneo, las salas de chat, el fotolog, el blog, la red social, el foro de discusión. Parecería que todo lo que allí se pone es personal y privado, pero si no se toman los recaudos necesarios, puede ser visible para cualquier interesado en averiguar más sobre ese chico y acercarse a él. Y una vez que esos contenidos están on line, su dueño pierde el control sobre ellos. El problema no está en que un chico tenga un fotolog, sino en que ese fotolog puede verlo cualquiera, y (salvo que se configure correctamente) todos pueden dejar comentarios, aprovechando el anonimato que proporciona la Red, o recircular esa foto con extrema sencillez. "Los padres creen que los chicos están seguros porque están en casa, pero en realidad están navegando por el mundo, y es importante que haya un adulto que los ayude y supervise -explica Teresita Apesteguia, fundadora del portal infantil Abchicos.com.ar y directora de la Comisión de Seguridad Infantil de la Cámara Argentina de Comercio Electrónico-. Desde 2005 trabajamos en este tema, y vemos a chicos que por inocencia proporcionan muchísima información sobre ellos y su familia a extraños." Estas exposiciones involuntarias incluyen, explican los expertos, poner fotos de la puerta de su casa en su fotolog, relatar hechos específicos (el colegio al que van, si se van de vacaciones), avisar públicamente de reuniones con fecha y dirección, ingresar números de teléfono en cualquier formulario on line, o juntarse con amigos que conocieron a través del chat y que, en el peor de los casos, puede ser un adulto haciéndose pasar por un niño. "Los chicos no tienen a los padres o docentes como referentes idóneos en estos temas, y no los consultan. Muchos chicos, además, prefieren callar cualquier problema por miedo a que limiten el uso de la PC. A la vez, no siempre entienden que Internet es un medio abierto, y que hay cosas que es mejor no comunicarlas allí -dice Andrea Urbas, de la Asociación Chicos.net, un portal infantil que también ofrece charlas sobre el tema para adultos-. Los padres tienen que tener un rol más activo, una postura abierta, y generar un diálogo fluido con los chicos para poder ayudarlos." "Necesitamos adultos con los ojos abiertos. No hace falta ser


experto en tecnología, pero sí compartir Internet con los chicos. Estamos a favor de la tecnología, pero debe existir una visión de adulto que acompañe al hijo, que sepa distinguir lo bueno de lo malo que hay en la Red", explica Melamud. En esto los expertos tienen el mismo mensaje: muchas veces los chicos saben más que los grandes en cuestiones de tecnología, pero los padres están capacitados para aconsejarlos sobre cómo moverse en la sociedad, y eso no depende de ser expertos en una determinada herramienta tecnológica, sino de generar una comunicación entre padres y chicos que les permita compartir experiencias, como lo hacen con otra actividad, como el colegio o una reunión con amigos. Tips y herramientas Los expertos aconsejan que se ubique la PC fuera del cuarto de los chicos, para facilitar su supervisión, y alentar las consultas con los padres ante una duda. Si tienen que llenar un formulario on line, lo ideal es que lo hagan acompañados de un adulto, para verificar qué información se les pide. Además del diálogo y la generación de reglas consensuadas en el uso de la PC, los padres disponen de freeware para ayudarlos. Ninguno es totalmente efectivo: los filtros de contenido no son inteligentes, sino que dependen de palabras clave o una lista de sitios no permitidos. Además, pueden generar falsos positivos, bloqueando sitios que son seguros. Aun así, pueden ser útiles. Tanto Google ( www.google.com.ar ) como Yahoo ( ar.search.yahoo.com ) o Microsoft (search.live.com ) permiten configurar el buscador para que no ofrezca resultados con contenidos para adultos, aunque esto puede ser modificado por cualquier usuario. la mejor impresora para imprimir solo blanco y negro el mas bajo costo operativo se consigue con la HP 4000 (costo por copia $ 0.05, al 40% covertura grafica) le sigue la HP 5si ( $ 0.065 40% covertura grafica) obviamente en tamaño A4 se utilizaron cartuchos HP alternativos, no reciclados ni recargados.


Para imprimir a color el costo mas bajo se consigio con la HP K5400 con un costo irrisorio de $ 0.0012 por copia A4 con una covertura de 60%, le siguio la Epson C110 conun costo de $ 0.0015 y por ultimo la Epson T50 con un costo de $ 0.0017. Esta se utilizaron con Sistemas continuos de Tinta con tintas de primera marca. Y el costo incluye el costo de la impresora mas el sistema continuo y las tintas que se utilizaron por ca cantidad de copias que se realizaron, por si no queda claro las impresora HP K5400 imprimiĂł hasta agotar los cabezales 118635 copias. En el formato A3 tanto las Hp 8600 como la Epson 1410 tienen el mismo costo operativo que es de $ 0.0032 por copia A4 al 60% de covertura, teniendo mas prestaciones la Epson por la mayor variedad de formatos (imprime hasta 1120 mm.) tambien se midio usando sistemas continuos de tintas y tintas de primera marca. tengo que aclarar que las impresoras canon si bien tienen costos similares, pero las problematicas que tienen al utilizar sistemas continuos de Tintas las deja afuera de mi analisis. ya que operativamente se demora mas en reiniciar los sistemas continuos cambiar los chips, etc Bueno este es mi humilde aporte y espero que les sirva al momento de adquirir una impresora Actualmente estoy testeando la HP 8000 y La Epson Stylus Pro 3800 pc para trabajar requisitos mĂ­nimos recomendados. Placa Base

Placa Base, llamada tambiĂŠn tarjeta madre. Es el componente


principal del PC. Dependiendo de qué placa base elijamos podremos elegir los demás componentes. (Procesador, memoria, disco duro). Así que debe ser una compatible con los tipos de memorias y procesadores actuales. Dentro de la placa madre/tarjeta madre el componente principal es el chipset. Chipset

El chipset : Este determina los procesadores que serán soportados por la placa madre así como el tipo de memoria RAM que será soportado (DDR2, DDR3, etc.) Algunas placas madres recomendadas son las de chipset Intel o chipset AMD. Procesador Procesadores: Intel Pentium 4, Intel Centrino, Intel Xeon o Intel Core Duo™ (o compatible). Para trabajar con 3D a partir del Intel Core Duo o intel Core 2 Quad que es mucho más potente.

Memoria RAM Memoria: 1 GB (DDR) de RAM. Puede ser una memoria económica, no es necesario que tenga una velocidad muy alta. DDR, DDR2, DDR3: son los nuevos tipos de memorias que salieron al mercado, permiten velocidades más altas. Para trabajar con 3D basta con 2 o 3 GB en RAM. Aquí si necesitan buenas velocidades en RAM puesto que el 3D es más pesado.


La velocidad llamada aquí Megahertz (MHz), es importante para el 3D, ya que es la velocidad a la que funcionará la memoria. Entre más velocidad más rápido trabajaran. Disco Duro También es necesario tener un buen disco duro ya que las imágenes son pesadas y requerimos suficiente espacio para almacenarlas. Disco duro de 160 Gigabytes o mas de capacidad es recomendable. Para 3D de 200 GB en adelante, es importante que sean de alta velocidad. (SATA / SATA2) SATA / SATA2: este tipo de discos duros rápidos permiten una transferencia de datos muy rápida. De manera que nuestros archivos muy pesados podremos copiarlos de un lado a otro sin mayor dificultad.

Tarjeta aceleradora de graficos Tarjeta Grafica/de video: 128 MB de RAM en video. El video convierte las señales visuales en eléctricas para mostrarlas en un monitor. Todo sucede tan rápido que no se nota. La tarjeta grafica tiene la labor de procesar las imágenes y posteriormente mandarlas al monitor. Para 3D una tarjeta de video de 256 de RAM en adelante. rss RSS son las siglas de RDF Site Summary or Rich Site Summary , un formato XML para sindicar o compartir contenido en la web. Se utiliza para difundir información actualizada frecuentemente a usuarios que se han suscrito a la fuente de contenidos. El formato permite distribuir contenidos sin necesidad de un navegador, utilizando un software diseñado para leer estos contenidos RSS (agregador). A pesar de eso, es posible utilizar el mismo navegador para ver los contenidos RSS. Las últimas versiones de los principales navegadores permiten leer los RSS sin necesidad de software adicional. RSS es parte de la familia de los


formatos XML desarrollado específicamente para todo tipo de sitios que se actualicen con frecuencia y por medio del cual se puede compartir la información y usarla en otros sitios web o programas. wiki Un wiki (o una wiki) (Plantilla:IPAc-en Plantilla:Respell) (del hawaiano wiki, «hacer las cosas de forma sencilla y rápida») es un sitio web cuyas páginas pueden ser editadas por múltiples voluntarios a través del navegador web. Los usuarios pueden crear, modificar o borrar un mismo texto que comparten. Los textos o «páginas wiki» tienen títulos únicos. Si se escribe el título de una «página wiki» en algún lugar del wiki entre dobles corchetes (...), esta palabra se convierte en un «enlace web» a la página wik audioblogUn audioblog es una variante de weblog o bitácora que consiste en una galería de ficheros de audios en diferentes formatos, publicados regularmente por uno o más autores. El autor puede autorizar a otros usuarios a añadir comentarios u otros ficheros de audio dentro de la misma galería. web 1.0La Web 1.0 (1991-2003) es la forma más básica que existe, con navegadores de sólo texto bastante rápidos como. Después surgió el HTML que hizo las páginas web más agradables a la vista, así como los primeros navegadores visuales tales como IE, Netscape, etc. La Web 1.0 es de sólo lectura. El usuario no puede interactuar con el contenido de la página (nada de comentarios, respuestas, citas, etc), estando totalmente limitado a lo que el Webmaster sube a ésta. Web 1.0 se refiere a un estado de la World Wide Web, y cualquier página web diseñada con un estilo anterior del fenómeno de la Web 2.0. Es en general un término que ha sido creado para describir la Web antes del impacto de la fiebre punto com en el 2001, que es visto por muchos como el momento en que el internet dio un giro.[1] Es la forma más fácil en el sentido del término Web 1.0 cuando es usada en relación a término Web 2.0, para comparar los dos y mostrar ejemplos de cada uno. web 2.0El término Web 2.0 (2004–presente) está comúnmente


asociado con un fenómeno social, basado en la interacción que se logra a partir de diferentes aplicaciones web, que facilitan el compartir información, la interoperabilidad, el diseño centrado en el usuario o D.C.U. y la colaboración en la World Wide Web. Ejemplos de la Web 2.0 son las comunidades web, los servicios web, las aplicaciones Web, los servicios de red social, los servicios de alojamiento de videos, las wikis, blogs, mashups y folcsonomías. Un sitio Web 2.0 permite a sus usuarios interactuar con otros usuarios o cambiar contenido del sitio web, en contraste a sitios web nointeractivos donde los usuarios se limitan a la visualización pasiva de información que se les proporciona. web 3.0Web 3.0 es un neologismo que se utiliza para describir la evolución del uso y la interacción en la red a través de diferentes caminos. Ello incluye, la transformación de la red en una base de datos, un movimiento hacia hacer los contenidos accesibles por múltiples aplicaciones non-browser, el empuje de las tecnologías de inteligencia artificial, la web semántica, la Web Geoespacial, o la Web 3D. Frecuentemente es utilizado por el mercado para promocionar las mejoras respecto a la Web 2.0. El término Web 3.0 apareció por primera vez en 2006 en un artículo de Jeffrey Zeldman, crítico de la Web 2.0 y asociado a tecnologías como AJAX. Actualmente existe un debate considerable en torno a lo que significa Web 3.0, y cual es la definición acertada.[1 Los diez ultimo gran inventos en el 2010


10. Pantallas flexibles Probablemente no las veremos en el mercado hasta el 2010, la tecnología ya esta aquí Con ayuda del ejercito de los Estados Unidos, el Centro de Pantallas Flexibles de la Universidad del Estado de Arizona desarrollo durante este año un prototipo para soldados que esperan sea funcional en unos 3 años, luego de pruebas y más estudios. También empresas fuertes como HP y Samsung han presentado prototipos de cómo podría funcionar y mejorar la tecnología actual. Periodicos enrollados en un tubo pueden ser cosa de todos los días en un futuro no muy lejano… 9. Chips Comestibles Este avance en el campo de la medicina es muy prometedor, especialmente para pacientes o casos donde el medico tratante debe estar muy al tanto sobre el avance de la enfermedad del paciente. Se han logrado crear chips comestibles que toman datos en tiempo real sobre el paciente: qué come, a qué hora, en que posición, ritmo cardíaco, etc. Luego envían estos datos por medio de un celular cercano a una base de datos central que finalmente el medico puede consultar para conocer el estado del paciente. 8. Speedo LZR Michael Phelps… No hay necesidad de dar mayor explicación. Utiliza nuevos materiales junto a sciencia de la NASA para mejorar las velocidades de competidores reduciendo la fricción al momento de nadar, muy impresionante. 7. Memoria Flash Pero, esa ya esta en el mercado desde hace mucho tiempo, ¿No? Cierto, lo que sucede es que este año la vimos ingresar, de manera triunfante, en el mundo del disco duro. A través de discos de estado


sólido (SSD – Solid State Drives). La gran desventaja es que por el momento estos discos son demasiado caros pero seguro dentro de algunos años veremos los precios bajar significativamente y estos discos estarán al alcance de nuestro bolsillo. Las grandes ventajas son en rápidez y confiabilidad de los datos guardados en ellos. Recordemos que el disco duro juega un papel importante en nuestra PC. 6. GPS Aunque la tecnología es muy antigua (70′s) recientemente ha aparecido por todas partes gracias a dispositivos como el iPhone 3G y el nuevo G1 de T-mobile, haciendo que tome un nuevo sentido, ya que anteriormente era reservado para usos militares. 5. El Memristor No sucede muy seguido, pero este avance tecnologico puede cambiar la forma en la que usamos nuestras computadoras. Casi 37 años después de haber sido descrito en una serie de ecuaciones matematicas, investigadores de los laboratorios de HP han probado que el cuarto elemento en circuitos electronicos es real. El “memristor” o transistor de memoria, ahora se une a otros tres elementos: el capacitor, la resistencia y el inductor. Este descubrimiento podría hacer posible que las computadoras “recuerden” el estado de la memoria aún despues de haber sido apagadas, cosa no posible con tecnología actual. Esto puede hacer que tengamos computadoras más eficientes en el futuro, reemplazando la memoria “DRAM” como la conocemos probablemente. 4. Cámaras SLR capaces de tomar video Es cierto, solo pueden tomar unos segundos, pero anteriormente esta “función” estaba relegada a las cámaras más economicas debido a la forma que funcionan los lentes SLR, esperamos ver más cámaras (actualmente solo hay dos: Nikon D90 y Canon 5D Mark II) en el futuro no muy lejano haciendo uso de esta tecnología con mayor capacidad de almacenamiento de video. 3. USB 3.0 Abrochense los cinturones. USB 3.0 será 10 veces más rápido que la especificación actual, 2.0. Además y por si fuera poco, ahora proveerá 900 miliamperios de energía en lugar de los 100 actuales,


haciendo que dispositivos puedan hacer mejor uso del cable USB para cargarse fácilmente. Los detalles fueron afinados finalmente este año y probablemente veremos dispositivos nuevos durante el 2009 haciendo uso de esta tecnología para transferir nuestros videos, música y archivos más rápido de lo que canta un gallo. 2. Android Android, la nueva plataforma de Google que promete ser abierta, será una gran competencia para Apple y su iPhone, así como Microsoft con Windows Mobile. Esto es bueno, ya que veremos más dispositivos en el mercado que harán uso de estas tecnologías y por supuesto dichas tecnologías también tendrán que estar en constante actualización para poder competir unas con otras. Se espera una batalla reñida… El primer dispositivo en usar el sistema operativo para mobiles, Android, ha sido el G1 de T-Mobile, creado por HTC. De cualquier manera veremos muchos más dispositivos usando este sistema operativo durante el 2009. 1. App Store de Apple Hasta este año, aplicaciones para mobiles erán dificiles de hacerse llegar al consumidor, pero gracias a la nueva App Store de Apple, esto es cosa del pasado (noten que únicamente aplica para el iPhone) y ademas ha creado un frenesí de otros creadores de Smartphones (RIM con su blackberry, Microsoft con Mobile y Google con Android) por crear sus propios portales de distribución de software. notebook y netbook Por lo general funcionan empleando una batería o un adaptador que permite tanto cargar la batería como dar suministro de energía. Suelen poseer una pequeña batería que permite mantener el reloj y otros datos en caso de falta de energía. En general, a igual precio, las notebooks suelen tener menos potencia que las computadoras de escritorio, incluso menor capacidad en los discos duros, menos poder de video y audio, y menor potencia en los microprocesadores. De todas maneras, suelen consumir menos energía y son más silenciosas. •

• •


Suelen contar con una pantalla LCD y un touchpad. En general, cuentan con PC Card (antiguamente PCMCIA) o ExpressCard para tarjetas de expansión. Existe un tipo de notebooks llamadas netbooks, que son más pequeñas y más livianas, M 570E No hay todavía un factor de forma industrial estándar para las notebook, es decir, cada fabricante tiene su propio estilo de diseño y construcción. Esto incrementa los precios de los componentes en caso de que haya que reemplazarlos o repararlos, y hace que resulten más difíciles de conseguir. Incluso a menudo existen incompatibilidades entre componentes de notebooks de un mismo fabricante. •

• • •

[editar]Netbook Artículo principal: Netbook Son una nueva clase de portátiles que eliminan la unidad de CD, y reducen la potencia de otros componentes como la tarjeta gráfica, con el fin de disminuir el tamaño físico de las máquinas (y en ocasiones el costo), capaces de entrar en el bolsillo de un pantalón, como en el caso de los VAIO serie P. Su capacidad de procesamiento es notablemente menor que las portátiles normales, por eso necesitan sistemas operativos diseñados específicamente, además del uso de almacenamiento remoto. Apple Es una empresa multinacional estadounidense que diseña y produce equipos electrónicos y software.2 Entre los productos de hardware más conocidos de la empresa se cuenta con equipos Macintosh, el iPod y el iPhone. Entre el software de Apple se encuentran el sistema operativo Mac OS X, el sistema operativo iOS, el explorador de contenido multimedia iTunes, la suite iLife (software de creatividad y multimedia), la suite iWork(software de productividad), Final Cut Studio (una suite de edición de vídeo profesional), Logic Studio (software para edición de audio en pistas de audio), Aperture (software para editar imágenes RAW), y el navegador web Safari. Creadores


Steve Jobs y Steve Wozniak se conocieron en 1971, cuando un amigo mutuo, Bill Fernandez, presentó a Wozniak, quien tenía 21 años de edad a Jobs, entonces de 16 años. Steve Wozniak, a quien le gustaba que le llamaran Woz, siempre había sentido una gran atracción por la electrónica en general, diseñando desde que era pequeño circuitos en papel para después tratar de optimizarlos al máximo. Dada su afición por la electrónica, Woz "apadrinaba" a otros chicos a los que les gustase el tema, como Bill Fernandez o el mismoSteve Jobs. Pronto Wozniak empezó a dedicar cada vez más y más tiempo en construir en papel su propia computadora. Tras intentos relativamente infructuosos, finalmente sus esfuerzos dieron como resultado lo que sería la Apple I. Tras la presentación de su computadora en el club informático Homebrew Computer Club y asombrar a sus participantes, Jobs rápidamente vio la oportunidad de negocio, por lo que empezó a promocionar la computadora entre otros aficionados de la informática del Homebrew Computer Club y otras tiendas de electrónica digital. Al poco tiempo empezaron a recibir pequeños encargos de computadoras que construían ellos mismos con máquinas hechas a mano, llegando a vender unos 200 ejemplares de su máquina Apple I. Se les unieron más amigos, pero las prestaciones del Apple I eran limitadas, así que empezaron a buscar financiación. Finalmente Jobs conoció a Mike Markkula, que accedió a invertir, creándose así el 1 de abril de 1976, Apple Computer. En total, se produjeron y se vendieron alrededor de doscientas unidades a 500 dólares la unidad, pero el éxito fue tal que no pudieron dar abasto con tanta demanda. Las características del Apple I eran limitadas por el poco dinero del que disponían Jobs y Wozniak. De hecho, para construir el prototipo, Jobs tuvo que vender su camioneta y Woz su calculadora programable HP. Sede Cupertino, California,

Estados Unidos

La empresa opera más de 300 tiendas propias en nueve países, miles de distribuidores (destacándose los distribuidores premium o


Apple Premium Resellers) y una tienda en línea (disponible en varios países) donde se venden sus productos y se presta asesoría técnica. Google Google Inc. es la empresa propietaria de la marca Google, cuyo principal producto es el motor de búsqueda del mismo nombre. Dicho motor es resultado de la tesis doctoral de Larry Page y Sergey Brin (dos estudiantes de doctorado en Ciencias de la Computación de la Universidad de Stanford) para mejorar las búsquedas en Internet. La coordinación y asesoramiento se debieron al mexicano Héctor García Molina, director por entonces del Laboratorio de Sistemas Computacionales de la misma Universidad de Stanford.3 Partiendo del proyecto concluido, Page y Brin fundan Google Inc. el 4 de septiembre de 1998. Este motor de búsqueda superó al otro más popular de la época, AltaVista, que había sido creado en 1995. Aunque su principal producto es el buscador, la empresa ofrece también entre otros servicios: un comparador de precios llamado Google Product Search (antes conocido como "Froogle"), un motor de búsqueda para material almacenado en discos locales (Google Desktop Search), un servicio de correo electrónico llamado Gmail, su mapamundi en 3D Google Earth o un servicio de mensajería instantánea basado enXMPP llamado Google Talk. Actualmente Google está trabajando en nuevos proyectos como la PC de 100 dólares,4 un nuevo sistema operativo,5 Google Docs & Spreadsheets, colaboración6y promoción de aplicaciones de software libre como Firefox,7 instalación de varias redes inalámbricas gratuitas,8 desarrollo de un sistema de protocolo abierto de comunicación por voz9 entre otros. Además se especula que estaría trabajando en el desarrollo de un "Google Office"10 y una red global de fibra óptica.11 Sede Mountain View, CA,

Estados Unidos

Microsoft


Microsoft Corporation (NASDAQ: MSFT) es una empresa multinacional de origen estadounidense, fundada en 1975 por Bill Gates y Paul Allen. Dedicada al sector de lainformática, con sede en Redmond, Washington, Estados Unidos. Microsoft desarrolla, fabrica, licencia y produce software y equipos electrónicos. Siendo sus productos más usados el sistema operativo Microsoft Windows y la suite Microsoft Office, los cuales tienen una importante posición entre los ordenadores personales. Con una cuota de mercado cercana al 90% para Office en 2003 y para Windows en el 2006. Siguiendo la estrategia deBill Gates de "tener una estación de trabajo que funcione con nuestro software en cada escritorio y en cada hogar".4 5 6 7 8 9 10 11 12 Sede Redmond, Washington,

Estados Unidos

Creadores Bill Gates • Fundador • Paul Allen • Fundador • Steve Ballmer Ejecutivo principal •

software libre El software libre (en inglés free software, esta denominación también se confunde a veces con gratis por el doble sentido delinglés free en castellano) es la denominación del software que respeta la libertad de los usuarios sobre su producto adquirido y, por tanto, una vez obtenido puede ser usado, copiado, estudiado, cambiado y redistribuido libremente. Según la Free Software Foundation, el software libre se refiere a la libertad de los usuarios para ejecutar, copiar, distribuir, estudiar, modificar el software y distribuirlo modificado. El software libre suele estar disponible gratuitamente, o al precio de costo de la distribución a través de otros medios; sin embargo no es obligatorio que sea así, por lo tanto no hay que asociar software


libre a "software gratuito" (denominado usualmentefreeware), ya que, conservando su carácter de libre, puede ser distribuido comercialmente ("software comercial"). Análogamente, el "software gratis" o "gratuito" incluye en ocasiones el código fuente; no obstante, este tipo de software no es libre en el mismo sentido que el software libre, a menos que se garanticen los derechos de modificación y redistribución de dichas versiones modificadas del programa. Tampoco debe confundirse software libre con "software de dominio público". Éste último es aquel software que no requiere de licencia, pues sus derechos de explotación son para toda la humanidad, porque pertenece a todos por igual. Cualquiera puede hacer uso de él, siempre con fines legales y consignando su autoría original. Este software sería aquel cuyo autor lo dona a la humanidad o cuyos derechos de autorhan expirado, tras un plazo contado desde la muerte de este, habitualmente 70 años. Si un autor condiciona su uso bajo una licencia, por muy débil que sea, ya no es del dominio público. proteccion infantil Hoy, día 10 de Febrero, es el día de la seguridad en Internet y sobre todas las cosas importantes que proteger, en la cúspide de la pirámide, se encuentran los niños. Internet ha revolucionado el mundo, el mundo de todos. Los conocimientos que nos llegan por medio de la red son casi ilimitados, así como la comodidad que nos ofrece al permitirnos realizar compras, contactar con estamentos oficiales, etc., han hecho que la vida sea diferente. Pero como si Internet fuera un enorme cubo los hay que lo usan para volcar su basura y esta nos salpica a todos, es en este punto donde debemos proteger a los niños: Hoy por hoy existen múltiples programas de protección parental que limitan la navegación por Internet, impidiendo que se visiten ciertas páginas y que los más pequeños puedan tener acceso a contenidos peligrosos. En PortalProgramas podéis encontrar muchos programas de este tipo, de entre ellos os mostramos algunos: 1.- Amigo Control Parental Este programa tiene como objetivo fundamental el proteger a los más pequeños de la casa a la hora de emplear el ordenador, así como ayudar a los padres y educadores en la educación de los


mismos. Se trata de un programa que aplica técnicas parentales mejoradas, para la protección de nuestros hijos de factores externos, limitando ciertos contenidos de internet poco recomendables, limitando actividades siempre de forma personalizable, etc. Descargar Descargar Amigo Control Parental Desarollador: Aconfi, S.L. 2.- Parental Esta aplicación no está diseñada para espiar los movimientos del niño, sino para educarlo en el ámbito del autocontrol y la confianza con los padres. De esta forma, se le asegura su privacidad, pero se le obliga a seguir unas normas para el tiempo de uso del ordenador. Parentalse encarga automáticamente de hacer todo esto indicando el tiempo restante de uso de la máquina y apagándola cuando el tiempo se acaba. Descargar Descargar Parental Desarollador: Parental 3.-Control Kids Control Kids es un filtro parental que restringe la navegación en Internet a sitios para adultos o pornográficos. El programa prohíbe el acceso a sitios considerados peligrosos para los niños y adolescentes gracias a diferentes filtros. Esta aplicación esta desarrollada para añadirse a la seguridad que tengas instalada en tu ordenador para prevenir que tus hijos se vean afectados por contenidos realmente peligrosos que pueden alterar su comportamiento natural. DescargarDescargar Control Kids Desarollador: Esther Susano Proxym 4.- nysBlock Hogar [caption id="attachment_3219" align="aligncenter" width="453" caption="Control por medio de contraseña"] [/caption] nysBlock Hogar es un software de bloqueo de programas inseguros y peligrosos. El programa esta instalado en un servidor y en cada uno de los clientes asociados a la red local. nysBlock posee cuatro listas negras de bloqueo: - Sistema: Esta lista es para bloquear funciones de Windows, tales como: • Firewall de Windows • Panel de control • Utilidad de configuración del sistema (msconfig) • Editor de Registro (regedit) • Administrador de tareas de Windows - Chat: Lista con bloqueos para programas de Chat, algunos de los más conocidos son:


MSN Messenger • Digsby • Trillian • ICQ Yahoo! Messenger

Y páginas Web que buscan el mismo fin: • meebo • webmessenger • igoogle • latinchat - P2P: Lista con programas para bajar música, películas, programas, y otros: • Ares • Kazaa • EMule • UTorrent • Chilewarez - Contenido Ocioso: Lista con expresiones que hacen perder el tiempo del usuario en horario de trabajo, entre ellos encontramos: • Fotolog • Facebook • Radio online • Juegos • Pornografía • YouTube Todas las listas son configurables para grupos de usuarios o solamente un usuario y van aumentando al incorporarse nuevos conceptos. Descargar Descargar nysBlock HogarDesarollador: technys 5.- Aobo BlockerAobo Blocker bloquea sitios web no deseados y filtrar sitios web porno. Posee un eficaz y eficiente algoritmo de filtrado para bloquear todos los sitios pornograficos. Entre sus principales características podemos destacar: • Bloque de sitios web no deseados por URL o palabras clave


Bloque sitios web porno automáticamente antes de que se carguen en los navegadores. • Bloqueo de visitando sitios web visitados no deseados con proxies web • Trabaja con todos los navegadores web populares • Se ejecutar en modo indetectable • Protegido por contraseña Cómo montar una red Wi-Fi en casa por José Julio Ruiz | 10-Agst-2004 Comenzamos una serie de tutoriales sobre Bluetooth y Wi-Fi. En esta prim. Introducción Wi-Fi (Wireless Fidelity) es una de las tecnologíera entrega veremos cómo montar una red 802.11 en casa y aclararemos algunos conceptos. •


1as de comunicación inalámbrica (sin cables - wireless) más extendidas. También se conoce como WLAN o como IEEE 802.11 Los subestándares de Wi-Fi que actualmente más se están explotando en el ámbito comercial son: - 802.11b: · Pionero en 1999 y actualmente el más extendido. · Opera en la banda de los 2.4 GHz. · Alcanza una velocidad máxima de 11 Mb/sg. - 802.11g: · Estrenado en 2003. · Opera en la banda de los 2.4 GHz. · Alcanza una velocidad máxima de 54 Mb/sg. Cuando compremos nuestro hardware Wi-Fi debemos fijarnos para qué subestándar fue diseñado, porque de nada nos sirve tener un Access Point .11b (11 Mb/sg) y un accesorio Wi-Fi .11g (54 Mb/sg) ya que de todas maneras nos estaremos conectando a 11 Mb/sg. 2. Conceptos básicos: Repasemos la terminología que usaremos en este y otros futuros tutoriales: Access Point: (Punto de Acceso o AP) Es el dispositivo que hace de puente entre la red cableada y la red inalámbrica. Podemos pensar que es, de alguna manera, la antena a la que nos conectaremos. Accesorio Wi-Fi: Es el accesorio adicional que usaremos para incoporar el estándar 802.11 a nuestro equipo (PDA, ordenador portátil o de sobremesa), en caso de no tener Wi-Fi integrado. Estos accesorios pueden encontrarse en formato de tarjetas PCMCIA (para portátil), PCI y USB (para ordenador de sobremesa) y esperamos que muy pronto en formato SD (Secure Digital) para nuestros PDAs Palm OS.


Dirección IP: (IP Address) Una dirección IP es una serie de números que identifica a nuestro equipo dentro de una red. Distinguimos entre IP pública (ej. 80.20.140.56), cuando es la dirección que nos identifica en Internet (por ejemplo la IP de tu router ADSL en Internet) e IP privada (ej. 192.168.0.2 ), que es la dirección que identifica a un equipo dentro de una red local (LAN).


Si, por ejemplo, pensamos en una red local con un router ADSL, los PCs o equipos conectados a la red tendrán sólo IP privada, mientras que el router tendrá una IP pública (su identificación en Internet) y una IP privada (su identificación en la red local). Máscara de subred: (Subnet address) Cifra de 32 bits que especifica los bits de una dirección IP que corresponde a una red y a una subred. Normalmente será del tipo 255.255.255.0 Puerta de enlace: (Gateway) Es la dirección IP privada de nuestro router. Servidores DNS: (DNS server) Las páginas web también tienen su dirección IP pública y es a través de ésta dirección como en realidad nos conectamos a ellas. Pero claro, es más sencillo memorizar o escribir el nombre del dominio (www.google.es) que su dirección IP (216.239.59.104). Para no memorizar la retahíla de números tenemos los servidores DNS. Un servidor DNS es un servidor en donde están almacenadas las correlaciones entre nombres de dominio y direcciones IP. Cada vez que cargamos una página web, nuestro equipo (PDA, portátil u ordenador de sobremesa) envía una petición al servidor DNS para saber la dirección IP de la página que queremos cargar, y es entonces cuando hace la conexión. Probablemente estaréis familiarizados con eso de "servidor DNS primario" y "servidor DNS secundario". El primario es el "principal" y el secundario es el de emergencia que usará nuestro ordenador en caso de que el primario no funcione. WEP: (Wired Equivalent Privacy) Es el tipo de encriptación que soporta la tecnología Wi-Fi. Su codificación puede ir de 64 bits hasta 128 bits. WEP está deshabilitado por defecto. SSID: (Service Set Identification)


Nombre con el que se identifica a una red Wi-Fi. Este identificador viene establecido de fábrica pero puede modificarse a través del panel de administración del Punto de Acceso. DHCP: Tecnología utilizada en redes que permite que los equipos que se conecten a una red (con DHCP activado) autoconfiguren los datos dirección IP, máscara de subred, puerta de enlace y servidores DNS, de forma que no haya que introducir estos datos manualmente. Por defecto la mayoría de los routers ADSL y los Puntos de Acceso tienen DHCP activado. Dirección MAC: (MAC address - Media Access Control address) Es el código único de identificación que tienen todas las tarjetas de red. Nuestro accesorio Wi-Fi o nuestro PDA con Wi-Fi integrado, al ser un dispositivo de red, también tendrá una dirección MAC única. Las direcciones MAC son únicas (ningún dispositivo de red tiene dos direcciones MAC iguales) y permanentes (ya que vienen preestablecidas de fábrica y no pueden modificarse). Infraestructura: Modo de conexión en una red wireless que define que nuestro equipo (PDA, portátil u ordenador de sobremesa) se conectará a un Punto de Acceso. El modo de conexión deberá de especificarse en la configuración de nuestro equipo o del accesorio Wi-Fi. Por defecto viene activado este modo. Ad-Hoc: (Punto a Punto) Modo de conexión en una red wireless que define que nuestro equipo (PDA, ordenador portátil o de sobremesa) se conectará directamente a otro equipo, en vez de hacerlo a un Punto de Acceso.


Ad-Hoc es una forma barata de tener conexión a Internet en un segundo equipo (por ejemplo un PDA) sin necesidad de comprar un Punto de Acceso. Para este uso la configuración se dificulta ya que tenemos que configurar en el ordenador que tiene la conexión a Internet un programa enrutador o una conexión compartida. 3. ¿Qué necesito para montar una red Wi-Fi en casa? La mejor configuración es partir de una conexión ADSL con router, aunque también podremos montar una red Wi-Fi en casa a partir de otras configuraciones (cable, etc.).

Si ya contamos con esto, necesitaremos además: • Punto de Acceso Wi-Fi. Si nuestro ordenador o portatil no incluye WiFi, necesitaremos un accesorio que nos de este tipo de conectividad.

4. Configuración del Access Point La forma de ajustar los siguientes parámetros dependerá de los fabricantes, así que hablaré de ellos genéricamente. 1. Sacar el AP de su caja y conectarlo a la red eléctrica con el alimentador incluido en la caja. 2. Conectar el AP al router ADSL con el cable cable de red del AP (también incluido en la caja). 3A. Si tenéis DHCP activado en el router ADSL en principio no habrá que configurar ningún parámetro adicional en el AP. Cómo se si tengo DHCP activado?


Al tenerlo activado, el router asigna automáticamente una dirección IP al equipo que se está conectando, sin necesidad de especificar algunos datos en la configuración de red del equipo (IP, puerta enlace, etc.). Todos estos datos los proporciona el router de forma automática. 3B. Si no tenéis DHCP activado, tendréis que establecer en el AP la IP privada que tendrá, la puerta de enlace (IP del router), la máscara de subred y los servidores DNS. En todos los Puntos de Acceso se puede entrar al panel de administración a través de un navegador web. Algunos incluyen además un programa de Windows para hacer esta configuración. En cualquier caso consultar el manual del AP para información detallada.


5. Configuración de nuestro equipo La configuración de un PDA Palm OS lo veremos en detalle en un próximo tutorial. Para conectar un ordenador portátil o de sobremesa, consulta el manual de usuario para información detallada de la configuración. Lo más normal es que tengáis una herramienta de gestión de la conexión Wi-Fi, incluida con el accesorio, donde podáis configurar los parámetros necesarios, así como ver la potencia de la señal. Si tenéis DHCP activado sólo tendréis que abrir este programa, escanear las redes disponibles, seleccionar la vuestra y conectaros a ella. La configuración se realizará automáticamente. Si tenéis DHCP desactivado tendréis que establecer manualmente la dirección IP de vuestro equipo, la puerta de enlace, la máscara de subred y los servidores DNSs. Después de hacer esto abrid el programa de configuración de Wi-Fi de vuestro equipo o del accesorio que hayáis instalado y seguíd los pasos del párrafo anterior. 6. Consideraciones y consejos sobre alcance y cobertura El alcance de la señal de nuestra red Wi-Fi dependerá de: • La potencia del Punto de Acceso. • La potencia del accesorio o dispositivo Wi-Fi por el que nos conectamos. • Los obstáculos que la señal tenga que atravesar (muros o metal).


Cuanto más lejos (linealmente) quieras llegar, más alto deberás colocar el Punto de Acceso. Muchos de los actuales APs vienen preparados para poderlos colgar en la pared. Si quieres llegar lejos, evita también interferencias como microondas o teléfonos inalámbricos. Si la señal te llega debilitada, utiliza un amplificador de señal o si es posible, monta una nueva antena de más potencia al AP (los Puntos de Acceso de gama baja NO lo permiten) o una antena exterior al accesorio (normalmente sólo para formatos PCMCIA o PCI). En próximos tutoriales veremos cómo configurar nuestro PDA para acceder a una red Wi-Fi, así como el tipo de cosas que podemos hacer con nuestro ordenador de bolsillo wireless. tipos de pc Ahora el uso de la computadora es muy común, tanto en empresas, negocios y algunos hogares. Pero cuando personas relacionadas con las antes mencionadas interactúan con la computadora la mayoría de las veces solo piensan que todas las computadoras son del mismo tipo. Además que quieren tener mas información acerca de las computadoras y no saben ?los tipos de computadoras que existen? y esto es una limitante para que las personas, que interactúan con ellas, sepan acerca de la computación

Las computadoras se clasifican en súper computadoras, macro computadoras o mainframes, mini computadoras y micro computadoras o PC. Las clasificaciones contienen un cierto tipo de computadoras con características especificas.

Supercomputadoras


Una supercomputadora es le tipo de computadora más potente y más rápido que existe en un momento dado. Estas maquinas están diseñadas para procesar enormes cantidades de información en poco tiempo y son dedicadas a una tarea especifica. Un ejemplo de súper computadora es una computadora que se utiliza para el manejo de un grupo de maquinas ensambladoras de productos metálicos.

Macrocomputadoras o mainframes Las macro computadoras son también conocidas como mainframes. Los mainframes son grandes, rápidos y caros sistemas que son capaces de controlar cientos de usuarios simultáneamente, así como cientos de dispositivos de entrada y salida. De alguna las mainframes son más poderosos que las súper computadoras porque soportan mas programas simultáneamente. Pero las súper computadoras pueden ejecutar un solo programa más rápido que mainframe. En el pasado las mainframes ocupaban cuartos completos hasta pisos enteros de algún edificio, hoy en día, un mainframe es parecido a una hilera de archiveros en algún cuarto con piso falso, esto para ocultar los cientos de cables de los periféricos, y su temperatura tiene que estar controlada.

Mini computadoras En 1960 surgió la mini computadora, una versión más pequeña de la macrocomputadora. Al ser orientada a tareas especificas, no necesitaba de todos los periféricos que necesita un mainframe, y esto ayudo a reducir el precio y costo de mantenimiento. Las mini computadoras, en tamaño y poder de procesamiento, se encuentran entre los mainframes y las estaciones de trabajo. En


general, una mini computadora, es un sistema multiproceso (varios procesos) capaz de soportar de 10 hasta 200 usuarios simultáneamente. Actualmente se usan para almacenar grandes bases de datos, y otras aplicaciones.

Micro computadoras o PC Las microcomputadoras o computadoras personales (PC) tuvieron su origen con la creación de los microprocesadores. Un microprocesador es una computadora en un chip, o sea un circuito integrado independiente. Las PC son computadoras para uso personal y relativamente son baratas y actualmente se encuentran en las oficinas, escuelas y hogares. importancia del atube catcher Es bastante bueno cumpliendo su cometido: descargar y convertir videos de Webs. Solo le pongo la pega de ser algo lioso para alguien que no quiere complicarse demasiado. Para las occiones avanzadas hay que saber algo de ingles y cuidado con que marcais en la instalación. Lo mejor: Hace bien su trabajo. Instalación rapida y simple. Libertad de elegir entre bastantes formatos. Lo peor: En la instalación te intentan colar mas programas de lo debido. Si no tienes demasiadas nociones sobre formatos puede llegar a ser complicado. En opciones avanzadas hay que saber algo de ingles. smartphone Smartphone (teléfono inteligente en español) es un término comercial para denominar a un teléfono móvil con características similares a las de un ordenador personal. Casi todos los teléfonos inteligentes son móviles que soportan completamente un cliente de correo electrónico con la funcionalidad completa de un organizador personal. Una característica importante de casi todos los teléfonos


inteligentes es que permiten la instalación de programas para incrementar el procesamiento de datos y la conectividad. Estas aplicaciones pueden ser desarrolladas por el fabricante del dispositivo, por el operador o por un tercero. El término "Inteligente" hace referencia a cualquier interfaz, como un teclado QWERTY en miniatura, una pantalla táctil, o simplemente el sistema operativo móvil que posee, diferenciando su uso mediante una exclusiva disposición de los menúes, teclas, atajos, etc. El completo soporte al correo electrónico parece ser una característica indispensable encontrada en todos los modelos existentes y anunciados en 2007, 2008, 2009 y 2010. Casi todos los teléfonos inteligentes también permiten al usuario instalar programas adicionales, normalmente inclusive desde terceros, pero algunos vendedores gustan de tildar a sus teléfonos como inteligentes aun cuando no tienen esa característica. Algunos ejemplos de teléfonos denominados inteligentes son: Serie MOTO Q de Motorola, Nokia series E y series N, BlackBerry, iPhone y Nexus One. Entre otras características comunes está la función multitarea, el acceso a Internet via WiFi, a los programas de agenda, a una cámara digital integrada, administración de contactos, acelerometros y algunos programas de navegación así como ocasionalmente la habilidad de leer documentos de negocios en variedad de formatos como PDF y Microsoft Office. inmunizar la pc Inmuniza tu PC contra los virus mas conocidos de USB Este post es para todos aquellos que quieran intentar algo diferente para defenderse de los famosos virus de memorias USB. Esta técnica es una recopilación de varias en internet, modificadas y mejoradas, con las siguientes ventajas: - NO necesitas antivirus ni programas (más memoria RAM para tu windows). - Puedes usarla al tiempo que tu antivirus (yo no tengo antivirus, pero igual).


- Gratis, legal (sin piratear nada), puedes aplicarlo donde quieras sin internet. PASOS: A) Deshabilitar el autorun.inf Esto evitará que corran los virus de memorias USB. Cuando insertes una memoria USB con virus, esta no va a poder abrirse, excepto si haces click derecho en laUnidad>Explorar. 1. Dirígete a Inicio, y haz click en Ejecutar. 2. Escribe gpedit.msc y dale al botón aceptar. 3. Se abrirá una ventana titulada Directiva de Grupo. Ahí, en el panel izquierdo, dirígete a Configuración local de equipo > Plantillas administrativas > Sistema. 4. Ahora, en el panel de la derecha, verás que existe una serie de reglas que no están configuradas. Búsca la que diga "Desactivar reproducción automática", y haz doble click sobre ella. 5. En "Propiedades", selecciona la opción "habilitada" y en donde dice"Desactivar reproducción automática en" selecciona "Todas las unidades". 6. Puedes cerrar la ventana. B) Inmunizar TODAS tus memorias USB Esto evitará que muchos virus contagien tus memorias (no es infalible, pero la mayoría de los virus serán incapaces de meterse). Es un método casero. 1. En el explorador de windows, abrir tu memoria USB (asegúrate que no tenga virus). 2. Crea una carpeta llamada "autorun.inf".


3. Click derecho en la carpeta -> "Propiedades". 4. habilita las casillas que dicen "Solo lectura" y "Oculto". 5. Click en Aceptar. 6. (Opcional) Crear un archivo llamado "recylcler" a secas, y hacerle lo mismo que al directorio autorun.inf. Con esto muchos virus no podrĂĄn crear su "autorun.inf" en dicha memoria. Para que sea mas facil, puedes guardar una copia de dicha carpeta en alguna parte de tu disco duro, y cada memoria que te pasen simplemente copias la carpeta y pegas en la memoria USB. C) Evitar que corran ejecutables de virus conocidos Con esto evitaremos que ciertos archivos .exe puedan correr en el sistema. Esto es util porque he notado que los vĂ­ruses de memorias USB se repiten mucho ( tecnologia de los monitores


Monitor VGA: Los monitores VGA por sus siglas en inglés “Video Graphics Array”, fue lanzado en 1987 por IBM. A partir del lanzamiento de los monitores VGA, los monitores anteriores empezaban a quedar obsoletos. El VGA incorporaba modo 256 con altas resoluciones. Por el desarrollo alcanzado hasta la fecha, incluidas en las tarjetas gráficas, los monitores anteriores no son compatibles a los VGA, estos incorporan señales analógicas. Características: Soporte de 720×400 píxeles en modo texto. Soporte de 640×480 píxeles en modo gráfico con 16 colores. Soporte de 320×200 píxeles en modo gráfico con 256 colores. Las tarjetas gráficas VGA estándares incorporaban 256 KB de memoria de vídeo. •

• • •


Monitor SVGA: SVGA denominado por sus siglas en inglés “Super Video Graphics Array”, también conocidos por “Súper VGA”. Estos tipos de monitores y estándares fueron desarrollados para eliminar incompatibilidades y crear nuevas mejoras de su antecesor VGA. SVGA fue lanzado en 1989, diseñado para brindar mayores resoluciones que el VGA. Este estándar cuenta con varias versiones, los cuales soportan diferentes resoluciones.

Características: • Resolución de 800×600, 1024_768 píxeles y superiores. Para este nuevo monitor se desarrollaron diferentes modelos de tarjetas gráficas como: ATI, GeForce, NVIDIA, entre otros.


Clasificación según tecnología de monitores En cuanto al tipo de tecnología los monitores se pueden clasificar en varios aspectos. Estas evoluciones de la tecnología han sido llevadas a cabo en parte por el ahorro de energía, tamaño y por brindar un nuevo producto en el mercado.

Monitores CRT: Está basado en un Tubo de Rayos Catódicos, en inglés “Cathode Ray Tube”. Es el más conocido, fue desarrollado en 1987 por Karl Ferdinand Braun. Utilizado principalmente en televisores, ordenadores, entre otros. Para lograr la calidad que hoy cuentan, estos pasaron por diferentes modificaciones y que en la actualidad también se realizan. Funcionamiento: Dibuja una imagen barriendo una señal eléctrica horizontalmente a lo largo de la pantalla, una línea por vez. La amplitud de dicha señal en el tiempo representa el brillo instantáneo en ese punto de la pantalla. Una amplitud nula, indica que el punto de la pantalla que se marca en ese instante no tendrá representando un píxel negro. Una amplitud máxima determina que ese punto tendrá el máximo brillo.

Ventajas:


Excelente calidad de imagen (definición, contraste, luminosidad). • Económico. • Tecnología robusta. • Resolución de alta calidad.

Desventajas: • Presenta parpadeo por el refrescado de imagen. • Consumo de energía. • Generación de calor. Generación de radiaciones eléctricas y magnéticasAlto peso y

tamaño. Pantallas LCD: A este tipo de tecnología se le conoce por el nombre de pantalla o display LCD, sus siglas en inglés significan “Liquid Crystal Display” o “Pantalla de Cristal Líquido” en español. Este dispositivo fue inventado por Jack Janning.Estas pantallas son incluidas en los ordenadores portátiles, cámaras fotográficas, entre otros. Angulo limitado de visibilidad. Brillo limitado. • Bajo tiempo de respuesta de píxeles. • Contiene mercurio.


Pantallas Plasma: La pantalla de plasma fue desarrollada en la Universidad de Illinois por Donald L. Bitzer y H. Gene Slottow. Originalmente los paneles eran monocromáticos. En 1995 Larry Weber logró crear la pantalla de plasma de color. Este tipo de pantalla entre sus principales ventajas se encuentran una la mayor resolución y ángulo de visibilidad. Funcionamiento: El principio de funcionamiento de una pantalla de plasma consiste en iluminar pequeñas luces fluorescentes de colores para conformar una imagen. Las pantallas de plasma funcionan como las lámparas fluorescentes, en que cada píxel es semejante a un pequeño foco coloreado. Cada uno de los píxeles que integran la pantalla está formado por una pequeña celda estanca que contiene un gas inerte (generalmente neón o xenón). Al aplicar una diferencia de potencial entre los electrodos de la celda, dicho gas pasa al estado de plasma. El gas así cargado emite radiación ultravioleta (UV) que golpea y excita el material fosforescente que recubre el interior de la celda. Cuando el material fosforescente regresa a su estado energético natural, emite luz visible. Ventajas: • Excelente brillo. • Alta resolución. • Amplio ángulo de visión.


No contiene mercurio. Tamaño de pantalla elevado. •

Desventajas: • Vida útil corta. Coste de fabricación elevado, superior a los LCD. • Consumo de electricidad elevado. • Poca pureza del color. Consumo energético y emisión de calor elevada.

¿Qué es la resolución de pantalla? Se denomina al número de píxeles (o máxima resolución de imagen) que puede ser mostrada en la pantalla. Viene dada por el producto de las columnas (“X”), el cual se coloca al principio y el número de filas (“Y”) con el que se obtiene una razón. Por ejemplo podemos encontrar:

Los monitores han evolucionado conjuntamente con las tarjetas de vídeos. La necesidad de mostrar resoluciones mayores, con alta calidad de colores, ha llevado día a día a su desarrollo tipos de microprocesadores •

2006: INTEL CORE Y CORE 2 DUO


Intel lanzó ésta gama de procesadores de doble núcleo y CPUs 2x2 MCM (Módulo Multi-Chip) de cuatro núcleos con el conjunto de instrucciones x86-64, basado en el la nueva arquitectura Core de Intel. La microarquitectura Core regresó a velocidades de CPU bajas y mejoró el uso del procesador de ambos ciclos de velocidad y energía comparados con anteriores NetBurst de los CPUs Pentium 4/D2 La microarquitectura Core provee etapas de decodificación, unidades de ejecución, caché y buses más eficientes, reduciendo el consumo de energía de CPUs Core 2, mientras se incrementa la capacidad de procesamiento. Los CPUs de Intel han variado muy bruscamente en consumo de energía de acuerdo a velocidad de procesador, arquitectura y procesos de semiconductor, mostrado en las tablas de disipación de energía del CPU. Esta gama de procesadores fueron fabricados de 65 a 45 nanómetros. • 2007: AMD PHENOM Phenom fue el nombre dado por Advanced Micro Devices (AMD) a la primera generación de procesadores de tres y cuatro núcleos basados en la microarquitectura K10. Como característica común todos los Phenom tienen tecnología de 65 nanómetros lograda a través de tecnología de fabricación Silicon on insulator (SOI). No obstante, Intel, ya se encontraba fabricando mediante la más avanzada tecnología de proceso de 45 nm en 2008. Los procesadores Phenom están diseñados para facilitar el uso inteligente de energía y recursos del sistema, listos para la virtualización, generando un óptimo rendimiento por vatio. Todas las CPUs Phenom poseen características como controlador de memoria DDR2 integrado, tecnología HyperTransport y unidades de coma flotante de 128 bits, para incrementar la velocidad y el rendimiento de los cálculos de coma flotante. La arquitectura Direct Connect asegura que los cuatro núcleos tengan un óptimo acceso al controlador integrado de memoria, logrando un ancho de banda de 16 Gb/s para intercomunicación de los núcleos del microprocesador y la tecnología HyperTransport, de manera que las escalas de rendimiento mejoren con el número de núcleos. Tiene


caché L3 compartida para un acceso más rápido a los datos (y así no depender tanto de la propia latencia de la RAM), además de compatibilidad de infraestructura de los socket AM2, AM2+ y AM3 para permitir un camino de actualización sin sobresaltos. A pesar de todo, no llegaron a igualar el rendimiento de la serie Core 2 Duo. • 2008: INTEL CORE NEHALEM Intel Core i7 es una familia de procesadores de cuatro núcleos de la arquitectura Intel x86-64. Los Core i7 son los primeros procesadores que usan la microarquitectura Nehalem de Intel y es el sucesor de la familia Intel Core 2. FSB es reemplazado por la interfaz QuickPath en i7 e i5 (socket 1366), y sustituido a su vez en i7, i5 e i3 (socket 1156) por el DMI eliminado el northBrige e implementando puertos PCI Express directamente. Memoria de tres canales (ancho de datos de 192 bits): cada canal puede soportar una o dos memorias DIMM DDR3. Las placa base compatibles con Core i7 tienen cuatro (3+1) o seis ranuras DIMM en lugar de dos o cuatro, y las DIMMs deben ser instaladas en grupos de tres, no dos. El Hyperthreading fue reimplementado creando nucleos lógicos. Está fabricado a arquitecturas de 45 nm y 32 nm y posee 731 millones de transistores su versión más potente. Se volvió a usar frecuencias altas, aunque a contrapartida los consumos se dispararon. • 2008: AMD PHENOM II Y ATHLON II Phenom II es el nombre dado por AMD a una familia de microprocesadores o CPUs multinúcleo (multicore) fabricados en 45 nm, la cual sucede al Phenom original y dieron soporte a DDR3. Una de las ventajas del paso de los 65 nm a los 45 nm, es que permitió aumentar la cantidad de cache L3. De hecho, ésta se incrementó de una manera generosa, pasando de los 2 MB del Phenom original a 6 MB. • 2010: INTEL CORE SANDY BRIDGE Los próximos procesadores de Intel de la familia core • 2011: AMD BULLDOZER


Los próximos procesadores de AMD de la familia Fusion

html 5 HTML 5 (HyperText Markup Language, versión 5) es la quinta revisión importante del lenguaje básico de la World Wide Web, HTML. HTML 5 especifica dos variantes de sintaxis para HTML: un «clásico» HTML (text/html), la variante conocida como HTML5y una variante XHTML conocida como sintaxis XHTML5 que deberá ser servida como XML (XHTML) (application/xhtml+xml).1 , 2 Esta es la primera vez que HTML y XHTML se han desarrollado en paralelo. El desarrollo de este código es regulado por el Consorcio W3C.

[editar]Nuevos elementos HTML 5 establece una serie de nuevos elementos y atributos que reflejan el uso típico de los sitios web modernos. Algunos de ellos son técnicamente similares a las etiquetas <div> y <span>, pero tienen un significado semántico, como por ejemplo <nav> (bloque de navegación del sitio web) y <footer>. Otros elementos proporcionan nuevas funcionalidades a través de una interfaz estandarizada, como los elementos <audio> y <video>. Mejoras en el elemento <canvas> Algunos elementos de HTML 4.01 han quedado obsoletos, incluyendo elementos puramente de presentación, como <font> y <center>, cuyos efectos son manejados por el CSS. También hay un renovado enfasis en la importancia del scripting DOM para el comportamiento de la web. [editar]Diferencias con HTML 5 y XHTML

• •

Nuevas etiquetas: • article, section. Para indicar partes de un artículo datalist. Opción de autocompletar con una lista de valores. details, legend. Para mostrar / ocultar texto sin javascript. • dialog, dt, dd. Para escribir conversaciones.


canvas. Para mostrar gráficos. • ins (inserciones), del (borrados) con marca de tiempo figure, figcaption. Para asociar un contenido multimedia (una foto, un vídeo, etc) a un título o leyenda. • keygen. Para generar una clave criptográfica y enviarla. • menu, command. Describir un menú con opciones. output, input. Formularios. Indicar si son datos de entrada o de salida. • progress, meter. Barra de progreso de una tarea. ruby, rp (texto alternativo), rt (elemento del alfabeto). Indica texto escrito en alfabetos japoneses, chinos … • video. Para mostrar videos sin ningún plugIn. •

Atributos mínimos de todas las etiquetas (los mas interesantes): • Dir. Indica la direccionalidad del contenido, los posibles valores son: ltr (de izquierda a derecha) y rtr (de derecha a izquierda) Contenteditable. Para indicar que el elemento es editable por el usuario. Muy interesante, ya que ahora podremos editar cualquier cosa de manera trivial para el desarrollador, no solamente los elementos de un formulario. Permitirá indicar que elementos son modificables. • contextmenu. Para indicar un menú contextual sobre un elemento. Pensado para poder emular una aplicación de escritorio desde el navegador. • data-*

Donde el asterisco puede ser cualquier nombre. Esto permite atributos personalizados, que luego podremos obtener con Javascript. Por ejemplo el atributo data-foobar="" se podrá acceder mediante el API DOM con element.dataset.fooBar (elimina los separadores ‘-’ ) Ejemplo de código HTML 5 que utiliza esta funcionalidad para guardar valores en atributos personalizados: creative commons Creative Commons (CC) es una organización no gubernamental sin ánimo de lucro que desarrolla planes para ayudar a reducir las barreras legales de la creatividad, por medio de nueva legislación y


nuevas tecnologías. Fue fundada por Lawrence Lessig, profesor dederecho en la Universidad de Stanford y especialista en ciberderecho, que la presidió hasta marzo de 2008. Creative Commons (en español: «bienes comunes creativos») es también el nombre dado a las licencias desarrolladas por esta organización.

informatica  

dsadsadasd

Advertisement