Issuu on Google+

Conferencia web

Una conferencia web es similar a una reunión personal porque permiten a los asistentes interactuar entre sí, participan entre 2 y 20 personas y pueden compartir documentos y aplicaciones.

Diferencias entre videoconferencia web, seminario web y videoconferencia Las videoconferencias web son reuniones „virtuales‟ a través de Internet cuyos participantes trabajan en distintas ubicaciones físicas. La sala de reuniones real se sustituye por el escritorio del ordenador del anfitrión de la reunión (la persona que la ha organizado). Cada participante se sienta ante su propio ordenador, donde puede ver todo lo que el presentador va mostrando en su pantalla (función de „desktop sharing‟ o escritorio compartido). Durante la reunión en línea, el anfitrión puede ceder el papel de presentador a cualquiera de los demás participantes. En esencia, las conferencias web poseen características similares a las reuniones „en persona‟, porque permiten que los asistentes interactúen entre sí (principio de comunicación „de muchos a muchos‟).‟ En las conferencias web participan entre 2 y 20 personas, pudiendo compartir documentos y aplicaciones. En cambio los seminarios web (webinars) se utilizan básicamente para formación en línea o eventos en línea, como conferencias de prensa, y pueden tener más de 100 participantes. Las soluciones para seminarios web facilitan considerablemente el proceso de invitación y la presentación de información a grandes audiencias (principio de comunicación „de uno a muchos‟). Las videoconferencias sirven básicamente para transmitir señal de vídeo en directo a los participantes.

QUE ES UN WIKI ?


 

 

Un wiki, o una wiki, es un sitio web cuyas páginas web pueden ser editadas por múltiples voluntarios a través del navegador web. Los usuarios pueden crear, modificar o borrar un mismo texto que comparten. Los textos o «páginas wiki» tienen títulos únicos. ... es.wikipedia.org/wiki/Wiki Sitio web que permite la edición de sus contenidos por parte de las personas que acceden a él, con ciertas restricciones mínimas; Origen: El primer sitio de estas características se llamaba Wikiwikiweb y luego la palabra wiki comenzó a usarse de modo genérico es.wiktionary.org/wiki/wiki una de las ideas más simples y más eficaces de los últimos años. El wiki es un documento compartido en la web y que puede ser editado por cualquier persona desde cualquier lugar y en cualquier momento. ... VIDEO DE WIKI:

que es RSS?? RSS son las siglas de RDF Site Summary or Rich Site Summary , un formato XML para sindicar o compartir contenido en la web. Se utiliza para difundir información actualizada frecuentemente a usuarios que se han suscrito a la fuente de contenidos. El formato permite distribuir contenidos sin necesidad de un navegador, utilizando un software diseñado para leer estos contenidos RSS (agregador). A pesar de eso, es posible utilizar el mismo navegador para ver los contenidos RSS. Las últimas versiones de los principales navegadores permiten leer los RSS sin necesidad de software adicional. RSS es parte de la familia de los formatos XML desarrollado específicamente para todo tipo de sitios que se actualicen con frecuencia y por medio del cual se puede compartir la información y usarla en otros sitios web o programas. A esto se le conoce como redifusión web o sindicación web (una traducción incorrecta, pero de uso muy común). RSS

AUDIOBLOG Un audioblog es una variante de weblog o bitácora que consiste en una galería de ficheros de audios en diferentes formatos, publicados regularmente por uno o más autores. El autor puede autorizar a otros usuarios a añadir comentarios u otros ficheros de audio dentro de la misma galería.

PODCAST 

 

El podcasting consiste en la distribución de archivos multimedia (normalmente audio o vídeo) mediante un sistema de sindicación que permita suscribirse y usar un programa que lo descarga para que el usuario lo escuche en el momento que quiera. No es necesario estar suscrito para descargarlos. es.wikipedia.org/wiki/Podcast Consiste en la creación de un archivo de audio o vídeo, generalmente en formato MP3, con contenidos (normalmente programas de radio) que puede descargarse a un reproductor MP3 o escucharse online.

PODCAST


PLATAFORMA EDUCATIVA Software que permite a un profesor que tenga algo que contar, crear, con algún clic de ratón, en menos de 10 minutos, un espacio en Internet donde sea capaz de colgar todos los materiales que quiera, enlazar tantos otros, incluir foros, wikis, recibir tareas de sus alumnos, desarrollar tests, promover debates, chats, obtener estadísticas de evaluación y uso, etc, etc, etc Esfuerzo físico e intelectual necesario: algunos golpes de ratón. Años de formación imprescindibles: no más de 20 horas

temas para monografia -tecnologia de monitores-caracteristicas-cual comprar-ECHO -tecnologias de wi fi-que es wifi-tipos de wifi -ECHO -mantener limpia la pc-amenazas-ECHO -smartphones-que es?-cual comprar-ECHO -que navegador existen-caract-cual usar-ECHO -software libre-que es?-programas -pc-para trabajar -para jugar-tipos de pc -ECHO


-notebook y netbook-caract.- cual comprar?-mentenimiento -hist de grandes coorporaciones-google-apple-microsoft-ECHO -grandes inventos tecnologicos-ECHO -que es html5 -tv digital-que es? -automatizacion de descargas en internet-ECHO -componentes internos de una pc -tipos de microprocesadores-intel, amd -redes sociales-ECHO

wi-fi Wi-Fi es una marca de la Wi-Fi Alliance la organizacin comercial queadopta, prueba y certifica que los equipos cumplen los estndares 802.11 relacionados a redes inalmbricas de rea local.Nokia y Symbol Technologies crearon en 1999 una asociacin conocida como WECAEsta asociacin pas a denominarse Wi-Fi Alliance. El objetivo de la misma fue crear una marca que permitiese fomentar ms fcilmente la tecnologa inalmbrica y asegurar la compatibilidad de equipos. tipos de wifi: ANTENAS DIRECCIONALES:Orientan la seal en una direccin muy determinada con un haz estrecho pero de largo alcanceEl alcance de una antena direccional viene determinado por una combinacin de los dBi de ganancia de la antena la potencia de emisin del punto de acceso emisor y la sensibilidad de recepcin del punto de acceso receptor. ANTENA OMNIDIRECCIONALES: Orientan la seal en todas direcciones con un haz amplio pero de corto alcance.Las antenas Omnidireccionales “envan� la informacin tericamente a los 360 grados por lo que es posible establecer comunicacin independientemente del punto en el que se est.ANTENAS SECTORIALES: Son la mezcla de las antenas direccionales y las omnidireccionales. Las antenas sectoriales emiten un haz ms amplio que una direccional pero no tan amplio como una omnidireccional.Las antenas sectoriales suelen ser ms costosas que las antenas direccionales u omnidireccionales.

tecnologia de monitores El monitor es la pantalla en la que se ve la informacin suministrada por el ordenador. En el caso ms habitual se trata de un aparato basado en un tubo de rayos catdicos (CRT) como el de los televisores, mientras que en los porttiles y los monitores nuevos, es una pantalla plana de cristal lquido (LCD).La informacin se representa mediante pxeles, a continuacin explicamos lo que es un pxel: Es la unidad mnima representable en un monitor. Cada pxel en la pantalla se enciende con un determinado color para formar la imagen. De esta forma, cuanto ms cantidad de pxeles puedan ser representados en una pantalla, mayor resolucin habr. Es decir, cada uno de los puntos ser ms pequeo y habr ms al mismo tiempo en la pantalla para conformar la imagen. Cada pxel se representa en la memoria de video con un nmero. Dicho nmero es la representacin numrica de un color especifico, que puede ser de 8, 16 o ms bits. Cuanto ms grande sea la cantidad de bits necesarios para representar un pxel, ms variedad de colores podrn unirse en la misma imagen. De esta manera se puede determinar la cantidad de memoria de video necesaria para una cierta definicin y con una cierta cantidad de colores. principales marcas: Los principales fabricantes de monitores conocidos a nivel internacional son los siguientes:


* Acer * Apple Inc. * BenQ * Dell * Eizo * Gateway, Inc. * Hewlett-Packard * LG * NEC Corporation * Samsung * Sony * Panavox * Toshiba

navegadores,caracteristicas y el mas recomendado La masividad lograda por el uso de Internet trajo aparejado casi una necesidad vital de poseer un navegador, un programa que permite visualizar todos los contenidos disponibles en la Web. Éste tipo de software le permite hoy en día al usuario acceder a contenidos en diversos formatos como páginas, videos, sitios interactivos y otros, por lo que resulta importante contar con un navegador que se amolde a nuestras necesidades y usos. Veamos entonces cuáles son las características destacadas de los navegadores más utilizados: Microsoft Internet Explorer, Mozilla Firefox, Opera y Google Chrome. Microsoft Internet Explorer Sin dudas Microsoft Internet Explorer es “El” navegador por excelencia. Que sea el navegador natural de todo PC que posea Windows hace que sea el más familiar a todos los usuarios, lo que representa su mayor virtud. A medida que fue avanzando en versiones fue incluyendo toda una serie de elementos ya probados en otros navegadores que resultan de gran ayuda. Por ejemplo podemos mencionar la incorporación del sistema de pestañas y vistas en miniatura, filtro de phishing, lectura de fuentes RSS y una interfaz en la que se ha trabajado para mejorar todo lo que se refiere al entorno de íconos y la ubicación y distribución de elementos. Su funcionamiento y rendimiento resulta similar al de Windows. Pueden mencionarse varias cosas para mejorar, pero siempre se destacará lo sencillo que resulta y lo fácil de conseguirlo. Mozilla Firefox Encontramos en este navegador el principal competidor del Internet Explorer que ha ganado gran protagonismo en el último tiempo apoyado en su estabilidad y buen funcionamiento. Mozilla Firefox es una aplicaciónde código abierto, lo que sin dudas genera un gran beneficio para los usuarios con conocimientos, ya que pueden configurarlo a su gusto con gran facilidad. Así es posible instalarle toda una serie de componentes como plugins, extensiones, buscadores, diccionarios y temas para agilizar su uso y mejorar su rendimiento. Otra de sus características es la incorporación del sistema de pestañas para que no tengamos que abrir varias ventanas y la navegación sea más fluida.


Este navegador está en franca expansión y sinceramente por la gran cantidad de adeptos que consigue día a día aseguramos que llegará muy lejos. Opera Otra opción bastante popular es Opera , un navegador estable y completo que se destaca por los estándares altos de seguridad que logra, y por la velocidad con la que procesa y muestra los sitios Web en pantalla. Históricamente Opera se caracterizó por buscar innovaciones que hicieran la diferencia, tal es así que fue el primero en implementar las pestañas, por lo que no llama la atención que pueda ser modificado con una amplia librería de widgets y complementos. En las últimas versiones se han incluido algunos elementos destacables como son: página de inicio con miniaturas de sitios seleccionados para un rápido acceso a los mismos, clientes de torrent y correo incorporados, lector de RSS y la posibilidad de hacer y dejar notas en los sitios. Este conjunto de opciones lo vuelven uno de los más eficaces pese a su baja popularidad. Google Chrome Google Chrome es el navegador desarrollado por Google, cuestión que le brinda respaldo y confiabilidad de sobra. Todos los productos que la compañía lanza al mercado son de gran calidad, y este navegador no es la excepción. En Google Chrome priman dos conceptos fundamentales que hacen a la esencia del navegador. Hablamos de su eficacia y su diseño minimalista, provocados por una interfaz que sólo incorpora los elementos básicos para la navegación. Otras cuestiones que destacan al Chrome son sus tres elementos característicos: un sistema de pestañas independientes; un buscador escondido en la barra de direcciones que arroja resultado con las búsquedas más comunes; y la presencia de una ventana resumen que nos permite ahorrar tiempo en el acceso a nuestros sitios preferidos. A esto se le suman todos los componentes y opciones básicas de cualquier navegador, convirtiendo alGoogle Chrome en una seria opción a tener en cuenta. Resulta difícil elegir uno entre todos ellos, ya que cada uno cuenta con particularidades que lo destacan por sobre los otros y todos rinden acorde a lo deseado. Por eso, si vamos a elegir una herramienta tan necesaria como el nexo que nos permita exprimir al máximo todas las opciones de internet, debemos privilegiar ciertos parámetros y hacer hincapié en determinadas funciones. Por lo tanto si nos ponemos a hilar más fino podemos encontrar en Mozilla Firefox el más equilibrado, sobre todo si tenemos en cuenta su estabilidad, seguridad, rapidez y personalización.

importancia de la limpieza en la pc Uno de los aspectos más importantes en el mantenimiento de una PC es la limpieza física interior debido a que se acumula suciedad de diversos orígenes, y los conectores interiores tienden a oxidarse o a disminuir su conectividad por factores mecánicos. El grado de suciedad acumulado en una PC depende fundamentalmente del ambiente donde se encuentra instalada. Los principales orígenes de la suciedad interior son los siguientes: - Polvo ambiental - Huevos y deposiciones de origen animal - Corrosión de componentes internos - Oxígeno del aire, que inevitablemente genera procesos de oxidación El polvo ambiental puede producir niveles notables de suciedad en entornos abiertos. Si además de polvoriento el entorno es húmedo se ven afectadas las señales eléctricas o electromagnéticas. También puede ocasionar atascamiento, degradación de velocidad o ruido de los componentes móviles.


El interior de una PC es un albergue ideal para cucarachas, pequeños roedores, y diversos tipos de insectos. Los huevos de cucarachas, por ejemplo, se adhieren a la superficie donde se depositan y en ocasiones provocan reacciones químicas que pueden dañar componentes o circuitos. En ocasiones podemos encontrar insectos muertos en los lugares más inverosímiles del interior de una PC. Algunos componentes internos son susceptibles de corrosión o descomposición, cuya reacción química con los elementos inertes adjuntos o con la superficie de la placa base, pueden ocasionar daños de importancia. NOSOTROS LE BRINDAMOS un excelente servicio al respecto, con profesionales calificados para llevar dicha operación, utilizando materiales no corrosivos para dejar el equipo en excelente estado. Dicha limpieza es recomendable realizarla cada 3 meses. Le brindamos al respecto, contratos de limpieza y mantenimiento para su PC.

software libre El software libre (en inglés free software, esta denominación también se confunde a veces con gratis por el doble sentido delinglés free en castellano) es la denominación del software que respeta la libertad de los usuarios sobre su producto adquirido y, por tanto, una vez obtenido puede ser usado, copiado, estudiado, cambiado y redistribuido libremente. Según la Free Software Foundation, el software libre se refiere a la libertad de los usuarios para ejecutar, copiar, distribuir, estudiar, modificar el software y distribuirlo modificado. El software libre suele estar disponible gratuitamente, o al precio de costo de la distribución a través de otros medios; sin embargo no es obligatorio que sea así, por lo tanto no hay que asociar software libre a "software gratuito" (denominado usualmentefreeware), ya que, conservando su carácter de libre, puede ser distribuido comercialmente ("software comercial"). Análogamente, el "software gratis" o "gratuito" incluye en ocasiones el código fuente; no obstante, este tipo de software no es libre en el mismo sentido que el software libre, a menos que se garanticen los derechos de modificación y redistribución de dichas versiones modificadas del programa. Tampoco debe confundirse software libre con "software de dominio público". Éste último es aquel software que no requiere de licencia, pues sus derechos de explotación son para toda la humanidad, porque pertenece a todos por igual. Cualquiera puede hacer uso de él, siempre con fines legales y consignando su autoría original. Este software sería aquel cuyo autor lo dona a la humanidad o cuyos derechos de autorhan expirado, tras un plazo contado desde la muerte de este, habitualmente 70 años. Si un autor condiciona su uso bajo una licencia, por muy débil que sea, ya no es del dominio público. e dólares, mientras que Apple incluyó el buscador Internet Explorer en su sistema operativo MAC OS. Y desde finales de los 90 Apple ha elaborado diferentes dispositivos para cubrir más sectores del mercado. Al llegar el siglo XXI, Microsoft continuó la elaboración de Windows y otro software más. Su parte en este mercado es tan grande que incluso hubo un proceso contra la compañía acusándola de monopolio. También está en el mercado de los videojuegos y ahora compite exitosamente con Sony y Nintendo. En tanto, Apple se convirtió en la compañía que produce los gadgets más conocidos del planeta de música y comunicación.


*

pc para jugar Procesador Proc. Intel® Core™ i7 965 Extreme Edition (3,20 GHz, caché nivel 2 de 8 MB, 6,4 GT/s) Con este prosesador de ultima generacion tendremos un exelente rendimiento en juegos y demas actividades Tarjetas de vídeo Tarjeta gráfica DUAL nVidia® GeForce® GTX 280 de 1 GB y compatible asta 3 GB de video con canales slayder osea que podes unir asta 3 tarjetas de video ala ves para un mejor aspecto grafico Esta union de tarjertas optimizara los graficos en un 300% mas Memoria SDRAM DDR3 de tri canal a 1.067 MHz de 6.144MB [3 x 2.048], compatible hasta 18 Gb de ram dd3 (solo windows vista 64bits) Pienso que suficiente 4Gb de ram Unidades de disco duro Disco duro: disco duro dual SATA de 1,5 TB (2 x 750 GB) 7.200 rpm Config Raid0 Stripe, compatible asta 4 Tb. (4 x 1,024 GB) Unidad óptica Unidad de DVD+/-RW a 16x (lectura/escritura DVD y CD) y unidad DVDROM a 16x (lectura DVD y CD)


pc para trabajar xceptuando algunas de las funciones más especializadas para algunos sectores, como el de la ingeniería industrial, la arquitectura, o la edición de vídeo, cualquier ordenador cubrirá sobradamente las necesidades de trabajo del usuario. Las aplicaciones de CAD (Diseño Asistido por Ordenador) y de Animación 3D requieren de un procesador más veloz y mejor tarjeta gráfica, mientras que las de edición de video necesitan una mayor velocidad de acceso al disco duro y de memoria RAM. En cambio, las aplicaciones ofimáticas (Word, Excel, Photoshop, etc.) no tienen estas necesidades, al menos en el entorno del usuario medio. Esto es debido a que no ejecutan complejos cálculos matemáticos, necesitan gran velocidad de acceso a disco, o rápido acceso a la memoria RAM. Tanto la velocidad de proceso, como la escritura en disco, no afectará a la velocidad de escritura de una carta, ni a la búsqueda en una base de datos de tamaño mediano. Memoria La necesidad de memoria viene determinada por el tipo de trabajo que realicemos con el ordenador. Mientras que las aplicaciones ofimáticas no necesitan mucha, aquellas que trabajen con archivos de gran tamaño verán aumentado su rendimiento, como podrían ser los programas de retoque fotográfico con imágenes de gran resolución. Las funciones descritas, por lo general, suelen trabajar con archivos que no superan los 20MB de tamaño, mientras que otras aplicaciones como las de edición de vídeo o la edición fotográfica, pueden llegar a tener archivos de varios gigas sin ningún problema. Cuando abrimos un archivo, el ordenador intentará cargar la mayor parte posible del mismo. Aquella parte que no pueda ser guardada en la memoria RAM, permanecerá en el disco duro hasta que sea necesaria su carga. Si el archivo se encuentra en su totalidad en la RAM del PC, el tiempo de acceso será muy reducido. Uno de los problemas que podemos encontrarnos en este punto es el número de aplicaciones que tengamos abiertas simultáneamente. Cuantas más haya cargadas, menor cantidad de memoria RAM disponible. Por último, el sistema operativo es el primero en hacer uso de la memoria y dejar parte de él residente en la misma. A partir de aquí hay un sinfín de aplicaciones y servicios que, aunque nos puedan parecer de tamaño ridículo, van consumiendo la memoria poco a poco: programas de mensajería, cliente de correo electrónico, etc. Procesador El procesador es también uno de los puntos críticos en la configuración de un sistema, y su elección debe de ser determinada por las aplicaciones que


necesitemos ejecutar. La ofimática no hace un uso exhaustivo del procesador, mientras que sí lo hacen las funciones que requieran de complejos cálculos matemáticos. Una hoja de cálculo extensa, aunque tenga que recalcularse en tiempo real, nunca llegará a la mitad de cálculos por segundo que realiza una aplicación como AutoCad (software de edificación) con un plano sencillo. Los trabajos en 3D también requieren de gran potencia de procesador, ya que un modelo tridimensional de un objeto, dependiendo de su complejidad, puede estar formado por millones de líneas y vértices, y en algunos casos, dichos elementos se pueden encontrar en movimiento, por lo que es necesario recalcular las posiciones de todos estos objetos a la mayor velocidad posible. En edición de vídeo también se hacen notables estos requerimientos, aunque en algunos casos con la ayuda de hardware especializado (tarjetas gráficas) puede reducirse notablemente el uso del procesador. Disco duro En cuanto a aplicaciones se refiere, el disco duro nunca ha sido excesivamente tomado en consideración, ya que se supone que simplemente es un sistema de almacenamiento no vinculado al rendimiento del equipo. Actualmente, con el software de edición de vídeo, se hace más patente la necesidad de tener discos duros de gran capacidad y alta velocidad. Mientras que para una función ofimática como Word o Access, el tiempo de acceso a disco, así como la tasa de transferencia, es poco importante, no lo es para aplicaciones que hacen un uso exhaustivo del mismo. En el caso de las de video, en las que los archivos, debido a su gran tamaño, no puede ser ubicados en su totalidad en la memoria del sistema, es necesario acceder constantemente a la información almacenada en el disco.

netbook estas computadoras son más pequeñas que las notebooks y están diseñadas principalmente para navegar por internet. Son muy livianas, cómodas a la hora de ser transportadas y ofrecen una gran autonomía. También estuve leyendo opiniones en blogs sobre distintos modelos y entre toda la información llegué a algunas conclusiones que espero sirvan de ayuda o guía para aquellos que no estén muy al tanto de toda esta gama de equipos.


¿Qué debería de tener una netbook? La idea no es recomendar marcas ni modelos específicos, sino mencionar algunas características generales que toda netbook debería tener: Pantalla: 10 pulgadas como mínimo, si bien es cuestión de acostumbrarse, en este tamaño se puede navegar y trabajar perfectamente. Teclado: cuanto más cercano al tamaño normal, mejor. Generalmente se expresa en porcentajes, al menos un 90% del tamaño completo sería lo ideal. Un teclado chico podría resultar muy incómodo. Mouse: hay touchpads standars, multi-touch y otros con juguetes como un scroll o zoom. Yo nunca me pude acostumbrar a ninguno, usaría un mouse externo USB. Procesador: varían entre 1 y 2 GHz, ya sean Intel o AMD, y sus rendimientos son buenos. Aunque también están apareciendo algunas con doble núcleo que, obviamente, son más potentes. RAM: 2 GB es más que suficiente, aunque con 1 también funcionaría de lujo. Sistema operativo: si bien hay SO especialmente diseñados para netbooks, me quedo con Windows XP. Batería: 3 celdas no está mal, 6 sería lo ideal, cuanto más mejor (ver cuidados de la batería). Conectividad: obviamente todas tienen tarjeta inalámbrica para utilizar WiFi (mejor si es 802.11b/g/n), una conexión Bluetooth nunca es mala idea y algunas ya vienen con un modem 3G interno, para el internet móvil. Puertos: USB mínimo 2, ethernet, micrófono, auriculares, VGA para conectar a un monitor y ranura para tarjetas de memoria (compartida). Lectoras: las netbooks no vienen con lectoras de disco, hoy en día el CD/DVD ya casi


no se usa, esto se sustituye por las capacidades de conexión inalámbrica, tarjetas y conexión USB. Pero siempre se puede agregar un dispositivo externo. Disco duro: los tamaños varían, pero con cualquiera podremos hacer un uso normal del equipo (música, películas, fotos, etc). Webcam y micrófono integrado: generalmente todas incluyen, 1.3 MP está perfecto para la cam. Sonido y tarjeta de video: en todas podemos ver fotos y videos tranquilamente, por lo tanto estas prestaciones no son tan importantes para mí. Por supuesto, cuando más calidad y potencia tengan, el precio será mayor. Como mencionaba al principio, la principal ventaja de las netbooks es su autonomía de varias horas (varían de 4 a 10 apróx, según la batería), y en cuanto al tamaño son ideales para andar con ellas todo el día. Yo tengo una notebook de 15' y si bien es un equipo portátil, viajar o llevarla a eventos resulta -a veces- bastante incómodo. Su peso y tamaño se hacen notar y es aquí donde una netbook es ansiada. Pero también hay que tener en cuenta que no son equipos sólo para viajes, muchas personas las utilizan la mayor parte del día en la casa e incluso las prefieren antes que la notebook o PC de escritorio. Todo dependerá del uso que le demos a la máquina en el día a día.

notebook 

Por lo general funcionan empleando una batería o un adaptador que permite tanto cargar la batería como dar suministro de energía.

Suelen poseer una pequeña batería que permite mantener el reloj y otros datos en caso de falta de energía.

En general, a igual precio, las notebooks suelen tener menos potencia que las computadoras de escritorio, incluso menor capacidad en los discos duros, menos poder de video y audio, y menor potencia en los microprocesadores. De todas maneras, suelen consumir menos energía y son más silenciosas.

Suelen contar con una pantalla LCD y un touchpad.

En general, cuentan con PC Card (antiguamente PCMCIA) o ExpressCard para tarjetas de expansión.

Existe un tipo de notebooks llamadas netbooks, que son más pequeñas y más livianas, M 570E

No hay todavía un factor de forma industrial estándar para las notebook, es decir, cada fabricante tiene su propio estilo de diseño y construcción. Esto incrementa los precios de los componentes en caso de que haya que reemplazarlos o repararlos, y hace que resulten más difíciles de conseguir. Incluso a menudo existen incompatibilidades entre componentes de notebooks


de un mismo fabricante.

*es necesario tener en cuenta el uso que le daremos y con que fin la utilizaremos pero en mi opinion la notebook apesar de ser mas grande tiene mayor amplitud de componentes,ademas las 2 computadoras portatiles requieren del mismo mantenimiento

apple se impone a microsoft Steve Jobs se salió con la suya: su compañía Apple se impuso a Microsoft y se convirtió en la mayor compañía tecnológica en cuanto a capitalización bursátil. Tras treinta años de confrontación entre Steve Jobs y Bill Gates -fundador de Microsoft-, Jobs logró obtener el primer puesto entre las compañías del sector tecnológico en el mercado electrónico Nasdaq. El miércoles Apple alcanzó los 222.000 millones de dólares, mientras que la capitalización bursátil de Microsoft rondaba los 219.000 millones de dólares. Aunque en general la situación fiscal de Microsoft es mejor, los expertos creen que el éxito de Apple se debe solamente a las ricas perspectivas que ven los inversionistas en la compañía de Jobs. Apple siempre fue revolucionaria en cuanto al equipo. A principios de 1980 Apple creó Apple Lisa, un dispositivo destinado de "cambiar el mundo", con interfaz gráfica y un ratón jamás vistos. En 1984 Steve Jobs creó el famoso Macintosh que pronto se hizo muy popular. En 1989 sus ventas superaban las de las computadoras de la compañía IBM, pionera en el mercado.

* La computadora Apple I en el Museo Smitsoniano, 1976. Foto: www.wikipedia.org Al mismo tiempo, Microsoft, que a principios de los 80 creó el famoso programa DOS, trabajó sobre la creación de Windows, que fue presentado al público el 20 de noviembre de 1985. El sistema operativo para las computadoras compatibles


con IBM tenía muchas perspectivas, aunque estaba muy lejos de la perfección. Alcanzó popularidad en los años 90 al salir a la venta el sistema Windows 3.1. En 1988 Apple inició un proceso contra Microsoft porque la versión Windows 2.0.3 era bastante parecida al sistema operativo de Apple, MAC OS. En los 90 Microsoft cantaba victoria: su Windows atraía la mayor parte de las ganancias de la compañía. El paquete Microsoft Office también ocupaba la posición de líder en el mercado. La 'compañía más avanzada' de EE. UU. (según la revista Fortune) logró ganar el proceso por derechos de autor iniciado por Apple cinco años atrás. Creó el sistema operativo Windows 95, con un interfaz 'futurístico' para la época. A mediados de la década se atrevió a conquistar la Red lanzando el servicio MSN y luego Internet Explorer. A pesar de que Apple también se desarrollaba exitosamente, ya en 1992 las ventas de las computadoras personales con Windows 3.1 como sistema operativo fueron 10 veces mayores que las de Apple. 'La manzana' incluso formó alianzas con otros jugadores del mercado contra su enemigo principal, pero no fue hasta el regreso de Jobs en 1996 que Apple "descendió de las nubes", cerró proyectos poco ventajosos, bajó el precio de sus computadoras y empezó a invertir en publicidad. En 1997 Jobs firmó un acuerdo con Microsoft por el que Gates invirtió en Apple 150 millones diPad, 2010. Foto: www.wikipedia.org

Aunque Apple acabe por convertirse en la compañía más cara en el ámbito de las altas tecnologías, no hay que descartar al otro competidor en este mercado: la compañía Google con su capitalización de 151.430 millones de dólares. Actualmente, según algunos especialistas, la competencia pasó a la confrontación entre Apple y Google, especialmente cuando las ventas de los dispositivos en la plataforma operativa Google Android ya traspasan las ventas del iPhone. Los expertos creen que en términos generales entre los tres mayores jugadores tecnológicos Google domina la búsqueda web, Microsoft es el líder en el mercado de los sistemas operativos y las aplicaciones, mientras que Apple tiene una posición muy firme en el ámbito de los equipos electrónicos 'hi-end', las ventas de música y vídeo y los dispositivos como iPod o iPhone. Pero la situación puede cambiar. De los tres gigantes, la posición de Apple es la más vulnerable, según opinan los especialistas. La compañía está basada en la intuición y el talento de una sola persona: Steve Jobs. Para otras empresas el cambio de director no es tan sensible. Pero podemos recordar que de 1985, cuando Jobs se fue de Apple, hasta su regreso en 1996, la compañía solamente trató de sobrevivir. Al regresar, Steve Jobs cerró proyectos deficitarios. Bajo su dirección se desarrollaron proyectos superexitosos como Mac OS X, iPod, iPhone e iMac. Fue él quien restauró Apple. El año pasado la revista Harvard Business Review le reconoció como el más apreciado y valioso director en el mundo, pues durante su 'reinado' Apple aumentó su capitalización a 150.000 millones de dólares. Mientras que Steve Jobs lidere el negocio, Apple 'florecerá'. Pero cuando


Jobs se retire, la compañía puede entrar en una fase de declive porque no habrá otro igual, opinan los expertos.

grandes inveentos tecnologicos La Revolución Industrial es un período en el que un conjunto de invenciones e innovaciones permiten lograr una enorme aceleración de la producción de bienes y asegurar un crecimiento económico autosostenido, independiente de la agricultura. Se inició espontáneamente en Inglaterra y se afianzó y convirtió en irreversible entre 1750 y 1850. Su base estaba en el desarrollo de la industria manufacturera, generalizando el uso de la máquina para reducir tiempos y costos de producción. El despegue inicial lo proporcionó la industria algodonera, al multiplicarse fabulosamente la producción de tejidos por introducción de telares mecánicos. Pero fue la siderurgia la que, al revolucionar su tecnología de producción, produjo un impacto aún más decisivo, puesto que repercutió en todo el desarrollo industrial posterior y, en una buena medida, lo hizo posible. Sólo el hierro permitió el desarrollo del ferrocarril, que venía a sumarse a las importantes transformaciones del transporte, que ya habían empezado a producirse: técnicas modernas de pavimentación de carreteras y apertura de redes de canales. La disminución de tiempos de desplazamiento e intercambio, que así se hizo posible, inició la ruptura de las nuevas dimensiones espaciotemporales y las relaciones de dependencia entre núcleos urbanos y rurales, propias de la sociedad agrícola anterior. Posterior a este despegue británico, la industrialización se difundió por otros países de Europa y América, pasando por etapas parecidas de aumento en la producción y repercusiones en las formas de vida humana, especialmente en las formas de urbanización. En las ciudades vinieron a instalarse las fábricas, ello provocó amplios movimientos migratorios de campesinos pobres atraídos por el salario industrial, para los cuales hubo que preparar acomodo. Las ciudades atrajeron a la industria y la industria hizo crecer a las ciudades. Entre 1790 y 1841, Londres pasó de 1.000.000 de habitantes a 2.235.000. A partir de este momento se cava una zanja que se profundiza incesantemente entre los dos mundos : aquel que ha llevado acabo su revolución industrial y el que no la ha logrado o la está realizando demasiado lentamente. Los países ricos son los que cuentan con la industria, los adelantos tecnológicos y el desarrollo, dejando como sus subordinados a los piases en vías de desarrollo, y esta subordinación es muy difícil de superar ya que existe una dependencia desde los cimientos, es decir dependemos de la producción de los países desarrollados para que nosotros podamos generar también producción. Se ha establecido así la sociedad más desigual, la más escandalosa e injusta que nuestro planeta haya conocido jamás. La brecha que existe entre ricos y pobres es enorme, ya que los primeros tienen acceso al desarrollo y la tecnología y los segundos no. DEFINICIÓN DE REVOLUCION INDUSTRIAL: Conjunto de transformaciones económicas, políticas y técnicas que se inician en Inglaterra en el último cuarto del siglo XVIII y que posteriormente se extienden a Europa y el resto del mundo. •Inicia el triunfo del capitalismo. •No ha habido ninguna otra revolución como esta desde el Neolítico. ¿Por qué es una "revolución"?


•Se sustituyen las estructuras por otras completamente distintas. -Desaparecen los estamentos: el dinero será lo que "clasifique". -Cambian las estructuras políticas. -Proceso de crecimiento continuo. -Innovaciones técnicas. •Todos estos cambios dan respuesta a unas necesidades. INDUSTRIA TEXTIL Las primeras señales de la Revolución Industrial y el nacimiento del Régimen Fabril, tienen sus orígenes en la máquina textil. El punto de partida fue Inglaterra y su aplicación en la manufactura algodonera, que fue la primera en mecanizarse. Por miles de años el hombre había explotado el huso y la rueca (ambos pequeños instrumentos que sirven para hilar), con el fin de obtener hilo y, a partir de éste, tejidos. Se necesitaban 10 hilanderas para producir el hilo que se requería en un telar. La materia prima utilizada era la lana: después se crearon el lino y la seda, y a partir del siglo XVIII se empleo cada vez más el algodón, que los ingleses conseguían en la India. Años más tarde, el algodón empezó a cultivarse en las plantaciones del sur de los E.E.U TORNO DE HILAR: Fue ideado por James Hargreaves, en 1767. El invento de este tejedor y carpintero se llamó Spinning Jenny, en honor a su esposa. Esta máquina era capas de producir hasta 8 hebras simultáneamente. TELAR HIDRAULICO: Dos años más tarde, el barbero, peluquero y fabricante de pelucas Richard Arkwright inventó el telar hidráulico e hizo posible la fabricación de hilos con filamentos más fuertes. En 1779, Samuel Cropton combino las características del telar Jenny con las del telar hidráulico, y obtuvo una máquina mejor que 20 años más tarde hilaba a un mismo tiempo 400 hebras de hilo de la mejor calidad. INDUSTRIA MANUFACTURERA La aplicación de la fuente de energía a vapor transformó el sistema de trabajo en el siglo XVIII. Al comenzar el siglo XIX, tanto Inglaterra como Francia y E.E.U.U. comenzaron a tener un acelerado desarrollo en su industria manufacturera. Rápidamente el vapor remplazó la fuerza muscular y del viento. En el mar, los buques de vapor sustituyeron a los de vela, y en tierra el ferrocarril inauguró una nueva era de la velocidad. LA MAQUINA A VAPOR: EN 1698 Thomas Savery construyó la primera bomba accionada con vapor; en 1712, Nicolas Cugnot desarrolló un remolque de artillería propulsado por vapor; en 1780, James Watt ideó la primera máquina a vapor de doble acción; en 1787, John Fitch construyó el primer buque a vapor, y en 1804, Richard Trevithick hace funcionar ña primera locomotora arrastrada por una caldera a vapor. La máquina a vapor se hizo tan necesaria que comenzó a emplearse en: la metalurgia, en el transporte (barcos, ferrocarril, globos aerostatos), en el campo (aserraderos y trilladoras), etc. AVANCE CIENTIFICO Y TECNOLOGICO A partir de 1860, se observa un nuevo avance en la evolución de la ciencia y la tecnología. A este período se le conoce con el nombre de Segunda Revolución Industrial, caracterizado por la aplicación de la tecnología a todos los aspectos de la vida humana. Entre las características de este período se pueden citar siete grandes etapas: -Sustitución del hierro por el acero en la industria. -Reemplazo del vapor por la electricidad y el petróleo como fuentes de energía. -Desarrollo de la máquina automática y del trabajo especializado. -Dominio de la industria por la ciencia.


-Cambios fundamentales en las comunicaciones y en el transporte. -Desarrollo de nuevas formas en la economía capitalista. -Industrialización de las grandes potencias y su expansión imperialista. LA DINAMO: La invención de la dínamo, dispositivo que transforma la energía mecánica en energía eléctrica, desplazó y relegó a segundo plano la máquina a vapor. La dínamo fue conocida por Miguel Faraday en 1821, pero sólo se comenzó a aplicar en 1873. A partir de esta fecha, la industria se equipó con maquinarias eléctricas. EL AUTOMOVIL: Aunque no se sabe a ciencia cierta quién fue el inventor del automóvil, se ha podido determinar que Ciottlieb Daimler y Carlos Federico Benz idearon coches de gasolina alrededor de 1880 y que, más tarde, el francés Levassor fue el primero que aplicó a un automóvil el principio de la combustión interna. Henry Ford fue quien impulsó la fabricación masiva del auto y quien se propuso ponerlo al alcance de las personas de más bajos recursos económicos. Con anterioridad este medio de transporte era considerado solamente como un “juguete para ricos”. EL AVION: A pesar de que el hombre, desde hace miles de años, trató de elevarse al igual que los pájaros, esta idea sólo se concretó en el año 1890. Más o menos en esa época, Otto Lilienthal, Samuel Langley y otros comenzaron a hacer experimentos con máquinas más pesadas que el aire. La obra de Langley la llevaron adelante los hermanos Orville y Wilbur Wright, quienes, en 1903, realizaron el primer vuelo en un avión impulsado por un motor. En 1910, Luis Bleriot cruzó el Canal de la Mancha en un monoplano inventado por él y en 1911 otro francés, de apellido Prier, voló sin etapas entre París y Londres. Alberto Santos Dumont, de nacionalidad brasileña, es considerado el pionero en la construcción y vuelo de naves aéreas con motor a gasolina. Así, en pocos años se consolidó este otro medio de transporte que hoy une a los diversos paises del mundo en sólo horas. EL TELEFONO: A Graham Bell se le atribuye la invención del teléfono, aunque sólo unas pocas horas después que Bell se presentara en Washintong para patentarlo a su nombre, llegó a la misma oficina y con el mismo propósito Elisa Cray. Esta última perdió la paternidad de este aparato que hoy es indispensable para la comunicación. LA TELEGRAFIA SIN HILOS: La telegrafía sin hilos fue otro de los inventos que marcó una época en esta Segunda Revolución Industrial. Guillermo Marconi desarrolló este invento a partir de los experimentos de Heinrich Hertz y de otros, relacionados con la transmisión de ondas electromagnéticas a través del aire. El telégrafo, a su vez, allanó el camino de la radiotelefonía y de la televisión. LA MAQUINA DE ESCRIBIR: La primera máquina de escribir fue fabricada por la compañía Remington , en 1874. Escribía sólo en letras mayúsculas y era muy fácil cometer errores tipográficos, ya que no se veía lo que se escribía. El pedal hacía volver el carro al punto de partida de la línea siguiente. ¿Qué es HTML5? HTML5 es una colección de estándares para el diseño y desarrollo de páginas web. Esta colección representa la manera en que se presenta la información en el explorador de internet y la manera de interactuar con ella.


HTML5 está siendo desarrollado por Ian Hickson de Google Inc. y David Hyatt de Apple Inc. junto con todas las personas que participan en Web Hypertext Application Technology Working Group.

¿Por qué utilizar HTML5? HTML5 nos permite una mayor interacción entre nuestras páginas web y contenido media (video, audio, entre otros) así como una mayor facilidad a la hora de codificar nuestro diseño básico. Esta nueva versión se basó en el diseño más común de las páginas web alrededor del mundo para llegar a un estándar de etiquetas que realicen las mismas tareas de manera más rápida y eficiente, he aquí algunos ejemplos: 

 

Un nuevo diseño para páginas web, reflejado en las etiquetas <header>,<footer>, <nav>,<section>,<article> las cuales están destinadas a remplazar la necesidad de tener una <div> para cada parte de la página, y en cambio, tener etiquetas específicas para ello. La nueva etiqueta <video> para insertar un reproductor de video, mejorando el reproductor antiguo utilizado por la etiqueta <embed> y evitándonos la pena de insertar el código de <object>, así como eliminar la necesidad del Flash Player para reproducir videos (lo que nos lleva a un ahorro en la cantidad de memoria utilizada). Una nueva tag <audio> para insertar audio en nuestro sitio web, remplazando la vieja etiqueta <embed> con las mismas cualidades de la etiqueta anterior. Una etiqueta <canvas> para manejo de gráficos en internet, sea para dibujar vectores o hacer animaciones.

¿Cómo utilizar HTML5? Basta con volver a definir nuestras primeras líneas de un archivo HTML para comenzar a usar la nueva versión. De la siguiente manera:

Televisión digital

La televisión digital (o DTV, de sus siglas en inglés: Digital TV) se refiere al conjunto de tecnologías de transmisión y recepción de imagen y sonido, a través de señales digitales. En contraste con la televisión tradicional, que codifica los datos de manera analógica, la televisión digital codifica sus señales de forma binaria, habilitando así la posibilidad de crear vías de retorno entre consumidor y productor de contenidos, abriendo la posibilidad de crear aplicaciones interactivas, y la capacidad de transmitir varias señales en un mismo canal asignado, gracias a la diversidad de formatos existentes. Un sistema integro de televisión digital, incorpora los siguientes actores:  

Cámaras de video digitales, que trabajan a resoluciónes mucho más altas que las cámaras analógicas. Transmisión digital


Display digital, de alta resolución (Ej: LCDs, Plasmas)

automatizador de descargas en internet

Un gestor (o administrador) de descargas es un programa diseñado para descargar ficheros de Internet, ayudado de distintos medios como algoritmos o formas más sencillas, para ir pausando y reanudando las descargas de algún servidor FTP o página de Internet. Es muy recomendable cuando se trata de archivos grandes como imágenes.ISO programas, videos, música... A diferencia de un navegador (que permite navegar por las páginas de la WWW, siendo la función de descarga de menos importancia), un gestor de descargas permite automatizar la descarga de muchos ficheros de acuerdo a parámetros de configuración. En particular, un gestor de descargas se puede utilizar para hacer una réplica de un sitio web completo.

Características Las principales características de los administradores de descarga son:        

Pausar la descarga de archivos muy grandes. Reanudar descargas interrumpidas o pausadas (especialmente para archivos muy grandes). Descargar archivos en conexiones lentas. Descargar varios archivos de un sitio automáticamente a través de unas reglas sencillas (tipo de archivos, archivos actualizados, etc.). Transferencias automáticas recursivas (espejos). Descargas programadas (incluyendo desconexión y apagado automático). Búsquedas de sitios espejos (mirrors), y gestión de diferentes conexiones para descargar el mismo archivo más rápidamente. Evitar que una descarga sin finalizar se corrompa si hay una desconexión accidental.

Componentes Internos de Una Computadora En el interior de un gabinete de computadora, veras cables y conectores llendo y viniendo de un lado a otro, Una cosa que hay que recordar es que cada computadora es distinta en cuanto a su interior se refiere. En algunas computadoras la tarjeta de


video esta integrada a la tarjeta madre (motherboard) mientras que en otras computadoras, la tarjeta de video puede estar puesta en un conector PCI o AGP. Veremos un vistazo general de los tipos de componentes internos de una computadora. Hay que recordar que el interior de una computadora varia de modelo a modelo. Lista de Componentes Internos Motherboard CPU BIOS RAM Tarjeta de Video Tarjeta de Sonido (Opcional) Tarjeta de Red (Opcional) Unidades de Almacenamiento Fuente de Poder

Motherboard El motherboard es el corazón de la computadora. El motherboard (tarjeta madre) contiene los conectores para conectar tarjetas adicionales (también llamadas tarjetas de expansión por ejemplo tarjetas de video, de red, MODEM, etc.). Típicamente el motherboard contiene el CPU, BIOS, Memoria, interfaces para dispositivos de almacenamiento, puertos serial y paralelo aunque estos puertos ya son menos comunes por ser tecnología vieja ahora se utilizan mas los puertos USB, ranuras de expansión, y todos los controladores requeridos para manejar los dispositivos periféricos estándar, como el teclado, la pantalla de video y el dispositivo de disco flexible. Al comprar un motherboard es indispensable que concuerde con el tipo de procesador que vamos a utilizar ya que los distintos procesadores utilizan un conector diferente, por lo tanto deben de hacer juego, también hay que asegurarse de que la velocidad del procesador y la memoria pueda ser manejado por el motherboard. Así que cuando compres un motherboard, procesador y memoria asegúrate de que sean compatibles entre sí. Otro aspecto a considerar en el motherboard es que existen distintas tipos de formas de la tarjeta madre (form-factor), que definen como se conecta el motherboard al gabinete, los conectores para la fuente de poder y las características eléctricas. Hay bastantes formas de motherboard disponibles Baby AT, ATX, microATX y NLX. Hoy en día se consideran el Baby AT y el ATX como motherboards genéricos. No se puede poner un motherboard ATX en un Gabinete baby AT, pero si puedes poner un motherboard baby AT y su fuente de poder en muchos Gabinetes ATX que tienen la preparación para montar ambos tipos de motherboard. Muchos motherboard recientes de forma baby AT traen conectores para corriente para los dos tipos de Fuentes de poder.baby AT y ATX. Lista de Componentes Internos. ——————————————


——————————————

CPU Es la abreviación de las siglas en ingles de las palabras Unidad Central de Procesamiento (central processing unit). El CPU es el cerebro de la computadora. Algunas veces se le dice simplemente el procesador o procesador central. El CPU es donde se realizan la mayoría de los cálculos. En términos de poder de computación, el CPU es el elemento más importante de un sistema de computo. En computadoras personales y pequeños servidores, el CPU esta contenido en una pastilla llamada microprocesador. Dos componentes típicos del CPU son: La unidad lógica aritmética (ALU), la cual realiza las operaciones lógicas y matemáticas. La unidad de control, la cual extrae instrucciones de la memoria la decodifica y ejecuta, llamando al ALU cuando es necesario. Actualmente hay 2 productores principales de Procesadores, Intel y AMD. Intel tiene 2 familias de procesadores, El Celeron para los equipos menos poderosos y el Pentium 4 para los mas poderosos con el Pentium 5 en camino. AMD también tiene 2 familias de productos, El Duron para los equipos económicos y el Athlon para los mas poderosos. Los CPU´s de Intel y AMD requieren un motherboard diseñado especialmente para ellos. El procesador determina el tipo de motherboard que necesitas para tu sistema. En precio y rendimiento los CPU´s de Intel y AMD están muy parejos. El rendimiento de un CPU generalmente se mide en ciclos de reloj por segundo. Entre mas alto los ciclos de reloj por segundo, es mas rápido el procesador, Aunque esto no siempre es verdad. Los procesadores AMD corren a menos ciclos de reloj por segundo que los CPU´s de Intel, pero siguen teniendo un rendimiento igual por el precio. Esto se debe a que los procesadores AMD son mas eficientes por ciclo de reloj, Los ciclos de reloj por segundo se expresan en Giga Hertz. Un procesador que corre a 1 Giga Hertz es considerado de baja velocidad y un procesador que corre a 3 o mas Giga Hertz se considera de alta velocidad. Los procesadores AMD usan un sistema de calificación basado en el rendimiento en vez de calificar solo la velocidad. Un procesador AMD calificado a 3200+ significa que tiene un rendimiento al mismo nivel que un CPU Pentium de 3200 MHZ o 3.2 GHZ. Los procesadores también se califican por la velocidad a la cual se conectan al motherboard. Esto se llama velocidad FSB (Front Side Bus). Los procesadores de Intel pueden tener una velocidad hasta 800 MHz FSB y el AMD hasta 400 MHz FSB. Por eso te debes de asegurar que el motherboard soporte la velocidad FSB del procesador. —————————————— —————————————— BIOS Bios es un acrónimo de Basic input/output system (sistema básico de entrada / salida). El BIOS es el software que determina que puede hacer una computadora sin acceder programas de un disco. En las PCs, el BIOS contiene todo el código requerido para controlar el teclado, el monitor, las unidades de discos, las comunicaciones seriales, y otras tantas funciones.


El BIOS típicamente se pone en una pastilla ROM que viene con la computadora (también se le llama ROM BIOS. Esto asegura que el BIOS siempre estará disponible y no se dañara por falla en el disco. También hace posible que la computadora inicie por sí sola. A causa de que la RAM es más rápida que el ROM, muchos fabricantes de computadoras diseñan sistemas en los cuales el BIOS es copiado de la ROM a la RAM cada vez que la computadora es iniciada. Esto se conoce como shadowing. Muchas computadoras modernas tienen Flash BIOS, que significa que el BIOS se grabo en una pastilla de memoria flash, que puede ser actualizado si es necesario. —————————————— ——————————————

RAM RAM es acrónimo para random access memory (memoria de acceso aleatorio), es un tipo de memoria que puede ser accesado aleatoriamente; esto es, que cualquier byte de memoria puede ser accesado sin tocar los bytes predecesores. RAM es el tipo de memoria mas común encontrado en computadoras y otros dispositivos, como impresoras. Hay dos tipos básicos de RAM RAM dinámica (DRAM) RAM estatica (SRAM) Los 2 tipos difieren en la tecnología que utilizan para retener datos, el tipo mas común es la RAM dinámica. La RAM Dinámica necesita refrescarse miles de veces por segundo. La RAM estática no necesita ser refrescada, lo cual la hace mas rápida, pero también mas cara que la RAM dinámica. Ambos tipos de RAM son volátiles, ya que pierden su contenido cuando la energía es apagada. —————————————— —————————————— Tarjeta de Video La tarjeta de video, es el componente encargado de generar la señal de video que se manda a la pantalla de video por medio de un cable. La tarjeta de video se encuentra normalmente en integrado al motherboard de la computadora o en una placa de expansión. La tarjeta gráfica reúne toda la información que debe visualizarse en pantalla y actúa como interfaz entre el procesador y el monitor; la información es enviada a éste por la placa luego de haberla recibido a través del sistema de buses. Una tarjeta gráfica se compone, básicamente, de un controlador de video, de la memoria de pantalla o RAM video, y el generador de caracteres, y en la actualidad también poseen un acelerador de gráficos. El controlador de video va leyendo a intervalos la información almacenada en la RAM video y la transfiere al monitor en forma de señal de video; el número de veces por segundo que el contenido de la RAM video es leído y transmitido al monitor en forma de señal de video se conoce como frecuencia de refresco de la pantalla. Entonces, como ya dijimos antes, la frecuencia depende en gran medida de la calidad de la placa de video.


—————————————— —————————————— Tarjeta de Sonido (Opcional) - La mayoría de las tarjetas madre ahora cuentan con algún tipo de controlador de sonido integrado. Por lo tanto, las tarjetas de sonido no son necesarios a menos que quieras mayor fidelidad de sonido en tu computadora o liberar un poco de carga al CPU con el control del sonido. —————————————— —————————————— Tarjeta de RED (Opcional) - Estar en Red ya sea Internte o una Intranet es tan comun e indispensable que esta debería ser una característica estándar en todas las placas base. Algunas placas base, incluso, ofrecen adaptadores de red inalámbrica construido adentro Si la placa no tiene un conector Ethernet, puede ser necesario instalar una tarjeta PCI Ethernet o tal vez una tarjeta inalámbrica 802.11. —————————————— —————————————— Unidades de Almacenamiento Refiriéndonos a varias técnicas y dispositivos para almacenar grandes cantidades de datos. Los primeros dispositivos de almacenamiento fueron las tarjetas perforadas, que fueron usadas desde el año 1804 en maquinas tejedoras de ceda. Los dispositivos modernos de almacenamiento incluyen todo tipos de unidades de disco y de unidades de cinta. Almacenamiento masivo es distinto al de memoria, que se refiere a almacenamiento temporal, en cambio los dispositivos de almacenamiento masivo retienen los datos aun cuando la computadora es apagada. Los tipos principales de dispositivos de almacenamiento masivo son: Discos flexibles (disquetes): Relativamente lentos y pequeña capacidad, pero muy portables, baratos y universales (casi obsoletos, las computadoras nuevas ya no los utilizán)

Discos Duros: rápidos y mucho mayor capacidad, pero más caros, Algunos dispositivos de disco duro son portátiles pero la mayoría no. Discos Ópticos: (conocidos como CDs y DVD´s) al contrario de los discos flexibles y los discos duros, los cuales usan electromagnetismo para codificar los datos, los sistemas de discos ópticos usan un láser para leer y escribir datos. Los discos ópticos tienen buena capacidad, pero no son tan rápidos como los discos duros. Y por lo general son de solo lectura, aunque también hay reescribibles. Cintas: Relativamente baratas y pueden tener una gran capacidad, pero no permiten acceso aleatorio a los datos.


Discos de memoria Flash USB: ( Jumpdrives, Pocket Drives, Pen Drives, thumb drives) dispositivos muy pequeños, ligeros y portátiles pueden almacenar hasta 2gb de datos estos dispositivos se han vuelto muy populares y están sustituyendo a los discos flexibles al tener mayor capacidad y velocidad, estos dispositivos pueden mantener la información hasta por 10 años. —————————————— ——————————————

Fuente de Poder La fuente de poder es el componente que proporciona el poder eléctrico a la computadora. La mayoría de las computadoras pueden conectarse a un enchufe eléctrico estándar. La fuente de poder jala la cantidad requerida de electricidad y la convierte la corriente AC a corriente DC. También regula el voltaje para eliminar picos y crestas comunes en la mayoría de los sistemas eléctricos. Pero no todas las fuentes de poder, realizan el regulado de voltaje adecuadamente, así que una computadora siempre esta susceptible a fluctuaciones de voltaje. Las fuentes de poder se califican en términos de los watts que generan. Entre más poderosa sea la computadora, mayor cantidad de watts necesitan sus componentes.

diferentes tpos de microprocesadores  

 

-Microprocesador 4040 Es otro desarrollo de INTEL. Aparece en 1972 bajo un formato DIP de 24 pines. Usaba tecnología PMOS, 4 bits de bus de datos y 12 bits para manejar un bus de direcciones multiplexado. -Microprocesador 8008 Aparece en abril de 1972 con una velocidad de proceso de 300KHz. Disponía de un bus de 8 bits y un bus de direccionamiento de memoria multiplexado capaz de manejar 16KB, formado por 14 bits. Su Formato


 

 

 

 

 

 

era DIP cerámico de 18 pines con tecnología PMOS, integrando 3300 transistores. Su set de instrucciones era de 66. Los Homónimos del 8008 de INTEL fueron el 6800 de MOTOROLA, el 6502 de MOS TECHNOLOGY y el difundido Z80 de ZILOG. 2.4 -Microprocesador 8086 Fue el primer microprocesador de 16 bits desarrollado por INTEL en el año 1978. Se trata de un integrado de 20 pines con una estructura de direcciones de memoria de 20 bits, lo que le permitía direccionar hasta 1 MB. Alcanzaba una velocidad de 4,77MHz y llego a un máximo de 10MHz. Este micro sentó las bases de lo que seria el desarrollo de los microprocesadores. 2.5 -Microprocesador 8088 Aparece a instancias de IBM en el año 1981 como sucesor del 8086, integrado en ordenadores con capacidades de memoria de 16KB. Internamente trabajaba con un bus de datos de 16 bits, aunque, externamente, lo hace a 8 bits. Su bus de direcciones, al igual que el 8086 era de 20 bits, lo que conseguía un área de direccionable de memoria de 220= 1.048.576 bytes= 1MB. Con una velocidad de trabajo de 8 MHz, se llegaron a alcanzar los 12 MHz. Este micro trabajaba en lo que se denominaba modo normal o modo real, al igual que el 8086. 2.6 -Microprocesador 80286 En el año 1982 nace el 286 o primer microprocesador para ordenadores AT aunque no ve la luz hasta 1984 con distintos formatos en encapsulado PGA. Algunos estaban soldados a la placa base, otros se colocaban sobre un zócalo. Aparece un competidor serio de INTEL: AMD. El 80286 dispone de un SET de instrucciones mas amplio que los micros anteriores, disponiendo de un bus de datos de 16 bits y un bus de direcciones de 24 bits. Esto conseguía que la memoria pudiese direccionar hasta 224= 16.777.216 bytes= 16MB. La velocidad evoluciono desde los primeros AT-02 y AT-03 de 6 y 8 MHz respectivamente hasta los 12, 16 y 20MHz. Incorporaba un nuevo modo de trabajo: el modo protegido. Este sistema consistiría en la posibilidad de poder trabajar en multitarea o, lo que es lo mismo, aplicar pequeñas particiones de tiempo a diferentes trabajos que se ejecutan de forma alternativa gestionando hasta 16MB de RAM; también permitía el modo real, emulando varios 8086 con 1024 KB de memoria. El 80286 se popularizo gracias a su implementación en las maquinas 5170 AT de IBM. 2.7 -Microprocesador 80386 Aparece el 386DX con arquitectura tanto interna como externa de 32 bits. Fue el primero en incluir posibilidades de gráficos en color de alta resolución así como sonido. Este micro, dependiendo del fabricante, trabaja entre 16 y 40MHz. Su formato también variaba según el fabricante, un 386sx INTEL de 100 pines a un 386DX AMD de 132. El 386DX era capaz de direccionar hasta 232= 4.294.967.296 bytes = 4Gb de memoria, pero tenia el serio inconveniente del precio. El 386sx aparece como respuesta al alto precio del 386 ``puro'' o DX. Se diferencia por trabajar solo con 16 bits de datos externo y un bus de direcciones de 24bits, además de tener un rango de frecuencia de trabajo de 16 hasta 25 MHz. Existe un modelo de 386 con mayor escala de integración que es el 386SL utilizado en ordenadores portátiles. Este microprocesador permitía un nuevo modo de funcionamiento: el modo virtual. 2.8 -Microprocesador 80486 En 1989 aparecen los i486DX. El motivo del cambio de nomenclatura se debe a la oficina de patentes de EE.UU. dicha oficina no reconoce tres


 

 

 

dígitos como marca registrada, lo que le favorece a la competencia de empresas como CYRIX o AMD que pueden llamar a sus productos con el mismo nombre que INTEL. Se trata de un microprocesador que incorpora la propia CPU, además de un coprocesador matemático, un controlador de memoria de caché de 128bits y dos memorias caché de 4KB cada una, que trabajan como búfer intermedio entre la memoria principal y el micro, trabajando tanto de forma externa como interna con una estructura de 32bits. Tiene una alta integración y rendimiento, no era cierto el comentario que afirmaba que un 386DX con coprocesador matemático ofrecía el mismo rendimiento que un 486DX. Los distintos modelos que se encuentran en el mercado son SX, DX, SLC, DLC, DX2, Y DX4 con velocidades comprendidas entre 25 y 133 MHz. Los micros DX2 Y DX4 lo que hacen es multiplexar la frecuencia por lo que la velocidad interna del micro es distinta a la externa. Los homónimos del DX y SX en portátiles son el DLC y el SLC, de mayor escala de integración aunque menor rendimiento. 2.9 Microprocesador PENTIUM El Pentium (o ``586''), de unos 6,4 cm2 aproximadamente, presentó graves problemas en sus inicios debido a un error de fabricación en su modelo a 60 MHz. En el año 1994 se detectaron PENTIUM defectuosos. Este error era provocado, bajo determinadas circunstancias, al realizar una operación de coma flotante y se detectaba en el BIT 13 de la mantisa. Estos errores aparecían con las funciones: FDIV, FDIVR, FPTAN, FPATAN, FPREM y FPREM1 tanto en simple, doble o precisión extendida. INTEL dispuso un `` chequeo oficial ''. Posteriormente aparecieron distintos modelos que duplicaban la velocidad del bus, trabajando a 75, 90, 100, 120, 133, 150, 166, 180 y 200 MHz que funcionaban perfectamente. Una de las novedades que incorpora es el trabajar a partir del P/66 a 3,3v de alimentación en lugar de con 5v. Esta novedad ya fue implementada por su competidor AMD en el modelo 486 DX2 Y DX4. La cache utilizada es de 16KB. En AMD, el PENTIUM recibe el nombre de K.5 y en CYRIX, el de 6x86. 2.9.1 -Funcionamiento de un PENTIUM La RAM envía datos o instrucciones codificadas a la BIU (o unidad de interfaz con el BUS) en ``Ráfagas'' de 64bits. Estos datos son enviados por dos rutas cada una de las memorias caché de que dispone el micro. En una se almacenaran los datos y en la otra las instrucciones que indican que debe hacerse con esos datos. Existe una zona llamada Unidad de predicción de bifurcaciones. Esta unidad se encargara de inspeccionar las dos ALUs que tiene el microprocesador para determinar cual será la encargada de gestionar las nuevas instrucciones. Es unidad asegura el rendimiento optimo del microprocesador, evitando que una ALU este ``sin trabajar'' mientras existan instrucciones que procesar. Una nueva memoria, llamada búfer del ``prefetch'' recupera los códigos de instrucciones y los convierte a un ``lenguaje'' que la ALU seleccionada pueda ``entender''. En caso de precisar realizar operaciones con números decimales (llamados ``de coma flotante'') se usara el procesador interno especializado para tal fin. A partir de este momento, cada ALU procesara las instrucciones que le correspondan de manera independiente, recogiendo los datos que le sean precisos desde las caché de datos (registros) y las instrucciones desde cada decodificador de instrucciones. Superaran los 32 bits. Una vez finalizado el proceso, las dos ALUs, así como el procesador de coma


 

 

 

 

 

 

flotante, ``entregaran'' sus resultados a la caché de datos, desde donde serán reenviados a la memoria RAM. 2.10 -Microprocesador PENTIUM PRO El Pentium PRO (microprocesador incluido en lo que INTEL ha llamado la familia P6) es otro de los microprocesadores que INTEL ha orientado a aplicaciones y sistemas operativos de 32bits. Implementado con 5,5 millones de transistores, es muy diferente de los PENTIUM convencionales. Al igual que el PENTIUM convencional, dispone de 8 KB de memoria caché interna para datos y otros 8 KB para instrucciones, pero en el caso de PENTIUM PRO la memoria caché es de nivel 2 (L2) en lugar de nivel 1 (L1) usado por el PENTIUM convencional. Se pueden encontrar versiones de PENTIUM PRO con 256 KB y 512 KB de memoria L2 asociativo de cuatro vías. Trabajando a 32bits, el PENTIUM PRO ofrece prácticamente el doble de velocidad para una misma frecuencia que un PENTIUM convencional. En caso de trabajar con un sistema operativo de 16 bits, las diferencias en prestaciones son mínimas. 2.11 -Microprocesador PENTIUM MMX El PENTIUM MMX o P55C es otro micro de INTEL con la innovación de la tecnología MMX. Este microprocesador maneja 257 instrucciones. Estas nuevas instrucciones están orientadas a los multimedia y se define como el cambio mas radical desde el 386 aparecido en 1985. Otra novedad de este tipo de microprocesadores es referente al consumo de corriente. No todo el micro trabaja a la misma tensión de alimentación, sino que usa un voltaje dual. Aunque dicha tensión se determina de forma especifica en cada micro, es habitual que los valores oscilen en torno a 2,8v para el núcleo del microprocesador y 3,3v para el sistema de operaciones de entrada/salida. Los modelos aparecidos en el mercado funcionaron a 166, 200 y 233 MHz, aunque existieron versiones a 133 MHz para ordenadores portátiles. Una pega de los microprocesadores MMX es que mientras se esta usando este set de instrucciones multimedia, no puede trabajar el coprocesador matemático. Dispone de la doble de cache: es decir, 16KB para datos y 16 para instrucciones, por lo que la mejora esta asegurada. 2.12 -Microprocesador PENTIUM II El Pentium II consigue aunar la potencia del Pentium pro con las ventajas multimedia del Pentium mmx. Diseñado para 233, 266, 300 MHz dispone de una memoria cache interna de 512 KB. Otra novedad incluida es el tipo de zócalo que Intel lanza como nuevo estándar para su microprocesador: El SEC (Single Edge Connect). Cabe destacar que la memoria cache integrada ya no va integrada en el propio microprocesador. En el caso del Pentium II, la memoria cache de segundo nivel va en el circuito impreso que sirve de soporte para el microprocesador. El nuevo diseño externo del Pentium (similar al cartucho de una consola de juegos) tienes dos funciones primordiales: Aislamiento que permite apantallar el microprocesador de los demás componentes y viceversa: impedir que el resto de los componentes interfieran sobre el correcto funcionamiento del microprocesador. 2. Soporte del disipador ventilador que, dadas las condiciones de refrigeración necesarias en el microprocesador, debe ser voluminoso. Al igual que otros productos INTEL este microprocesador viene precedido de errores de diseño: unos días mas tarde del lanzamiento del Pentium II, se observo un error. Se trata de un error relacionado con la unidad de coma flotante. En concreto afecta a la conversión de números


 

 

en coma flotante a enteros. Este error afectaba también a microprocesadores Pentium Pro. De cara a enviar pasados enfrentamientos, INTEL firmo con la empresa NATIONAL SEMICONDUCTORS (fabricante de los microprocesadores CYRIX) un convenio por el que le permite desarrollar sus propios micros basándose en la tecnología del Pentium II. Este proceso se basa en la denominada ``ingeniería inversa'', mediante la cual INTEL se guarda sus secretos de desarrollo y únicamente proporciona a CIRYX una base a partir de la cual trabajar. 2.13 -Microprocesador PENTIUM CELERON Aunque no sea la idea con la que INTEL pretende vender este producto, el Pentium Celeron se puede entender como el Pentium II ``Sx''. Se trata de un microprocesador de ``batalla'', inferior al Pentium II pero con un mejor precio. Esto consiguió que perdurase mas tiempo que el propio Pentium II, siendo la punta de lanza de la compañía INTEL hasta la aparición del Pentium III. Este micro apareció bajo dos encapsulados diferentes: el SEPP y el PPGA. El primero fue el mas común, recordando al típico formato del Pentium II. Aunque también estaba optimizado para trabajar con aplicaciones de 32bits, la critica a este microprocesador venia por la ausencia de memoria cache L2. esto afectaba a toda la gama comprendida entre los 266 y 300MHz; el resto incluían una L2 de 128KB sincronía con la velocidad del microprocesador. En cuanto a caché de primero nivel, todos los modelos disponen de 32KB, repartidos en igual capacidad de datos e instrucciones. Implementados con 7,5 millones de transistores hasta los modelos de 300MHz y con 9,1 millones el resto, estos micros heredan las instrucciones MMX y siguen manteniendo una comunicación con el bus de 66MHz. 2.14 -Microprocesador PENTIUM III El PENTIUM III es la sucesión dentro de la factoria INTEL del PENTIUM II. Clasificado dentro de la familia P6 y con las características propias de la misma como el rendimiento en ejecución dinamica o un bus de sistema multitransaccional, funciona con un bus externo de 100 MHz. Hereda la tecnología MMX ademas de 70 nuevas instrucciones orientadas al manejo de graficos 3-D, video, audio. Tambien se contemplan otras tecnologías multimedia como el reconocimiento de voz o la tecnología denominada SIMD. Debe tenerse en cuenta que admitio frecuencias de trabajo vertiginosas en su tiempo de 450, 500 y 550MHz funcionando con un Chipset 440BX. Incluye, ademas, 512 KB de memoria cache de segundo nivel. Incluye 8 nuevos registros de 128 bits, ademas de los 8 registros FP ya existentes de 64 bits, donde cada registro soporta 4 valores de coma flotante de simple preciosion IEEE. INTEL incluyo una novedad: cada microprocesador era numerado de forma unica, con lo que desaparecia el anonimato del usuario. Si bien esta identificación es camufable, esta novedad no fue sido del agrado de muchos usuarios, especialmente los internautas. Las importantes mejoras en graficos 3D con mas polígonos y efectos complementan la animación asi como el tratamiento de imágenes. Este tratamiento dispone de algoritmos optimizados que permiten manejar imágenes mas grandes y complejas en menos tiempo. En cuanto al video, lo mas destacable es, sin duda, la posibilidad de edición y codificación de ficheros en formato comprimido MPEG 2 en tiempo real junto al resto de


 

 

características heredadas del tratamiento de imágenes. Esto consigue una reproducción de video mas ``real'' sin cortes entre imágenes. El conjunto de prestaciones se complementa con el reconocimiento de voz que es una de las características mas atractivas. Para dar soporte al manejor de voz promovido por MICROSOFT con su nuevo Windows 2000, INTEL ha creado la plataforma idónea dando mayor precision y efectividad a las aplicaciones reconocimiento. 2.15 - Microprocesador ITANIUM Desde la aparicion del PENTIUM convencional pasando por el PENTIUM II, III e incluso el XEON, no ha abido nada nuevo, si no que mas bien se ha tratado de transformaciones sobre una misma base. El Merced ve la luz y desde noviembre de 1999 se produce en pequeñas cantidades aun hasta mitad del 2000, fecha en el que el proceso de producción explotara el producto bajo el nombre comercial de ITANIUM. Como siempre, AMD sigue la pista de cerca del gran gigante y, casi de forma paralela, ha anunciado su replica al ITANIUM: el SLEDGEHAMMER. Ambos micros tienen una característica comun que les diferencia de los demas: la capacidad de trabajo a 64bits. La marca ITANIUM representa la fuerza y prestaciones de las características unicas de procesador que proporcionan a los clientes una base fiable y con capacidad de respuesta para el comercio electrónico del futuro. En el nuevo diseño de INTEL se ha contado hasta con los mas pequeños detalles. En cuanto a compatibilidad no parece que vaya a haber ningun problema: todas las aplicaciones diseñadas para 32 bits correran sin problemas bajo la arquitectura de 64. 2.16 - Microprocesador PENTIUM 4 El PENTIUM 4 corresponde al ultimo diseño de INTEL para dar respuesta a las nuevas necesidades que el avance de las nuevas tecnologías implica. Lo mas llamativo de este micro es que se trata de un desarrollo completamente nuevo, no se ha apoyado en diseños anteriores como ocurria, parece que este es el avance mas importante de INTEL desde el año 1995. Con lo anterior expuesto es facil de deducir que el PENTIUM 4, precisa de una placa base diseñada de forma especifica. El formato en el que se suministra es para socket 423, aunque existen varios rumores por parte de INTEL, sobre un cambio de formato inminente hacia los 478 pines. Ademas el sistema de refrigeración precisa de una caja y fuente de alimentación especiales denominadas ATX 2.03. La idea es sencilla: se sigue basando el aumento de rendimiento en una serie de predicciones que, en caso de cumplirse, aumentan significativamente la efectividad de la CPU. El problema viene cuando estas predicciones no son correctas. Así este nuevo chip de INTEL dispone de una canalización distribuida en 20 fases. Esto significa que cuando se realiza una prediccion un total de 20 microinstrucciones pueden quedar en espera de confirmar si la citada prediccion ha sido correcta. Otro de los avances es el incremento de velocidad de proceso. Toda la campaña de INTEL asegura que se soporta un bus de sistema de 400MHz. Si se pretende ser serio, realmente no es esta la velocidad de bus a la que se puede trabajar sino que se aplica un doble DDR para obtener mejores resultados. Realmente se mantienen los 100 MHz habituales con un factor multiplicador que empieza a resultar desorbitado. El micro de 1,4GHz y bajo la premisa expuesta de un funcionamiento a 100 MHz, es necesario configurar la placa base con un factor multiplicador de x14. Se alcanzan


 

  

 

los 3,2 GB/s frente a 1 GB/s obtenido por el PENTIUM II con un bus de 133 MHz o los 0,5 GB/s del Celeron con un bus de 66MHz. 3. - Mas de un Micro En Una Misma Placa Es habitual para los servidores usar placas donde dos microprocesadores trabajan en paralelo. Se trata de casos especiales donde, en lugar de una CPU, se usan dos o mas. Hay fundamentalmente dos tipos de arquitecturas para el microprocesador. - Asociación estrecha (tightly coupled) - Asociación Flexible (loosely coupled) Habitualmente se usa la arquitectura ``Pipeline''. Esta técnica permite que, mientras se esta decodificando una instrucción, otra, en paralelo, se esta ejecutando. Esto consigue que en un solo ciclo de reloj se realicen dos instrucciones. 4. - El OVERCLOKING Es el termino que se aplica al hecho de incrementar la velocidad del procesador por encima de la que ha sido diseñado, con el objeto de aumental la velocidad del sistema sin añadir nuevos componentes. Este sistema se ha usado por distribuidores poco profesionales dando, en su dia, ligar a un escandalo provocado por la falsificación de micros: se serigrafian con una velocidad superior y se vendian como microprocesadores de mas frecuencia. Todos los micros se pueden trucar, aunque algunos aguantan mejor que otro el overcloking. Los 386 y 486 de INTEL Y AMD aguantaban grandes incrementos de frecuencia. Igualemente ocurria con los 486 de CYRIX. Los MOTOROLA 680x0 eran menos adecuados, ya que el overcloking requiere un subsistema de memoria fiable por parte del microprocesador y el MOTOROLA 68040 no dispone de memoria cache de sengundo nivel. Puede darse el caso de que un microprocesador diseñado para trabajar a 100MHz, no consiga funcionar correctamente a esa velocidad pero si a 75MHz. Esto no implica que el micro sea defectuoso, ya que se garantiza el correcto funcionamiento a una frecuencia determinada. Las condiciones de laboratorio no coinciden con las habituales de trabajo. El overcloking no produce generalmente ningun daño. La unica consecuencia directa es el sobrecalentamiento que se soluciona mediante el uso de un ventilador/disipador. Un problema poco documentado sobre el overcloking es la electromigracion, que consiste en la erosion de las pistas debido al aumento de frecuencia. No todos los micros responde igual, el resto de los componentes del ordenador si que guardaran una dependencia con el incremento de velocidad. Si una vez modificados los parámetros de funcionamiento del micro el ordenador no arranca, se podra probar, siempre y cuando la BIOS lo permita, a añadir estados de espera o bajar la velocidad. Las tarjetas aceleradoras tambien llamadas ICE son unas placas destinadas a aumentar la velocidad del PC mediante su inserción en una de INTEL. 5. - Fabricantes Destacados o AMD o APPLE o CYRIX o INTEL o MOTOROLA o TEXAS INSTRUMENTS


juan valeiro