Page 1

TEORÍAS DE LA

INFORMACIÓN Por: Noemi Zambrano Cedas Paula Areli Hernández Gaona Edgar Arriaga Fuentes


Teor铆as de la Informaci贸n Universidad de Londres GRUPO: B111X


TEÓRIAS DE LA INFORMACIÓN

CAPÍTULO 1 INICIOS DE LA INFORMÁTICA

DATOS E INFORMACIÓN Definición: Maneja información para toma de decisiones, INFO:Información ATICA: Automática Ciencia de la información DATO: No tiene sentido, unidad mínima dentro de la información. INFORMACIÓN: Tiene sentido, manejo de los datos con cierta congruencia.

SISTEMAS

¿QUÉ ES UN SISTEMA?

Conjunto de elementos, que trabajan entre sí, para llevar a cabo un fin común.

VIENDO LAS PREMISAS INTERNAS Y EXTERNAS, QUE

CLASIFICACIÓN DE LOS SISTEMAS:

LA FUNCIONALIDAD DEBE SER PERSISTENTE Y SIN

Naturales y artificiales: por su alcance pueden ser abiertos y cerrados, todos los sistemas tienen límites o fronteras. TAMAÑOS: Micro, pequeño, mediano, grande y macro sistema. Cobertura: operativos, tácticos y estratégicos. Operativos: contable, financiero, económico, político, gestión, toma de decisiones. LA METODOLOGÍA DEL CICLO DE VIDA DEL SISTEMA. 1.- DEFINICIÓN DEL PROBLEMA:

DIAGRAMA DE ISHILCANA

AFECTAN AL SISTEMA QUE ESTAMOS ESTUDIANDO. PERDIDA. TOMAR EN CUENTA LOS GRUPOS DE OPOSICIÓN. ANALIZAR TODO DE MANERA GENÉRICA, ESTA ABARCA EL ENFOQUE DE SISTEMAS. ENFOQUE SISTÉMICO: VER TODO COMO UN SISTEMA (TODO TIENE RELACIÓN CON TODO). 3.- ANÁLISIS DE SISTEMA: SITUACIÓN ACTUAL Y DESEADA. DESDE LA ENTREVISTA, LA ENCUESTA, DIAGRAMA, DE FLUJO, DE DATOS, DIAGRAMA TOPDOWN, CASOS DE USO Y DIAGRAMAS DE CHICAGO, VER SITUACIÓN ACTUAL Y DESPUÉS DE ¿CUÁL ES LA PROPUESTA?. SE UTILIZAN TODAS LAS PROPUESTAS. EL SISTEMA TIENE QUE SER PARA EL USUARIO, LA USABILIDAD ES UN ASPECTO IMPORTANTE. 4.- DISEÑO DE SISTEMA: AQUÍ BÁSICAMENTE ES EL PROCESO ANALÍTICO, INICIA LA ETAPA OPERATIVA,

CAUSAS

CON QUE HERRAMIENTAS SE VAN A TRABAJAR, TÉCNICAS OPERATIVAS.

EFECTO

5.- LA CONSTRUCCIÓN DEL SISTEMA: DE TODO LO ANALIZADO. LO DISEÑADO Y LO PLANEADO.

2.- LA DETECCIÓN DE LOS REQUERIMIENTOS:

6.- PRUEBA DEL SISTEMA: PROBAR MODULO POR

- LO QUE EL CLIENTE ESTÁ BUSCANDO,

INTEGRALES.

(ANTECEDENTES DE LA EMPRESA Y PETICIONES DEL CLIENTE). - LEVANTAMIENTO DE INFORMACIÓN. ENFOQUE DE SISTEMA: SE VE EL TODO SIN LÍMITES,

MODULO, OBJETIVOS, PRUEBAS, UNITARIAS E

7.- IMPLEMENTACIÓN DEL SISTEMA: PRUEBA PILOTO GENERAL, LOS USUARIOS LO VAN A PROBAR Y DETECTAR ERRORES ANTES DE LO QUE SALGA A PRODUCCIÓN.

NI BARRERAS DE MANERA INTERNA Y EXTERNA

HERRAMIENTAS CASE Alto nivel: Es para sistemas de información o

A B

tecnología de información. Medio nivel: Suite Adobe.

C

D

Bajo nivel: Access

Teorías de la Información


TEORÍAS DE INFORMACIÓN

TECNOLOGÍAS DE INFORMACIÓN

ANTECEDENTES HISTÓRICOS Surgen desde la el imperio de Julio Cesar .Surge en la II Guerra Mundial. Sus objetivos eran buscar canales eficientes de comunicación.

TECNOLOGÍAS DE INFORMACIÓN Y COMUNICACION

Andrei A. Marconi 1910. Raloph V.L Hartley 1927 (precursor del lenguaje binario). Alan Turing 1936 (Maquina con información de símbolos) En los 40´s y en las posteriores décadas Shannon propuso un modelo de teorías de la información basada en un transmisor de señal t recepción. Modelo Shannon: MENSAJE TRANSMISOR

SEÑAL

RECEPTOR

RUIDO

En los 40´s se crea el protocolo: Darpanet ------------ crea el Internet Defense Aduanced Research Projecto

TIC: Tecnologías de Información y Comunicación. Formas en el conjunto de recursos para manipular información con computadoras, programas informáticos y redes de comunicación. SERVICIOS QUE TIENE EL TIC: •

Búsqueda de información (Google)

Banca online

Manejo de comercio electrónico PTP/ CTB/ BTB

Televisión, Radio y música.

E- Learning – E – Govers –distancias.

INTERNET

• Comunidades, Virtuales, redes sociales, servicios móviles.

TIC / IP

Las tecnologías de la información y la comunicación no son ninguna panacea ni fórmula mágica, pero pueden mejorar la vida de todos los habitantes del planeta.

INTERNET PROTOCOLO

TRANSMISION CONTROL

JUNTA LOS DATOS EN UNA SOLA DIRECCIÓN

DIVIDE DATOS PARA ENVIARSE

Se pueden considerar las TIC un concepto dinámico.Por ejemplo, a finales del siglo XIX el teléfono podría ser considerado una nueva tecnología según las definiciones actuales. Esta misma definición podría aplicarse a la televisión cuando apareció y se popularizó en la década de los 50 del siglo pasado. No obstante esto, hoy no se pondrían en una lista de TIC y es muy posible que actualmente los ordenadores ya no puedan ser calificados de nuevas tecnologías. A pesar de esto, en un concepto amplio, se puede considerar que el teléfono, la televisión y el ordenador forman parte de lo que se llama TIC, tecnologías que favorecen la comunicación y el intercambio de información en el mundo actual. TIC agrupan los elementos y las técnicas utilizadas en el tratamiento y la transmisión de las informaciones, principalmente de informática, Internet y telecomunicaciones.

Teorías de la Información

“Se disponen de herramientas para llegar a los Objetivos de Desarrollo del Milenio, de instrumentos que harán avanzar la causa de la libertad y la democracia, y de los medios necesarios para propagar los conocimientos y facilitar la comprensión mutua” A nadie sorprende estar informado minuto a minuto, comunicarse con gente del otro lado del planeta, ver el video de una canción o trabajar en equipo sin estar en un mismo sitio. Con una rapidez impensada las Tecnologías de la información y comunicación son cada vez más, parte importante de nuestras vidas. Este concepto que también se llama Sociedad de la información.

TELÉFONO, TELEGRAMA, T.V, RADIO, PERIÓDICOS.

SOCIEDAD INFORMADA

INTERNET


FUNDAMENTOS

TECNOLOGÍAS DE INFORMACIÓN TI: Tecnología de Información, herramientas y métodos, empleados para recabar, retener manipular ó distribuir información nace a raíz de las teorías de información. Ej. Scanner, cámaras de video.

INTERNET

Favorecen la comunicación y el intercambio de la información. La tecnología Open Source (Código abierto), información o tecnología abierta. Licencia (GNU) = No es UNIX

1

WEB 1 Banda Angosta Paginas estáticas Interpretado Esqueleto y cuerpo Las redes actuales de telefonía móvil permiten velocidades medias competitivas en relación con las de banda ancha en redes fijas: 183 kbps en las redes GSM, 1064 kbps en las 3G y 2015 kbps en las WiFi.[18] Esto permite el acceso a Internet a usuarios con alta movilidad , en vacaciones, o para los que lo tienen acceso fijo. Y de hecho, se están produciendo crecimientos muy importantes del acceso a Internet de banda ancha desde móviles y también desde dispositivos fijos pero utilizando acceso móvil. Este crecimiento será un factor clave para dar un nuevo paso en el desarrollo de la Sociedad de la Información. Las primeras tecnologías que permitieron el acceso a datos aunque a velocidades no excesivas fueron el GPRS y el EDGE, ambas pertenecientes a lo que se denomina 2.5G. Aunque, la banda ancha en telefonía móvil empezó con el 3G que permitía 384 kbps y que ha evolucionado hacia el 3.5G, también denominado HSPA (High Speed Packet Access) que permite hasta 14 Mbps de bajada HSDPA (High Speed Downlink Packet Access) y teóricamente 5,76 Mbps de subida si se utiliza a más HSUPA (High Speed Uplink Packet Access); estas velocidades son, en ocasiones, comparables con las xDSL, y en un futura no muy lejano también se prevee que empiecen a estar disponibles tecnologías más avanzadas, denominadas genéricamente Long Term Evolution o redes de cuarta generación y que permitirán velocidades de 50 Mbps.

INTERNET WEB

2

2

Banda ancha -Paginas dinámicas Java Multiplica plataforma copiladas.Nacen las redes sociales

La banda ancha originariamente hacía referencia a la capacidad de acceso a Internet superior a los de un acceso analógico (56 kbps en un acceso telefónico básico o 128 kbps en un acceso básico RDSI). A pesar que el concepto varia con el tiempo en paralelo a la evolución tecnológica. Según la Comisión federal de Comuncaciones de los EEUU (FCC) se considera banda ancha el acceso a una velocidad igual o superior a los 200 kbps.

Actualmente hay cuatro tecnologías para la distribución de contenidos de televisión, incluyendo las versiones analógicas y las digitales:La televisión terrestre, que es el método tradicional de librar la señal de difusión de TV, por ondas de radio transmitida por el espacio abierto. En este apartado estaría la TDT. La televisión por satélite, libra la señal vía satélite. La televisión por cable es una forma de provenir la señal de televisión directamente a los televisores por cable coaxial. La televisión por Internet traduce los contenidos en un formato que puede ser transportado por redes IP, por eso también es conocida como Televisión IP. En cuanto a la televisión por pago, el primer trimestre de 2008 muestra un estancamiento en las modalidades de cable y de satélite mientras que la IPTV crece considerablemente respecto a los datos de una año antes.

COMPUTADORA

-

Maquina Herramientas Procesa Calcula Resguarda Visualiza Información

Herramienta que reguarda información de entrada para poder ser visualizada.

Teorías de la Información


ESTRATEGIAS DE NEGOCIOS

ERP (Planificación de recursos empresariales ó en inglés Enterprise resource planning). VENTAJAS

Integridad de los datos

ERP

Definición de las reglas de negocios Sistemas basados en resultados Sistemas para manejo de diferentes tipos de empresas Sistemas con tecnologías de punta Mejoras en los servicios a los clientes Mejoras en los servicios tiempos de respuestas Reducción de costos Reducción de inventarios Reducción a los tiempos de adaptación al cambio.

-

Control

-

Integración

Confiabilidad de los sistemas Definición de un solo flujo de trabajo

Competitividad

-

-

Proceso complejo Influido a la cultura informática Afectado por resistencia al cambio Responsabilidad de toda la empresa

Pone en evidencia los errores y manejos equivocados (malos manejos)

Este sistema es, en contraste con el sistema de apertura de datos (front office), que crea una relación administrativa del consumidor o servicio al consumidor (CRM), un sistema que trata directamente con los clientes, o con los sistemas de negocios electrónicos tales como comercio electrónico, administración electrónica, telecomunicaciones electrónicas y finanzas electrónicas; asimismo, es un sistema que trata directamente con los proveedores, no estableciendo únicamente una relación administrativa con ellos (SRM). Los ERP están funcionando ampliamente en todo tipo de empresas modernas. Todos los departamentos funcionales que están involucrados en la operación o producción están integrados en un solo sistema. Además de la manufactura o producción, almacenamiento, logística e información tecnológica, incluyen además la contabilidad, y suelen incluir un Sistema de Administración de Recursos Humanos, y herramientas de mercadotecnia y administración estratégica.En la actualidad todas las empresas pudieran manejarse con los ERP y recomienda su implantación en el inicio de sus actividades.

Son sistemas de información gerenciales que integran y manejan muchos de los negocios asociados con las operaciones de producción y de los aspectos de distribución de una compañía comprometida en la producción de bienes o servicios. La Planificación de Recursos Empresariales es un término derivado de la Planificación de Recursos de Manufactura (MRPII) y seguido de la Planificación de Requerimientos de Material (MRP). Los sistemas ERP típicamente manejan la producción, logística, distribución, inventario, envíos, facturas y contabilidad de la compañía. Sin embargo, la Planificación de Recursos Empresariales o el software ERP puede intervenir en el control de muchas actividades de negocios como ventas, entregas, pagos, producción, administración de inventarios, calidad de administración y la administración No hay recetas mágicas ni guiones explícitos para implantaciones de recursos humanos. exitosas; solamente trabajo bien realizado, una correcta metodología Los sistemas ERP son llamados y aspectos que deben cuidarse antes y durante el proceso de ocasionalmente back office implantación, e inclusive cuando el sistema entra en función. (trastienda).

Teorías de la Información

Se comparte la información de la empresa con un flujo de información dentro de ella. BMP: Proceso de Administración de Negocios. ¿Cuándo usar ERP? ERP, basándose en referencias y mediciones que realiza antes y después, donde se miden los ahorros que se logran y los incrementos de las ventas de sus productos y se comparan con los costos. Los objetivos principales de los sistemas ERP son: • Optimización procesos empresariales.

de

los

• Acceso a toda la información de forma confiable, precisa y oportuna (integridad de datos). • La posibilidad de compartir información entre todos los componentes de la organización. • Eliminación de datos y operaciones innecesarias de reingeniería. No hay recetas mágicas ni guiones explícitos para implantaciones exitosas; solamente trabajo bien realizado, una correcta metodología y aspectos que deben cuidarse antes y durante el proceso de implantación, e inclusive cuando el sistema entra en función. un ERP es conveniente efectuar lo siguiente: • Definición de resultados a obtener con la implantación de un ERP. • Definición del modelo de negocio. • Definición del modelo de gestión. • Definición de estrategia de implantación.

la

• Evaluación de oportunidades para software complementario al producto ERP. • Alineamiento de la estructura y plataformas tecnológicas. • Análisis organizativo.

del

cambio

• Entrega de una visión completa de la solución a implantar. •

Implantación del sistema.

Controles de calidad.

• Auditoría del entorno técnico y del entorno de desarrollo.


CAPÍTULO II EL ORIGEN DE LA TEORIA CUANTICA ¿Qué pretendía explicar, de manera tan poco afortunada, la Ley de Rayleigh-Jeans (1899)? Un fenómeno físico denominado radiación del cuerpo negro, es decir, el proceso que describe la interacción entre la materia y la radiación, el modo en que la materia intercambia energía, emitiéndola o absorbiéndola, con una fuente de radiación. Pero además de la Ley de Rayleigh-Jeans había otra ley, la Ley de Wien (1893), que pretendía también explicar el mismo fenómeno. La Ley de Wien daba una explicación experimental correcta si la frecuencia de la radiación es alta, pero fallaba para frecuencias bajas. Por su parte, la Ley de Rayleigh-Jeans daba una explicación experimental correcta si la frecuencia de la radiación es baja, pero fallaba para frecuencias altas.

TEORIAS DE LA INFORMACIÓN

LA TEORÍA CUÁNTICA, UNA APROXIMACIÓN AL UNIVERSO PROBABLE Es un conjunto de nuevas ideas que explican procesos incomprensibles para la física de los objetos. La Teoría Cuántica es uno de los pilares fundamentales de la Física actual. Recoge un conjunto de nuevas ideas introducidas a lo largo del primer tercio del siglo XX para dar explicación a procesos cuya comprensión se hallaba en conflicto con las concepciones físicas vigentes. Su marco de aplicación se limita, casi exclusivamente, a los niveles atómico, subatómico y nuclear, donde resulta totalmente imprescindible. Pero también lo es en otros ámbitos, como la electrónica, en la física de nuevos materiales, en la física de altas energías, en el

A comienzos de la década de los 80, empezaron a surgir las primeras teorías que apuntaban a la posibilidad de realizar cálculos de naturaleza cuántica.

diseño de instrumentación médica, en la criptografía y la computación cuánticas, y en la Cosmología teórica del Universo temprano. La Teoría Cuántica es una teoría netamente probabilista: describe la probabilidad de que un suceso dado acontezca en un momento determinado, sin especificar cuándo ocurrirá. A diferencia de lo que ocurre en la Física Clásica, en la Teoría Cuántica la probabilidad posee un valor objetivo esencial, y no se halla supeditada al estado de conocimiento del sujeto, sino que, en cierto modo, lo determina.


C

OMPUTADORAS UÁNTICAS

La computación cuántica es un paradigma de computación distinto al de la computación clásica. Se basa en el uso de qubits en lugar de bits, y da lugar a nuevas puertas lógicas que hacen posibles nuevos algoritmos. Una misma tarea puede tener diferente complejidad en computación clásica y en computación cuántica, lo que ha dado lugar a una gran expectación, ya que algunos problemas intratables pasan a ser tratables. Mientras un computador clásico equivale a una máquina de Turing, un computador cuántico equivale a una máquina de Turing indeterminista. La empresa canadiense D-Wave Systems había supuestamente presentado el 13 de febrero de 2007 en Silicon Valley, una primera computadora cuántica comercial de 16-qubits de propósito general; luego la misma compañía admitió que tal máquina llamada Orion no es realmente una Computadora Cuántica, sino una clase de máquina de propósito general que usa algo de mecánica cuántica para resolver problemas.

ORIGEN La idea de computación cuántica surge en 1981, cuando Paul Benioff expuso su teoría para aprovechar las leyes cuánticas en el entorno de la computación. En vez de trabajar a nivel de voltajes eléctricos, se trabaja a nivel de cuánto. En la computación digital, un bit sólo puede tomar dos valores: 0 ó 1. En cambio, en la computación cuántica, intervienen las leyes de la mecánica cuántica, y la partícula puede estar en superposición coherente: puede ser 0, 1 y puede ser 0 y 1 a la vez (dos estados ortogonales de una partícula subatómica). Eso permite que se puedan realizar varias operaciones a la vez, según el número de qubits.

La computación cuántica es un paradigma de computación distinto al de la computación clásica. Teorías de la Información

El número de qubits indica la cantidad de bits que pueden estar en superposición. Con los bits convencionales, si teníamos un registro de tres bits, había ocho valores posibles y el registro sólo podía tomar uno de esos valores. En cambio, si tenemos un vector de tres qubits, la partícula puede tomar ocho valores distintos a la vez gracias a la superposición cuántica. Así un vector de tres qubits permitiría un total de ocho operaciones paralelas. Como cabe esperar, el número de operaciones es exponencial con respecto al número de qubits. Para hacerse una idea del gran avance, un computador cuántico de 30 qubits equivaldría a un procesador convencional de 10 teraflops (millones de millones de operaciones en coma flotante por segundo) cuando actualmente las computadoras trabajan en el orden de gigaflops (miles de millones de operaciones).

HARDWARE PARA COMPUTACIÓN CUÁNTICA Aún no se ha resuelto el problema de qué hardware sería el ideal para la computación cuántica. Se ha definido una serie de condiciones que debe cumplir, conocida como la lista de Di Vinzenzo, y hay varios candidatos actualmente.

PROCESADORES En 2004, científicos del Instituto de Física aplicada de la Universidad de Bonn publicaron resultados sobre un registro cuántico experimental. Para ello utilizaron átomos neutros que almacenan información cuántica, por lo que son llamados qubits por analogía con los bits. Su objetivo actual es construir una puerta cuántica, con lo cual se tendrían los elementos básicos que constituyen los procesadores, que son el corazón de los computadores actuales. Cabe destacar que un chip de tecnología VLSI contiene actualmente más de 100.000 puertas, de manera que su uso práctico todavía se presenta en un horizonte lejano.


CONDICIONES A CUMPLIR •El sistema ha de poder inicializarse, esto es, llevarse a un estado de partida conocido y controlado. •Ha de ser posible hacer manipulaciones a los qubits de forma controlada, con un conjunto de operaciones que forme un conjunto universal de puertas lógicas (para poder reproducir a cualquier otra puerta lógica posible). •El sistema ha de mantener su coherencia cuántica a lo largo del experimento. •Ha de poder leerse el estado final del sistema, tras el cálculo. •El sistema ha de ser escalable: tiene que haber una forma definida de aumentar el número de qubits, para tratar con problemas de mayor coste computacional.

CRONOLOGIA

1981-1982 Richard Feynman El Dr. Richard Feynman, físico del California Institute of Technology en California (EE. UU.) y ganador del premio Nobel en 1965 realizó una ponencia durante el “First Conference on the Physics of Computation” realizado en el Instituto Tecnológico de Massachusetts (EE.UU.) Su charla, bajo el título de “Simulating Physics With Computers” proponía el uso de fenómenos cuánticos para realizar cálculos computacionales y exponía que dada su naturaleza algunos cálculos de gran complejidad se realizarían más rápidamente en un ordenador cuántico.

1994-1995 Peter Shor

Este científico estadounidense de AT&T Bell Laboratories definió el algoritmo que lleva su nombre y que permite calcular los factores primos de números a una velocidad mucho mayor que en cualquier computador tradicional. Además su algoritmo permitiría romper muchos de los sistemas de criptografía utilizados actualmente. Su algoritmo sirvió para demostrar a una gran parte de la comunidad científica que observaba incrédula las posibilidades de la computación cuántica, que se trataba de un campo de investigación con un gran potencial. Además, un año más tarde, propuso un sistema de corrección de errores en el cálculo cuántico.

1997 - Primeros experimentos En 1997 se iniciaron los primeros experimentos prácticos y se abrieron las puertas para empezar a implementar todos aquellos cálculos y experimentos que habían sido descritos teóricamente hasta entonces. El primer experimento de comunicación segura usando criptografía cuántica se realiza con éxito a una distancia de 23 Km. Además se realiza el primer teletransporte cuántico de un fotón.

1998 - 1999 Primeros Qbit

Investigadores de Los Álamos y el Instituto Tecnológico de Massachusets consiguen propagar el primer Qbit a través de una solución de aminoácidos. Supuso el primer paso para analizar la información que transporta un Qbit. Durante ese mismo año, nació la primera máquina de 2-Qbit, que fue presentada en la Universidad de Berkeley, California (EE.UU.) Un año más tarde, en 1999, en los laboratorios de IBMAlmaden, se creó la primera máquina de 3-Qbit y además fue capaz de ejecutar por primera vez el algoritmo de búsqueda de Grover.

2000 - Continúan los progresos

De nuevo IBM, dirigido por Isaac Chuang (Figura 4.1), creó un computador cuántico de 5-Qbit capaz de ejecutar un algoritmo de búsqueda de orden, que forma parte del Algoritmo de Shor. Este algoritmo se ejecutaba en un simple paso cuando en un computador tradicional requeriría de numerosas iteraciones. Ese mismo año, científicos de Los Álamos National Laboratory (EE.UU) anunciaron el desarrollo de un computador cuántico de 7-Qbit. Utilizando un resonador magnético nuclear se consiguen aplicar pulsos electromagnéticos y permite emular la codificación en bits de los computadores tradicionales.

2001 - El algoritmo de Shor ejecutado IBM y la Universidad de Stanford, consiguen ejecutar por primera vez el algoritmo de Shor en el primer computador cuántico de 7-Qbit desarrollado en Los Álamos. En el experimento se calcularon los factores primos de 15, dando el resultado correcto de 3 y 5 utilizando para ello 1018 moléculas, cada una de ellas con 7 átomos.

2005 - El primer Qbyte Teorías de la Información


WEB CORPORATIVO

Tener presencia en el medio digital conlleva importantes ventajas: Permite a las empresas presentar de forma atractiva sus cartas de productos y servicios, facilitando las acciones de marketing en el medio presencial (pueden ser la mejor tarjeta de visita). Facilita la llegada a nuevos clientes potenciales, alejados geográficamente del centro presencial de venta y distribución. Permite a la empresa competir en nuevos mercados, luchando por el posicionamiento en los buscadores. Abre un nuevo canal de venta, tanto directa (por medio de tiendas digitales) como indirecta (fomentando el contacto del cliente con la empresa). Facilita la realización de actividades promocionales de bajo coste en el medio digital (por ejemplo, utilizando el e-mail marketing). Puede generar ingresos extra para las empresas (gracias a la introducción de publicidad de terceros, en distintas modalidades como pago por clic, por impresión, por venta, etc.). Y puede ayudar al posicionamiento general de la empresa en relación con su competencia directa.

Teorías de la Información

WEB CORPORATIVO En su origen, Internet fue concebido como un medio de transmisión de información militar y científica. Con el paso del tiempo, la Red fue desarrollándose y dio cabida a distintas manifestaciones lúdicas. El uso puramente empresarial tardó algo más en extenderse. Hace solo cinco años pocas empresas ajenas al sector de las tecnologías de la información y la comunicación contaban con sitios web corporativos. Hoy en día, tener una sede web se está convirtiendo en una necesidad para la mayoría de las empresas, independientemente de su tamaño o su volumen de facturación.


PREMISAS A CONSIDERAR A la hora de plantearse la creación de una sede web corporativa, el empresario debe tener en consideración una serie de premisas básicas: Debe tener claros sus objetivos y priorizarlos para prestar especial atención en los más importantes (buscar la venta presencial o en línea de productos y servicios, mejorar la imagen de la empresa, buscar nuevos clientes y la introducción en nuevos mercados, dar muestras de compromiso social, etc.). Ha de elegir cuidadosamente las palabras y expresiones clave que servirán para describir los productos y servicios que la empresa comercialice. Tiene que organizar y presentar los contenidos del sitio de forma clara y directa, para facilitar la navegabilidad y la comprensión de la web. Debe cuidar particularmente la presentación de la página principal, ya que será el escaparate del sitio y, en la mayoría de las ocasiones, generará la primera impresión en el visitante. Ha de cuidar los textos y las imágenes del sitio, ya que de ambos tipos de contenidos dependerá la capacidad de captación y fidelización de usuarios y clientes. Debe referenciar por medio de enlaces los sitios web de sus clientes y colaboradores, y solicitar como contraprestación el intercambio de links con ellos.

Teorías de la Información


SAP, multinacional del software especializada en ERP fue creada en 1972, en Alemania, tiene varios miles de empleados en todo el mundo. Es el líder mundial en ERP, con sus aplicaciones instaladas en la mitad de las 500 mayores empresas del mundo. Es el cuarto fabricante de software del mundo. SAP permite llevar la gestión de varias compañías, en distintas monedas, con base en más de un país. Tiene una filosofía horizontal, en el sentido de que la misma aplicación se puede adaptar a todo tipo de negocio. Sin embargo, SAP, consciente de que cada negocio tiene unas particularidades, desde 1995 también ha desarrollado soluciones verticales. Por ejemplo, una compañía eléctrica tiene miles de clientes y su sistema de facturación debe estar muy desarrollado. En cambio, unos astilleros, reciben muy pocos pedidos. Por esta razón está desarrollando soluciciones informáticas específicas para cada sector. Oracle. - Navision SSA Global Muchos empresas grandes no pueden pagar los precios de los anteriores productos, pero sí necesitan de las prestaciones de un ERP. En este caso acuden a fabricantes nacionales que ofrecen productos con la misma filosofía pero a un precio mucho menor. Por ejemplo, son empresas especializadas en ERP: - EON - OpenBravo - CCS (http://www.ccs.es/) - IberAccess

Teorías de la Información


Modelo OSI, modelo de referencia de Interconexión de Sistemas Abiertos

OSI, Open System Interconnection) fue el modelo de red descriptivo creado por la Organización Internacional para la Estandarización, marco de referencia para la definición de arquitecturas de interconexión de sistemas de comunicaciones. Nivel Físico (Capa 1): se encarga de las conexiones físicas de la computadora hacia la red, tanto en lo que se refiere al medio físico, características del medio, como a la forma en la que se transmite la información. Capa de enlace de datos (capa 2)

La capa de enlace de datos se ocupa del direccionamiento físico, de la topología de la red, del acceso a la red, de la notificación de errores, de la distribución ordenada de tramas y del control del flujo.

Capa de red (capa 3)

En este nivel se realiza el direccionamiento lógico y la determinación de la ruta de los datos hasta su receptor final. Capa de transporte (capa 4)

Capa encargada de efectuar el transporte de los datos (que se encuentran dentro del paquete) de la máquina origen a la de destino, independizándolo del tipo de red física que esté utilizando. Sus protocolos son TCP y UDP el 1ro orientado a conexión y el 2do sin conexión. Capa de sesión (capa 5)

Esta capa es la que se encarga de mantener y controlar el diálogo establecido entre los dos computadores que están transmitiendo datos de cualquier índole. En conclusión esta capa es la que se encarga de mantener el enlace entre los dos computadores que estén transmitiendo datos de cualquier índole. Capa de presentación (capa 6)

El objetivo de la capa de presentación es encargarse de la representación de la información, de manera que aunque distintos equipos puedan tener diferentes representaciones internas de caracteres, números, sonido o imágenes, los datos lleguen de manera reconocible. Capa de aplicación (capa 7)

Ofrece a las aplicaciones la posibilidad de acceder a los servicios de las demás capas y define los protocolos que utilizan las aplicaciones para intercambiar datos, como correo electrónico, gestores de bases de datos y servidor de ficheros. Hay tantos protocolos como aplicaciones distintas y continuamente se desarrollan nuevas aplicaciones y el # de protocolos crece sin parar.

Teorías de la Información


SIEBEL

¿QUE ES CRM?

Software integrado que gestiona la relación con el cliente, la automatización de las de ventas, call centers, marketing , inteligencia de negocio y una amplia gama de soluciones para las necesidades de la empresa. SIEBEL Oracle CRM On Demand brinda compatibilidad con servicios web, se integra fácilmente con otros productos de Oracle, permite una mejor interaccion entre la empresa y sus clientes, lo cual mejora la productividad de la empresa, haciéndola mas eficaz.

Beneficios del Siebel: Control del poder

Previsiones realistas

Manejo y organización

Visión ciclo de ventas

Vende y no sólo busca información

Ofrece a los clientes un buen servicio.

Mejora el rendimiento del centro de llamadas

Se anticipa a los cambios en la red

Teorías de la Información

La administración de la relación con los clientes, CRM, es parte de una estrategia de negocio centrada en el cliente. Una parte fundamental de su idea es, precisamente, la de recopilar la mayor cantidad de información posible sobre los clientes, para poder dar valor a la oferta. La empresa debe trabajar para conocer las necesidades de los mismos y así poder adelantar una oferta y mejorar la calidad en la atención.


CAPITULO III

TEORÍAS DE LA INFORMACIÓN

FIRMA ELECTRÓNICA “Firma Electrónica: Información creada o utilizada por el Signatario, asociada al Mensajes de Datos, que permite atribuirle su autoría bajo el contexto en el cual ha sido empleado” La Firma Electrónica tendrá la misma validez y eficacia que una Firma Autógrafa siempre y cuando permita vincular al signatario con el mensaje de datos y atribuirle su autoría.

Teorías de la Información


Firma Electrónica vs Firma Autógrafa Las Firmas Electrónicas y las Firmas Autógrafas son total y absolutamente diferentes, específicamente en su estructura: *Una Firma Electrónica se produce a través de un software.

*Una Firma Autógrafa se produce por la manifestación de la personalidad.

*Una Firma Electrónica está siempre asociada a un Mensajes de Datos o Documento Electrónico.

VALIDEZ Y EFICACIA DE LA FIRMA ELECTRONICA La Firma Electrónica que permita vincular al Signatario con el Mensaje de Datos y atribuir la autoría de éste, tendrá la misma validez y eficacia probatoria que la ley otorga a la firma autógrafa. A tal efecto, salvo que las partes dispongan otra cosa, la Firma Electrónica deberá llenar los siguientes aspectos: *Garantizar que los datos utilizados para su generación puedan producirse sólo una vez, y asegurar, razonablemente, su confidencialidad. *Ofrecer seguridad suficiente de que no pueda ser falsificada con la tecnología existente en cada momento. *No alterar la integridad del Mensaje de Datos

CERTIFICACIÓN DE LA FIRMA ELECTRONICA

* Una Firma Autógrafa está siempre asociada a un Documento Físico.

La finalidad y efectos son los mismos que se atribuyen a la Firma Autógrafa: Atribuir la autoría de un documento La aceptación del contenido.

Teorías de la Información

“Certificado Electrónico: Mensaje de Datos proporcionado por un Proveedor de Servicios de Certificación que le atribuye certeza y validez a la Firma Electrónica” El Certificado Electrónico garantiza la autoría de la firma electrónica que certifica y la integridad del mensaje, más no confiere autenticidad o fe publica que otorgan los funcionarios públicos a los actos o documentos que suscriban.


Gestión Documental ¿QUÉ ES GESTIÓN DOCUMENTAL?

¿Qué es ECM? Es la plataforma informática para la Gestión Documental y las nuevas posibilidades que plantea son: *Compartición a grandes velocidades/distancias *Búsqueda

Normas, técnicas y prácticas usadas para administrar el flujo de documentos de todo tipo en una organización, permitir la recuperación de información desde ellos, determinar el tiempo que los documentos deben guardarse, eliminar los que ya no sirven y asegurar la conservación indefinida de los documentos más valiosos, aplicando principios de racionalización y economía. Es decir, gestión documental es todo un proceso que nos lleva a un objetivo.

CARACTERISTICAS DE LA GESTIÓN DOCUMENTAL EN LAS TICS

*Control de acceso

- Politica Cero Papel

*Explotación automatizada

-Este proceso necesita hardware, software y recursos humanos para poder implementarlo.

Las 7 “C” del ECM:

-Creación (Seguridad, Autenticación, encriptamiento, mendiante nombre y password)

1.- Cumplimiento

-Desarrollo o seguimiento (Flujo de la Información)

2.- Control 3.- Costo 4.- Colaboración

-Almacenamiento (Versionamiento) Hay gestores documentales de Bajo Nivel (que son con tecnología open source), de Medio Nivel (que tiene más memoria y capacidad) y de Alto Nivel, que son los que tienen una estructura especial y son muy costosos.

5.- Continuidad 6.- Calidad 7.- Competitividad

Teorías de la Información


Riviverica es

Cum vel ut Lutat, Commy Num ip Erat, Sequat

ALMACENAMIENTO

Los ECM antiguos utilizan bases de datos para almacenar metadatos y el sistema de archivos para almacenar los documentos. Hoy en día, toda la información se guarda en la base de datos.

SEGURIDAD Y AUTENTICACIÓN Usuarios y permisos. Listas de control de acceso (ACL). Seguridad “clásica” de aplicaciones: log, conexiones seguras, seguridad de red y sistemas. Encriptación de datos, firma digital y certificados.

RECUPERACIÓN DE DESASTRES Se hace mediante Back up

ARCHIVADO Preservar los documentos para su disponibilidad en el futuro: *Formatos estándar y compatibles hacia adelante *Dispositivos de archivado, soportes duraderos

TRAZABILIDAD

“Procedimientos preestablecidos y autosuficientes que permiten conocer el histórico, la ubicación y la trayectoria de un producto o lote de productos a lo largo de la cadena de suministros en un momento dado, a través de unas herramientas determinadas.” Teorías de la Información


INTELIGENCIA DE NEGOCIOS

La Inteligencia de Negocios o Business Intelligence (BI) se puede definir como el proceso de analizar los datos acumulados en la empresa y extraer una cierta inteligencia o conocimiento de ellos.

MULTIDIMENSIONALIDAD Radica en el hecho de de obtener información de todas las areas. Sirve para controlar todas las premisas y factores internos de la empresa.

La Inteligencia de Negocios nos permite analizar los bienes, servicios, datos e información almacenados en la empresa para crear conocimiento y explotar las areas de oportunidad y fortaleza.

Base de Datos:

Areas de Oportunidad:

Es un conjunto de datos, ordenados en tablas, que se relacionan entre sí y permiten tener un acceso directo a la información.

Son las fallas que se pueden transfortar en fortalezas.

Fortaleza: Capacidades reales.

COMPONENTES DE INTELIGENCIA DE NEGOCIOS

AGENTES Nos furi publibutem Son programas que piensan. Permiten la comunicación en cualquier sentido y además son inteligentes.

DATA WAREHOUSE DATA MINING (MINERIA DE DATOS) Es escarbar información. Con la Minería de Datos se generan Tendencias y Conocimiento.

(BODEGA DE DATOS) Se encuentran en las unidades de datos.

Teorías de la Información

Libro Teorias de la Informacion  

Libro digital que contiene todo lo que vimos en el cuatrimestre en la asignatura Teorias de la Informacion en la UDL.