Page 1

DOCUMENTO DE MARCO CONCEPTUAL Nombre: JAVIER ANDRÉS RAMÍREZ Nombre: JHON FERNANDO SEGURA Fecha: SEPTIEMBRE 06 DE 2013 1.

Código: 9737953 Código: 1096035765

Área Ingeniería de Software Sistemas de información. Bases De Datos Bases de Datos NoSQL.

2.

Titulo Tentativo: [Escriba aquí un posible titulo para su trabajo de grado] Análisis, diseño e Implementación de un sistema de información para el control entrada/salida utilizando un motor NoSQL y tecnología RFID.

3.

Palabras Claves: [Listar las palabras claves con las que se hicieron las búsquedas] NoSQL, Sistema de registro, bases de datos, mongoDb, Hadoop, Big Data, Sistema de informacion, cassandra, registro de personas, control de ingreso, RFID, .

4.

Herramientas de Búsqueda [Listar las herramientas con las cuales se realizaron las búsquedas: Ej. Motores de búsqueda: Google, Google Academico (scholar.google.com), Yahoo…etc, Base de Datos (www.uniquindio.edu.co/biblioteca): ProQuest, Portal ACM, IEEE, bibliotecas virtuales ] [Google, Google Académico]

5.

Marco Conceptual

Marco Teórico Actualmente vivimos en un mundo en el cual los sistemas de información, bases de datos, tecnologías para el control y automatización de procesos son términos que lideran en muchas organizaciones, la información ha tomado un valor inmenso para todas la entidades, dar un servicio rápido y eficiente ante cualquier situación que posea los menores trámites posibles para las personas que interactúan.


A continuación se encuentra la información que explica con detalles los temas para trabajar en la construcción de un sistema de información que involucre un motor NoSQL y tecnologías RFID, ventajas y soluciones que están dando en el mundo actual.

Primero hablaremos de la evolución de las bases de datos hasta la época actual, alguno problemas cuando el volumen de información es muy amplio, luego sobre el motor NoSql y finalmente sobre tecnologías RFID.

Historia de las bases de datos En una primera aproximación, se puede decir que una base de datos es un conjunto

de

información

relacionada

que

se

encuentra

agrupada

o

estructurada.[4] Desde el punto de vista informático, una base de datos es un sistema formado por un conjunto de datos almacenados en discos que permiten el acceso directo a ellos y un conjunto de programas que manipulen ese conjunto de datos.[4] Por su parte, un sistema de Gestión de Bases de datos es un tipo de software muy especifico dedicado a servir de interfaz entre la base de datos, el usuario y las aplicaciones que la utilizan; o lo que es lo mismo, una agrupación de programas que sirven para definir, construir y manipular una base de datos, permitiendo así almacenar y posteriormente acceder a los datos de forma rápida y estructurada. Actualmente, las bases de datos están teniendo un impacto decisivo sobre el creciente uso de las computadoras.[4] Origenes Los orígenes de las bases de datos se remontan a la Antigüedad donde ya existían bibliotecas y toda clase de registros. Además también se utilizaban para recoger información sobre las cosechas y censos. Sin embargo, su búsqueda era lenta y poco eficaz y no se contaba con la ayuda de máquinas que pudiesen reemplazar el trabajo manual.


Posteriormente, el uso de las bases de datos se desarrolló a partir de las necesidades de almacenar grandes cantidades de información o datos. Sobre todo, desde la aparición de las primeras computadoras, el concepto de bases de datos ha estado siempre ligado a la informática.[4]

¿Qué es la Web 2.0? La Web 2.0 es la representación de la evolución de las aplicaciones tradicionales hacia aplicaciones web enfocadas al usuario final. El Web 2.0 es una actitud y no precisamente una tecnología.[5] La Web 2.0 es la transición que se ha dado de aplicaciones tradicionales hacia aplicaciones que funcionan a través del web enfocadas al usuario final. Se trata de aplicaciones que generen colaboración y de servicios que reemplacen las aplicaciones de escritorio. Es una etapa que ha definido nuevos proyectos en Internet y está preocupándose por brindar mejores soluciones para el usuario final. Muchos aseguran que hemos reinventado lo que era el Internet, otros hablan de burbujas e inversiones, pero la realidad es que la evolución natural del medio realmente ha propuesto cosas más interesantes como lo analizamos diariamente en las notas de Actualidad.[5] Y es que cuando el web inició, nos encontrábamos en un entorno estático, con páginas en HTML que sufrían pocas actualizaciones y no tenían interacción con el usuario. El término Web 2.0 Pero para entender de donde viene el término de Web 2.0 tenemos que remontarnos al momento en que Dale Dougherty deO’Reilly Media utilizó este término en una conferencia en la que compartió una lluvia de ideas junto a Craig Cline de MediaLive. En dicho evento se hablaba del renacimiento y evolución de la web.


Constantemente estaban surgiendo nuevas aplicaciones y sitios con sorprendentes funcionalidades. Y así se dio la pauta para laWeb 2.0 conference que arranca en el 2004 y hoy en día se realiza anualmente en San Francisco, con eventos adicionales utilizando la marca en otros países. [5] En la charla inicial del Web Conference se habló de los principios que tenían las aplicaciones Web 2.0:

La web es la plataforma

La información es lo que mueve al Internet

Efectos

de

la

red

movidos

por

una

arquitectura

de

distribuidas

por

participación.

La

innovación

surge

de

características

desarrolladores independientes.

El fin del círculo de adopción de software pues tenemos servicios en beta perpetu. [5]

Aumento en el volumen de información. Ahora estamos entrando en la era de la gran escala, donde la cantidad de datos procesados y almacenados por las empresas supera las construcciones arquitectónicas del sector del almacenamiento actual. [6] Aunque los datos de origen humano, como las fotos de Facebook o los tweets, reciben gran parte de la atención en los medios, el mayor crecimiento de datos procede de conjuntos generados por máquinas, como el seguimiento del comportamiento de los clientes y los análisis de mercados financieros. [6] Además del enorme crecimiento, se puede ver como en el mundo de la informática se vienen presentando las siguientes tendencias:


•Tendencia 1: Tamaño –Hemos creado más datos en los últimos dos años que en todos los años anteriores Exabytes (10 ^18) por año [10] •Tendencia 2: Conectividad –Los datos están cada vez más entrelazados y conectados de documentos de texto a Wikis a RDF a grafos gigantes conectados [10] •Tendencia 3: Datos semi-estructurados –Los datos son cada vez más desestructurados [10] •Tendencia 4: Arquitectura –El software orientado a servicios actual donde cada servicio tiene su backend [10] Este crecimiento tan acelerado en el volumen de información, de los últimos 5 años, ha venido desbordando sistemáticamente la capacidad de respuesta de los sistemas tradicionales de almacenamiento ante el consecuente incremento en la cantidad y complejidad de las transacciones realizadas, lo que ha originado un desafio de enormes proporciones para hacer frente ha dicha situación denominada como BIG DATA. ¿Que es Big Data? "Big data" es un término aplicado a conjuntos de datos que superan la capacidad del software habitual para ser capturados, gestionados y procesados en un tiempo razonable. Los tamaños del "big data" se hallan constantemente en aumento. En 2012 se dimensionaba su tamaño en una docena de terabytes hasta varios petabytes de datos en un único data set. En la metodología MIKE2.0 dedicada a investigar temas relacionados con la gestión de información, definen big data en términos de permutaciones útiles, complejidad y dificultad para borrar registros individuales. [9] Una buena definición de BIG DATA es describir "grande" en cuanto al número

de

permutaciones

útiles

de

las

fuentes

que

dificultan

las

consultas(al igual que los sensores en un avión) y las interrelaciones complejas que hacen difícil la depuración (como en el ejemplo de peaje). [3] Grande se refiere a gran complejidad en lugar de gran volumen. Por supuesto, los conjuntos de datos valiosos y complejos de este tipo, naturalmente, tienden a crecer rápidamente y tan grandes de datos crecen rápidamente y se vuelven realmente enormes [3]


¿Cuales son las características que están fallando infraestructura de almacenamiento de información?

en

la

actual

• Complejidad. Los datos ya no son solo texto y números, incluyen eventos en tiempo real y de infraestructura compartida. La información ahora está relacionada, es de alta fidelidad y se compone de múltiples tipos de datos. Aplicar los algoritmos normales para la búsqueda, almacenamiento y categorización cada vez resulta más complejo e ineficiente. [6] • Velocidad. ¿A qué velocidad entran los datos? El vídeo de alta definición, la retransmisión multimedia a través de dispositivos reproductores de Internet y el vídeo a cámara lenta para seguimiento, todos ellos tienen tasas de consumo muy elevadas. Los negocios tienen que seguir el ritmo de los flujos de datos para que la información sea útil. También tienen que seguir el ritmo de las tasas de incorporación de datos para proporcionar resultados empresariales más rápidos, o en el caso militar, para salvar vidas. [6] • Volumen. Todos los datos recopilados deben almacenarse en una ubicación que sea segura y siempre esté disponible. Con volúmenes de datos tan altos, los equipos técnicos tienen que decidir qué significa «demasiados datos», por ejemplo, es posible que tengan que desechar todos los datos cada semana y empezar de nuevo la semana siguiente. Pero en muchos casos, esto no es una opción, de modo que los datos deben almacenarse por más tiempo, sin aumentar la complejidad operativa. Esto puede provocar que la infraestructura falle rápidamente en esta área. [6] ¿Cual sistema de gestión de información permite hacerle frente a los problemas que están presentando las bases de datos relacionales? Las aplicaciones mas recientes han venido cambiando, en parte por el alto crecimiento de la información, por lo cual presentan nuevas necesidades como: –Datos a escala web [10] –Alta frecuencia de lecturas y escrituras [10] –Cambios de esquema de datos frecuentes [10] –Las aplicaciones sociales (no bancarias) no necesitan el mismo nivel de ACID [10] En la opinión de expertos, se debe optar por un sistema de gestion de bases de datos que permita: escalabilidad, un problema que no se maneja bien por un RDBMS tradicional. El sistema debe satisfacer sus requisitos de escalabilidad y resolver el problema de la escala mejor que los sistemas relacionales. rendimiento, Para aplicaciones en vivo, se debe ofrecer una experiencia de usuario mucho más sensible al reducir el tiempo general de respuesta.


¿Como obtener esas deseadas características? Las bases de datos NoSQL son únicas ya que suelen ser independientes del lenguaje de consulta estructurado (SQL) que si condiciona a las bases de datos relacionales. En las bases de datos relacionales es necesario el uso de un lenguaje específico de SQL para las consultas ad hoc que deseemos realizar, mientras que las bases de datos no-relacionales no tienen ningún tipo de lenguaje de estándar de consulta, por lo que se puede usar el que cada uno quiera. Las bases de datos NoSQL están concebidas para obtener una altísima capacidad de volumen de almacenamiento y velocidad de proceso de la información. Para lograr esto, el lenguaje NoSQL usa técnicas que pueden asustar a los gestores de bases de datos relacionales, como el que los datos que componen la data, no son coherentes todo el tiempo dentro del sistema. [11] Las ventajas más significativas de la arquitectura de datos NoSQL son: Escalabilidad: Se pueden escalar con relativa facilidad ante demandas puntuales de sobre carga de datos. [11] Rendimiento: Para obtener un mejor rendimiento en el procesamiento de los datos sólo es necesario añadir más recursos en la plataforma hardware o priorizar cual son los servicios críticos en cada momento. [11] Estructura: Los desarrolladores de aplicaciones que trabajan con bases de datos relacionales muchas veces encuentran problemas con la cartografía de los datos y su impedancia. En las bases de datos NoSQL, esto no es generalmente un problema, ya que los datos no se almacenan en la misma manera. [11] Activación/Desactivación: Debido a la naturaleza distribuida de los datos, los modelos NoSQL responden muy bien ante la activación/desactivación de los servicios en base a las necesidades puntuales de demanda por parte de los usuarios o del mismo sistema. [11]

¿Que es NoSql? En informática, NoSQL (a veces llamado "no sólo SQL") es una amplia clase de sistemas de gestión de bases de datos que difieren del modelo clásico del sistema de gestión de bases de datos relacionales (RDBMS) en aspectos importantes, el más destacado que no usan SQL como el principal lenguaje de consultas. Los datos almacenados no requieren estructuras fijas como tablas, normalmente no soportan operaciones JOIN, ni garantizan completamente ACID (atomicidad, coherencia, aislamiento y durabilidad), y habitualmente escalan bien horizontalmente. [8]


Por lo general, los investigadores académicos se refieren a este tipo de bases de datos como almacenamiento estructurado, término que abarca también las bases de datos relacionales clásicas. A menudo, las bases de datos NoSQL se clasifican según su forma de almacenar los datos, y comprenden

categorías

como

clave-valor,

las

implementaciones

de

BigTable, bases de datos documentales, y Bases de datos orientadas a grafos.[8] Las Tecnologías Big Data de Código Abierto Desde el punto de vista tecnológico, Big Data es sinónimo de tecnologías como

Hadoop14

(almacenamiento

y de

bases

de

documentos)

datos y

NoSQL15

Cassandra17

incluidoMongo16 (bases

de

datos

claves/valor). El software de código abierto es clave en este ámbito. Actualmente en el mercado hay miles de tecnologías de código abierto y algunos de sus productos están revolucionando los cimientos del Big Data. A continuación presentamos una selección de los productos de código abierto Big Data más importantes. Al igual que en el artículo anterior sobre IoT, no se trata de una lista exhaustiva, sino de una primera aproximación para mostrar el estado del arte de la tecnología de código abierto en el campo del Big Data. Apache Hadoop Apache Hadoop es un marco de desarrollo de código abierto que permite el procesamiento de grandes conjuntos de datos, de manera distribuida a través de un grupo o cluster de computadoras, usando un modelo de programación sencillo. Fue creado por Doug Cutting para apoyar su trabajo en Nutch18, un motor de búsqueda de código abierto. El objetivo era satisfacer las necesidades de procesamiento multimáquina de Nutch, para lo cual Cutting implementó el paradigma computacional MapReduce19, donde la aplicación se divide en muchos pequeños fragmentos de trabajo, cada uno de los cuales se pueden ejecutar o volver a ejecutar en cualquier nodo del clúster. Además, proporciona un sistema de archivos distribuido que almacena los datos en los nodos de cómputo, produciendo un alto ancho de banda agregado en todo el clúster. Ambos, map/reduce y el sistema de archivos distribuidos,


están

diseñados

de

manera

que

las

fallas

de

nodo

se

gestionan

automáticamente mediante el framework. Hadoop, está disponible bajo la licencia Apache 2.0, siendo es en la actualidad una de las tecnologías más populares para el almacenamiento de los datos estructurados, semi-estructurados y no estructurados que forman Big Data. Inspirado en los documentos Google para MapReduce y Google File System (GFS) es un proyecto de alto nivel Apache que está siendo construido y usado por una comunidad global de contribuidores, mediante el lenguaje de programación Java. Yahoo! ha sido el mayor contribuidor al proyecto, y usa Hadoop extensivamente en su negocio20.

Más información en: http://hadoop.apache.org/

MapReduce MapReduce21 es un modelo de programación para el procesamiento de grandes conjuntos de datos, y el nombre de la implementación del modelo por Google. MapReduce es usado para hacer computación distribuida sobre clusters de servidores. El nombre del framework está inspirado en los nombres de dos importantes métodos, macros o funciones en programación funcional: Map y Reduce. MapReduce ha sido adoptado mundialmente como una implementación de código abierto denominada Hadoop, su desarrollo fue liderado inicialmente por Yahoo (en la década de 2010 lo es por el proyecto Apache). Se han escrito implementaciones de librerías de MapReduce en diversos lenguajes de programación como C++, Java, Python. Más información en: http://research.google.com/archive/mapreduce.html http://www.youtube.com/watch?v=8wjvMyc01QY

Storm Storm es sistema de computación distribuida en tiempo real libre y de código abierto, nacido en el seno de Twitter. Storm hace fácil procesar de


manera fiable flujos no estructurados de datos, haciendo en el ámbito del procesamiento en tiempo real, lo que hizo Hadoop para el procesamiento por lotes. Storm es simple, se puede utilizar con cualquier lenguaje de programación y cuenta con multitud de aplicaciones: análisis en tiempo real en línea, aprendizaje

automático,

computación

continua,

RPC

(llamadas

a

procedimientos remotos), procesos ETL(Extraer, Transformar y Cargar) y más. Storm es rápido: un punto de referencia que corre a más de un millón tuplas procesados por segundo por nodo. Es escalable y tolerante a fallos, garantiza que sus datos serán procesados y es fácil de instalar y operar.

Más información en: http://storm-project.net/

Apache Kafka Kafka es un sistema distribuido de publicación-suscripción de mensajería que ofrece una solución capaz de manejar toda la actividad del flujo de datos y procesar estos datos en un sitio web de gran consumo. Este tipo de datos (páginas vistas, búsquedas y otras acciones del usuario) son un ingrediente clave en la web social actual. Kafka es un sistema de mensajería desarrollado en LinkedIn para servir como base para su flujo de actividad y la canalización del procesamiento de datos que subyace a esta actividad. Kafka tiene como objetivo unificar el procesamiento de análisis offline y online, proporcionando un mecanismo para la carga paralela en Hadoop, así como proporciona la capacidad de partición del consumo en tiempo real de un cluster de máquinas. Las funcionalidades de Kafka son22: ●

Mensajería persistente a estructuras de disco O1 que proporcionan un rendimiento constante en el tiempo, incluso con varios TB de mensajes almacenados.


Alto rendimiento: incluso con hardware muy modesto Kafka puede soportar cientos de miles de mensajes por segundo.

Soporte para la partición de mensajes a través de los servidores de Kafka y consumo distribuido en un cluster de máquinas consumidores, manteniendo la ordenación por partición

Soporte para la carga de datos en paralelo en Hadoop. Más información: http://kafka.apache.org/

HBase Es el sistema de almacenamiento no relacional para Hadoop. HBase es una base

de

datos

de

código

abierto,

distribuida

yescalable

para

el

almacenamiento de Big Data. Está escrita en Java e implementa el concepto de Bigtable23 desarrollado por Google. Así como Bigtable aprovecha el almacenamiento de datos distribuidos proporcionado por el sistema de archivos de Google, Apache HBase Bigtable proporciona capacidades similares sobre Hadoop y HDFS. Apache HBase es la base de datos que necesitamos para tener acceso aleatorio, de escritura/lectura en tiempo real, a un gran conjunto de datos. El objetivo de este proyecto es el alojamiento de grandes tablas, con miles de millones de filas de X millones de columnas, sobre un cluster de hardware de consumo. Más información: http://hbase.apache.org/

Cassandra Apache Cassandra24 es una base de datos no relacional distribuida y basada en un modelo de almacenamiento de «clave-valor», escrita en Java, que

fue

desarrollada

originalmente

por

Facebook.

Permite

grandes

volúmenes de datos en forma distribuida. Su objetivo principal es la escalabilidad lineal y la disponibilidad. La arquitectura distribuida de Cassandra está basada en una serie de nodos


iguales que se comunican con un protocolo P2P con lo que la redundancia es máxima. Cassandra fue desarrollada por Facebook para fortalecer su funcionalidad Inbox Search, pero en 2010 abandonó el proyecto en favor de Hbase25. Actualmente Cassandra es desarrollado por la Apache Software Foundation y está disponible bajo una licencia Apache 2.0. En las versiones iniciales utilizaba un API propia para poder acceder a la base de datos. En los últimos tiempos están apostando por un lenguaje denominado CQL (Cassandra Query Language) que posee una sintaxis similar a SQL aunque con muchas menos funcionalidades. Esto hace que iniciarse en el uso de la misma sea más sencillo. Permite acceder en Java desde JDBC. Entre sus múltiples usuarios26 encontramos a Twitter, que lo usa para su plataforma27. Adobe, que lo usa en su producto Adobe® AudienceManager, una Suite de marketing Digital (DMS) que consolida, activa y optimiza datos procedentes de diversas fuentes direccionables digitalmente28; Ebay que ha aportado por esta solución para el soporte de múltiples aplicaciones con clústers que abarcan varios centros de datos29; o OAuth Authorization service de Ericsson Labs usa Cassandra como base de datos backend30.

Más información en: http://cassandra.apache.org/

Riak Riak es una base de datos NoSQL inspirada en Dynamo, de código abierto, distribuida y que cuenta con una versión comercial.Base de datos clavevalor con algunos metadatos, sin esquema de almacenamiento, tipo de datos agnósticos, lenguaje agnóstico que soporta a través de una api REST y PBC31 varios tipos de lenguaje (Eralng, Javascript, Java, PHP, Python, Ruby...),masterless

ya

que

todos

los

nodos

son

iguales,

escalable,

eventualmente consistente y utiliza map/rediuce y “link”. 32 Riak está diseñado para resolver una nueva clase de problemas de gestión de datos, específicamente los relacionados con la captura, almacenamiento


y procesamiento de datos dentro de entornos TI distribuidos y modernos como la nube. Riak puede utilizarse como un “session store”, un sistema de archivo en la nube (similar a Amazon S3), almacenamiento de un gran volumen de información social y multimedia (vídeos, audio etc), como una capa de almacenamiento en caché, para fortalecer soluciones de comercio electrónico distribuidas, para la creación de aplicaciones móviles escalables y confiables, para la gestión desensores o redes de datos RFID, en la nube para la migración de los sistemas de gestión de bases de datos relacionalesheredados (RDBMS) a la nube, o para la gestión de los datos de usuario en los Juegos Online y las redes sociales.33 Multitud de empresas utilizan Riak34. Por ejemplo, GitHub, utiliza esta base de datos NoSQL junto a Webmachine para desarrollarGithub Pages35, una funcionalidad que permite publicar contenidos en la web de manera sencilla. Inagist36, confía en Riak como capa de almacenamiento. Esta empresa, que analiza el contenido de twitter en tiempo real migró a Riak desde Cassandracuando ésta empezó a cobrar por ciertas funcionalidades. En UK, el proveedor cloud Brightbox, utiliza Riak37 para varios proyectos internos, entre los cuales el más grande es un almacén de registro centralizado y buscable. Más información en: http://docs.basho.com/

MongoDB MongoDB38es un sistema de base de datos NoSQL orientado a documentos, desarrollado bajo el concepto de código abierto. MongoDB forma parte de la nueva familia de sistemas de base de datos NoSQL que almacena los datos no en tablas, sino que configura estructuras de datos en documentos tipo JSON39 con un esquema dinámico (MongoDB llama ese formato BSON40), haciendo que la integración de los datos en ciertas aplicaciones sea más fácil y rápida. El desarrollo de MongoDB empezó en octubre de 2007 por la compañía de software 10gen. Ahora MongoDB es una base de datos lista para su uso y con múltples características. Puede utilizarse en diferentes y múltiples ámbitos: archivos, infraestructura cloud, gestión de contenidos, comercio


electrónico,

educación.

Infraestructuras,

juegos,

educación,

almacenamiento de metadatos,estadísticas en tiempo real, redes sociales, etc. Esta base de datos que soporta el almacenamiento de millones de documentos es muy utilizada a nivel empresarial41. Algunas de las empresas que la tienen en producción son la MTV Network42 que lo utiliza en su gestor de contenidos; Craiglist43 para el archivo de documentos o Disney44 como repositorio de su plataforma de juegos. A nivel gubernamental encontramos varias experiencias, como la de de GOV.UK, que empezó utilizando MySQL y migró a MongoDB cuando advirtieron que era más adecuado ya que la mayoría del contenido estaba centrado en documentos45. También en UK, el Archivo Nacional, que está consolidando y unificando en uno sólo sus números archivos electrónicos, utilizan Mongo DBsobre una pila de software de Microsoft46. Más información en: http://www.10gen.com/

Neo4j Neo4j es una base de datos de gráficos, de código abierto soportada por Neo Technology. Neo4j almacena los datos en nodos conectados por relaciones dirigidas y tipificadas, con las propiedades de ambos, también conocidas como Gráfico de Propiedad(Property Graph). Neo4j es: ●

intuitivo, utilizando un modelo gráfico para la representación de datos

confiable, con transacciones con semántica ACID completas.

durable

y

rápido,

utilizando

un

motor

de

almacenamiento

nativo

personalizado basado en disco. ●

masivamente

escalable,

de

hasta

varios

millones

de

nodos/

elaciones/propiedades. ●

con alta disponibilidad, cuando se distribuye a través de múltiples máquinas.


expresivo, con un lenguaje potente “graph query language” con legibilidad humana.

rápido, con un potente marco de desarrollo para las consultas de grafos de alta velocidad

embebido en unos pocos ficheros jars.

simple, accesible medante una adecuada interfaz REST conveniente o una API orientada a objetos Java. Neo4j una de las bases de datos de grafos líderes en el mundo. Entre sus usuarios se encuentran47 empresas como Infojobs, Lufthansa, Mozilla, Accenture, Cisco o Adobe etc.

Más información en: http://www.neo4j.org/learn/neo4j

Apache CouchDB Apache CouchDB, es una base de datos de código abierto, NoSQL que emplea JSON para documentos, JavaScript como lenguaje de consulta para MapReduce y HTTP como API. CouchDB fue creada en 2005 por Damien Katz como un sistema de almacenamiento para una base de datos de objetos de granescala. Actualmente se distribuye bajo una licencia Apache License 2.0 y es utilizado por múltiples organizaciones48, como la BBC que usa CouchDB para su plataforma dinámica de contenidos, mientras que Credit Suisse's lo utiliza para almacenar los detalles de configuración de su framework Python de mercado de datos49. Más información en: http://couchdb.apache.org/

HyPertable Hypertable50 es un Sistema Gestor de Bases de Datos de código abierto desarrollado en C++ por la compañía Zvents, basado enel modelo Big Table de Google. Es un sistema de almacenamiento de datos distribuido,


escalable, no relacional, no soporta transacciones y de alto desempeño, ideal para aplicaciones que necesitan manejar datos que evolucionan rápidamente y diseñado para soportar una gran demanda de datos en tiempo real. Entre sus clientes51 se encuentran empresas como Ebay, Tiscali o Reddiff.com Más información en: http://www.hypertable.org/.

Hive Hive es un sistema data warehouse para Hadoop que facilita resúmenes de datos, consultas ad-hoc, y el análisis de grandes conjuntos de datos almacenados en los sistemas de archivos compatibles con Hadoop. Hive proporciona un mecanismo para proyectar la estructura sobre estos datos y consultar los datos utilizando un lenguaje SQL, llamado HiveQL. Al mismo tiempo, este lenguaje también permite a los programadores tradicionales de Map Reduce conectar con sus mappers personalizados y reductores cuando es inconveniente o ineficiente expresar esta lógica en HiveQL.

Más información en: http://hive.apache.org/ http://www-01.ibm.com/software/data/infosphere/hadoop/hive/

Cascading Cascading es un framework de aplicaciones Java que permite a los desarrolladores desarrollar rápida y fácilmente aplicaciones para el Análisis de Datos y la Gestión de los Datos y que se pueden desplegar y gestionar a través de una variedad de entornos de computación. Cascading funciona perfectamente con Apache Hadoop 1.0 y distribuciones API compatibles.

Más información en: http://www.cascading.org/about/


Apache Drill Apache Drill52 es un proyecto en estado de incubación de la Fundación Apache, cuyo objetivo es reducir las barreras a la hora de adoptar un nuevo conjunto de APIs para Big Data. Drill es un sistema distribuido para el análisis interactivo de grandes conjuntos de datos, que sería la versión de código abierto de Dremel de Google (el cuál está disponible bajo IaaS como Google BigQuery53), y que además cuenta con la flexibilidad necesaria para soportar una amplia gama de lenguajes de consulta, formatos de datos y fuentes de datos. Está diseñado para procesar eficientemente los datos anidados y con el objetivo de escalar desde 10.000 o más servidores y para ser capaz de procesar petabyes de datos y trillones de registros en segundos. Muchas organizaciones tienen la necesidad de ejecutar aplicaciones intensivas de datos, incluyendo el procesamiento por lotes, procesamiento de flujo y análisis interactivo. En los últimos años los sistemas de código abierto han surgido para atender la necesidad de procesamiento por lotes escalables (Apache Hadoop) y procesamiento de flujos (Storm, Apache S4). En

2010,

Google

publicó

un

documento

titulado

"Dremel:

Análisis

Interactivo de conjuntos de datos de escala Web"54, que describe un sistema escalable utilizado internamente para el análisis interactivo de datos anidados. Ningún proyecto de código abierto ha reproducido con éxito las capacidades de Dremel. Apache Drill representa un gran paso adelante para las organizaciones que buscan aumentar su capacidad de procesamiento Big Data con consultas interactivas a través de conjuntos de datos masivos. Más información en: http://incubator.apache.org/drill/

Pig/Pig Latin Pig fue desarrollado inicialmente en Yahoo! para permitir a los usuarios de Hadoop centrarse más en el análisis de grandes conjuntos de datos y dedicar menos tiempo a tener que escribir programas map¬per y reducer. Al igual que los cerdos, que comen casi de todo, el lenguaje de programación Pig está diseñado para manejar cualquier tipo de datos, de


ahí el nombre. Pig está formado por dos componentes: el primero es el lenguaje en sí mismo, que se llama PigLatin, y el segundo es un entorno de ejecución donde los programas PigLatin se ejecutan55.

Más información en: http://pig.apache.org/ http://www.youtube.com/watch?v=jxt5xpMFczs

R R es el lenguaje de programación líder en el mundo56 para el análisis estadístico y la realización de gráficos. R, además de ser un lenguaje para la minería de datos es un entorno de programación. Se trata de un proyecto GNU, que es similar al lenguaje y al entorno de programación S desarrollado en Bell Laboratories (antes AT&T, ahora Lucent Technologies) por John Chambers y suscolegas. R ofrece una gran variedad de técnicas estadísticas (modelos lineales y no lineales, tests estadísticos, análisis de seriestemporales, clasificación, clustering, ...) y técnicas gráficas, y es altamente extensible. R está disponible como software libre bajo los términos de la Licencia de GNU Free Software Foundation pública general en forma de código fuente. Se compila y se ejecuta en una amplia variedad de plataformas UNIX y sistemas similares (incluyendo FreeBSD y Linux), Windows y MacOS. En cuanto al entorno de programación R, se trata de un conjunto integrado de servicios de software para la manipulación de datos, cálculo y representación gráfica. Incluye un manejo eficaz de datos y facilidades de almacenamiento, un conjunto de operadores para los cálculos de matrices, una amplia, coherente e integrada colección de herramientas intermedias para el análisis de datos, facilidades gráficas para el análisis y visualización de datos ya sea en pantalla o en papel, y un lenguaje de programación bien desarrollado, sencillo y eficaz que incluye condicionales, bucles, funciones recursivas definidas por el usuario y funciones de entrada y de salida.


R es más que un sistema de estadísticas, es un entorno en el que las técnicas estadísticas se aplican. R puede ser extendido fácilmente a través de diversos paquetes. En cuanto a su aplicación para el análisis de Big Data, multitud de compañías y organizaciones, como Bing, Facebook, Google,The New York Times o Mozzilla han elegido R para el análisis de grandes conjuntos de datos.57 Más información en: http://www.r-project.org/

Redis Redis es un motor de base de datos en memoria, basado en el almacenamiento en tablas de hashes (llave, valor) pero que opcionalmente puede ser usada como una base de datos durable o persistente. Está escrito en ANSI C por Salvatore Sanfilippo quien es patrocinado por VMware.1 2 y esta liberado bajo licencia BSD58. Más información en: http://redis.io/

HCatalog HCatalog, un sistema de gestión de metadatos y tablas que simplifica el intercambio de datos entre Apache Hadoop y otros sistemas de datos empresariales. También permite a los usuarios escribir sus aplicaciones sin preocuparse por cómo y dónde se almacenan los datos, aislando a los usuarios del esquema de almacenamiento y los cambios de formato que puedan producirse.59

Más información en: http://incubator.apache.org/hcatalog/

Oozie Oozie, un sistema de procesamiento del flujo de trabajo que permite a los usuarios definir una serie de trabajos escritos en varioslenguajes, como Map


Reduce, Pig y Hive, entonces inteligentemente los relaciona entre sí. Oozie permite a los usuarios especificar, por ejemplo, que una determinada consulta sólo debe iniciarse después de que determinados trabajos previos sobre los datos se hayan completado60.

Más información en: http://oozie.apache.org/

Talend Open Studio for Big Data Talend ofrece un producto Big Data de código abierto potente y versátil denominado Talend Open Studio for Big Data que facilita eltrabajo con las tecnologías de Big Data y ayuda a impulsar y mejorar el rendimiento del negocio. El producto, que fue lanzado en 2006, simplifica el desarrollo de grandes volúmenes de datos y facilita la organización e instrumentación requerida por estos proyectos. Talend Open Studio for Big Data conecta Hadoop con el resto de las aplicaciones empresariales beneficiando enormemente a los científicos de datos en su capacidad para acceder y analizar grandes cantidades de datos de manera eficiente y eficaz. Talend Open Studio para Big Data es un componente central de la plataforma de Talend para Big Data61, que permite

a

las

empresas

aumentar

su

productividad

mediante

la

implementación de soluciones Big Data en horas, en lugar de semanas o meses. Compatible con todas las versiones de Apache Hadoop, Talend Open Studio para Big Data está integrado en en la Plataforma de Datos Hortonworks62. Además de los más de 450 conectores que Talend proporciona para la integración de datos empresariales en Hadoop, tales como el Sistema de archivos distribuido Hadoop (HDFS), Pig, HBase, Sqoop y Hive, Talend Open Studio para Big Data ahora incluyen HCatalog y Oozie (cuya descripción y referncias pueden verse en este mismo documento. La version open source de la solución Big Data de Talend tiene licencia Apache. En enero de 2012, el producto había registrado 20 millones de descargas y contaba con alrededor de 3500 clientes en el mundo.63


Más información en: http://www.talend.com/products/talend-open-studio

Pentaho Big Data Pentaho vincula firmemente la integración de datos con completas analíticas de negocio para Big Data, soportando Hadoop, NoSQL y bases de datos analíticas. Pentaho ofrece una completa solución de análisis Big Data que soporta todo el proceso de análisis de datos desde ETL e integración de datos al análisis en tiempo real y visualización de Big Data. La historia de Pentaho Big Data gira alrededor de Pentaho Data Integration AKA Kettle. Kettle es un potente motor ETL que usa un enfoque de metadatos. El motor Kettle ofrece servicios de datos y está integrado en la mayoría de las aplicaciones de la suite Pentaho, desde Spoon, Kettle designer, a Pentaho report Designe. diseñador de informe Pentaho. Los componentes de Pentaho Big Data son open source, Con el objetivo de jugar un buen papel con el ecosistema de código abierto de Hadoop y hacer de Kettle el mejor y más extendido motor ETL en el espacio Big Data, Pentaho ha puesto todos los componentes de Hadoop y NoSQL en código abierto, comenzando con la liberación de la versión 4.364. Pentaho ofrece65:

Continuidad completa desde el acceso a los datos a la toma de decisiones: completa integración de datos yplataforma de análisis de negocio para cualquier sistema de almacenamiento Big Data.

Más rápido desarrollo y más rápida ejecución: desarrollo visual y ejecución distribuida.

Análisis instantáneo e interactivo: sin código, ni necesidad de ETL (extrer, transformar, y cargar)Desde la preparación y el modelado de los almacenes de datos para el análisis, visualización de datos, exploración y análisis predictivo, Pentaho Business Analytics le permite recoger los patrones más significativos que están enterrados en los grandes volúmenes de datos, tanto estructurados, como los no estructurados.


Pentaho proporciona el conjunto adecuado de herramientas para cada usuario, todo dentro de una integración de estructura rígida de datos y la plataforma de análisis que soporta el ciclo de vida completo de Big Data. Para TI y desarrolladores, Pentaho ofrece un completo entorno de diseño visual para simplificar y acelerar la preparación de datos y modelización. Para los usuarios empresariales, Pentaho proporciona una visualización y exploración de datos. Y para los analistas y científicos de datos, Pentaho proporciona el descubrimiento de datos completo, exploración y análisis predictivo. Beachmint, Mozzilla, ExactTarget, Shareable Ink o TravelTainment, entre otras organizaciones, están utilizando la solución Pentaho para Big Data66. Más información en: http://www.pentahobigdata.com/overview

Jaspersoft para Big Data Open Source La suit de Business Intelligence de Jaspersoft para Big Data posee una arquitectura muy avanzada e independiente respecto a las fuente de datos. Eso le otorga la capacidad de ser inmediatamente compatible con múltiples soluciones Big Data como Hadoop, MongoDB, y bases de datos NoSQL (NotOnly-SQL) o analíticas. Jaspersoft ofrecen una suite de Business Intelligence con herramientas de generación de informes y análisis ad hoc intuitivas e interactivas. Desde Jaspersoft es posible conectarse en tiempo real mediante conectores nativos a prácticamente todas las herramientas de bases de datos masivos sin coste añadido alguno. Estos conectores se pueden descargar de forma gratuita. Jaspersoft monitoriza estas descargas produciendo un índice denominado "big data index",

un

índice

de

las

tecnologías

de

Big

Data

más

utilizadas

mensualmente que ofrece una visión muy interesante en cuanto a las tendencias de adopción de las herramientas de Jaspersoft. Jaspersoft cuenta con una amplia red de partners tecnológicos en Big Data, como IBM, 10gen, basho y Cloudera entre otros.


Más información se recomienda visitar http://www.jaspersoft.com/bigdata

Apache Mahout Es un proyecto que permite construir bibliotecas escalables de aprendizaje automático. Construido sobre el potente paradigma map/reduce del proyecto Apache Hadoop, Mahout permite resolver problemas como clustering, filtrado colaborativo y clasificación de terabytes de datos sobre miles de ordenadores. Mas información en http://mahout.apache.org/

RapidMiner RapidMiner67(anteriormente, YALE, Yet Another Learning Environment) es un programa informático de código abierto para el análisis y minería de datos. Permite el desarrollo de procesos de análisis de datos mediante el encadenamiento de operadores a través de un entorno gráfico. Se usa en investigación educación, capacitación, creación rápida de prototipos y en aplicaciones empresariales y su licencia es la AGPL. RapidMiner proporciona más de 500 operadores orientados al análisis de datos, incluyendo los necesarios para realizar operaciones de entrada y salida, preprocesamiento de datos y visualización. También permite utilizar los algoritmos incluidos en Weka68. Sus

características

son

las

siguientes:

desarrollado

en

Java;

multiplataforma; representación interna de los procesos de análisis de datos en ficheros XML; permite el desarrollo de programas a través de un lenguaje de script; puede usarse de diversas maneras: a través de un GUI, en línea de comandos, en batch (lotes), desde otros programas a través de llamadas a sus bibliotecas; extensible; incluye gráficos y herramientas de visualización de datos, dispone de un módulo de integración con R. Más información en: http://rapid-i.com/content/view/181/190/

Hadoop Distributed File System


El Hadoop Distributed File System (HDFS) es un sistema de archivos distribuido, escalable y portátil escrito en Java para el framework Hadoop. El HDFS almacena archivos grandes (el tamaño ideal de archivo es de 64 MB9 ), a través de múltiples máquinas. Consigue fiabilidad mediante replicado

de

datos

a

través

de

múltiples

hosts,

y

no

requiere

almacenamiento RAID en ellos. Con el valor de replicación por defecto, 3, los datos se almacenan en 3 nodos: dos en el mismo rack, y otro en un rack distinto. Los nodos de datos pueden hablar entre ellos para reequilibrar datos, mover copias, y conservar alta la replicación de datos. HDFS no cumple totalmente con POSIX porque los requerimientos de un sistema de archivos POSIX difieren de los objetivos de una aplicación Hadoop, porque el objetivo no es tanto cumplir los estándares POSIX sino la máxima eficacia y rendimiento de datos. Más información en: http://hadoop.apache.org/

GlusterFS GlusterFS es un sistema de archivos de código abierto distribuido que es capaz de escalar a varios petabytes (actualmente 72 brontobytes) y manejar miles de clientes. GlusterFS permite agregar varios servidores de archivos sobre Ethernet o interconexines Infiniband RDMA en un gran entorno de archivos de red en paralelo. El diseño del GLusterFS se basa en la utilización del espacio de usuario y de esta manera no compromete el rendimiento. Se pueden utilizar en una gran variedad de entornos y aplicaciones como computación en nube, ciencias biomédicas y almacenamiento de archivos. El GlusterFS está licenciado bajo la licencia GNU General Public License versión 3. Gluster Inc fue el principal patrocinador comercial del GlusterFS, el cual ofrece

tanto productos comerciales como apoyo para desarrollo de

soluciones libres basadas en el GlusterFS. En Octubre de 2011, fue anunciada la adquisición de Gluster Inc por Red Hat Inc.70 Más información en: http://www.gluster.org/about/


Lucene Lucene71 es una API de código abierto para recuperación de información, originalmente implementada en Java por Doug Cutting. Está apoyado por el Apache Software Foundation y se distribuye bajo la Apache Software License. Lucene tiene versiones para otros lenguajes incluyendo Delphi, Perl, C#, C++, Python, Ruby y PHP. Es útil para cualquier aplicación que requiera indexado y búsqueda a texto completo. Lucene ha sido ampliamente usado por su utilidad en la implementación de motores de búsquedas. El estándar de facto de las librerías de búsqueda de big data. Más información: http://lucene.apache.org/core/

Solr Solr es una plataforma de búsqueda open source basada en el proyecto Apache Lucene. Sus características principales incluyen: potente búsqueda de texto completo, resaltado de afectados, búsqueda facetada, clustering dinámico, integración de bases de datos, y manipulación de documentos de texto

enriquecido

(por

ejemplo,

Word,

PDF).

Proporciona

búsqueda

distribuida y replicación de índices, ademásSolr es altamente escalable. Solr es el motor de búsqueda empresarial más populare. Solr está escrito en Java y se ejecuta como un servidor de búsqueda de texto completo independiente dentro de un contenedor de servlets como Apache Tomcat o Jetty. Solr Lucene utiliza la biblioteca Java de búsqueda para la indexación de texto completo y de búsqueda, y tiene como REST HTTP / XML y JSON APIs que hacen que sea fácil de utilizar desde prácticamente cualquier lenguaje de programación. La potente configuración externa de Solr permite que sea adaptado a casi cualquier tipo de aplicación Java sin codificación, y tiene

una

arquitectura

plugin

extensa

cuando

se

requiere

una

personalización más avanzada.

Apache Lucene Solr y Apache son producidos por el mismo equipo de desarrollo de Apache Software Foundation ya que los dos proyectos se


fusionaron en 2010. Es común referirse a la tecnología o los productos como Lucene / Solr o Solr / Lucene.

Más información en: http://lucene.apache.org/solr/

ElasticSearch Basado en Apache Lucene, ElasticSearch es un servidor de búsqueda de código abierto distribuido y basado en REST. Es una solución escalable que soporta búsquedas en tiempo real y es multi-entidad sin una configuración especial. Ha sido adoptado por varias compañías, incluyendo StumbleUpon y Mozilla. ElasticSearch está disponible bajo la licencia Apache 2.0. Más información: http://www.elasticsearch.org/

Sqoop Sqoop es una aplicación con interfaz de línea de comandos para la transferencia de datos entre bases de datos relacionales y Hadoop. Es compatible con las cargas incrementales de una sola tabla o una consulta SQL de forma libre, así como trabajos guardados que se pueden ejecutar varias veces para importar las actualizaciones realizadas a una base de datos desde la última importación. Las importaciones también se puede utilizar para rellenar las tablas en Hive o HBase. Las exportaciones se puede utilizar para poner los datos de Hadoop en una base de datos relacional. Sqoop se convirtió en un proyecto de nivel superior de Apache en marzo de 2012.

Microsoft utiliza un conector basado en Sqoop para ayudar en la transferencia de datos desde bases de datos de Microsoft SQL Server a Hadoop. Couchbase también ofrece un Couchbase Server-Hadoop conector mediante Sqoop73


Más información en: http://sqoop.apache.org/

Este artículo es la segunda entrega de una serie que aborda diferentes ámbitos tecnológicos relacionados con las ciudades inteligentes, como la Internet de la Cosas, el Cloud, el Big Data o las propias aplicaciones de la Smart City, desde el punto de vista del software de código abierto y libre. El primer artículo está disponible en el siguiente enlace: Open Smart Cities I: La Internet de las Cosas Abierta.

Tecnología RFID Actualmente la tecnología RFID se viene implementando en varias organizaciones para el control de flujo del sistema. ¿Que es RFID? Los sistemas RFID (Radio Frequency Identification) son una de las tecnologías que hoy en día se están probando por medio de prototipos para nuevas y prometedoras aplicaciones en muchos campos de investigación y desarrollo. [12] Uno de los componentes más importantes para poder implementar la revolucionaria tecnología RFID dentro de la cadena de producción de una empresa, es sin lugar a dudas la utilización de etiquetas del tipo RFID, que serán las encargadas de acompañar los productos, para transportar información relevante al mismo. Debido a las ventajas que presenta este tipo de sistema de identificación automática de las mercancías de forma individual, los expertos aseguran que en los próximos años el 95% de los productos mundiales viajarán acompañados de etiquetas del tipo RFID. Con la cultura de globalización y libre comercio en los productos y servicios, es importante destacar la necesidad de que nuestras PYMES (pequeñas y medianas empresas) conozcan este tipo de información para conectar sinérgicamente la tecnología con el talento humano a través de la identificación por radiofrecuencia, para mejorar su calidad y así mismo nivel de competitividad. En plena revolución del conocimiento y de la tecnología, es indispensable fomentar el proceso de actualización o adquisición de nuevos sistemas para la prestación de servicios por parte de las


organizaciones a través de dispositivos que permitan el mejoramiento continuo en la organización, atacando los problemas que generan la incertidumbre y el riesgo informático. [12] Origen Esta tecnología que existe desde los años 40, se ha utilizado y se sigue utilizando para múltiples aplicaciones incluyendo casetas de peaje, control de acceso, identificación de ganado y tarjetas electrónicas de transporte. ¿Como funciona RFID? En principio, cabe destacar que existen dos tipos de etiquetas RFID, que se diferencian básicamente por la forma de funcionamiento con respeto a la necesidad de utilización de fuente de energía. [7] Etiquetas RFID pasivas Son aquellas que sólo se activan cuando reciben la señal de cercanía de un lector RFID, del cual captarán la energía necesaria que utilizan para su activación.[7] Etiquetas del tipo activo. También conocidas como etiquetas semipasivas o semiactivas, las cualesrequieren de una alimentación independiente para funcionar, que por lo general es tomada de una batería interna que incluye la etiqueta. [7]

Antecedentes En la actualidad, la tecnología más extendida para la identificación de objetos es la de los códigos de barras. Sin embargo, éstos presentan algunas desventajas, como la escasa cantidad de datos que pueden almacenar y la imposibilidad de ser reprogramados. La mejora ideada constituyó el origen de la tecnología RFID; consistía en usar chips de silicio que pudieran transferir los datos que almacenaban al lector sin contacto físico, de forma equivalente a los lectores de infrarrojos utilizados para leer los códigos de barras. Algunos proyectos que han trabajado con tecnologías RFID. ❖ RFID. ❖ Análisis y diseño de un sistema RFID para el control de cerdos. Algunos proyectos de análisis e implementación de sistemas de información:


❖ Sistema de información geográfico Bienestar universitario. ❖ Sistema de información ambiental del Quindío (MarcadorDePosición1). ❖ Análisis, diseño e implementación sistema de información para el instituto bíblico cafetero. Actualmente no se encuentra registro de trabajos de grado utilizando un motor NoSQL en el campus es por eso que se utilizan referencias de casos de éxito: Facebook en el 2007 desarrolla el proyecto CASSANDRA para potencializar la búsqueda de su inbox y lo colocaron en googlecode apartir del 2008, pero nunca actualizaron ni arreglaron errores entonces lo pasaron para apache y ahora es mantenida por Apache, http://cassandra.apache.org/ desde entonces el proyecto esta corriendo bastante rápido y con mejor soporte de la comunidad. [13] Cassandra está siendo usada por Digg, Facebook, Twitter, Reddit, Rackspace, Cloudkick, Cisco, SimpleGeo, Ooyala, OpenX, y muchas otras grandes compañías. Estamos hablando de cluster de mas de 100 TB de información en más de 150 maquinas.

6.

Fuentes de Información: 1. [1] Egomexico, ¿Que es y como funciona RFID?. http://www.egomexico.com/tecnologia_rfid.htm 2. [2] RFID. Marzo 10 del 2011. http://es.wikipedia.org/wiki/RFID [Referencias para Documento electrónicos] 3. [3] Mike 2.0 The open source standard for information management. Septiembre 07 de 2013 .

http://mike2.openmethodology.org/wiki/Big_Data_Definition [Referencias para Documento electrónicos] 4. [4] Eugenia Tobar, Web 2.0 Octubre 27 del 2005 http://www.maestrosdelweb.com/editorial/web2/ 5. [5] Eugenia Tobar, Web 2.0 Octubre 27 del 2005 http://www.maestrosdelweb.com/editorial/web2/


[Referencias para Documento electrónicos] 6. [6] Richard Treadway e Ingo Fuchs, NetApp. El ABC de Big Data: Analytics, Bandwidth and Content. Noviembre de 2011. http://www.globbtv.com/microsite/18/Adjuntos/WP-7147-ES.PDF

[Referencias para Documento electrónicos] 7. [7] Graciela Marker, Como Funcionan los Tags RFID. Marzo 10 del 2011. http://www.informatica-hoy.com.ar/rfid/Como-funcionan-los-TagsRFID.php [Referencias para Documento electrónicos] 8. [8] NoSql. Mayo 12 del 2011. http://es.wikipedia.org/wiki/NoSQL [Referencias para Documento electrónicos] 9. [9] Que es Big Data. Enero 04 del 2009 http://es.wikipedia.org/wiki/Big_data [Referencias para Documento electrónicos] 10. [10] Diego Lz, Lpiña Glz, Artaza ,Bases de datos relacionales(NoSql). Fundacion universidad rey juan carlos, Julio 04 del 2012. http://www.slideshare.net/dipina/nosql-cassandra-couchdbmongodb-y-neo4j

[Referencias para Documento electrónicos] [11] Angel Leo-Revilla,Ventajas de la arquitectura NoSql. 11. Marzo 26 del 2013 http://momentotic.wordpress.com/2013/03/26/ventajas-de-laarquitectura-nosql/

[Referencias para Trabajo De Grado]

no


12. [12] Carlos Alberto Escobar De Lima, Ivan Rodrigo Vargas Ramirez, Alejandro Quintero Acevedo, Alberto Acosta Lopez, Diseño e implementación de un sistema hospitalario basado en tecnología RFID: Computación ágil, inteligente y móvil. Revista Cientìfica, Agosto 2008. http://revistas.udistrital.edu.co/ojs/index.php/revcie/rt/printerFriendl y/292/415 [Referencias para Documento electrónicos] 13. [13] Javier Ramirez, Cassandra NoSql Agosto 30 del 2013 http://www.slideshare.net/JavierRamirez4/savedfiles?s_title=cassandranosql&user_login=hansengine

[Referencias para Documento electrónicos] 14. [14] Ana Trejos Pulido, Open Smart Cities II: Big Data Enero 23 del 2013 http://observatorio.cenatic.es/index.php? option=com_content&view=article&id=804:open-smart-cities-iiopen-big-data-&catid=94:tecnologia&Itemid=137

15. [Referencias paraTrabajo de Grado] [15] Víctor José Acevedo, Alejandro García Sandoval, Juan Sebastián Sandino Ariza, Sistema de registro y control de salida de elementos mediante dispositivos RFID. Noviembre de 2004 16. http://www.javeriana.edu.co/biblos/tesis/ingenieria/tesis10.pdf

Marco de referencia javier jhon con comentarios  

Marco de referencia del trabajo de grado que estoy realizando

Read more
Read more
Similar to
Popular now
Just for you