Issuu on Google+

EXTRACCIÓN DEL CONOCIMIENTO A PARTIR DE LOS DATOS Guillermo Matos1, Ricardo Chalmeta2 y Oscar Coltell2 (1) Universidad de Oriente Santiago de Cuba. Departamento de Computación. Patricio Lumumba, s/n. 90500 Santiago de Cuba. Cuba (e-mail:gmatosmorales@yahoo.es) (2) Grupo de Integración y Re-Ingeniería de Sistemas. Universidad Jaume I de Castellón. Campus Riu Sec 12071 Castellón de la Plana. España (e-mail: {rchalmet,coltell}@lsi.uji.es) RESUMEN La gestión adecuada del conocimiento se ha convertido en uno de los mayores propósitos de las organizaciones. Sin embargo, a pesar de ser un objetivo tan claro y conocido, de disponer de una gran cantidad de información, de documentación y de casos de su uso en organizaciones representativas, aún subsisten problemas a la hora de enfrentarse a dicha tarea. Esto es debido principalmente a la falta de metodologías formales. En este artículo se muestra una metodología, organizada en diferentes fases, que dirige el proyecto de desarrollo e implantación de un Sistema de Gestión del Conocimiento. Además, se incluye un ejemplo donde se detalla la formalización de la metodología para la extracción del conocimiento a partir de los datos. PALABRAS CLAVE: Conocimiento, gestión del conocimiento, extracción, transformación y carga de datos, metodología, almacenes de datos, minería de datos. ABSTRACT The appropriate management of knowledge has become one of the main objectives in enterprises. However, although it is a clear objective and there is a lot of information, documentation and use case experiences in relevant enterprises, problems related with this activity still remain. Mainly, that is because of the fact that there are not formal methodologies. This paper shows a methodology, organized in different phases, for managing the project of development and implementation of a Knowledge Management System. In addition, a topic example is included where the formalization of the methodology for knowledge extraction from data is shown. KEY WORDS: Knowledge management system, extract transform and load data, methodology, data warehouse, data mining.


INTRODUCCIÓN Conocimiento Desde el punto de vista de las Organizaciones, se puede definir el conocimiento como aquella información que permite generar acciones asociadas a satisfacer las demandas del mercado, y apoyar las nuevas oportunidades a través de la explotación de las competencias centrales de la Organización. El conocimiento comprende el conjunto de eventos y actividades a través de las cuales el dato, la información, el conocimiento y el meta conocimiento es transformado de un estado a otro. La figura 1 muestra un Modelo General del Conocimiento (Newman, 1999), cuyo flujo es descrito en cuatro actividades primarias: creación, retención, transferencia y utilización del conocimiento. Creación

Utilización

Transferencia

Retención

científicos los resultados de sus investigaciones). Por el contrario, el conocimiento tácito es aquel que toda organización tiene, pero que no queda plasmado ni registrado en lugar alguno, estando totalmente ligado a las personas. Gestión del conocimiento La gestión del conocimiento (GC) se puede definir como el proceso sistemático de buscar, organizar, filtrar y presentar la información con el objetivo de mejorar la comprensión de las personas en una específica área de interés. (Davenport, 1998) lo define como un proceso de tres etapas: Generación del Conocimiento, Codificación del Conocimiento y Transferencia del Conocimiento. Gestionar adecuadamente el conocimiento se ha convertido en uno de los mejores activos de las organizaciones para obtener una ventaja competitiva en el mercado a largo plazo debido a la poca diferencia en sus desarrollos tecnológicos, a los nuevos paradigmas asociados a la Sociedad de la información y a la Nueva economía basada en el conocimiento. Entre los objetivos de la Gestión del Conocimiento se encuentran los siguientes (Pávez, 2000):

Fig. 1. Modelo General del Conocimiento.

• Formular una estrategia de alcance organizacional para el desarrollo, adquisición y aplicación del conocimiento.

• Creación del Conocimiento: comprende las actividades asociadas con la entrada de nuevo conocimiento al sistema, e incluye el desarrollo, descubrimiento y captura del conocimiento.

• Implantar estrategias orientadas al conocimiento.

• Retención del Conocimiento: incluye todas las actividades que preservan el conocimiento y que permiten mantenerlo en el sistema. • Transferencia del conocimiento: Se refiere a las actividades asociadas con el flujo del conocimiento desde una parte a otra. Incluye la comunicación, traslación, conversión, filtrado y suministro.

Utilización del Conocimiento: abarca las actividades relacionadas con la aplicación del conocimiento a los procesos de negocio.

Por otra parte, el conocimiento se puede clasificar en explícito y tácito. El conocimiento explícito es el que tiene establecidas las fórmulas por las cuales se puede trasmitir a otras personas (un ejemplo se ha dado siempre en la comunidad científica, que comparte con otros

• Promover la mejora continua de los procesos de negocio, enfatizando la generación y utilización del conocimiento. • Monitorizar y evaluar los logros obtenidos mediante la aplicación del conocimiento. • Reducir los tiempos de ciclo en el desarrollo de nuevos producto y mejorar los ya existentes. • Reducir los costos asociados a la repetición de errores. Otro aspecto a considerar, que da idea de la importancia de la gestión del conocimiento como disciplina, es que se ha convertido en el principal negocio para firmas consultoras internacionales como Ernst & Young (2005) y Booz-Allen & Hamilton (2005), ofreciendo una alternativa a las iniciativas de reingeniería de procesos de negocios y la calidad total.


Generación de conocimiento a partir de los datos En la empresa existen diferentes fuentes que pueden utilizarse para extraer conocimiento implícito. Una de las más importantes son los datos que residen en las bases de datos. Los datos son observaciones, hechos o imágenes. Una vez formalizados, contextualizados, filtrados y resumidos, los datos constituyen información. Finalmente, la información enriquecida por ideas, procedimientos y reglas que permiten realizar acciones y tomar decisiones constituyen el conocimiento (Liebowitz, 1999). La cantidad de datos con que cuentan las organizaciones ha crecido enormemente debido fundamentalmente al desarrollo tecnológico. Así, actualmente muchos de los datos de las organizaciones se encuentran organizados en servidores corporativos, divididos en datos estructurados (ejemplo, relacionales), semiestructurados (ejemplo, HTML y XML) y no estructurados (ejemplo, texto plano y Audio/Video).

METODOLOGÍA A pesar de ser la gestión del conocimiento un objetivo tan claro y conocido, de disponer de una gran cantidad de información y documentación y de acumularse varios años de experiencia y casos de su uso en organizaciones representativas, aún subsisten problemas a la hora de enfrentarse a dicha tarea. Así el grupo de Integración y Re-Ingeniería de Sistemas (IRIS) de la Universitat Jaume I está llevando a cabo el proyecto de elaboración de una metodología formal, denominada KM-IRIS, para dirigir el proyecto de desarrollo de un Sistema de Gestión del Conocimiento. Esta metodología consta de las siguientes cinco fases: (1) Identificar; (2) Extraer; (3) Procesar; (4) Almacenar; y (5) Compartir. Fase Identificar: Persigue identificar los conocimientos que poseen las diversas fuentes de la empresa, para manipularlos posteriormente, reconociendo al mismo tiempo al experto que posee dicho conocimiento. Esta fase constituye el cimiento sobre la cual se erige toda la GC.

Las Organizaciones frecuentemente intentan transformar los datos brutos en conocimiento aprovechable como parte de las iniciativas de la Gestión del Conocimiento (Davenport y Grover, 2001).

Fase Extraer: Establece los mecanismos para extraer la mayor cantidad de conocimiento que sea posible, así como su grado de participación en la solución de problemas en la organización.

Este proceso de descubrir conocimiento a partir de los datos se puede definir como “el conjunto de técnicas y herramientas aplicadas al proceso no trivial de extraer y presentar conocimiento implícito, previamente desconocido, potencialmente útil y humanamente comprensible, a partir de grandes conjuntos de datos, con objeto de predecir de forma automatizada tendencias y comportamientos y/o descubrir de forma automatizada modelos previamente desconocidos” (Piatetsky-Shapiro, 1992).

Fase Procesar: Consiste en el análisis y diseño de los depósitos del conocimiento y de los expertos para cada fuente tratada de acuerdo a los datos extraídos. Con esta información no sólo será posible crear las bases de datos sino además construir el “mapa de conocimiento” (Stanford, 2001), es decir, visualizar el conocimiento más allá del texto con el fin de evocar, codificar, compartir, usar y expandir conocimiento.

Descubrir conocimiento a partir de los datos no debe ser confundido con la Minería de Datos. La Minería de Datos es solo un paso esencial dentro del proceso de descubrir el conocimiento en las bases de datos, y consiste en aplicar análisis de datos y algoritmos para descubrir que, bajo aceptables limitaciones de eficiencia computacional, se produce un particular número de patrones (o modelos) sobre los datos (Fayyad, 1996).

Fase Almacenar: Corresponde a la actualización de cada uno de los depósitos de conocimiento de acuerdo a las diversas fuentes utilizadas y a la base de expertos por conocimiento. Esta se lleva a cabo utilizando un esquema de clasificación, según el modelo de (Skyrme, 2002) que hace que las posteriores recuperaciones sean más fáciles. Fase Compartir: Tiene como objetivo brindar acceso a los depósitos de conocimiento y a la red de expertos a través de un portal corpora-


tivo. El portal emplea el mapa de conocimientos y diversas herramientas de manipulación del conocimiento para ubicar y acceder a la información, la cual se puede encontrar de manera distribuida.

Identificar y documentar el nivel de servicio de acuerdo con los sistemas fuentes.

Brindar una guía sobre el mecanismo de transferencia de datos, escalando los procedimientos en caso de fallos durante la transmisión de los datos.

Suplementar/enriquecer los datos desde los sistemas fuentes para una fácil actualización y cambio que sea aplicable en el ambiente de data warehouse.

Proveer un marco para permitir una estrategia de reconciliación favorable de acuerdo a la fuente y el destino final.

RESULTADOS La metodología KM-IRIS se ha diseñado para aplicarse a las diferentes fuentes de conocimiento que existen en la empresa, como las personas, los documentos o los datos. A continuación se muestra, como ejemplo, la formalización de la metodología KM-IRIS para la extracción del conocimiento a partir de los datos (figura 2): Fase Identificar La fase de identificación tiene como objetivo la selección de las bases de datos de la organización que puedan aportar la información necesaria para obtener el conocimiento. En general, el problema de reunir un conjunto de datos que posibilite la extracción del conocimiento requiere decidir principalmente: • Las fuentes internas y externas de las que se van a obtener los datos. •

Cómo se van a organizar los datos.

• Cómo se van a mantener los datos con el tiempo. • Cómo se van a extraer, si parcial o totalmente, y con qué nivel de detalle. Se debe resaltar que este proceso de selección necesita que las personas encargadas de llevar a cabo esta tarea tengan un conocimiento amplio del contenido de cada una de las bases de datos de la organización, así como de los conocimientos que se espera extraer. Fase Extraer La extracción de datos puede ser definida como una estrategia, un proceso central para ensamblar datos desde sistemas y fuentes dispares, enriqueciendo estos datos de manera que se produzca información valiosa y reutilizable. Los aspectos a considerar en la extracción de los datos son (Mohanty, 2004): •

Extraer los datos eficiente y eficazmente desde los sistemas fuentes.

En esta fase lo más conveniente es usar una herramienta ETL (del ingles Extract, Transform, and Load) que permita manipular una amplia variedad de datos del sistema fuente pudiendo lograr, además, que todos los datos tengan un formato común. La herramienta ETL seleccionada debe permitir lograr los resultados deseados en un tiempo relativamente menor que la forma tradicional de codificar y mantener los objetos del data warehouse. Algunos de los aspectos a considerar para seleccionar la herramienta ETL más adecuada para cumplir los objetivos son (Banerjee, 2004): •

Fácil de usar y comprensible desde el punto de vista del mantenimiento y el desarrollo de la perspectiva.

El proceso ETL debe integrarse con el proceso de negocio.

Debe soportar el procesamiento de grandes volúmenes de datos.

Poder extraer datos desde distintas fuentes heterogéneas.

Puede ser necesario que la herramienta ETL soporte procesamiento paralelo.

Debe poseer un amplio espectro de conectividad y la habilidad de estandarizar los datos tomados desde diversas fuentes, que pueden estar incluso almacenadas en bases de datos soportadas sobre una plataforma diferente.


Fases

Objetivo

Técnica/Herramienta

Identificar

Seleccionar las bases de datos Experiencia de los exque puedan aportar la informa- pertos. ción necesaria para obtener el conocimiento.

Extraer

Ensamblar datos desde fuentes Herramientas ETL/ dispares, enriqueciéndolos de Data Warehouse. manera que cree información valiosa.

Procesar

Construir por medio de algorit- Minería de Datos mos de Minería de Datos, modelos de comportamiento.

Almacenar

Validar, seleccionar y mantener Minería de Datos/ los modelos de comportamiento. Experiencia del Ingeniero del Conocimiento.

Compartir

Poner a disposición de la Orga- Portal del Conocimiento. nización el conocimiento descubierto.

Fig. 1. Metodología KM-IRIS para la extracción del conocimiento a partir de los datos

Actualmente muchos desarrolladores de herramientas ETL están extendiendo sus productos para agrupar nuevos requisitos de usuarios. El resultado es una nueva generación de productos ETL llamados Plataformas de Integración de Datos. Estos productos extienden las herramientas ETL con una variedad de nuevas capacidades, incluyendo limpieza de datos, perfilando los datos, captura avanzada de datos, actualizaciones incrementales y un host de nuevas fuentes y destinos (Eckerson, 2003). Una vez extraídos los datos, se integran y almacenan en un data warehouse. La meta de un data warehouse es integrar aplicaciones a nivel de datos. El dato extraído de los sistemas operacionales se procesa, transforma y ubica de acuerdo a un esquema. La noción del data warehouse debe ser extendida para incluir, no solo datos orientados a transacciones, sino también aquellos datos creados por los trabajadores del conocimiento (Kerschberg, 2001). Fase Procesar Esta fase, la más compleja dentro de toda la

metodología, persigue construir, por medio de algoritmos de minería de datos, modelos de comportamiento en grandes cantidades de datos. Los algoritmos de minería de datos buscan que, bajo aceptables limitaciones de eficiencia computacional, se produzca una cantidad particular de patrones (o modelos) sobre los datos (Fayyad, 1996). Por ejemplo, entre los problemas que pueden ser resueltos en el ámbito empresarial se encuentran el análisis de ventas y mercado, la predicción del comportamiento de los clientes, la detección del fraude, y el análisis de las materias primas y calidad del producto. Los datos pueden estar almacenados en distintos formatos, pero si se ha empleado la herramienta ETL adecuada, los datos compartirán un formato de datos común lo que simplificará técnicamente esta fase. Hay dos tipos de modelos en la minería de datos. El primer tipo es el modelo predictivo, el cual usa datos con resultados conocidos para desarrollar un modelo que puede ser usado para predecir valor explícitamente. Por ejemplo, basado en los clientes que han respondido


a un ofrecimiento, el modelo puede predecir la respuesta al mismo ofrecimiento. El segundo tipo, el modelo descriptivo, describe patrones dentro de los datos existentes los cuales pueden ser usados para guiar decisiones. Es lo opuesto a hacer predicciones explícitas. Para aplicar las técnicas de minería de datos se debe seleccionar un apropiado subconjunto de variables a partir de las cuales se construirá el modelo. La transformación de los datos y la selección de las variables son la llave del éxito en la minería de datos. El proceso de crear y seleccionar los datos de la fuente es un proceso iterativo que consume tiempo. El siguiente paso es la evaluación de la herramienta de Minería de Datos utilizar. Los criterios fundamentales a la hora de seleccionarla son: la plataforma informática que utiliza, el algoritmo de aprendizaje que se desea aplicar, cómo habrá que dar los datos de entrada y que formato tendrán los modelos resultantes. La tabla 1 muestra alguna de las características fundamentales de las herramientas de minería de datos que se encuentran libremente disponibles. Fase Almacenar Después de haber creado el modelo, hay que verificar si el comportamiento del mismo se manifiesta de acuerdo a lo esperado. Para eso se debe proceder a su validación, comprobando que las conclusiones que arroja son válidas y suficientemente satisfactorias. En el caso de haber obtenido varios modelos mediante el uso de distintas técnicas, se deben comparar los modelos en busca de aquel que se ajuste mejor al problema. Si ninguno de los modelos alcanza los resultados esperados, debe repetirse la fase anterior para generar nuevos modelos que se ajusten adecuadamente a los datos disponibles y los resultados previstos. Según Hernández (2004), los patrones descubiertos deben tener 3 cualidades: ser precisos, comprensibles (es decir, inteligibles) e interesantes (útiles y novedosos). Por otra parte, según las aplicaciones puede interesar la mejora de algún criterio y el ligero sacrificio de otro, como el caso del diagnóstico médico que prefiere patrones comprensibles aunque su precisión no sea muy buena. Los patrones creados pueden cambiar debido a diferentes factores y es tarea de los ingenie-

ros del conocimiento velar porque el comportamiento de los modelos creados mantengan su fiabilidad y nivel de confianza, y para eso deben evaluar periódicamente el modelo con el fin de detectar cuando su comportamiento no se ajusta con los valores de los datos actuales y en ese caso repetir las fases 2 y 3. Las herramientas de Minería de Datos disponibles incluyen técnicas de evaluación. Entre las más comunes se encuentran la validación simple, validación cruzada con n pliegues para la predictividad y aplicación de principios como el de máxima verosimilitud o el de descripción mínima para evaluar la calidad descriptiva del modelo. Fase Compartir Una vez descubierto el conocimiento (creado el modelo) y validado, es necesario que sea puesto a disposición de la organización. Para ello se deben buscar mecanismos mediante los cuales informar a las personas interesadas de la existencia del mismo. El mejor método es utilizar un portal corporativo, y el formato que presentará será de acuerdo a la herramienta utilizada pues, como se muestra en la tabla 1, la salida obtenida en cada uno de ellos puede variar significativamente. DISCUSIÓN Este trabajo presenta una metodología formal para la extracción del conocimiento a partir de los datos, una de las principales fuentes del conocimiento en las empresas. Dicha metodología, denominada KM-IRIS, consta de cinco fases. En cada fase se proponen los objetivos a cumplir y las técnicas y herramientas que se pueden aplicar. Este planteamiento facilita la aplicación inmediata de la metodología siguiendo simplemente las pautas expuestas en la figura 1. Hay que resaltar que KM-IRIS pretende cubrir el ciclo completo en el desarrollo de un sistema de gestión del conocimiento. Con el propósito de calibrar y validar la metodología, se ha aplicado ésta a varios casos típicos, como pueden ser la extracción del conocimiento a partir de las personas, los documentos o los datos. Dadas las restricciones de espacio, en la sección “Resultados” solamente se ha descrito el tercer caso, es decir, cuando se parte de los datos.


Tabla1. Algunas Herramientas de Minería de Datos y sus Características. Herramienta

Plataforma

Formatos Entrada y Modelos Modelos de Aprendizaje. de Salida

WEKA

Implementada en Java, se garantiza su portabilidad a Windows, Linux y otros Sistemas Operativos. Es posible actualizar o modificar su código

Entrada: ARFF, CSV, C4.5 y Binario. Salida: Fichero o a una Base de Datos, también de manera gráfica.

Árboles de Decisión, Tablas de Decisión, Vecinos más próximos, Máquinas de vectores soporte, Reglas de asociación, Métodos de agrupamiento, Modelos combinados.

Xelopes

Implementado en Java, C++ y C#, se garantiza su portabilidad a cualquier sistema operativo. Existe interfaz para Corba.

Se asegura cualquier formato de entrada sea fichero o base de datos, incluye formato ARFF, CSV, logs, y Excel. Salida: Formato PMML.

Árboles de Decisión lineales y no lineales, Máquinas de vectores soporte, Redes neuronales, Métodos de agrupamiento, métodos de reglas de asociación.

Orange

Implementado en C++, se pueden desarrollar módulos en Python. Existen distribuciones para Windows, Linux y Macintosh.

Formato entrada/salida usa ficheros separados por tabulación, incluye otros como C4.5

Método Bayesiano Naïve. Árboles de decisión, árboles de regresión, Vecinos más próximos y Reglas de asociación.

Tanagra

Implementado en Borland Delphi 6 bajo Windows.

Formato del fichero de entrada ARFF o XLS. Formatos de salida HTML.

Reglas de Asociación, árboles de clasificación, vecino más próximo, Bayesiano naïve. Redes neuronales.

En este caso, la fase Identificar requiere inexcusablemente la supervisión de empleados de la organización que tengan el suficiente conocimiento de las fuentes y que, además, sepan qué conocimiento se desea obtener. En la fase Extraer se han tenido en cuenta los aspectos destacados por Mohanty (2004) y se ha elegido una herramienta ETL, entre las dos posibilidades ofrecidas, según los criterios tomados de Banerjee (2004). Además, los resultados filtrados y refinados de esta fase se han integrado en un data warehouse federado con un repositorio de conocimiento siguiendo el planteamiento de Kerschberg (2001). En la fase Procesar se ha aplicado el concepto de patrones de datos, como postula Fayyad (1996), mediante el uso de la herramienta de minería de datos más adecuada entre las descritas en la tabla 1. En la fase Almacenar se han validado y comparado los patrones de datos siguiendo parcialmente los criterios de Hernández (2004) y otros particulares que regulan el grado de rigurosidad de dichos criterios. Finamente, en la fase Compartir se ha puesto el conocimiento elaborado a disposición de la organización mediante el portal corporativo de la misma. La metodología KM-IRIS tiene un propósito más concreto que otras como, por ejemplo, la

de Mathi (2004), con unas metas mucho más extensas. Por otra parte, no está sujeta a una técnica en particular como en Setiono et al. (2005); o no incluye de momento enfoques ontológicos como en Vargas-Vera et al. (2000), porque pretende ser una metodología más asequible en cualquier organización sin la necesidad de usar más herramientas y disciplinas que las estrictamente necesarias. CONCLUSIONES Como resultado del trabajo desarrollado, se puede concluir que: • En el ámbito socio-económico es necesario el desarrollo de metodologías formales que guíen durante el proceso de implantación de un sistema de gestión del conocimiento en las empresas. • Los datos que residen en las bases de datos corporativas son una de las fuentes de conocimiento más importantes que hay en las empresas. • La metodología KM-IRIS describe, formal y estructuradamente, las actividades a llevar a cabo para extraer conocimiento a partir de los datos, así como determina las herramientas y técnicas necesarias para cada fase.


AGRADECIMIENTOS Este proyecto ha sido financiado por CICYT DPI2003-02515 (España) y Programa ALBAN número de identificación E03D01008CU. REFERENCIAS Banerjee, A. Choose Your ETL Tool Carefully. DM Review October 2004. http://www.datawarehouse.com/article/?articleid=4881. (Acceso: diciembre 2004). Booz-Allen & Hamilton Home page. http://www.boozallen.com/bahng/SilverDemo? PID=Home.html&NGPgID=HOME&contType= TABLE&dispType=HTML. (Acceso: enero 2005). Davenport, Thomas H., and Grover, V. (2001) Knowledge Management. Journal of Management Information Systems, vol 18, No. 1, Summer 2001. Davenport, Thomas H., and Lawrence Prusak. (1998). Working Knowledge: How Organizations Manage What They Know. Cambridge, MA: Harvard Business School Press. http://jmis.bentley.edu/issues/Summer_2001/in dex.html. (Acceso: noviembre 2004). Eckerson, W.; While, C. Evaluating ETL and Data Integration Platforms. . TDWI Report Series 2003. http://mimage.hummingbird.com/ alt_content/binary/pdf/collateral/mc/etlreport.pd f. (Acceso: enero 2005). Ernst & Young Global Home. http://www.ey.com/global/content.nsf/Internatio nal/Home. (Acceso: enero 2005). Fayyad, U. Piatetsky-Shapiro, G. Smyth, P. (1996). Data Mining and Knowledge Discovery in Databases: An overview, Communications of ACM, 39:11, November 1996. Hernández, J. Ramírez, M. J., Ferri, C (2004). Introducción a la Minería de Datos. Prentice may. 2004. Kerschberg, L. (2001). Knowledge Management in Heterogeneous Data Warehouse Knowledge Base. http://eceb.gmu.edu/pubs /KerschbergDaWak2001.pdf. (Acceso: 2005). Liebowitz, J. (1999). Knowledge Management Handbook, 1999. CRC Press.

Mohanty, S. (2004). Optimal ETL Processing – Changed Data Capture Strategy. DM Direct Newsletter, October 2004. Mathi, K. Key Success Factors For Knowledge Management. Master Thesis, Internationales Hochschulinstitut Lindau, University of Applied Sciences/ FH Kempten, Germany; 2004. Newman, B.D. and Conrad, K.W., KM Characterization Framework, The Knowledge Management Theory Papers, 1999. Also published in the Proc. of the Third Int. Conf. on Practical Aspects of Knowledge Management (PAKM2000) Basel, Switzerland, 30-31. 2000. Pávez Salazar, A. Modelo de Implantación de Gestión del Conocimiento y Tecnologías de la Información para Obtener Ventajas Competitivas. Memoria para Optar Título Ingeniero Civil Informático. Valparaíso, 2000. http://www.gestiondelconocimiento.com/apavez. htm. (Acceso: enero 2005). Piatetsky-Shapiro, G. and Frawley, W. (1991). Knowledge Discovery in Databases. AAAI Press, Menlo Park, California, 1991. http://citeseer.ist.psu.edu/cache/papers/cs/122 67/http:zSzzSzwww.kdnuggets.comzSzgpspub szSzaimag-kdd-overview-1992.pdf/frawley92knowledge.pdf (Acceso: septiembre 2004). Setiono, R., Pan, S.-L., Hsieh, M.-H., and Azcarraga, A. Automatic knowledge extraction from survey data: learning M-of-N constructs using a hybrid approach. Journal of the Operational Research Society; Jan2005, Vol. 56 Issue 1, p3, 12p. (Acceso: abril 2005). Skyrme, D. (2002). Knowledge Management: Approaches and Policies. July-2002. http://www.kmadvantage.com/docs/km_articles /KM_-_Approaches_and_Policies.pdf. (Acceso: enero 2005). Stanford, Xenia. (2001). Map your Knowledge Strategy. Information Outlook, 2001. http://www.sla.org/content/Shop/Information/inf oonline/2001/jun01/stanford.cfm. (Acceso: enero 2005). Vargas-Vera, M., Motta, E., Domingue, J., Shum, S.B., and Lanzoni M. Knowledge Extraction by using an Ontology based Annotation Tool. ACM, 2000. http://semannot2001.aifb.uni-karlsruhe.de/ papers/2_vargas-saw.pdf. (Acceso: abril 2005).


ewr