Page 1

qwertyuiopasdfghjklzxcvbnmqwerty uiopasdfghjklzxcvbnmqwertyuiopasd fghjklzxcvbnmqwertyuiopasdfghjklzx cvbnmqwertyuiopasdfghjklzxcvbnmq SOFTWARE LIBRE Y WEB 2.0 wertyuiopasdfghjklzxcvbnmqwertyui Curso de Tecnología Educativa opasdfghjklzxcvbnmqwertyuiopasdfg hjklzxcvbnmqwertyuiopasdfghjklzxc vbnmqwertyuiopasdfghjklzxcvbnmq wertyuiopasdfghjklzxcvbnmqwertyui opasdfghjklzxcvbnmqwertyuiopasdfg hjklzxcvbnmqwertyuiopasdfghjklzxc vbnmqwertyuiopasdfghjklzxcvbnmq wertyuiopasdfghjklzxcvbnmqwertyui opasdfghjklzxcvbnmqwertyuiopasdfg hjklzxcvbnmrtyuiopasdfghjklzxcvbn mqwertyuiopasdfghjklzxcvbnmqwert yuiopasdfghjklzxcvbnmqwertyuiopas 2012-2013

Jorge Vallejo


SOFTWARE LIBRE Y WEB 2.0

1.- LAS BONDADES DEL SOFTWARE LIBRE FRENTE AL SOFTWARE PRIVATIVO. Cuando realizamos una búsqueda bibliográfica sobre ventajas y desventajas del software libre y del privativo o propietario cualquiera de las posiciones nos convencen. Stallman y sus seguidores viven en una utopía deseable aunque impensabe en el siglo XXI. Gates, como empresario, busca el lucro o beneficios económicos como cualquier empresa que se precie. Sea como sea, seamos realistas, ¿qué PC no se vende con Windows instalado de fábrica? Haré una pequeña revisión sobre las ventajas y desventajas de ambos tipos de software.

Definiciones «Software libre» significa que el software respeta la libertad de los usuarios y la comunidad. En términos generales, los usuarios tienen la libertad de copiar, distribuir, estudiar, modificar y mejorar el software. Con estas libertades, los usuarios (tanto individualmente como en forma colectiva) controlan el programa y lo que hace.

"Software propietario o privativo", tal como lo ha definido la Fundación del Software Libre, es cualquier programa que no cumple los criterios de la Fundación para el software libre. Propietario significa que algún individuo o compañía retiene el derecho de autor exclusivo sobre una pieza de programación, al mismo tiempo que niega a otras personas el acceso al código fuente del programa y el derecho a copiarlo, modificarlo o estudiarlo. El término “propietario” alude a que está “poseído y controlado privadamente”. No obstante, el programa puede seguir siendo propietario aunque su código fuente se haya hecho público, si es que se mantienen restricciones sobre su uso, distribución o modificación, por otro lado, el programa se puede considerar no-


proprietario, una vez que se haya lanzado con una licencia que permita a otros crear versiones del software modificadas independientemente (“forks”), aun cuando los derechos de autor puedan permanecer en manos de un individuo en particular.

Software libre

Un programa es software libre si los usuarios tienen las cuatro libertades esenciales:

La libertad de ejecutar el programa para cualquier propósito (libertad 0).

La libertad de estudiar cómo funciona el programa, y cambiarlo para que haga lo que usted quiera (libertad 1). El acceso al código fuente es una condición necesaria para ello.

La libertad de redistribuir copias para ayudar a su prójimo (libertad 2).

La libertad de distribuir copias de sus versiones modificadas a terceros (libertad 3). Esto le permite ofrecer a toda la comunidad la oportunidad de beneficiarse de las modificaciones. El acceso al código fuente es una condición necesaria para ello.

Un programa es software libre si los usuarios tienen todas esas libertades. Por tanto, hay libertad de redistribuir copias, tanto con como sin modificaciones, ya sea gratuitamente o cobrando una tarifa por la distribución, a cualquier parte. El ser libre de hacer estas cosas significa, entre otras cosas, que no tiene que pedir ni pagar el permiso. También se debe tener la libertad de hacer modificaciones y usarlas en privado para su propio trabajo o pasatiempo, sin siquiera mencionar que existen. Si publicamos cambios, no estamos obligados a notificarlo a nadie en particular, ni de ninguna manera en particular.


La libertad de ejecutar el programa significa que cualquier tipo de persona u organización es libre de usarlo en cualquier tipo de sistema de computación, para cualquier tipo de trabajo y finalidad, sin que exista obligación alguna de comunicarlo al programador ni a ninguna otra entidad específica. En esta libertad, lo que importa es el propósito de los usuarios, no el de los programadores. Como usuarios somos libres de ejecutar el programa para alcanzar nuestros propósitos, y si lo distribuimos a otra persona, también esa persona será libre de ejecutarlo para lo que necesite sin que tengamos derech a imponerle nuestros propios objetivos. La libertad de redistribuir copias debe incluir las formas binarias o ejecutables del programa, así como el código fuente, tanto para las versiones modificadas como para las no lo estén. (Distribuir programas en forma de ejecutables es necesario para que los sistemas operativos libres se puedan instalar fácilmente). Resulta aceptable si no existe un modo de producir una formato binario o ejecutable para un programa específico, dado que algunos lenguajes no incorporan esa característica, pero debe tener la libertad de redistribuir dichos formatos si encontrara o programara una forma de hacerlo. Para que la libertad 1 y 3 de realizar cambios y publicar las versiones modificadas tengan sentido, debemos tener acceso al código fuente del programa. Por consiguiente, el acceso al código fuente es una condición necesaria para el software libre. La libertad 1 incluye la libertad de usar su versión modificada en lugar de la original. Si el programa se entrega con un producto diseñado para ejecutar versiones modificadas de terceros, pero rechaza ejecutar las suyas, una práctica conocida como «tivoización» [«tivoization»] o «arranque seguro» [«lockdown»] (en la terminología perversa de los que la practican); la libertad 1 se convierte más en una ficción teórica que en una libertad práctica. Una manera importante de modificar el programa es agregándole subrutinas y módulos libres ya disponibles. La libertad 3 incluye la libertad de publicar nuestras versiones modificadas como software libre. Una licencia libre también puede permitir otras formas de publicarlas. No obstante, una licencia que requiera que las versiones


modificadas no sean libres, no se puede considerar libre. Para que estas libertades sean reales, deben ser permanentes e irrevocables siempre que no cometamos ningún error; si el programador del software tiene el poder de revocar la licencia, o de añadir restricciones a las condiciones de uso en forma retroactiva, sin que haya habido ninguna acción de parte del usuario que lo justifique, el software no es libre. Sin embargo, ciertos tipos de reglas sobre la manera de distribuir software libre son aceptables, cuando no entran en conflicto con las libertades principales. Por ejemplo, el copyleft (definido muy resumidamente) es la regla en base a la cual, cuando redistribuye el programa, no puede agregar restricciones para denegar a los demás las libertades principales. Esta regla no entra en conflicto con las libertades principales, más bien las protege.

Software propietario Software propietario o privativo, tal como lo ha definido la Fundación del Software Libre, es cualquier programa que no cumple los criterios de la Fundación para el software libre. Propietario significa que algún individuo o compañía retiene el derecho de autor exclusivo sobre una pieza de programación, al mismo tiempo que niega a otras personas el acceso al código fuente del programa y el derecho a copiarlo, modificarlo o estudiarlo. El término “propietario” alude a que está “poseído y controlado privadamente”. No obstante, el programa puede seguir siendo propietario aunque su código fuente se haya hecho público, si es que se mantienen restricciones sobre su uso, distribución o modificación, por otro lado, el programa se puede considerar noproprietario, una vez que se haya lanzado con una licencia que permita a otros crear versiones del software modificadas independientemente (“forks”), aun cuando los derechos de autor puedan permanecer en manos de un individuo en particular.


Ventajas del software libre 1. Económico (más de mil millones de euros en licencias de Microsoft en España anuales)

Cuando se analiza el precio de una solución tecnológica se suele hablar del TCO (Total Cost of Ownership), es decir, del coste total de la propiedad que tiene una determinada solución de software. En este análisis se reflejan el coste del programa, la ayuda, y el mantenimiento tecnológico de la solución. Partimos de la base que el software libre no tiene prácticamente coste de licencia y por lo tanto que esta parte del presupuesto se puede invertir para mejores fines como mejorar la adaptación de los programas y la formación en esta tecnología.

2. Libertad de uso y redistribución

Las licencias de software libre existentes permiten la instalación del software tantas veces y en tantas máquinas como el usuario desee.

3. Independencia tecnológica

El acceso al código fuente permite el desarrollo de nuevos productos sin la necesidad de desarrollar todo el proceso partiendo de cero. Los resultados de las investigaciones se publican y se divulgan en publicaciones científicas, y sirven de base para nuevas investigaciones. Éste es principalmente el modelo sobre el que la humanidad ha innovado y avanzado.

4. Fomento de la libre competencia al basarse en servicios y no licencias

Uno de los modelos de negocio que genera el software libre es la contratación de servicios de atención al cliente. Este sistema permite que las compañías que den el servicio compitan en igualdad de condiciones al no poseer la propiedad del producto del cual dan el servicio. Esto, además, produce un cambio que redunda en una mayor atención al cliente y contratación de


empleados, en contraposición a sistemas mayoritariamente sostenidos por la venta de licencias y desatención del cliente.

5. Soporte y compatibilidad a largo plazo

Este punto, más que una ventaja del software libre es una desventaja del software propietario, por lo que la elección de software libre evita este problema.

6. Formatos estándar

Los formatos estándar permiten una interoperabilidad más alta entre sistemas, evitando incompatibilidades. Los estándares de facto son válidos en ocasiones para lograr una alta interoperabilidad si se omite el hecho que estos exigen el pago de royalties a terceros y por razones de mercado expuestas en el anterior punto no interesa que se perpetúen mucho tiempo.

7. Sistemas sin puertas traseras y más seguros

El acceso al código fuente permite que tanto hackers como empresas de seguridad de todo el mundo puedan auditar los programas, por lo que la existencia de puertas traseras es ilógica ya que se pondría en evidencia y contraviene el interés de la comunidad que es la que lo genera.

8. Corrección mas rápida y eficiente de fallos

El funcionamiento e interés conjunto de la comunidad ha demostrado solucionar más rápidamente los fallos de seguridad en el software libre, algo que desgraciadamente en el software propietario es más difícil y costoso. Cuando se notifica a las empresas propietarias del software, éstas niegan inicialmente la existencia de dichos fallos por cuestiones de imagen y cuando finalmente admiten la existencia de esos bugs tardan meses hasta proporcionar los parches de seguridad.


9. Métodos simples y unificados de gestión de software

Actualmente la mayoría de distribuciones de Linux incorporan alguno de los sistemas que unifican el método de instalación de programas, librerías, etc. por parte de los usuarios. Esto llega a simplificar hasta el grado de marcar o desmarcar una casilla para la gestión del software, y permiten el acceso a las miles de aplicaciones existentes de forma segura y gratuita a la par que evitan tener que recurrir a páginas web de dudosa ética desde las que los usuarios instalan sin saberlo spyware o virus informáticos en sus sistemas.

10. Sistema en expansión

El software libre ya no es una promesa, es una realidad y se utiliza en sistemas de producción por algunas de las empresas tecnológicas mas importantes como IBM, SUN Microsystems, Google, Hewlett-Packard, etc. Paradójicamente, incluso Microsoft, que posee sus propias herramientas, emplea GNU Linux en muchos de sus servidores.

11.- Menores requisitos de hardware

Aunque resulta imposible generalizar, sí que existen casos bien documentados donde las soluciones de software libre tienen unos requisitos de hardware menor, y por lo tanto son más baratas de implementar. Por ejemplo, los sistemas Linux que actúan de servidores pueden ser utilizados sin la interfaz gráfica con la consecuente reducción de requisitos de hardware necesarios.

12.- Durabilidad de las soluciones

En el software propietario el autor puede decidir en un momento dado no continuar el proyecto para una cierta plataforma, para un hardware que considera antiguo, o descontinuar el soporte para una versión de su software. En las aplicaciones de software libre, estas decisiones no pueden ser tomadas por una empresa o individuo sino por toda una comunidad, con diferentes


intereses. Esto se traduce en un mejor soporte en general para las versiones antiguas de software y de plataformas de hardware o software más minoritarias.

13.- Escrutinio público

El código fuente del programa está a la vista de todo el mundo, y son frecuentes los casos en que se reportan errores que alguien ha descubierto leyendo o trabajando con ese código. El proceso de revisión pública al que está sometido el desarrollo del software libre imprime un gran dinamismo al proceso de corrección de errores. Los usuarios del programa de todo del mundo, gracias a que disponen del código fuente de dicho programa, pueden detectar sus posibles errores, corregirlos y contribuir a su desarrollo con sus mejoras.

14.- Independencia del proveedor

El software libre garantiza una independencia con respecto al proveedor gracias a la disponibilidad del código fuente. Disponiendo del código fuente, cualquier programador puede continuar su desarrollo y sus actualizaciones hasta que el cliente decida que es el momento adecuado para migrar a un nuevo sistema informático.

15.- Industria local

Se contribuye a la formación de profesionales en nuevas tecnologías y al desarrollo local. Por otro lado, todas las mejoras que se realicen no tienen restricciones y se pueden compartir con cualquier otra administración, empresa, institución u organismo que las necesite

16.- Datos personales. Privacidad

El software libre, al disponer del código fuente, mejora diversos aspectos relacionados con la perennidad de los datos y su seguridad. Para empezar, los sistemas de almacenamiento y recuperación de la información del software son


públicos y cualquier programador puede ver y entender cómo se almacenan los datos en un determinado formato o sistema, lo que garantiza la durabilidad de la información y su posterior migración. El software libre, por su carácter abierto, dificulta la introducción de código malicioso, espía o de control remoto, debido a que el código lo revisan muchos usuarios y desarrolladores que pueden detectar posibles puertas traseras En el mundo del software libre, cualquier programador puede realizar una auditoría para comprobar que no se ha introducido ningún código malicioso, y, a su vez, cualquier entidad puede añadir libremente encriptación adicional a la aplicación que utilice para proteger sus datos.

17.- Adaptación del software

El software libre permite personalizar, gracias al hecho de que disponemos del código fuente, los programas tanto como sea necesario hasta que cubran exactamente nuestra necesidad. La personalización es un área muy importante en que el software libre puede responder mucho mejor que el software de propiedad a unos costes mucho más razonables.

18.- Idioma

En el mundo del software libre lenguas raras gozan de una buena salud. Los principales proyectos libres, como OpenOffice.org, KDE, Mozilla o GNOME3, tienen numerosas traducciones, así como muchas otras aplicaciones, gracias a que no precisan autorización de ningún propietario y cualquier persona o institución puede realizarlas.

Ventajas del software propietario

1. Propiedad y decisión de uso del software por parte de la empresa

El desarrollo de la mayoría de software requiere importantes inversiones para


su estudio y desarrollo. Este esfuerzo, de no ser protegido se haría en balde, puesto que la competencia se podría apropiar inmediatamente del producto una vez finalizado, para sus propios fines. Esto garantiza al productor ser compensado por la inversión, fomentando así el continuo desarrollo.

2. Control de calidad

3.- Recursos a la investigación

4.- Personal altamente capacitado

5.- Uso común por los usuarios

6.- Software para aplicaciones muy específicas

7.- Amplio campo de expansión de uso en universidades

8.- Difusión de publicaciones acerca del uso y aplicaciones del software

9. Soporte para todo tipo de hardware

10. Curva de aprendizaje menor

11.- Soporte de las herramientas por diversas compañías

12.- Existen numerosas aplicaciones desarrolladas para la plataforma Win32 que no han sido exportadas a otras plataformas.

Refiriéndonos por supuesto solo al mercado del sistema operativo mayoritario, que es Microsoft Windows, y no al resto de sistemas operativos de tipo Unix, que es minoritario. Se da, que el actual dominio de mercado invita a los fabricantes de dispositivos para ordenadores personales a producir drivers o hardware solo compatible con Windows. Por lo que la elección del sistema operativo de Microsoft tiene garantizado un soporte de hardware seguro.


Aunque siendo justos, habría que decir que dicho soporte por parte de los fabricantes se limita generalmente al sistema operativo actual. Las siguientes versiones de sistemas operativos no se suelen soportar, a fin de vender nuevos dispositivos.

13. Mejor acabado de la mayoría de aplicaciones

El desarrollador de software propietario, generalmente, da un mejor acabado a las aplicaciones en cuestiones, tanto de estética, como de usabilidad de la aplicación. Aunque muchas aplicaciones de software libre tienen un excelente acabado, aquí se nota de forma especial el cuidado y el esfuerzo del desarrollador de software propietario. Al fin y al cabo gana dinero directamente con su producto y debe demostrar porqué su producto es una mejor opción.

14. Las aplicaciones número uno son propietarias

Obviamente, el actual dominio de mercado no sólo interesa a los fabricantes de hardware, sino que también a los de software. Algunas de las aplicaciones más demandadas son, según ámbitos: Microsoft Office, Nero Burning Rom, 3DStudio, etc...

15. El ocio para ordenadores personales está destinado al mercado propietario

Los desarrolladores de juegos tienen sus miras en el mercado más lucrativo, que es el de las consolas y en última instancia el de los ordenadores personales. Además, en estos últimos la práctica totalidad de títulos benefician a Microsoft Windows.

16. Menor necesidad de técnicos especializados

El mejor acabado de la mayoría de sistemas de software propietario y los estándares de facto actuales permiten una simplificación del tratamiento de dichos sistemas, dando acceso a su uso y administración, a técnicos que


requieren una menor formación, reduciendo costes de mantenimiento. Esto ciertamente es una ventaja de cara a la implantación de dichos sistemas, aunque no hay que olvidar que el menor conocimiento del sistema redunda en la imposibilidad de rodear las herramientas de simple manejo para solventar errores o ampliar las posibilidades de las mismas.

17. Mayor mercado laboral actual

Como muchas de las ventajas restantes se deben al dominio del mercado, no hay que ignorar que cualquier trabajo relacionado con la informática pasará, en casi todos los casos, por conocer herramientas de software propietario.

18. Mejor protección de las obras con copyright

Las obras protegidas por copyright se ven beneficiadas por mecanismos anticopia, como el DRM y otras medidas, que palian o dificultan en cierto grado la piratería. El fenómeno de la piratería, está en constante debate sobre a quien perjudica y quién beneficia realmente.

19. Unificación de productos

Una de las ventajas más destacables del software propietario es la toma de decisiones centralizada que se hace en torno a una línea de productos, haciendo que no se desvíe de la idea principal y generando productos funcionales y altamente compatibles. Aquí, el software libre tiene una clara desventaja, al ser producido y tomadas las decisiones por un exceso de grupos y organismos descentralizados que trabajan en líneas paralelas y no llegan muchas veces a acuerdos entre ellos. Esto ocasiona que en algunas ocasiones haya un gran caos a programadores y usuarios finales que no saben que vías tomar. Además genera productos cuya compatibilidad deja bastante que desear.


Desventajas de software libre 1. La curva de aprendizaje es mayor.

Si un usuario ya está acostumbrado a manejar software propietario, pasar al libre le cuesta tiempo en aprender.

2. El software no tiene garantía proveniente del autor.

3. Se necesita dedicar recursos para la reparación de errores.

En el software propietario es imposible reparar errores, hay que esperar a que saquen a la venta otra versión.

4. No existen compañías únicas que respalden toda la tecnología.

5. Las interfaces gráficas de usuario y la multimedia apenas se están estabilizando.

Aunque hay un número cada vez mayor de usuarios que aseguran las interfaces gráficas más populares en el software libre son ya lo suficientemente estables para el uso cotidiano y los suficientemente amigables para los neófitos de la informática.

6. La mayoría de la configuración del hardware no es intuitiva.

Se requieren conocimientos previos acerca del funcionamiento del sistema operativo y fundamentos del equipo a conectar para lograr un funcionamiento adecuado. Sin embargo, la documentación referente a la configuración del hardware es tan explícita y detallada que permite al neófito profundizar en el conocimiento de su hardware en muy pocas horas y una vez teniendo ese conocimiento la configuración se vuelve trivial.


7. Únicamente los proyectos importantes y de trayectoria tienen buen soporte, tanto de los desarrolladores como de los usuarios.

Sin embargo existen muchos proyectos más pequeños y recientes que carecen de compromiso necesario por parte de sus usuarios o desarrolladores para que sean implementados de manera fiable. Estos proyectos importantes que tienen un excelente soporte cubren más del 90% de las necesidades del cómputo del usuario promedio.

8. El usuario debe tener nociones de programación

La administración del sistema recae mucho en la automatización de tareas y esto se logra utilizando, en muchas ocasiones, lenguajes de guiones. Sin embargo, existen en la actualidad muchas herramientas visuales que permiten al usuario no técnico llevar a cabo tareas de configuración del sistema de una manera gráfica sencilla sin la necesidad de conocimientos de programación.

9. En sistemas con acceso a Internet, se deben de monitorizar constantemente las correcciones de errores de todos los programas que contengan dichos sistemas, ya que son fuentes potenciales de intrusión

En el software propietario además es imposible reparar las vulnerabilidades por uno mismo, sino que hay que esperar a que la compañía fabricante libere la actualización y en algún caso hay que pagar dinero extra pro obtener ésta.

10. La diversidad de distribuciones, métodos de empaquetamiento, licencias de uso, herramientas con un mismo fin, etc., pueden crear confusión en cierto número de personas

Cabe notar que la posibilidad de crear distribuciones completamente a la medida para atacar situaciones muy específicas es una ventaja que muy pocas marcas de software propietario pueden ofrecer y que Microsoft ha sido incapaz de hacer.


Desventajas del software propietario 1.- Renovación consciente de software. Al vendedor, una vez ha alcanzado el máximo de ventas que puede realizar de un producto, no le interesa que sus clientes continúen con él. La opción es sacar un nuevo producto, producir software que emplee nuevas tecnologías solo para éste y no dar soporte para la resolución de fallos al anterior, tratando de hacerlo obsoleto por todos los medios, pese a que este pudiera cubrir perfectamente las necesidades de muchos de sus usuarios. También es importante destacar que el autor puede decidir en un momento dado no continuar el proyecto para una cierta plataforma, para un hardware que considera antiguo, o descontinuar el soporte para una versión de su software. En el mundo del software propietario, sólo el desarrollador de la aplicación puede ofrecer todos los servicios. A menudo los proveedores de software propietario se ven obligados a dejar de fabricar un producto por un cambio drástico de las condiciones del mercado, o simplemente porque consideran que ya no podrán rentabilizar la inversión. 2.- Privatización de licencias y patentes. En el mundo del software propietario, las licencias de software, las patentes de software y otras herramientas legales y técnicas se utilizan para impedir que terceros participen en ese conocimiento y para que éste continúe siendo patrimonio exclusivo de la empresa que lo creó. 3.- Innovación restringida. La innovación pertenece a una empresa, mientras que en el mundo del software libre, de forma muy similar al dominio público, el conocimiento pertenece a la humanidad A finales del año 2004 se publicó una lista de las innovaciones más importantes en software del año 2004. Se consideró como innovación número uno el navegador libre FireFox y de los diez programas mencionados también se encontraba OpenOffice.org.


4.- Retraso en la solución de errores Con el software propietario la solución de los errores no llega hasta que el fabricante del programa puede asignar los recursos necesarios para solventar el problema y publicar la solución. En el software propietario, las mejoras o no se pueden llevar a cabo o quedan en manos de la empresa creadora, que normalmente se reserva los derechos de uso y propiedad intelectual y establece en qué condiciones las comercializará. 5.- Dependencia de la marca. Uno de los grandes problemas en la industria del software es la dependencia que se crea entre el fabricante y el cliente. Este hecho se acentúa con especial gravedad cuando el fabricante no entrega el código fuente, ya que inevitablemente el cliente queda atado a él para nuevas versiones y, en general, para cualquier mejora que necesite. 6.- Posible existencia de “puertas traseras”. En el software propietario nunca podremos saber si los programadores originales introdujeron a título personal, o por encargo de la empresa, puertas traseras que ponen en peligro la seguridad del sistema o la privacidad de los datos. El software propietario trabaja habitualmente con formatos propios, cuyos mecanismos de almacenamiento no siempre se han hecho públicos, por lo que quizá no sería posible, en caso de que se precisara migrar el sistema, recuperar el contenido de este censo. 7.- Limitación en la adaptación particular. El software propietario habitualmente se vende en forma de paquete estándar, que muchas veces no se adapta a las necesidades específicas de empresas y administraciones. Una gran parte de la industria del software se basa en desarrollar

proyectos

donde

se

requiere

software

personalizado.

8.- Limitación de idiomas. En el software propietario sólo la empresa productora posee los derechos para realizar la traducción de tutoriales.


9.- Cursos de aprendizaje costosos 10.- Secreto del código fuente En ocasiones es imposible encontrar la causa de un resultado erróneo, producido

por

un

componente

cuyo

funcionamiento

se

desconoce.

11.- Ilegal o costosa la adaptación de un módulo de software a necesidades particulares En caso de que sea vitalmente necesaria tal modificación, es necesario pagar una elevada suma de dinero a la compañía fabricante, para que sea ésta quien lleve a cabo la modificación a su propio ritmo de trabajo y sujeto a su calendario de proyectos. 12.- Ilegalidad de copias sin licencia 13.- Posibilidad de quedar sin soporte técnico. Si la compañía fabricante del software propietario va a la banca rota el soporte técnico desaparece, la posibilidad de tener versiones mejores en un futuro desaparece y la posibilidad de corregir errores de dicho software desaparece. Los clientes que contrataron licencias para el uso de ese software quedan completamente abandonados a su propia suerte.

2.- RELACIÓN ENTRE SOFTWARE LIBRE Y WEB 2.0 Se puede definir Web 2.0 como el “conjunto de utilidades y servicios de Internet que se sustentan en una base de datos, la cual puede ser modificada por los usuarios del servicio, ya sea en su contenido (añadiendo, cambiando o borrando información o asociando datos a la información existente), bien en la forma de presentarlos, o en contenido y forma simultáneamente." El término Web 2.0 comprende aquellos sitios web que facilitan el compartir información, la interoperabilidad, el diseño centrado en el usuario y la colaboración en la World Wide Web. Un sitio Web 2.0 permite a los usuarios interactuar y colaborar entre sí como creadores de contenido generado por usuarios en una


comunidad virtual, a diferencia de sitios web estáticos donde los usuarios se limitan a la observación pasiva de los contenidos que se han creado para ellos. Ejemplos de la Web 2.0 son las comunidades web, los servicios web, las aplicaciones Web, los servicios de red social, los servicios de alojamiento de videos, las wikis, blogs, mashups y folcsonomías. La Web 2.0 puede entenderse como un facilitador de un cambio de paradigma en los procesos de aprendizaje; de un sistema jerárquico focalizado en los profesores y en fuentes de conocimiento “oficiales” a una aproximación en red en que los educadores deben cambiar sus papeles para convertirse en facilitadores del proceso de aprendizaje. Los objetivos del nuevo Espacio Europeo de Educación Superior y las propias necesidades de nuestras sociedades colocan como necesidades esenciales el desarrollo por parte de los estudiantes de capacidades de innovación, creatividad y emprendimiento. En este sentido, el “aprender haciendo” (el aprendizaje basado en problemas) y los métodos de aprendizaje activo y colaborativo son esenciales para alcanzar los objetivos citados antes, y la web 2.0 podría convertirse en una herramienta instrumental y estratégica para su desarrollo. Sin embargo, la irrupción de esta nueva Internet no supone solo un cambio en los modelos de aprendizaje. La Web 2.0 ha entrado ya en las universidades de una forma silenciosa gracias a profesores, investigadores y estudiantes que, en la mayor parte de casos sin estímulos institucionales, empezaron ya hace años a utilizar software social, como por ejemplo blogs o wikis. Algunas de estas experiencias han sido exitosas, pero en pocos casos se han escalado desde los individuos a las instituciones. Así, y como las adaptaciones “de arriba abajo” de las organizaciones han sido mucho más lentas o inexistentes, asistimos a una ampliación de la brecha digital entre las universidades y una parte de su personal y entre profesores que usan o no la web 2.0 en su trabajo cotidiano.

En relación al Software libre se ha generado un importante movimiento social con muchos evangelizadores y defensores apasionados, lo que ha acabado por situarlo en el debate público y dado a conocer su potencial. A su vez, han nacido diversas iniciativas empresariales que desarrollan modelos de innovación basados tanto en el software libre como en ideas derivadas, como las APIs abiertas, los mashups, o incluso publicaciones científicas de acceso


abierto, etc. Por el contrario el paradigma del conocimiento libre ha suscitado un menor interés, que en gran medida se ha restringido a sectores minoritarios. En buena parte esto ha sido así por las dificultades para la identificación de sus características básicas. Así, en muchas ocasiones se confunde con el acceso abierto ligado al proceso editorial, una parte importante, pero no la única, en el proceso de producción y distribución de conocimiento.

Siguiendo el paradigma del software libre, los modelos abiertos y colaborativos de producción de conocimiento podrían definirse por cuatro propiedades básicas: • independiente (free speech) de las autoridades políticas o fuerzas económicas. • gratuito (free beer) o con un coste muy bajo (que no represente una barrera de entrada insalvable). • reutilizable para su recombinación con otras "piezas" de conocimiento que permitan la construcción, “remezcla”, de nuevo conocimiento. • modular o granular, que implica la posibilidad de descomposición de un problema complejo en módulos que se pueden construir de modo independiente para después ser ensamblados.

Estas propiedades conllevan la libertad de acceso y distribución, pero también de reutilización para su remezcla en nuevos “productos”. Al tiempo, estas características aluden directamente a características legales y al propio diseño tecnológico y conceptual del proceso creativo. Así, estas características tendrían como consecuencia el desarrollo de la capacidad generativa del sistema. Si un sistema abierto, bien conectado y escasamente limitado por reglas dispone de suficiente tiempo, las interacciones entre sus elementos generarán una inmensa diversidad de estructuras y dinámicas. La creatividad del sistema depende de su capacidad generativa, y no es controlable ni predecible pero si “diseñable” configurando sus propiedades. A esta conclusión han llegado, entre otros, científicos, músicos, programadores o diseñadores de videojuegos, y debería proporcionar inspiración a todo aquel interesado en


lograr sistemas u organizaciones (sean universidades, empresas, ciudades o comunidades de usuarios) innovadoras y creativas.

Al igual que en ocasiones se asimila conocimiento libre con acceso abierto, en otras se centra la cuestión en el concepto de conocimiento en sentido estricto, dejando al margen a la información y los datos que soportan el proceso de creación de conocimiento. Se considera que el conocimiento es “más” que la información, y la información es “más” que los datos. La información serían datos organizados y estructurados mientras que el conocimiento sería la información interpretada y puesta en contexto. Bajo este esquema lineal, se adjudica una gran importancia sólo al resultado final. Este es el modo de actuación habitual, por ejemplo, en el caso del conocimiento científico generado con financiación pública.

Pero, cada vez más, los “datos” (los datos “crudos” acompañados de sus metadatos) son igual de relevantes que lo que consideramos información o conocimiento. En la era digital es imposible construir nuevo conocimiento sin bases de datos, por lo que restringiendo su acceso limitamos seriamente la capacidad creativa. Por otra parte, el conocimiento es una interpretación y uso, de entre muchos posibles, de los datos; incluso la información es una organización y combinación, de entre muchas posibles, de los datos disponibles. El acceso a los datos, no ya a la información o al conocimiento, es fundamental para que otros puedan usarlos de forma diferente respondiendo a nuevas preguntas o utilizándolo de una forma innovadora y creativa. A pesar de que las universidades y las comunidades científicas nacen en la tradición de la colaboración y el conocimiento abierto, su evolución reciente las ha llevado a una reducción progresiva de este modelo abierto por la predominancia de los objetivos de la protección estricta de la propiedad intelectual tanto en la educación (por ejemplo, en la creación de contenidos) como en la ciencia (por ejemplo, a través de los sistemas de patentes). En este sentido, Internet desafía el paradigma de la protección absoluta de la propiedad intelectual, el copyright, al demostrar que el paradigma del código abierto (que permite el acceso abierto y la remezcla creativa de contenidos) presenta importantes ventajas competitivas, dado que genera un aumento de creatividad


y productividad. Este nuevo paradigma de conocimiento abierto nace, entre otras, de las tradiciones del software libre y de la práctica tradicional de las comunidades científicas. Internet y la digitalización del conocimiento ofrecen, por tanto, grandes posibilidades para el desarrollo de proyectos que apliquen los paradigmas del acceso abierto a la información y la construcción colaborativa de conocimiento.

Así, la web 2.0 definida, desde un punto de vista tecnológico, como un sistema de aplicaciones en Internet (blogs, wikis, herramientas sociales, etc.) con capacidad de integración entre ellas y que facilita la creación y publicación de contenidos por los usuarios, es al mismo tiempo un “caballo de Troya” para la introducción de un nuevo paradigma social y cultural asociado con el concepto de conocimiento abierto y sus cuatro propiedades. En este sentido, se podría identificar como un conjunto de tecnologías para la creación social de conocimiento, incorporando tres características esenciales: 1) Tecnología: Internet se mueve con la web 2.0 del “push” al “pull”; desde una era 1.0 asociada con los viejos portales altamente jerarquizados controlados por un pequeño grupo de creadores, a los motores de búsqueda, los agregadores y el contenido generado por los usuarios que caracterizan la era 2.0. La tecnología 2.0 se caracteriza por ser un sistema abierto que posibilita que tanto emisores como receptores puedan participar en la creación y modificación de los contenidos. A diferencia de la web 1.0, es una era en la que las personas usuarias pueden participar activamente en la actualización y modificación de la misma.

2) Conocimiento: La web 2.0 desafía el paradigma de la protección absoluta de la propiedad intelectual, el copyright, al demostrar que el paradigma del código abierto (que permite el acceso abierto y la remezcla creativa de contenidos) presenta importantes ventajas competitivas, dado que genera un aumento de creatividad y productividad. La web 2.0 refuerza el paradigma de conocimiento abierto al reducir el coste de distribución hasta hacerlo próximo a cero y diseñar los


contenidos bajo un modelo claramente modular haciendo especialmente sencilla su remezcla.

3) Usuarios: la transición de consumidores a usuarios activos que participan como creadores y “comisarios” caracteriza a la web 2.0. Se ha denominado en ocasiones a este proceso como la “revancha de los amateurs” dado que modifica los papeles tradicionales de los agentes implicados en la cadena de valor de la creación y consumo de conocimiento. Ahora la creación de contenidos está en las manos de quien desee asumirla, mientras que en la web 1.0 la creación y modificación de los contenidos estaba controlada por unos pocos

creadores

y

creadoras.

Es

un

sistema

de comunicación

bidireccional, donde emisor y receptor están en el mismo nivel.

Este nuevo paradigma de conocimiento abierto nace, entre otras, del uso del software libre y de la práctica de las comunidades científicas. Se caracteriza por cuatro propiedades: independencia, coste de distribución muy bajo o cero, modularidad y capacidad generativa.

PARADIGMA UNIVERSITARIO Universidad 1.0

Universidad 2.0

Centrado en el profesor

Centrado en el alumno

Consumidor

Creador

Genérico

Personalizado

Estructura jeráquica y cerrada

Estructura distribuida y abierta

Analógico

Digital

Estático

Dinámico

Sabiduría de los expertos

Sabiduría del colectivo


Limitaciones y razones para la resistencia al cambio Existen dos extremos en cuanto a la actitud que los docentes toman de la Web 2.0. Aquellos que otorgan a las nuevas tecnologías un poder mágico y creen que su sólo uso puede transformar el proceso de enseñanza y de aprendizaje, creando una relación ciega que no les permite desarrollar mecanismos críticos frente a los medios (Tecnofilia) y crean por consiguiente una cierta dependencia de la máquina, hasta aquellos que: 1.- No utilizan las tecnologías porque consideran que son culpables de casi todos los problemas que afectan a la sociedad. Este tipo de docente como manifestación de su resistencia al cambio, suele rechazar enfáticamente la utilización de las nuevas tecnologías. (Tecnofobia). 2.- Aquellos que consideran difícil su uso, así como quienes tienen miedo y pena

de

recibir

entrenamiento,

porque

se

consideran

incapaces

o

avergonzados frente a sus estudiantes o profesores más jóvenes que tienen desarrolladas esas habilidades y destrezas para su uso. Entre estos dos extremos estaría el punto correcto de equilibrio, los docentes que utilizan las tecnologías y sacan el mejor partido de ellas; realizando una crítica permanente sobre sus aspectos positivos y negativos. Es decir, aquellos que reconocen la necesidad de su vinculación a la educación y asumen un papel de gestores del cambio de acuerdo con los requerimientos y expectativas del aula y la institución misma. En relación a las instituciones se dan las siguientes circunstancias:

1.- Rechazo por los usuarios, personal y estudiantes Muchos de los usuarios de las herramientas disponibles en la Internet 1.0 son reacios al aprendizaje de las habilidades precisas para usar el nuevo software y a cambiar sus actitudes acerca de la educación y el conocimiento. Además, en la mayoría de casos, este cambio se produce únicamente por el interés y


trabajo personales sin contar con ningún tipo de incentivo institucional adaptado a estos objetivos. Es imprescindible introducir y expandir una nueva cultura del conocimiento basada en usuarios activos capaces de crear, modificar, buscar, comunicar y compartir información y conocimiento. Este nuevo papel difiere del convencional adoptado hoy en día por la mayoría de estudiantes y profesores en las universidades. En cualquier caso, la llegada inminente de los nativos digitales a la universidad supondrá una revolución, haciendo probablemente más fácil la introducción de la filosofía propia de la web 2.0 pero al tiempo incrementará la brecha cultural entre estudiantes y profesores.

2.- Ausencia de un sistema de incentivos o efectos perversos de los sistemas existentes. Este tema ha sido ya discutido en relación con los cambios en los usuarios. Por ejemplo, en ocasiones las estrategias institucionales se diseñan para generar un cambio global que conduzca a la adaptación de toda la comunidad universitaria en el corto plazo. Estos enfoques fracasan habitualmente debido a la inercia institucional que impide el desarrollo de incentivos con la temporalización adecuada y/o al apoyo excesivo a los usuarios renuentes, proporcionando un ejemplo perverso a los usuarios “apasionados”. 3.- Tecnología pre-web 2.0 disponible. Las instituciones han realizado grandes inversiones en las décadas de 1980 y 90 para el desarrollo propio o la compra de plataformas de software educativo y de gestión. Esta infraestructura puede convertirse en una barrera más que en un activo para la institución. La mayor parte de esta tecnología está iniciando una fase de obsolescencia acelerada y debería ser cambiada por herramientas 2.0 ya disponibles en el mercado (y en la mayor parte de los casos de muy bajo coste), que deben ser configuradas, integradas y remezcladas para crear nuevas aplicaciones o mashups adaptados a las necesidades de los usuarios locales. El bajo coste provoca en muchos casos la desconfianza de los tomadores de decisiones, debido a su incomprensión del significado de los conceptos de software libre y código abierto. La burocracia, los procedimientos


para la toma de decisiones y la inercia de estas grandes instituciones son en muchos casos el peor entorno posible para el desarrollo interno de proyectos innovadores y de la capacidad emprendedora. Por el contrario la adopción de tecnología y métodos de trabajo asociados a la web 2.0 requiere una alta dosis de experimentación y creatividad. 4.-Crítica implícita que el paradigma de la Web 2.0 supone para los modelos de organización, de producción de conocimiento y de educación tradicionales. 5.-Necesidad de mantener las cuotas de control y poder de los departamentos de tecnologías de la información, que en un “mundo 2.0” podrían ser considerados casi como irrelevantes, al menos con sus objetivos y modelo de funcionamiento actual. La solución pasaría por establecer políticas y reglas de uso de la Web 2.0. Pero esta estrategia podría acabar con las oportunidades que proporciona la Web 2.0, que se deben principalmente a su modelo abierto, de modo que unas normas restrictivas podrían generar un efecto perverso al reducir la innovación por parte de los usuarios.

Elementos para una estrategia de adopción de la Web 2.0 por las universidades La adopción de un modelo Web 2.0 al aprendizaje en las universidades es un proceso complejo que se enfrenta a importantes barreras tecnológicas, de gestión y humanas. Por estas razones es imprescindible el diseño de una serie de objetivos y de una estrategia aceptada y promocionada por los propios gestores, especialmente aquellos responsables de la gestión de conocimiento y de recursos humanos. Esta primera fase requiere que en muchos casos se produzcan cambios culturales radicales en personas acostumbradas a trabajar y tomar decisiones en un escenario más convencional. Una vez logrado este requisito previo, la estrategia debería incorporar al menos algunos de estos elementos: a) Aprendizaje de experiencias previas o en desarrollo. Los usos exitosos de la Web 2.0 son aún un campo de experimentación en los que el ensayo y error es


la metodología básica. En estos momentos se está desarrollando, y compartiendo, una importante base de experiencias promovidas por usuarios avanzados y organizaciones que podría ser explotada (a modo de “minería de datos”) por otras partes interesadas para acelerar su propio aprendizaje y promover una mayor eficiencia en sus procesos de adopción. Existen dos fuentes básicas de experiencias: - Usuarios avanzados (o apasionados) dentro de la organización. En lugar de desarrollar una plataforma de aprendizaje con funcionalidades definidas a priori, las universidades podrían promover que su comunidad (profesores y estudiantes) explorase, testara y adaptara herramientas. La institución se podría centrar en la monitorización de esta actividad y en la integración de las experiencias exitosas, y las herramientas y prácticas asociadas, en sus plataformas y procedimientos. - Otras organizaciones implicadas en la adopción de las herramientas Web 2.0 y de los paradigmas abiertos, especialmente otras universidades, centros de investigación y empresas. Las universidades proporcionan algunos ejemplos excelentes; por citar sólo unos pocos: MIT, Open Course Ware, Stanford on iTunes U, las experiencias Web 2.0 de la Harvard Law, School o de la Universidad de Warwick, la estrategia Web 2.0 y el plan de acción desarrollado por la Universidad de Edinburgh, o la reciente propuesta de una Harvard Open Access Policy. En España, algunas universidades están comenzando a explorar la utilidad de las herramientas Web 2.0, pero probablemente una de las experiencias más amplias es la de la Universitat Oberta de Catalunya y las de algunas escuelas de negocios (por ejemplo las comunidades de blogs y los programas máster basados en un modelo blended que utiliza de modo intenso herramientas de e-learning y la Web 2.0 del Instituto de Empresa). Las organizaciones dedicadas a la investigación científica proporcionan otros ejemplos de interés con casos como InnoCentive o Nature Web Publishing. Como se explicó previamente, Nature, la revista científica de mayor prestigio a nivel mundial (y perteneciente a un importante grupo editorial), lidera las experiencias innovadoras en los usos de la Web 2.0 para la comunicación científica y el desarrollo de comunidades de interés.


b) Acceso y uso abierto de contenidos La Web 2.0 es especialmente útil y creativa cuando el conocimiento está digitalizado, es modular y se permite su uso y distribución de un modo flexible. Los nuevos modelos de licencias, como Creative Commons o ColorIuris, introducen la necesaria flexibilidad respecto a las restricciones absolutas de usos y distribución que caracterizan el copyright. El uso de estándares tecnológicos y sociales (por ejemplo formatos de las bases de datos o el uso del etiquetado para permitir el descubrimiento de nueva información) es especialmente relevante para permitir que el conocimiento sea accesible a los motores de búsqueda y agregadores (herramientas básicas para navegar la sobreabundancia de información propia de esta nueva Internet) y para permitir su reutilización por las diferentes herramientas 2.0. c) Diseño de la organización con una plataforma abierta para la creación y compartición de conocimiento, tanto entre miembros de la comunidad interna como con la participación de usuarios externos. Las experiencias obtenidas en la gestión de las empresas que se están transformando a un modelo abierto de innovación (similares a los usos propuestos aquí para la Web 2.0 en las universidades) permiten identificar tres grandes beneficios potenciales: • Reducción de los costes mediante el uso del crowdsourcing (por ejemplo, el desarrollo externo de herramientas de la Web 2.0 o de contenidos podría reducir considerablemente los costes que suponen las infraestructuras de las tecnologías de la información, el software y el personal para generación de conocimiento). • Aceleración de la innovación y la creación de conocimiento. Internet ha generado un crecimiento exponencial de la información disponible, de modo que el principal coste para los usuarios se sitúa hoy en día en la búsqueda y filtrado de las diferentes fuentes. En paralelo, los ciclos de creación de nuevos productos y servicios, de marketing y su obsolescencia se hacen cada vez más cortos. Una aproximación abierta es en muchos casos la única oportunidad para hacer competitivos tanto al usuario de la información y el conocimiento como a la organización.


• Incremento de la creatividad. La generación de nuevas ideas, uno de los principales objetivos de las universidades, se beneficia de la colaboración abierta. Muchas empresas han descubierto en los últimos años que este proceso es más creativo que el tradicional desarrollado dentro de los departamentos de I+D. De modo similar al proceso evolutivo que han seguido muchas empresas que se están transformando en plataformas abiertas, es muy probable que las universidades se aproximen inicialmente a la web 2.0 para reducir costes. Sin embargo, las empresas exitosas inician una segunda fase donde se transforman en una plataforma abierta para incrementar la velocidad de innovación y la creatividad.

3.- TRES EJEMPLOS DE SOFTWARE LIBRE EN LA WEB 2.0 a) MOZILLA El 23 de enero de 1998 Netscape Comunications anunciaba la distribución gratuita de su navegador web Netscape Communicator 4, hasta ese momento un producto propietario, así como la publicación de su código fuente bajo el nombre de Mozilla. Este anuncio sorprendió a muchos analistas, ya que no tenía un antecedente en la industria del software. Fue un momento de inflexión para el software libre, porque una empresa importante en aquel momento hacía una apuesta firme por el movimiento y ponía a disposición de la comunidad un navegador de Internet en forma de software libre con las últimas tecnologías. Era un momento complicado. Su navegador, desde su aparición en 1994, había visto disminuir su cuota de mercado desde el punto más álgido –el 70% de usuarios de Internet lo utilizaban en 1996– hasta el 57% que mantenía cuando decidió liberar el código. Netscape reaccionaba así ante la competencia de Internet Explorer, el navegador de Microsoft que la multinacional regalaba y ya comenzaba a distribuir de serie como parte de Windows, y ante el peligro de quedar relegado a una posición testimonial. Netscape esperaba que, liberando su código fuente, la comunidad ayudaría a continuar construyendo y popularizando su navegador, al más puro estilo de los primeros sistemas Unix. La publicación del código fuente no fue un proceso inmediato, ya que Netscape sólo podía liberar la parte del código que le pertenecía y tenía que prescindir de


todo el software integrado en el navegador que era propiedad de terceros. Eran más de 75 componentes y Netscape tuvo que contactar con ellos uno por uno para intentar explicarles las ventajas de su decisión. No todos estuvieron dispuestos a seguir el camino de abrir el código y la versión que se publicó no incluyó, ni mucho menos, toda la funcionalidad de Netscape Communicator versión 4. Aparte de publicar el código fuente debía crearse un sitio en Internet para organizar el desarrollo de todo el proyecto. Nacía Mozilla.org. El 31 de marzo de 1998 se presentaba públicamente Mozilla, una organización independiente con el objetivo de hacer de repositorio central del código del proyecto y de proporcionar las herramientas colaborativas necesarias para coordinar a los diferentes integrantes del proyecto. Mozilla es un nombre que en realidad comprende cuatro cosas: el nombre del sitio web que contiene el proyecto, el conjunto de herramientas y librerías creadas en él, el navegador producido y distribuido en base a estas herramientas y la mascota del proyecto. La versión distribuida bajo este nombre contiene un navegador, un programa de mensajería, un programa de creación de páginas web, un cliente chat y un conjunto de herramientas de privacidad y depuración. La publicación del código fuente y la creación de Mozilla.org levantaron muchas expectativas alrededor del proyecto. Sin embargo, en los meses siguientes se demostró que coordinar el desarrollo de un producto tan grande era una tarea compleja y el equipo no fue capaz de producir un nuevo navegador en el período de tiempo que muchos habrían querido. Mientras, Internet Explorer iba ganando cuota de mercado y se iba consolidando como el navegador más popular en Internet. Mozilla no tenía un trabajo fácil por delante debido a los problemas con las licencias con código de terceros. En la primera versión del código fuente del navegador liberada por Netscape, el lenguaje Java, los correctores ortográficos y los mecanismos de seguridad propiedad de RSA –imposibles de liberar en forma de código fuente bajo la legislación norteamericana vigente en aquel momento–, entre otros, no fueron publicados. De este modo, Mozilla empezaba su camino con una versión libre del navegador carente de muchos de los componentes más básicos, necesarios para tener un navegador competitivo. Los programadores de Netscape también eran conscientes de que sería necesario rediseñar el producto, especialmente el motor HTML, para poderlo adecuar a los nuevos estándares y tecnologías. Con el tiempo se fue


vertebrando una comunidad alrededor de Mozilla, con sitios web de noticias independientes como MozillaZine o MozillaNews, que proporcionan información relacionada con la evolución de los proyectos de Mozilla y de terceros. También nació MozDev, un sitio web que proporciona páginas web y recursos de colaboración gratuitos a toda clase de proyectos relacionados con Mozilla – más de sesenta. De MozDev ha salido un buen puñado de ideas y componentes que hoy en día ya se encuentran incorporados en el navegador. Pero Mozilla ha hecho más aportaciones. Algunas de sus herramientas, como Bugzilla o Bonsai, han sido adoptadas por muchos otros proyectos, y han contribuido de manera decisiva en la mejora de las infraestructuras de desarrollo en el mundo del software libre. En noviembre del año 2000, treinta y dos meses después de la liberación del código fuente de Mozilla, Netscape publicó la versión 6.0 de su navegador, basada en el trabajo de Mozilla.org. Esta nueva versión introducía el nuevo motor de procesamiento de HTML, Gecko –un gran avance sobre las antiguas versiones 4.7 de Netscape–, así como todas las tecnologías más actuales, incluyendo herramientas para la gestión de la privacidad. Actualmente Mozilla.org produce un conjunto de herramientas de Internet para Unix, Linux, Mac y Windows. Entre sus productos destacan FireFox, un navegador muy ligero, y ThunderBird, un cliente de correo electrónico. En julio del 2003 se creó la fundación Mozilla con el objetivo promover el desarrollo, la distribución y la adopción de las tecnologías desarrolladas por el proyecto. La fundación se inició con 2 millones de dólares cedidos por America Online y 300.000 dólares que contribuyó a titulo personal Mitch Kapor, creador de la hoja de cálculo Lotus 1-2-3 y fundador de Lotus Development. Desde su creación ha recibido más de 500 contribuciones económicas de empresas y individuos.

B) OPENOFFICE.ORG Aunque el mundo del software libre ya contaba en 1999 con aplicaciones ofimáticas como Abiword, Gnumeric, o Koffice, la verdad es que todas ellas no ofrecían la funcionalidad que un usuario medio podía esperar y sus filtros de importación de documentos creados con Microsoft Office estaban lejos de ser


aceptables. Para el usuario final, después del sistema operativo, el paquete ofimático es el conjunto de programas más utilizados. Con Linux ya maduro y proyectos de escritorio como KDE y GNOME bastante avanzados, una de las últimas piezas que faltaba para completar el puzzle de una solución libre completa era un paquete ofimático. En 1999 Sun Microsystems adquirió la compañía alemana StarDivision. Su producto estrella era Star Office, un paquete ofimático bastante maduro ya en aquella época, orientado al público tanto personal como profesional. Siguiendo los pasos de Netscape, Sun decidió liberar el código de StarOffice y crear una comunidad de software libre alrededor. Así nacía OpenOffice.org, dando nombre a la comunidad que mantiene la versión libre del proyecto y a la propia comunidad. En poco tiempo, OpenOffice.org se convertía en la solución ofimática más utilizada dentro del mundo del software libre. OpenOffice.org se encuentra disponible en más de 30 idiomas e incluye un procesador de textos, una hoja de cálculo, un programa de presentaciones, y un programa para crear gráficos. Una de las características importantes de OpenOffice es que permite abrir casi perfectamente cualquier documento creado con Microsoft Office, lo cual representa una gran ventaja para poder interoperar con usuarios de este paquete así como para realizar migraciones. Incluye además opciones como exportar directamente documentos a formato PDF o presentaciones a formato Flash que no se encuentran en el resto de paquetes ofimáticos. Una de las ventajas de OpenOffice.org es que sus formatos nativos de datos están basados en XML. Esto representa una gran flexibilidad para poder crear nuestras propias herramientas para procesar documentos o recuperarlos en otras aplicaciones. A finales de septiembre del 2003 aparecieron las primeras indicaciones de que la Comunidad Europea podría estandarizar los formatos de OpenOffice.org bajo la norma ISO para su posterior adopción. Sun, que aún sigue siendo el principal mantenedor de OpenOffice.org, produce a partir de la versión libre, usando licencia dual, el producto comercial StarOffice. La principal diferencia respecto a OpenOffice es que incluye una base de datos personal y algunos filtros adicionales de importación y exportación de documentos. Con un precio de 79.95$ de venta al público en el año 2004, Sun incluye además una guía de instalación muy completa y soporte técnico.


C) LINUX El sistema operativo Linux se ha convertido en el buque insignia del movimiento del software libre de tal forma que algunos usuarios no iniciados confunden el concepto de Linux con el de software libre. Es un sistema tan popular que podemos ver cómo hoy en día en el mundo hay más grupos de usuarios de Linux que no de software libre, aunque lógicamente todos los usuarios de Linux utilizan otros programas libres. Linux nació de la mano de Linus Torvalds. En 1991, cuando tenía 21 años y era estudiante de la universidad de Helsinki en Finlandia, anunció en un foro de Internet la primera versión del núcleo de su sistema operativo. Torvalds había estado trabajando durante seis meses en crear un sistema operativo para sistemas Intel 386. A los pocos días de ser publicado numerosos hackers empezaron a contribuir con mejoras y arreglos. El núcleo que Tovarlds había escrito era precisamente el corazón que le faltaba al sistema GNU que Richard Stallman estaba diseñando desde principios de los 80. Así se crearon las primeras distribuciones Linux, que incluían el núcleo desarrollado por Torvalds más un conjunto de herramientas GNU. Hoy en día, existen distribuciones enfocadas a usos específicos como hacer de cortafuegos en una red o de servidores en Internet, o para ámbitos específicos como a educación (LinEx por ejemplo), o de uso general. Entre las distribuciones comerciales de Linux más conocidas se encuentran Red Hat, Mandrake Linux y Suse (ahora parte de Novell). Todas ellas están pensadas para el usuario final y son de amplio uso. Dentro de las distribuciones Linux merece una especial mención Debian. Esta distribución fue creada en agosto de 1993 por Ian Murdock con el objetivo de proporcionar una distribución totalmente libre. Debian está basada en gran parte en voluntarios y no tiene ninguna empresa detrás de su organización. Actualmente, tiene más de 10.000 paquetes de software listos para instalar. Un área donde Linux es de creciente popularidad son los LiveCD. Se trata de distribuciones que se ejecutan directamente desde un CD-ROM y no requieren ningún tipo de instalación en el disco duro ni indicar ningún tipo de parámetro de configuración. Simplemente introduciendo el CD-ROM e iniciando el PC se pone a funcionar. Este tipo de distribuciones gestionan y reconocen automáticamente muchos tipos de tarjetas gráficas, de sonido, dispositivos


SCSI y otros periféricos. Se están usando extensamente para dar a conocer Linux a los usuarios neófitos y se pueden conseguir a través de revistas de informática. La distribución LiveCD más popular es la alemana Knoppix, que está basada en Debian y de la cual se han hecho muchas versiones personalizadas. Linux no sólo ha innovado como software sino también en su modelo de producción. Torvalds impulsó desde el inicio un ritmo de liberación de versiones constante bajo el lema “libera pronto, libera a menudo”. Bajo este sistema Torvalds iba publicando versiones de Linux cada pocas semanas que imprimían un gran dinamismo al desarrollo del producto. Torvalds, que aún es el responsable del proyecto, ha sido capaz de gestionar las contribuciones al proyecto de una forma sensata, lo que le ha valido el apodo de dictador benevolente. Linux, hoy en día, está disponible para todo tipo de plataformas de hardware – desde mainframes a asistentes personales - y es usado en millones de instalaciones en el mundo. Google, Amazon, la Agencia Europea Espacial o la NASA figuran entre los muchos usuarios que basan su infraestructura en Linux y los millones de usuarios individuales que lo usan diariamente.

BIBLIOGRAFÍA Web 2.0 ¿Qué es la Web 2.0? Web 2.0 y conocimiento libre: ¿Hacia la reinvención de las Comunidades Científicas? Los retos y oportunidades de la Web 2.0 para la Universidad Introducción al software libre. Software libre: técnicamente viable y económicamente sostenible y socialmente justo Software libre para una sociedad libre Software libre vs software propietario.

SOFTWARE LIBRE Y WEB 2.0  

Trabajo de prácticas del Módulo de Herramientas colaborativas en la Web

Read more
Read more
Similar to
Popular now
Just for you