Issuu on Google+

 

1   


A mis colegas de DPTO por seguirme.  A Teresa, Alex y Fernando, por soportarme.    2   


El libro, del átomo al bit en cinco siglos.    “El  bit  es  una  unidad  de  información  que  no  tiene  color,  olor  ni  sabor  y  además,  viaja  a  la  velocidad de la luz. Se representa y almacena mediante pixeles “.  Nicolás Negroponte.  Nicolás Negroponte, es  cofundador y director en 1985 del MIT Media Lab dependiente de la   Escuela  de  Arquitectura  y  Planificación  del  Instituto  de  Tecnología  de  Massachusetts.    Está  dedicado  a  los  proyectos  de  investigación  en  la  convergencia  del  diseño,  la  multimedia  y  la  tecnología  digital,  evolucionando  éstos  campos  hasta  extremos  impensables  hace  cinco  décadas  revolucionando  el  uso  de  las  redes  inalámbricas,  campos  y  los  navegadores  Web.  Últimamente se han centrado en el diseño y creación de tecnologías que se ocupan de causas  sociales.   También es el impulsor del proyecto "Un ordenador para cada niño" que pretende  desarrollar el uso de la informática e Internet  en países poco desarrollados. El vecino Uruguay  fue  el  primer  país  de  habla  castellana  que  incorporaron  al  programa  "One  Laptop  per  Child"  dentro  del  plan  Ceibal  (ceibal.org.uy)  (ceibal.edu.uy/Paginas/Inicio.aspx)  cuyo  quinto  aniversario  se  ha  celebrado  recientemente.    En  octubre  de  2005  presento  el  proyecto  al  ministro  de  Educación  de  la  nación  argentina,  Lic.  Daniel  Filmus,  señalando    la  oportunidad  histórica que supondría ser el país que liderara la implementación del proyecto en los países  de habla hispánica. Con posterioridad, en Argentina, se optó por el proyecto Conectar Igualdad  que viene desarrollándose en la actualidad (conectarigualdad.gob.ar) 

                       

 

También  se  le  conoce  por  ser  el  autor  del  bestseller,  editado  en  1995,:  "Being  digital",  (disponible  en  español  en  bibliocomunidad.com/web/libros/Nicholas%20Negroponte%20‐ %20El%20mundo%20digital.pdf)  en  el  que  se  hace  un  paralelismo  entre  el  mundo  analogico  compuesto de átomos y el mundo digital compuesto de bits, sosteniendo la tesis de que “todo  3   


lo que existe en este mundo se divide en dos categorías: o bien está compuesto por átomos o  bien está compuesto  por bit electrónicos digitales” .   Hoy  sabemos  casi  todo  acerca  de  los  átomos;  nos  vestimos  con  ellos,  aprendemos  de  ellos,  viajamos en ellos e incluso los comemos. Por el contrario los bits son más difusos, no tienen  masa,  no  ocupan  espacio  físico  e  incluso  viajan  a  la  velocidad  de  la  luz  por  lo  que  son  extremadamente flexibles.  Sin  entrar  en  reflexiones  sobre  si  los  átomos  son  buenos  y  los  bit  son  malos  o  viceversa,  si  debemos  ser  o  no  ser  digitales,  sobre  si  debemos  o  no  debemos  trasformar  todo  a  formas  digitales   y simplificar la interfaz de los ordenadores, hay que reconocer que nos encontramos  en un fenómeno global, con repercusiones en todas las culturas y  todos los niveles sociales,  que trasforman nuestras estructuras vivenciales a un ritmo vertiginoso, en ciclos cada vez más  cortos, dándose casos de avances en meses que en otras épocas de la historia de la humanidad  suponían décadas o siglos  Los dos tipos principales de documentos transmisores de textos hasta hace pocas décadas (si  entendemos  como  tales  mensajes  verbales  transmitidos  por  la  escritura  para  cuya  comunicación se necesita la lectura) han sido el manuscrito, predominante hasta finales de la  Edad  Media  pero  que  no  desaparece  y  el  impreso,  que  desde  mediados  del  siglo  XV  fue  ganando terreno paulatinamente al manuscrito pero sin desterrarlo nunca de forma completa. 

                                         

 

Ambos soportes se diferencian en virtud de la conformación material y de la forma de difusión  de los documentos.  Frente al libro impreso,  objeto manufacturado, destinado a la difusión a  gran  escala  de  un  texto  que  se  difunde  en  “copias”  idénticas,  el  manuscrito  es  una  manifestación singular y única, a veces caracterizada como inmóvil pues cada vez que se copia  un  texto  ,  este  no  es  idéntico  al  que  se  reproduce  siendo  una  versión  diferente  frente  a  la  similitud de los ejemplares impresos. La reproducción manuscrita de un texto afecta a un único  4   


sujeto,  el  copista,  y  da  lugar  a  una  única  copia,  por  más  que  existieran  en  los  escriptorium  monásticos, el proceso de copia al dictado.  La  reproducción  impresa  supone  un  trabajo  de  tipo  industrial.  Implica  a  la  vez  a  distintos  profesionales  que  trabajan  en  serie  mediante  una  distribución  de  funciones,  requiriendo  de  una instrumentalización más compleja que la de la escritura manual, permitiendo la difusión  del texto en un número elevado de copias, denominadas ejemplares. Los ejemplares son, en  principio, idénticos, o por  lo menos mucho más  que cada  una de las copias manuscritas que  presentan una versión de un texto.   Lo  que  diferencia  bibliográficamente  el  manuscrito  del  impreso  es  la  posibilidad  de  producir  muchas  versiones  de  un  mismo  texto  mediante  letras  móviles  en  un  molde,  frente  a  la  escritura tipo manuscrita, que produce una versión individualizada del texto, de ahí su carácter  único.  El  libro  impreso,  en  su  devenir  como  medio  de  soporte  del  arte  de  la  comunicación  gráfica,  desde sus inicios ha sido una carrera.  “Citius, altius, fortis”, más rápido, más alto, más fuerte,   el  lema  que  desde  la  antigüedad  ha  precedido  a  los  Juegos  Olímpicos  parece  haberse  incorporado  al  arte  de  la  impresión  como  ”Qualitas,  amount,  mobilitate”      más  calidad,  más  cantidad más versatilidad.  También los métodos de impresión, la imprenta en sí,  ha evolucionado de forma vertiginosa  con  una  tendencia  de  incrementar    la  cantidad  del  resultado  obtenido.    Desde  el  primitivo  tampón  hasta  el  revolucionario  e‐book,  hay  una  evolución  que  se  produce  independientemente  (y  a  veces  casi  simultáneamente)  en  diferentes  épocas  y  en  distintas  partes del globo con una característica común con las culturas precedentes,  bien sean egipcia,  griega o romana, en la que los libros se reproducían con tintas aplicadas con caña,  pluma o  pincel sobre soportes cada vez más manejables, livianos y ligeros.   Se  puede  establecer  el  periodo  de  la  imprenta  manual  para  el  libro  antiguo  y  el  libro  del  periodo  de  la  imprenta  industrial.  Al  igual  que  sucede  con  otros  procesos  históricos,  no  es  posible  ni  sería  correcto  establecer  límites  cronológicos  precisos  que  separen  el  modo  de  producción  manual  del  industrial,  porque  las  innovaciones  técnicas  que  revolucionaron  la  impresión  afectaron  a  distintas  etapas  y  no  se  dieron  simultáneamente,  ni  fueron  recibidas  igual  en  todos  los  lugares.  Fue  necesario  el  paso  de  varios  decenios  para  que  estos  nuevos  sistemas  hicieran  desaparecer  el  viejo  modo  de  producción  manual,  y  que  todo  el  libro  se  produjera por procesos mecánicos. Es un proceso que se inicia a finales del XVIII y que no se  cierra hasta bien avanzada la segunda mitad del XIX, de ahí que según los países y los ámbitos  impresorios, buena parte de los libros del XIX deban considerarse libros antiguos, por lo que  muchos países marcan la frontera en 1830 e incluso en 1850.  El  invento  de  Johannes  Gutenberg  fue  el  resultado  de  la  necesidad  que  surge  a  partir  del  proceso  de  alfabetización  de  las  burguesías  europeas  del  siglo  XV,  que  hace  que,  las  copias  manuscritas  de  textos,  laicos  o  religiosos,  realizadas  por  los  monjes  en  sus  scriptorium  no  fuesen suficientes para atender la cada vez  más creciente demanda.  5   


Con la salida de las “edades  bárbaras” europeas  en el siglo XII,  el nacimiento de las primeras  universidades,  el  comercio,  las  peregrinaciones  y  las  cruzadas,  se  inician  unos  intercambios  que requieren una mayor demanda de libros  por lo que había  necesidad de un método barato  y rápido para reproducirlos y además, estos libros  debían de ser fácilmente transportables. De  esta  forma,  en  cada  ciudad  universitaria  europea  importante  empezó  a  florecer  en  arte‐ negocio de la imprenta.  A  pesar  de  que,  ya  en  china  en  el  siglo  II  a.C.  se  había  desarrollado,  con  carácter  general,  el  arte  de  imprimir  textos  utilizando  el  sistema  de  producir  múltiples  ejemplares  a  través  de  la  impresión sobre papel, por medio de una piedra lisa donde los signos estaban tallados(técnica  conocida como xilografía).  El libro chino impreso más antiguo que se conoce es el Sutra del  Diamante y está fechado en 868 DC. Está hecho de siete piezas de un solo bloque y aunque  escrito en chino, es un texto budista que fue escondido  en unas cuevas,  conocidas como las Grutas de los Diez  Mil  Budas,  (santuarios  del  S.IV  excavados  en  roca  al  noroeste de China en el año 1000)  y que permaneció  junto a otros 40.000 libros hasta su descubrimiento en  1907  por  el  arqueólogo  orientalista  Sir  Marc  Aurel  Stein gracias a su relación con el monje budista Wang  Yuanlu.  Este  ejemplar  se  encuentra  actualmente  en  la  British Library (bl.uk)  6   


Con  métodos  similares,  en  Europa  se  empezó  a  imprimir  con  planchas  de  madera  con  un  retraso importante. Al no existir todavía el papel, los materiales utilizados, papiro y pergamino  no resultaban apropiados para imprimir mecánicamente y durante gran parte del medievo, los  manuscritos se confeccionaron en los monasterios medievales por copistas especializados,  a  los  que  la  copia  de  un  manuscrito  podía  llevar  entre  uno  y  diez  años  de  trabajo  en  jornadas  diarias de 6 horas compartidas con la oración.  Con  la  introducción  de  la  plancha  de  impresión  empezó  a  optimizarse  la  producción  de  impresos y libros. Como en China, la impresión más antigua conocida en Europa no tenía nada  que  ver  con  el  libro,  fue  hecha  para  imprimir  sobre  tela.  De  ahí,  a  los  primeros  libros  xilográficos  producidos  en  Holanda  y  Alemania  en  el  siglo  XV  había  solo  un  paso.    Estos  se  realizaban  presionando  el  papel  contra  la  placa  xilográfica  por  medio  de  una  almohadilla  de  cuero rellena de crin, que fue progresivamente sustituida por una prensa manual.  

  Hasta  nosotros  han  llegado  muy  pocos  libros  xilográficos,  en  total  33  diferentes  escritos  en  unas 100 ediciones  generalmente pequeños volúmenes utilizados por la iglesia para usos de  enseñanza  como  la  Biblia  Pauperum  (1494)  (bubok.es/ver/preview/9944),  o  el  Especulum  Humanae Salvationis (1430)   Con  posterioridad,  tanto  en  China  a  partir  del  siglo  XI,  como  en  Europa  a  partir  del  siglo  XV,  empezaron a utilizarse tipos sueltos de barro cocido que más tarde fueron sustituidos por los  tipos  de  metal,  componiéndose  así  las  hojas  de  los  libros  y  que,  cuando  se  realizaba  la  impresión , estos tipos se separaban para componer otras páginas. (Este método no arraigo en  China  debido  a  que,  por  las  características  de  su  idioma,  necesitan  de  4  a  5.000  caracteres  diferentes,  por el contrario, en Europa donde se opera con alfabetos compuestos por un corto  número de letras, el arte de imprimir revoluciono la producción bibliográfica).  Si  con  la  impresión  xilográfica  solo  se  imprimía  una  de  las  caras  del  papel  en  ejemplares  compuestos  de  pocas  hojas,    debido  a  que  la  impresión  calaba  tan  hondo  que  no  se  podía  7   


utilizarse  el  reverso,  con  los  tipos  sueltos,    se  abrió  la  posibilidad  de  producir  los  libros  de  forma completamente   diferente y menos costosa,  en más cantidad.       

8   


9   


Galaxia Gutenberg  1455 ‐ 1965  En 1455 fue cuando Johannes Gutenberg concibió y construyó por primera vez la imprenta en  su conjunto:  confección de matrices, fundición de los caracteres, composición de textos y su  posterior impresión, creándose  así la imprenta de tipos móviles.   Esta “revolucionaria tecnología”, fue cuestionada en sus principios,  pero pronto revoluciono la  forma de “copiar” los libros con una buena calidad  y a una fracción del coste de copia del libro  de forma manual.   De  Gutenberg,  herrero,  orfebre  y  grabador  así  como  conocedor  de  la  fundición  del  oro,  se  desconoce  con  que  metales  hizo  sus  moldes,  no  obstante,  ya  en  1439  en  un  expediente   judicial  que  le  incoan  en  Estrasburgo,  debido  a  sus  problemas  económicos  por  deudas  contraídas para realizar su invento, en un litigio por una herencia, incoado por los herederos  de un asociado, se expresan los términos prensa, formas e impresión.    Trasladado  a  Maguncia,  una  década  después,  imprimió  el  “misal  Constanza”  primer  libro  tipográfico  del  mundo  en  1449.  La  conocida  biblia  de  42  líneas  o  Biblia  de  Gutenberg  fue  iniciada  la  impresión  por  Gutenberg  en  1452  y  se  terminó  de  imprimir  en  1956,  financiada  por  el  banquero  Johannes  Fust  y  ejecutada  por  Peter  Schöffer  (calígrafo  y  antiguo  colaborador  de  Gutenberg), que  usando matrices de cobre resolvió la técnica de los  tipos  móviles,  definiendo  un  sistema  de  proporciones  espaciales  que permitían su intercambiabilidad).   Debido  a  los  problemas  económicos,  que  le  obligaron  a  ceder  los  derechos  de  su  invención  y  a  difundir  los  secretos  para  montar  imprentas,  Gutenberg  murió  arruinado  en  Maguncia  en  1468,  siendo  su  gran  logro,  la  contribución  de  forma  decisiva  de  la  imprenta  para  multiplicar  el  número  de  copias,  así  como  la  aceptación inmediata del libro impreso como sustituto del libro manuscrito. Reconocido que el  objetivo  del  invento  de  Gutenberg  era  multiplicar  las  copias  de  los  textos  mediante  un  procedimiento  mecánico  (en  la  época  se  habló  de  Ars  scribendi  artificialiter  o  escritura  mecánica)  al  invento  lo  llamaron  libro  de  molde,    en  contraposición  al  libro  de  mano  o  manuscrito y se produjo por la necesidad surgida  de satisfacer la demanda creciente de libros.  Las primeras imprentas se establecieron en Lyon, Maguncia y Estrasburgo.  El  referente  directo  que  inspiro  la  imprenta  fue  el  manuscrito  al  que  físicamente  pretenden  emular. Esto explica la similitud entre el protoincunable y el manuscrito, tanto en disposición  como en tipografía. La clave del invento fue idear un sistema de tipos móviles y el éxito estuvo  favorecido por el uso del papel, que se empieza a utilizar en ese siglo frente al pergamino de  siglos  anteriores.  Para  la  estampación  Gutenberg  recurrió  a  la  prensa  que  se  utilizaba  en  la  ribera  del  Rin,  modificando  la  prensa  de  uvas  existente  en  la  región  para  permitir  la  estampación tipográfica, siendo lo verdaderamente innovador la fabricación de tipos móviles.  Así,  con  la  conjunción  de  los  tipos  y  en  la  prensa,    se  unen  distintas  técnicas  para  lograr  un  producto nuevo  10   


En  el  siglo  XV  la  mayoría  de  los  oficios  manuales  relacionados  con  la  imprenta  ya  estaban  desarrollados  en Europa. Existían orfebres encargados de la fundición de monedas que usaban  técnicas  de  cancelación  y  punzonesy  a  mediados  de  este  siglo,  era  habitual  crear  moldes  y  matrices  para  armaduras  y  piezas  de  relojes,  fundiendo  para  ello  pequeñas  piezas  complejas  a  partir  de  aleaciones  de  metal.  Estos  artesanos  se  encontraban  agrupados  en  gremios  en  las  principales  ciudades,  sirviendose  la  imprenta  de sus técnicas, adaptándolas asus necesidades  y  modificándolas  para  crear  un  texto,   reproducido  en serie mediante ejemplares, en  principio iguales, de forma mecánica.  La primera fundición de tipos móviles de metal  se  realizó  en  Europa  hacia  mediados  del  siglo  XV.  Se  imprimió  sobre  papel  con  una  prensa  cuya  presión  se  ejercía  mediante  palanca  inicialmente  y  mediante  tornillo  poco  tiempo  después.  Un  alumno  de  Gutenberg,  el  francés  Nicolaus Jenson, perfecciono la fabricación de tipos al introducir las matrices metálicas, siendo  el creador de la primera tipografía romana para impresión en 1460 que sirvió de inspiración a  maestros  impresores  posteriores  como  Claude  Garamont  y  Aldus  Manutius,  permitiéndoles  desarrollar  una  técnica  de  fundición  de  tipos  de  tal  precisión,  que  se  mantenían  unidos  por  simple presión aplicada a los extremos del soporte de la página.   

11   


En  1464  se  estableció  en  Subico  (Italia)  la  primera  imprenta,  llegando  este  arte  a  Roma  tres  años  más  tarde.  A  Francia  llegó  en  1470    y  en  1479  a  Inglaterra  (Oxford).    En  España  se  estableció en 1472. De ahí pasa al Nuevo Mundo y Filipinas entre 1533 y 1738 en manos de  órdenes religiosas para la propagación de la fe.   En España,  El Sinodal de Aguilafuente es considerado como el primer libro impreso en 1472.  Contiene  las  actas  y  documentos  complementarios  del  sínodo  diocesano  que  tuvo  lugar  en  Aguilafuente  (Segovia),  en  junio  de  ese  mismo  año,  tratando    sobre  asuntos  muy  diversos,  encaminados a la reforma del clero. El entonces obispo de Segovia Juan Arias Dávila encargó  que los documentos del sínodo fueran reproducidos con el innovador método de la imprenta  por el impresor Juan Parix de Heidelberg. De esta forma, el invento de Gutenberg llego a esta  localidad española,   antes que a Barcelona (1473), Valencia (1473), Sevilla (1477) o Salamanca  (1488), las ciudades más importantes y desarrolladas del siglo XV. El único ejemplar existente,  fue descubierto en 1930 por el canónigo archivero de la catedral de Segovia, Cristino Valverde. 

                                          

 

Bartolomé  Mitre,  en  su  magnífica  obra  “Orígenes  de  la  Imprenta  en  Argentina”  (biblioteca.org.ar/libros/656485.pdf) recoge  que el primer libro impreso en América de habla  hispana , fue en Méjico  a mediados del siglo  XVI, posteriormente  en Perú y en tercer lugar en  el  Rio  de  la  Plata,  dando  lugar  a  la  mítica  imprenta  guaranítica,  cuyo  nacimiento  describe  así:“La  aparición  de  la  imprenta  en  el  Río  de  la  Plata  es  un  caso  singular  en  la  historia  de  la  tipografía  después  del  invento  de  Gutenberg.  No  fue  importada:  fue  una  creación  original.  12   


Nació o renació en medio de selvas vírgenes, como una  Minerva indígena armada de todas sus piezas, con tipos  de  su  fabricación,  manejados  por  indios  salvajes  recientemente reducidos a la vida civilizada, con nuevos  signos  fonéticos  de  su  invención,  hablando  una  lengua  desconocida  en  el  viejo  mundo,  y  un  misterio  envuelve  su principio y su fin.  Es  hoy  un  hecho  comprobado  que  en  las  Misiones  jesuíticas del Alto Uruguay y del Alto Paraná se iniciaron  al  finalizar  el  siglo  XVII  los  primeros  trabajos  para  plantear  la  imprenta,  y  que  en  los  primeros  años  del  siglo  XVIII  se  comenzó  a  imprimir  allí,  en  una  tosca  prensa  construida  con  maderas  de  sus  selvas  vírgenes,  con caracteres fundidos en ellas y en planchas de cobre  grabadas  a  buril  por  los  indios  neófitos,  salvajes  domesticados  por  los  padres  de  la  Compañía  de  Jesús.  Así  lo  atestiguan  varios  libros,  profusamente ilustrados algunos de ellos, que tenemos a la vista, y que han permanecido por  largo  tiempo  como  jeroglíficos  mudos  de  la  tipografía  americana  ‐cuando  no  totalmente  desconocidos‐ para los bibliógrafos de ambos mundos.”  Retrocedamos ala segunda mitad del siglo XV y al viejo mundo.  En los primeros tiempos de la imprenta, parece que los impresores llevaban a cabo todos los   pasos  para  la  creación  de  los  tipos,  a  pesar  de  que  desde  el  primer  momento  recurrieron  a  calígrafos  para  el  diseño  de  las  letras.  Con  posterioridad  cada  impresor  pasó  a  poseer  punzones  propios  de  los  tipos  que  utilizaba,  como  el  punto  de  partida  de  un  proceso  que  le  permitía renovar las tipografías cuando fuera necesario.   Desde mediados del XV, cada taller  de imprenta tenía materiales propios e individualizables,  no obstante, a partir de 1490, los grabadores se hicieron independientes, grababan punzones  o abrían matrices a petición de los impresores a quienes se los vendían; en suma, fabricaban  con  los  punzones  de  su  propiedad  matrices  que  compraban  los  impresores.  Los  grabadores  solían  ser  independientes  que  trabajaban  de  manera  ambulante  por  las  imprentas,  cuando  eran  requeridos  para  fundir una tipografía con las matrices de las que disponía el  impresor  y  con  los  materiales  con  los  que  contaba  cada  imprenta,  o  bien  alquilando  sus  matrices  a  los  fundidores.   Estos fundidores  partir de finales del siglo siguiente,  venden  los  tipos  por  toda  Europa,  iniciándose  un  comercio  internacional de tipografías  En  1490,  el  veneciano  Teobaldo  Mannucci  (Aldo  Manucio  o  Aldus Manutius) humanista con una gran formación en latín y  griego,  fundo en Venecia la Imprenta Aldina  (imprenta que  se  caracterizó  por  las  cuidadas  ediciones  que  se  hicieron  de  13   


los clásicos griegos o latinos e italianos y que dejo de existir  en 1597, después de haber puesto  en circulación  908 ediciones, muchas de ellas no reimpresas posteriormente). Manucio, cuya  obsesión era que las obras de la literatura griega no cayeran en el olvido,  se le considera el  padre  de  la  tipografía,  introdujo  muchas  mejoras  en  la  fabricación  de  los  tipos  de  imprenta,  fundiendo  nueve  clases  de  caracteres  griegos  y  catorce  de  romanos  y  a  él  se  le  atribuye  la  creación de la tipografía bastardilla o itálica. Murió en 1515 y cinco siglos después, uno de los  primeros programas de autoedición que se pueden considerar como tales, le rindió homenaje  dándole su nombre (Aldus Page Marker) 

  La impresión mediante plancha también se utilizó, especialmente para cartografía. En 1570, Un  cartógrafo  y  geógrafo  flamenco,  Abraham  Ortelius    selecciono  y  redibujo  los  mejores  mapas  disponibles  en  ese  momento,  imprimiendo  el  primer  mapamundi  que  tuvo  un  gran  éxito,  el  Theatrum Orbis Terrarun que contenía 56 mapas de Europa , 10 de Asia y África y uno de cada  continente.  Lo  reedito  varias  veces  actualizándolo  hasta  1612  se  considera  el  primer  Atlas  moderno.    También,  uno  de  los  primeros  mapas  históricos    impresos  (y  con  posterioridad  en  medios  digitales  pues  se  publicó  en  el  programa  del  American  Memory Proyect donde se puede consulta  (memory.loc.gov/ammem/index.html).    También  en  este  mismo  programa  (memory.loc.gov/ammem/gmdhtml/gutie rrz.html)  encontramos,  realizado  apenas  70  años  después  de  que  Colon  llegase  a  este  continente,  en  1562,  el  mapa  de  Diego  Gutiérrez,  cartógrafo  español  de  la  Casa de la Contratación de Sevilla, que, en  colaboración  con    Hieronymus  Cock,  grabador    de  Amberes,  elaboraron    un  mapa    de  lo  que  entonces  era  conocido  14   


como  la  cuarta  parte  del  mundo:  América.    También  conocido  como  Americae  Sive  Qvartae  Orbispartis Nova Et Exactissima Descriptio. El mapa de Gutiérrez incluye no sólo el sistema del  río Amazonas y el Lago Titicaca, sino otras características geográficas importantes, plasmando  representaciones imaginarias de loros, monos, sirenas, criaturas marinas, caníbales brasileños,  los gigantes de la Patagonia, y un volcán en erupción en el centro de México, siendo  el mapa  más  grande  grabado  de  América  para  la  época.  De  él  sólo  se  conservan  dos  copias  que  se  encuentran en la Biblioteca del Congreso (Washington, DC) y  en la British Library (Londres)  Durante  los  siglos  XV  y  XVI,    las  prensas  utilizadas    eran  de  las  conocidas  como  de  “tornillo”  pues  ejercian  la  presión  del  molde  o  plancha  con  menos  esfuerzo  humano,  sobre  el  papel  colocado  en  una  superfice  plana  generalmente  en  una  platina  o  superfici  movil.  Este  tornillo  superior,  sujeto  al  techo,  con  un  movimiento  rotatorio  ,  comprimia  el  molde  entintado  transfiriendo la imagen, repitiendo así sucesivamente cada hoja en un procedimiento lento y  laborioso,  imprimiento  una  hoja  cada  vez  y  produciendo  unas  250  hojas  por  hora.   Con  posterioridad  los  elementos  moviles  de    las  prensas  se  fueron  complementando,  y  sobre  el  siglo  XVII  se  les  añadieron  muelles  paa  facilirtar  el  movimiento  de  la  platina,    pasando  en  el  siglo  XVIII  a  sustituir  los  tornillos  por palancas  para manejar la platina .   Las  prensas  de  la  epoca  realizaban  sobre  300  impresiones  por  hora  y  se  empezaraon a utilizar moldes de hierro  mucho  más  grandes,  obteniendo  un  número  mayor  de  páginas  llegando  a  imprimir en el caso de los libros 4, 8, 16  o más páginas por cada pliego de papel.  La iglesia que utiliza lo imprenta con gran profusión,  también intenta  controlar el arte de la  impresión  que,  al  fin  y  al  cabo,  es  un  vehículo  de  trasmisión  de  ideas.  En    1559  la  Sagrada  Congregación  de  la  Inquisición  de  de  la  Iglesia  Católica  Romana  (posteriormente  llamada  la  Congregación  para  la  Doctrina  de  la  Fe)  publico  el    Index  Librorum  Prohibitorun.  Este  Index  contenía  los  nombres  de  autores  cuyas  obras  estaban  prohibidas  en  su  totalidad,  obras  aisladas  de  otros  autores  o  anónimas,  y  también  un  detallado  repertorio  de  los  capítulos,  páginas  o  líneas  que  debían  ser  cortados  o  tachados.  Esta  labor  correspondía  a  los  bibliotecarios, que debían ocuparse de ellas antes de dejar los libros en manos de los lectores.    Para  el  mantenimiento  del  Índex  después  de  la  primera  edición,  Pío  V    instituyó  en  1571  la  Sagrada  Congregación  del  Índice.  El  Índice  ha  sido  actualizado  regularmente  durante  cinco  siglos  hasta  su  suspensión,  en  1966,  con  materiales  que  se  fueron  agregando  tanto  por  la  Congregación como por el Papa. Otras instituciones religiosas, como el Santo Oficio, pasaban a  15   


la  Congregación  para  la  Doctrina  de  la  Fe    sus  propias  correcciones,  para  que  ésta  las   incorporara. Los efectos de este índice se sintieron por todos lados, incluso más allá del mundo  católico.  Durante  muchos  años,  en  lugares  como  Canadá,  España,  Italia    y  Polonia    (países  católicos), fue muy difícil encontrar copias de los libros incluidos en él. 

  Según algunos autores, durante el siglo XV ya se imprimieron más de 6000 obras diferentes.  Ciudades  como  Venecia  en  1500  contaban  ya  con  417  imprentas.    En  el  norte  de  Europa  se  publicaban  libros  de  carácter  religioso  como  biblias  salterios  y  misales.  En  el  sur,  especialmente  en  Italia,  libros  profanos  de  los  autores clásicos griegos y romanos.   Otra  de  las  aplicaciones  importantes  de  la  imprenta  fue  la  publicación  de  panfletos  en  las  luchas  religiosas,  especialmente  a  partir  de  1517,  año  en  el  que  Lutero  empieza  a  difundir  sus  55  tesis  en  la  puerta  de  la  iglesia  del  palacio  de  Wittenberg,  que  se  difundieron  rápidamente  por  Alemania  gracias  a  la  imprenta,  iniciándose  así  la  Reforma  Protestante.  Durante  el  siglo  XVII  la  imprenta,  buscando  rentabilidad,    diversifica  sus  productos.  En  Europa  surgen   unas  hojas  informativas  denominadas  Corantos  (término  16   


que se aplicó a las primeras gacetas, y que se imitaron en países como Holanda, Inglaterra y  Alemania,  a  los  que  se  atribuye  el  origen  de  las  publicaciones  periódicas).    A  partir  de  este  momento, las técnicas y aplicaciones de impresión se desarrollaron con gran rapidez,  debido a  la revolución industrial y la introducción de las máquinas de vapor a mediados de siglo XVIII y  principio del siglo XIX la electricidad  Las dos primeras hojas conocidas,  precursoras de los actuales periódicos  son The gentleman´s  Magazine  en  Inglaterra  y  Erbauliche  Monaths‐Unterredungen  en  Alemania,  que  aparecieron  entre los años 1663 y 1668. Pronto surgieron otras revistas en Francia, Inglaterra e Italia y para  la    década  de  los  setenta,  vieron  la  luz  algunas  más,  ligeras  y  divertidas,    entre  ellas  el  "Le  Mercure Galant", surgida en 1672  A  mediados  del  siglo  XVIII,  producto  de  la  Revolución  Francesa,  se  inicia  un  movimiento  cultural e intelectual europeo en el que la imprenta juega un papel importante. Partiendo de  Francia,  rápidamente  se  extendió  por  toda  Europa  llegando  a  las  colonias  americanas.   Mediante  los  libros  se  difunde  la  revolución  defendiendo  la  razón  humana como medio para  combatir  la  ignorancia.  Esto  supone  importantes  cambios  en  los  aspectos  económicos  y  sociales,   renovando  los  conceptos  de  las  ciencias  y  la  política.  Al  ser  el  vehículo  comunicador  el  libro,  se  exige  a  las  imprentas  una  mayor  capacidad  de  producción,  empezando  a  producirse  los  primeros  avances  en  la  mecanización  de  las  artes  gráficas.  El  siglo  de  las  luces  da  paso  a    la  era  de  la razón  y culmina con las  revoluciones que suponen   profundos  cambios  en  la  estructura  social  occidental;  las  revoluciones  francesa  (con el derrocamiento del  antiguo  régimen)  y  con  posterioridad  la revolución industrial en Inglaterra, iniciándose las tentativas independentistas  de las antiguas colonias de población que se quieren independizar de las viejas metrópolis.   Entre 1690 y 1789 las bases del mundo occidental  cambian. A pesar de que a finales del siglo  XVIII mas del 70% de los europeos eran analfabetos, el motor de comunicación es el libro, lo  que obliga a las imprentas a mejorar su eficiencia dotándose de maquinaria más rápida,  que  durase  más  tiempo  y  que  realizase  mayores  tiradas  en  el  menor  tiempo  posible.  La  primera  prensa de imprimir totalmente metálica es construida por el británico Charles Stanhope, tercer  conde de Stanhope en 1803.   También contribuyo al auge de la imprenta la fabricación mecánica del papel.   Como  sabemos,  el  papel,  inicialmente  fabricado  a  partir  de  paja  de  arroz,  cáñamo  e  incluso  algodón, ya era fabricado por los chinos en el S. II dC y llego a los árabes a través de China por  Asia  central  sobre  el  año  750,  gracias  a  que  prisioneros  chinos  establecieron  en  Samarcanda  17   


(Urbekistan) el primer establecimiento para su fabricación. Los árabes comenzaron a fabricarlo  partiendo  de  recortes  de  tela  y  algodón,  inicialmente  en  Bagdad  y  posteriormente  en  Damasco. La expansión de los árabes por el mediterráneo  lo lleva a Bizanzio y Grecia y por el  norte de África llega a España, donde establecen los primeros molinos en Xariva (Valencia) y  Toledo. En el siglo XII su fabricación se extendió en Francia que lo producía utilizando lino en el  SXII, situándose las primeras fábricas industriales en Italia (Padua y Génova) a partir de 1350 

  La invención de la imprenta junto con la posibilidad de obtener papel a precios razonables fue  lo que permitió en auge del desarrollo de las publicaciones periódicas  y por consiguiente del  libro, así como mayores ediciones y multitud de publicaciones.   En  1799  Louis  Robert  patento  una  la  máquina  que  de  forma  continua    ya  que  permitía  la  confección de papeles de longitudes de 12 a 15 metros. Robert le vendió su patente a St. Leger  Didot, dueño de una fábrica francesa y  Didot, buscando financiación para  la patente, marcho  a    Inglaterra,  entrando    en  contacto  con  Henry  y  Sealy  Fourdrinier,  dos  prósperos  

  comerciantes de papel,  londinenses, que a su vez contrataron  a un ingeniero, Bryan Donkin,  el  cual,    después  de  mucho  experimentar,  concibió  en  1804,  una  máquina  de  fabricar  papel  verdaderamente  práctica.    En  Londres  se  instaló  la  primera  máquina,  máquina  que  producía  18   


una  bobina  de  papel  continuo  y  era  capaz  de  hacer  frente  a  una  demanda  en  constante  crecimiento,  especialmente  a  partir  de  1840  que  se  inicia  la  explosión  de  las  publicaciones  periódicas,  industrializándose  la  fabricación  de  papel,  a  partir  de  la  pulpa  de  madera  por  primera vez.  El invento de la máquina Fourdrinier fue fundamental en la historia de la fabricación del papel;  sin  él  no  hubiera  habido  oportunidades  para  el  desarrollo  de  la  maquinaria  y  de  las  técnicas  que se experimentó en  los siglos XIX y XX, ya que  introdujeron el proceso de trituración de  madera para fabricar pulpa, con lo cual se pudo fabricar papel a partir de una materia prima de  más bajo costo. Diez años después se realizó el primer proceso químico para producir la pulpa,  lo  cual  también  colaboró  a  la  reducción  de  costos.  En  1844,  Federic  Gottlob  Seller  sería  el  primero  en  obtener,  mediante  un  procedimiento  mecánico,  pasta  de  madera.  Hacia  1852,  Meillier descubrió la celulosa y Tilghman patentó un procedimiento en el que por medio de la  utilización de bisulfito de calcio, se obtenía celulosa de la madera.  Desde  mitad  del  siglo  XIX,  todos  los  esfuerzos  convergerían  hacia  la  búsqueda  del  perfeccionamiento de máquinas y técnicas, la renovación de materiales y la disminución de los  tiempos de producción, desarrollándose  la prensa accionada por vapor (prensa cilíndrica que  utiliza un rodillo giratorio para prensar el papel contra una superficie plana), la rotativa, en la  que tanto el papel como la plancha curva de impresión van montados sobre rodillos y la prensa  al ser de doble impresión, permitia imprimir simultáneamente ambas caras del papel.  Otro hito con repercusiones importantes en la imprenta es la fotolitografía que rápidamente  lleva  a  la  fototipia  ya  que  fue  el  primer  procedimiento  en  reproducir  una  fotografía  e  imprimirla posteriormente.   El 27 de agosto de 1855, Luis Alphonse Poitevin obtiene la patente francesa núm. 24592. Este  

  ingeniero químico más interesado en la investigación y la invención que por sus aplicaciones  prácticas, vendió los derechos de explotación de su invento  en 1857 a la imprenta Lemercier.   19   


La fotolitografía se perfecciono rápidamente,  utilizando diferentes materiales como placas de  zinc o aluminio, así como emulsiones de gelatina y bicromato de potasio que, bajo el efecto de  la  luz  y  del  agua  caliente,  determinaban  la  distribución  de  la  tinta.  Rápidamente  se  difunde,  publicándose  en  Inglaterra  las  especificaciones    2815  “Photographic  Printing”  y  2816  “Photographic Engraving” en el año siguiente y llegando a la potente industria americana en  1857.    En  España  su  aplicación  industrial  no  tiene  lugar  hasta  el  final  de  los  años  setenta  con  la  producción de facsímiles de textos de libros antiguos y curiosos libros  por José León Sánchez  Rayón  que  en  1873  publica  Los  Ensayos  Fotolitográficos.  A  partir  de  ahí,  la  difusión  de  la  fototipia fue muy rápida. En 1874  en Barcelona se funda la Sociedad  Heliográfica Española y en 1875 se  desplazan  a  Paris    el  gerundense   Mariezcurrena,  junto  Joan  Serra,  para  aprender  el  nuevo  procedimiento.  Vuelven    en  1876  a  Barcelona  y  ponen  en  marcha  los  talleres  de  la  sociedad.  Otro  fotógrafo  afincado  en  España,  El  francés  J.  Laurent    es  el  introductor  de  este  proceso  en  1880.   Poco  tiempo  después,  el  alemán  Georg  Meisenbach  patento  el  sistema  de  fograbado,  imprimiendo  conjuntamente   texto  e  imágenes.    Rápidamente  fue utilizado por la mayoría de las  publicaciones  periódicas  del  momento,  tanto  en  América  como  en  España,  donde  una  de  las  primeras  que  la  utilizo  fue  La  Ilustración  Española  y  Americana  que, por este método, el 2 de septiembre de 1883 reprodujo el cuadro de Salvador Clemente,  "Volverán  las  oscuras  golondrinas".  La  Ilustración  artística,  periódico  semanal  de  literatura,  artes  y  ciencias  fundado  en  1882  (disponible,    en  la  Biblioteca  Virtual  de  Prensa  Histórica  http://prensahistorica.mcu.es)  justificaba  la  necesidad  de  utilizar  el  fotograbado  el  14  de  marzo de 1884 en los siguientes términos"No basta con reproducir fielmente la naturaleza don  el procedimiento de Daguerre. El progreso, consecuencia natural de todo invento, exigencia de  los tiempos modernos, en los cuales todo lo que no adelanta muere, hacia preciso mejorar en  velocidad de obtención y en facilidad de multiplicación el mecanismo que en su día maravillo la  generación  que  inmediatamente  nos  ha  precedido....  la  fotografía  instantánea,  en  el  sentido  literal  de  la  palabra,  es  ya  un  hecho;  su  multiplicación  directa  por  medio  de  la  imprenta  lo  20   


corroboran  las  pruebas  que  hoy  publicamos,  debidas  a  los  constantes  estudios  y  ensayos  del  profesor alemán Meinsenbach".   Sobre 1871 el impresor Richard March Hoe perfeccionó la prensa de papel continuo patentada   en  1846.  Este  nueva  máquina  producía  18.000  periódicos  a  la  hora.  En  su  magnífico  blog,  el  blogger  argentino  Luis  Seiner  (ex‐libris‐seibert.blogspot.com.es/),  hace  referencia    a  una  maquina  Hoe,  instalada  en  los  talleres  del  diario  “La  Prensa”,  fundado  apenas  dos  años  antes  por  D.  José  Camilo  Paz.  Este  periódico  paso  de  una  tirada  18.000  ejemplares  en  1896  a  125.000  en  1900,  llegando  a  tener  tres  rotativas  Hoe  compuestas  de  veintiuna  unidades  dobles  y  cuarenta  y  seis  metros  de  longitud,  funcionaba  gracias  a  56  motores  de  1250  caballos  de  fuerza  con  capacidad  de  editar   840.000  ejemplares  de  12 páginas por hora con  un  consumo  de  70.000  kilogramos de papel.  Friedrich  Köning,  un  alemán  se  trasladado  a  Inglaterra  buscando  financiación  para  sus  ideas  en  1806.  En  su  juventud se había formado en una de las mejores imprentas editoras alemanas en  Leipzig, la  empresa Breitkopf&Härtel. (Esta  imprenta‐editorial que todavía existe (breitkopf.com), ya en  1870,    disponía  en  sus  talleres  “de  veinte  prensas  para  libros,  cuatro  para  notas  musicales,  doce  hornos  con  capacidad  de  fundir  cuatrocientos  tipos  y  contaba  120  operarios).  En  ella  Köning  se  formó  como  cajista  e  impresor  hasta  1794  al  tiempo  que  cursaba  estudios  de  matemáticas, física y mecánica, estimulándose su curiosidad por las máquinas de vapor que se  empiezan a utilizar a partir de 1785 en la industria alemana.   Se  estableció  en  Londres  donde  empieza  a  trabajar  como  impresor  y  librero.      En  1809    se  asocia con su con su compatriota Andreas Friedrich Bauer, mecánico de precisión oriundo de  21   


Stuttgart,  y  ambos  crearon  una  empresa  que  actualmente  es  el  Koenig&  Bauer  Group  (kba.com).  Esta  sociedad  es  actualmente    una  de  las    mayores  productoras  mundiales  de  rotativas.  

      

 

Köning  obtiene  sus  primeras  cuatro  patentes  en  1810  en  Londres  y  en  1811  acomete  por  primera  vez  la  realización  de  una  prensa  basada  en  un  cilindro  que  sustituye  la  plancha  de  impresión. Esta prensa  será presentada a potenciales compradores y entre ellos John Walter  II,  propietario  del  Times  que  se  da  cuenta  de    sus  inmensas  posibilidades  y  encarga  dos  máquinas dobles que imprimen en un solo proceso ambas caras del pliego. 

22   


La  prensa  de  Köning  era  una  máquina  de  impresión  de  vapor;  la  forma  permanecía  en  la  platina  y  esta  se  movía  gracias  a  la  energía  del  vapor  hacía  la  hoja  de  papel  que  estaba  imprimiendo, dos cilindros movidos por vapor, que sustituían la plancha superior, presionaban  el  papel  contra  los  caracteres,  y  un  rodillo  repartía  automáticamente  la  tinta,  con  lo  que  se  eliminaba  el  lento  y  fatigoso  proceso  de  entintar  a  mano  con  almohadillas  de  cuero.  La  máquina sólo necesitaba dos hombres para funcionar: uno para alimentar el papel en blanco y  el otro para retirar las hojas impresas.  

  (Las ingentes necesidades de papel por parte de la industria gráfica, cada vez más mecanizada,  incrementan  de  forma  exponencial  la  necesidad  de  papel  dando  lugar  a  los  procesos  industriales para su fabricación. En el siglo XIX se inicia la producción a gran escala del papel  partiendo  de  la  pasta  de  madera  y  blanqueada  con  ácido  clorhídrico  u  otros  blanqueadores  ácidos,    colas  de  apresto   acidas  y  ligninas  que  si  bien  inicialmente,  parecieron  la  solución,  el  paso  de  apenas  cien  años  demostraron  su  fragilidad  al  disminuir  su  estabilidad,  facilitando  la  formación  de  ácidos  y  tornándolos  degradables  a  la  luz,  así  como  a  los  gases  contaminantes  con  la  consiguiente  oxidación,  amarilleamiento  y  fragilidad.  Tanto  los  periódicos  como  los  libros  realizados  en  el  Siglo  XIX  como  el  primer  tercio  del  XX,  si  no  reciben  los  tratamientos  adecuados  ofrecen  grandes  problemas  de  conservación hasta el punto de ser legibles con dificultad mientras que manuscritos e impresos  de los siglos XVV al XVIII se conservan adecuadamente). 

23   


La  mejora  en  los  métodos  del  fotograbado  amenazó  la  supervivencia  de  la  litografía,  conduciendo a su progresivo declive a partir de la década de 1890. Inicialmente este sistema  solo reproducían imágenes monocromas,  reproduciendo posteriormente color, sistema que se  conoce como cromolitográfico.    Volvamos al viejo Ars scribenddi artificialiter o escritura mecánica. A pesar de que hubo varios  intentos para mecanizar la composición de los textos por parte de los impresores durante el  siglo  XVIII,    no  se  produjeron    innovaciones  significativas  hasta  que,  en  1886  aparece  la  linotipia,  inventada  por  Otto  Mergenthaler  y  la  monotipia,  inventada  en  1887  por  Tolber  Lanston..   Todas  estas  innovaciones  requieren  un  siglo  para  asentarse,  y  no  se  asientan  a  la  misma  velocidad en todos los países ni en todas las imprentas, pero configuran el libro del siglo XIX  como un producto mixto, entre el método artesanal y el industrial (hasta ese siglo  todavía se  hacía  línea por línea,  de forma similar a como se hacía desde el siglo XIV).   En  1884  el  inventor  alemán  nacionalizado  estadounidense,  el  relojero  Otto  Mergenthaler,  al  patentar  la  linotipia,  creo  una  máquina  que  permitía  colocar  automáticamente  al  operador,  pulsando  una  tecla  de  un  aparato  similar  a  una  máquina  de  escribir,  seleccionar  un  carácter  tipográfico  determinado    y  automáticamente,  la  matriz  o  molde  de  la  letra    seleccionada  quedaba libre,  saliendo a una zona común, en donde dicha letra, seguida de otras, formaban  las  palabras  y  espaciados  del  texto.  Cuando  una  línea  formada  por  estas  matrices,  se  completaba,  pasaba  automáticamente  a  una  caja  de  fundición,  donde  entraba  el  metal  fundido y formaba un lingote que constituía una línea de caracteres de imprenta.  

 

24   


De este modo se iban componiendo las líneas de caracteres de imprenta con el metal fundido,  hasta  que  el  original  entero  quedaba  acabado.  De  esta  forma,  las  líneas  matriciales  iban  saliendo realizadas en plomo listas para la impresión y dichas líneas después de utilizadas,  se  derretían  y  volvían  a  utilizar.Este  sistema  supuso  un  gran  avance  ya  que  permitía  componer  nuevos  caracteres  a  partir  de  matrices  ya  compuestas  y  basándose  en  la  tecnología  de  “composición en caliente”.  A  Ottmar  Mergenthaler  se  le  conoce  también  como  un  “segundo  Gutenberg”,    gracias  a  su  invento se podian configurar, de una forma fácil y rápida,  las líneas completas de texto para la  impresión. Eso supuso un gran avance en el mundo editorial y en general de la comunicación  escrita,    especialmente  en  la  difusión  de  publicaciones  periódicas,  ya  que  hasta  entonces  ningún periódico en el mundo había podido sacar impresas más de ocho páginas.   Otto Mergenthaler dejó su huella en la historia como inventor de la máquina de composición  tipográfica.  Su descubrimiento fue adoptado rápidamente por principales periódicos de todo  el mundo y fue su máquina Linotype la que abrió el camino para una nueva era en la creación  editorial que abarca desde periódicos a libros, desde la publicidad hasta una amplia gama de  literatura.  Con  esta  invención  y  su  posterior  evolución,  Otto  Mergenthaler  también  puede  considerarse como el fundador del posterior grupo de empresas Linotype  que son sido lideres  tipográficos  desde  1886  (linotype.com/es/49/historia.html).  En  1990  Linotype‐Hell  AG  es  adquirida por Heidelberger Druckmaschinen (heidelberg.com) uno de los mayores fabricantes  de prensas ofsset mundiales actualmente.  Apenas dos años después de la invención de la linotipia, en 1886, también en Estados Unidos,  

 

25   


se  presentó  la  máquina  de  componer  mecánica  conocida  como  monotipo,  creada  por  el  ingeniero inglés Tolber Lanston cuya principal característica era que separaba las operaciones  de composición y fundición.   Esta  máquina  permitía  componer  las  galeradas  a  mayor  velocidad  pasando  también  de  los  procesos manuales, que permitían componer tipos a mano a una velocidad de 2000 tipos por  hora, a una composición mecánica donde las letras eran fijadas a 6000 tipos por hora.    La  primera  máquina  se  instaló  en  1886  en  el  New  York  Tribune  y  doce  años  más  tarde    fue  perfeccionada  por  el  ingeniero  J.  SellersBancroft    que  redujo  su  tamaño  y  aumento  su  velocidad de trabajo, al tiempo que simplificaba su manejo.   También  en  1887  se  creo  la  compañía  Lanston  Monotype  Corporation  Ltd,  que  en  1999  fue  adquirida  por  Agfa  Corpugraphic  empresa  franco  alemana  especializada  en  medicina,  fotografía y artes gráficas desde 1867  (agfa.com) y, en 2004 la adquirió el  grupo TA Associates  (compañía de inversión privada ubicada en Boston),  que la transformo en Monotype Imaging ,  empresa especializada tipografía y  tecnologías de imagen digital para los mercados de todo el  mundo (monotypeimaging.com).  Hasta  la  revolución  digital  iniciada  en  la  mitad  del  siglo  XX,  ambos  equipos  monotipo  y  linotipia, con ligeras variaciones han sido utilizadas, incluso hoy siguen utilizándose.  Tambien entre 1850 (America) y 1855 (Paris – Madrid) se dan los primeros pasos de una nueva  tecnica que revolucionaria el mundo de la impresión: la fototipia.   Este procedimiento conduce muy poco tiempo despues a los primeros pasos del fotograbado  que, al mezclar fotografia y fotomecanica esta llamados a revolucionar el arte de la impresión.  En  1884  al  desarrollarse  el  sistema  de  impresión  offset,  un  sistema  que  ofrece  imágenes  de  calidad mas consistente, mas clara y más definida, aparte de que la duracion de las laminas es  mayor que la litografia directa, al no haber contacto directo entre la plantilla y la superficie de  contacto. Mediante la fototipia, la fotografia se introduce en artes gráficas,  en especial en la  prensa, siendo a partir de 1904, gracias a la tecnica de “halftone”,  que efectura la simulación  del  tono  continuo  en  las  imágenes,  en  función  de  puntos  que  varian  en  tamaño,  forma  o  espaciameniento, dio lugar a otra nueva profeción; el fotoperiodismo.  Pero  no  todo  iba  a  ser  la revolución  industrial  y  fría  técnica;  había  que  dejar  espacio  para el  arte. En 1875 se fundó la empresa Morris and Co., por William Morris (un artesano, impresor,  poeta,  escritor,  activista  político,  pintor  y  diseñador  británico,  fundador  del  movimiento  Arts  and Crafts). Morris se preocupó en preservar las artes y oficios medievales,  abominando de las  modernas  formas  de  producción  en  masa.  En  1891  fundó  Kelmscott  Press  donde  produjo  trabajos originales de gran calidad  (The Story of Sigurd the Volsung, Thefall of theNibelungs,  etc),  así  como  reimpresiones  de  los  clásicos,  siendo  su  obra  más  conocida  la  edición  de  los  Cuentos  de  Canterbury,  de  Chaucer,  ilustrada  por  Burne‐Jones  e  impresa  en  Kelmscott  Press  en 1896.   El movimiento de artes y oficios Art and Crafts pretendía volver a la manufactura artesanal en  contraste con la producción industrial de la época y así hacer llegar la cultura a las áreas menos  26   


pudientes de la sociedad.  Los productos de Kelmscott Press llegaron a ser tan complejos en su  fabricación  que  solo  las  clases  altas  pudieron  adquirir  los  ejemplares,  no  obstante  a  William  Morris se le reconoce sin lugar a dudas, una gran influencia  en las artes visuales y en el diseño  industrial del siglo XIX.  Pero  el  avance  tecnológico  continua  imparable.  En  el  último  tercio  del  siglo  XIX,  el  físico,  matemático, inventor e ingeniero Nikola Tesla, revolucionó la teoría eléctrica desarrollando la  corriente alterna. Diseño  y construyo  el primer motor de inducción con lo que se inició una  nueva época al ser uno de los promotores más importantes del nacimiento de la electricidad  comercial,    repercutiendo  sobre    equipamiento  y  maquinaria  utilizado  en  la  imprenta,  en  la  que  progresivamente  se  sustituyo  el  vapor  por  la  electricidad.  A  pesar  de  que  se  le  conoce,  sobre  todo,  por  sus  numerosas  y  revolucionarias  invenciones  en  el  campo  del  electromagnetismo, desarrolladas a finales del siglo XIX y principios del siglo XX.  Las patentes  de  Tesla  y  su  trabajo  teórico  formaron  las  bases  de  los  sistemas  modernos  de  potencia  eléctrica  por  corriente  alterna  (CA),  dando  pasa  al  motor  de  corriente  alterna,  que  tanto  contribuyeron al nacimiento de la Segunda Revolución Industrial.  El desarrollo industrial del arte de imprimir continuo imparable. En 1904 el estadounidense Ira  Washington  Rubel  desarrolla  para  la  impresión  sobre  papel,    el  sistema  de  impresión  offset  (con  anterioridad,  en    1875,  el  inglés  Robert  Barclay,  desarrollo  una  maquina  similar  que  imprimía sobre metales).   27   


En  1903  Washington  Rubel  descubrió  accidentalmente  que,  cuando  la  plancha  imprimía  la  imagen sobre una superficie de caucho y el papel entraba en contacto con ésta, la imagen que  el  caucho  reproducía  en  el  papel  era  mucho  mejor  que  la  que  producía  la  plancha  directamente.  Trabajando  con  esta  idea  de  pasar  indirectamente  (to  offset),  la  imagen  de  la  plancha a una base de de caucho llamada mantilla (blanket) y de ahí transferirla al papel,  la  imprenta  pudo  comenzar  a  imprimir  sobre  papeles    más  baratos  (y  por  desgracia  de  peor  calidad). 

  A partir de entonces, la litografía offset se convirtió en el procedimiento por excelencia de la  imprenta comercial.  Más tarde Caspar Hermann en asociación con Ernst Hermann, propietario de una empresa de  cauchos,  encargarían  la  construcción  de  una  nueva  máquina  para  la  impresión  de  offset  de  bobina, con patente de Caspar. La nueva prensa se terminó de construir en 1912 y recibió el  nombre  de  Universal.  La  impresión  offset  se  populariza  tras  la  I  Guerra  Mundialm  extendiéndose desde EEUU a Alemania generalizándose su uso en la segunda mitad del siglo  XX.    Es  el  sistema  más  utilizado  en  la  actualidad  aplicado  por  grandes  máquinas  rotativas  ya  que se ha ido adaptando a  la fotografía digital y permite grandes tiradas.  Su principal ventaja es una imagen  de alta calidad consistente, más clara y definida que con  otros  sistemas  de  impresión,    pudiéndose  incluso  utilizar  sobre  una  gran  cantidad  de  superficies  aparte  del  papel  (madera,  ropa,  metal,  cuero,  papel  rugoso).  Sus  planchas  o  matrices, son de rápida y fácil producción, con una  duración mayor que en litografía directa y,  para  grandes  tiradas  de  producción,  el  precio  de  cada  impresión  es  inferior  a  cualquier  otro  sistema.  En  las  imprentas  y  en  las  redacciones,  los  procedimientos  utilizados  (offset  y  huecograbado)  necesitaban  los  textos  de  tipografía  lo  que  retrasaba  el  trabajo.  Esta  limitación  impulso  la  investigación  de  la  composición  mediante  fotografía  de  las  letras,  lo  que  dio  lugar  a  la  fotocomposición.  Los avances de la electrónica permitieron hacer las primeras componedoras  que, con un ordenador programado para exponer los caracteres sobre una película, se podían 

28   


producir  entre  30.000  y  100.000  caracteres  por  hora  (Cuando  se  pudo  emplear  el  tubo  de  rayos catódicos llegaron hasta 300.000 caracteres por hora).  En  el  siglo  pasado,  sobre  1950    aparecieron  las  primeras  máquinas  de  fotocomposición,  que  producían imágenes fotográficas de los tipos en vez de fundirlos en plomo. Estas imágenes se  fotografiaban  con  una  cámara  de  artes  gráficas  a  fin  de  producir  unos  negativos  en  película  que servían  para obtener las planchas litográficas.   Los  avances  en  la  tecnología  de  planchas  en  los  años  cincuenta  y  sesenta,  junto  con  la  fotocomposición,  pusieron  fin  a  un  reinado  de  500  años  de  la  tipografía  como  principal  proceso  de  impresión.  Actualmente  la  composición  tipográfica  con  tipos  de  fundición  prácticamente ha desaparecido  pero el huecograbado sigue utilizándose de forma habitual.    

29   


30   


31   


Galaxia Siemens/Marconi (1965 – 2012)  Rudolf Hell, ingeniero alemán y electrotécnico que había trabajado para las fuerzas alemanas  desarrollando con su compañía “Rudolf Hell GmbH” (que resulto totalmente destruida durante  la guerra por ser objetivo estratégico) sistemas para trasmitir textos por teléfono o radio antes  de  la  II  Guerra  Mundial.  En  1947  refundo  su  compañía  y  patento  numerosos  aparatos  y  equipos  para  el  tratamiento  de  imágenes  usando  métodos  electrónicos,  desarrollando  sistemas  para  la  grabación  de  imágenes  que  revolucionaron  las  artes  gráficas  por  las  facilidades  que  ofrecían.  Entre  otros  inventosse  le  atribuye  el  fax  y  el  escáner  en  color,  así  como  otros relacionados con la  transmisión electrónica de textos e imágenes utilizados por  las oficinas postales y policía. (nonstopsystems.com/radio/hellschreiber‐history.htm)  En  1963  patento  el  “klischograh”,  sistema  que  se  utilizaba  para  el  grabado  electromecánico  de  planchas  tipográficas  tramadas,  de  material  plástico  y  metal,  disponiendo  de  corrección  electrónica  de  los  tonos  y  las  tonalidades  de  color,  con  exploración  fotoeléctrica  del  original.  A  este  ingeniero,  que  desarrollo  y  patento  en  1965  el  sistema “Digiset”, se le considera el  padre de la tipografía digital ya que  dicho sistema analiza cada carácter  de la escritura electrónicamente y lo descompone en diminutos cuadrados que se almacenan  digitalmente.Este procedimiento permitía componer más de un millón de caracteres por hora  con lo que superaba ampliamente los procesos opto mecánicos utilizados hasta la fecha. En los  años setenta vendió su empresa a  una filial de Siemens, para la que  siguió  desarrollando  sus  ideas  en  innovadores  aparatos  de  transmisión  de  textos  e  imágenes.  Hasta  entonces  las  fuentes  tipográficas  de  los  sistemas  de  impresión  tradicionales  estaban  pensadas  para  ser  reproducidas   analógicamente    y  la  mayoría  de  ellas  experimentaban problemas de legibilidad en cuerpos inferiores a 10 puntos, ya que las  formas de los caracteres no han sido concebidas para ser reproducidas en una pantalla de baja  resolución.   32   


Tradicionalmente  en  la  imprenta  los  tamaños  de  las  fuentes  están  dados  en  puntos,  una  fracción  del  cícero,  medida  utilizada para tipos de plomo. Al iniciarse  la  informatización,  desde  los  primeros  monitores  del  año  1984  en  las  computadoras  Macintosh  (hasta  el  desarrollo  de  las  tarjetas  gráficas  de  alta  resolución  para  PC),  los  Mac    sido  las  pantallas de más resolución pues desde el  principio tenían una relación de 1 punto =  1  pixel,  resolución  relativamente  buena,  que reproduce tipografía e imágenes a 72  ppp  (puntos  por  pulgada)  motivo  por  el  que fueron ampliamente utilizados en los  a  partir  de  los  años  80.  Por  el  contrario,  las  pantallas  de  los  PC  compatibles,  todavía poco desarrollados en esa época,  tenían una resolución menor, con pixeles  más grandes y utilizaban impresoras de matriz de punto, cuya impresión no guardaba relación   con lo que se veía en pantalla.   Hasta  que  las  impresoras  pasaron  a  ser  de  chorro  de  tintao  laser  y  Microsoft  en  su  entorno  Windows  evoluciono  sus  estándares  de  monitor  (CGA  ‐>  VGA  ‐>  y  SVGA),   no  se  estableció  pleno  color  y  la  resolución  de  96  pixeles  por  pulgada,  empezándose  a    utilizar  programas  basados  en  la  filosofía  WYSIWYG  (en  inglés  «what  you  see is what you get», «lo que ve es  lo que obtiene»).  Ya  en  1966  Linotype  comercializa  la  Lino  Quick  Setter,  fotocomponedora  capaz  de  componer  24.000  caracteres  por  hora  y,  en  1969,  introduce  en  el  mercado  la  Linotron  505,  fotocomponedora  con  tubo  de  rayos  catódico  que  logra  altas  velocidades  (en  1974  aparecen  la  33   


Linotron 303/TC y la Linotron 505/TC y apenas dos años después, después de 90 añosm dejan  de producir los sistemas tipográficos de fundición pasando a los digitales.  A  partir  de  la  segunda  mitad  del  siglo  pasado,  se  inicia  un  cambio  tecnológico  que  revolucionaria  el  mundo  de  la  impresión.  Los    tipógrafos  de  este  momento  empiezan  a  depender de las nuevas tecnologías y se comienzan a desarrollar tipos muy versátiles como la  Helvéticaque que es un diseño de Max Meidinger de1957, y que por sus características y fácil  legibilidad  se  ha  convertido  en  un  estándar  de  las  modernas  impresoras  láser,  alcanzando  unagran difusión en señalización, educación o publicaciones técnicas.  Con el paso de la galaxia Gutenberg a la galaxia Siemens/Marconi y la puesta a punto de los  sistemas de fototitulacion, se pasa de la tipografía en plomo a un nuevo material,  la película,   en la que los elementos de una página entera se basan en pequeñas manchas digitales, de los  cuales se crean la forma de las letras y las imágenes de mapa de bits.  Progresivamente la fotocomposición da paso a la autoedición,  llegando sobre la década de los  setenta  a  sistemas  que  permitían  dibujar  y  manipular,    sobre  pantalla,  la  tipografía  con  una  precisión  impensable  apenas  cinco  años  atrás.  Esta  tecnología  de  base  que  incluso  se  sigue  utilizando  hoy en día en los dispositivos de salida más modernos, llego en los años ochenta  a  sumir en una grave crisis, llegando a hacer casi desaparecer del mapa a la industria tipográfica  tradicional.  Hoy  encontramos  en  Internet,  de  libre  disposición  miles  de  tipos  disponibles,  básicamente  en  tres  formatos;  Ttf,  PostScipt  y  Open  Tipe;  direcciones  como  (buscafuentes.com) , (fontreactor.com)o (letramania.com) entre otras muchas nos las ofrecen.  En su uso se han popularizado estos formatos de fuentes y documentos:   El formato True Type  son fuentes compuestas por elementos vectoriales no PostScrip  de  alta  calidad.  Inicialmente  desarrollado  por  Apple    y  posteriormente  licenciado  a  Microsof  lo  incorporó  de  forma  estándar  a  partir  de  la  versión  3.1  de  Windows  en  1991. Es un formato  de tipos de letra escalables      El 

34   


Formato PostScrip  creado por los fundadores de Adobe cuando trabajaban en Xerox  Palo  Alto  antes  de  fundar  la  empresa  en  1982.  Es  un  lenguaje  que  describe  una  imagen de impresión vectorial de la letra, desarrollado para impresoras láser y desde  el  primer  momento  ofrecía  fuentes  de  alta  calidad  incluso  a  baja  resolución.    Fue  mejorado  en  1991  (PostScrip  nivel  2)  y  en  1997  (PostScrip  nivel  3)  incorporándose  incluso  al  formato  Pdf  desarrollado  para  Acrobat.  Dentro  de  este  formato  se  encuentran los tipos de letra usados como estándares para autoedición.     Open Tipe es otro formato de tipos de letra escalable. Apareció en 1996, diseñado por  Microsof y Adobe para suceder a los formatos TTF y PostScrip. Se basa en el formato  True  Type  del  que  conserva  su  estructura  básica  y  desde  2007  está  declarado  estándar ISO/IEC 14496‐22. Es un formato disponible de forma pública y gratuita con  soporte  extendido  para  lenguajes  complejos  como  el  árabe  o  el  hindú  y  tipografía  avanzada  para  alfabetos  no  latinos.  Este  formato  es  de  tipo  compuesto  (imagen  vectorial, mapa de bits y texto). Fue inicialmente desarrollado por la empresa Adobe  Systems,  oficialmente  lanzado  como  un  estándar  abierto  el  1  de  julio  de  2008  y  publicado por la Organización Internacional de Estandarización como ISO 32000‐1.       PDF (Portable Document Format(. En 1993 aparece la versión 1.0 del formato PDF de  Acrobat que si bien no es un formato  de  tipografía  en  sí,  por  sus  particularidades    reproduce  fielmente  cualquier  combinación  de  texto  (respetando  las  características  gráficas  y  tipográficas),  contenidos  multimedia    (sonido  o  video),  fotografías  hipertexto,  marcadores  y  enlaces,  integrando  en  una  sola  carpeta  múltiples  formatos.  Es  de  estándar    abierto  (ISO  32000)  multiplataforma  y  multisistema  por  lo  que  se  representa  en  cualquier  ordenador,  con  cualquier  sistema  operativo,  incluidas las nuevas Tablet y los teléfonos móviles,  motivo por el que es ampliamente  utilizado  por  todo  tipo  de  usuarios.  Se  estima  que,    en  Internet,  hay  más  de  150  millones de documentos de uso público circulando en este formato.    Empezó a desarrollarse en 1991 imponiéndose en poco tiempo como un estándar de  facto,  al  ser  un  formato  que  se  visualiza  como  una  página  digital  que  se  imprime  tal  como se visualiza en pantalla. Con el tiempo, al ser un estándar abierto, ha posibilitado  crear documentos con software libre sin necesidad de utilizar la aplicación de Adobe  tal  como  lo  plantea  actualmente  OpenOffice  (OpenOffice.org).  El  Kit  de  desarrollo  (SDK) de Adobe Acrobat  (disponible totalmente gratis) para crear software y plug‐ins  con  los  que  interactuar  y  personalizar  el  software  Adobe  Acrobat  y  Adobe  Reader,  35   


siendo actualmente el formato muy utilizado en artes graficas para preimpresión y el  envío electrónico de originales.  Se  ha  actualizado  progresivamente  durante  17  años  desde  1993  (versión  1.0)   apareciendo    en  2009,  la  versión  1.7  (Adobe  Extension  Level  5).    Para  las  personas  interesadas  en  obtener  más  información  sobre  él,  la  pueden  encontrar   (adobe.com/es/products/acrobat/adobepdf.html)    y  los  profesionales  de  artes  gráficas encontraran muchos aportes en (gusgsm.com/notas_uso_pdf_artes_graficas)    Formato  de  libro  electrónico  ePUB.  Como  en  el  caso  anterior,  no  es  un  formato  tipográfico en sí sino de texto.  Es un formato  gratuito y libre desarrollado por el IDPF  (International  Digital  Publishing  Forum),    de  estándar  abierto  y  dominio  público,  creado para distribución de publicaciones digitales basado en estándares Web. Define  un  fichero  que  representa  un  contenido  estructurado  de  semántica  mejorada  que  incluye  XHTML,  CSS,  SVG,  imágenes  y  otros  recursos,    para  su  distribución  en  un  archivo  único  que  se  adapta  a  los  diferentes  tamaños  de  pantalla  de  los  múltiples  lectores  de  libros  electrónicos  (eReader)y  Tablets  del  mercado,  así  como  dispositivos  multipropósito,  tales  como  teléfonos  con  sistema  operativo    iPhone,    Android,  Symbian  o  Windows  Mobile  y  ordenadores  personales.  Fue desarrollado por Google  con  filosofía  similar  al  sistema  operativo  Android.  Siendo  apoyado  por  los  editores,  inicialmente  estadounidenses  y  con  posterioridad  l  europeos,  que  han  apoyado  de  forma  oficial  este  formato.  Ha    recibido  el  impulso  definitivo  al    ser  incluido  en    Google  Books,  donde  varios  millones  de  libros  están  disponibles en este formato    Como  sucesor  del  formato  OEB  (eBook  Open  Publication Estructure) se desarrollo a partir de 1999, aprobándose en 2010 la versión  beta  2.0.1  que,  aprobándose  en  octubre  de  2011  su  versión  final  (idpf.org/epub/30/spec/epub30‐publications.html),  encontramos  como  software  libre  y  gratuito  el  programa  QualityEpub  (qualityepub.es.tl/Home.htm)  ,  programa  que  permite  convertir  cualquier  documento  en  formato  DOC,  RTF,  o  txt  en  un  eBook   compatible  con  el  estándar  MOBIPOCKET,    generando  ficheros  de  excelente  calidad  (incluyendo  portada),  respetando  alineamientos,  tablas,  notas  al  pie,  cursivas,  negritas, bloques de texto, listas, imágenes, etc.). También cumple los requerimientos  y  recomendaciones  de  Amazon,    de  forma  los  que  libros  generados  pueden  ser  enviados directamente a dicha distribuidora para su comercialización. En la dirección  citada  se    puede  descargar  la  versión  0.50  de  del  programa,  así  como  una  guía  de  utilización  del  mismo.  Otro  software  generador  de  este  formato  es  Sigil,  editor  de  libros  electrónicos  WYSIWYG  multiplataforma.  Edita    metadatos  con  el  apoyo  total  para todas las entradas de metadatos posibles (más de 200).  Totalmente compatible  con  la  presentación  de  cualquier  documento  XHTML  bajo  especificaciones  OPS.  Más  36 

 


información  y  descargas    en  (code.google.com/p/sigil/).    También  encontramos  en  calibre‐ebook management (calibre‐ebook.com) un organizador de libros electronicos  qu epermite la conversion de numerosos formatos, es multiplataforma y multisistema   (compatible Windows, Mac y Linux).  A  la  mitad  del  pasado  siglo,  como    consecuencia  de  los  desastres  de  la  II  guerra  mundial,  especialmente  por  la  ingente  pérdida  de  patrimonio  bibliográfico  y  arquitectónico  destruido,  surgen  las  primeras  tentativas  de  reproducirlo  gráficamente.  Bien  mediante  fotografía,  bien  mediante  microfilm,  Alemania  empieza  (de  ahí  el  desarrollo  de  su  industria  microeditora),  primero en blanco y negro, después en color, incluso con la digitalización en su momento. Así  hoy encontramos cientos de manuscritos centenares de miles de reproducciones fotográficas  de arquitectura, arte, publicaciones periódicas, etc. . Tutelado por la Universidad de Marburgo,  se  encuentra  el  portal  (fotomarburg.de/)  desde  donde  podemos  acceder  a  una  cantidad  ingente de información, incluyendo manuscritos (Manuscripta‐medievalia.de).  A  partir  de  la  segunda  mitad  del  siglo  XX  empieza  una  nueva  era    de  “renacimiento  tecnológico”  donde,  después  de  los  horrores  de  dos  guerras  mundiales  la  bibliofobia  demostrada por las ideologías totalitarias, se crea una conciencia nacional de protección sobre  el patrimonio artístico, arquitectónico y bibliográfico.   A  finales  de  la  segunda  guerra  mundial,  el  científico  humanista  Vannevar  Bush,  jefe  de  una  comunidad de científicos encargados de la creación de la bomba atómica en los albores de la  Segunda Guerra Mundial, y asesor del presidente americano, plantea su visión en un mundo  posbélico  y,  entre  tantos  sueños  posibles,  escoge  uno;  una  máquina  que  ponga  cualquier  publicación del mundo encima de la mesa.   En  su obra As we May Think (Como podríamos  pensar),  publicado  en  1945  (biblioweb.sindominio.net/pensamiento/vbush‐es.html)  especula  con las posibilidades futuras que el computador traerá a la humanidad. Este artículo es clave  en  el  desarrollo  del  pensamiento  de  quienes  vendrán  en  el  último  tercio  de  siglo  con  la  revolución informática,  ya que, Vannevar Bush, de forma incipiente, sugiere los conceptos del  hipertexto, la web y otros desarrollos posibles en ella, como la Wikipedia.  Bush,  como  Verne,    fue  científico    visionario  en  su  tiempo,  y  sentó  las  bases  ideológicas  de  muchas  de  las  maravillas  tecnológicas  que  conocemos  hoy.  Asesor  científico  del  presidente  Roosevelt,    durante  25  años  (1919  –  1944)  fue  profesor  en  el  Departamento  de  Ingeniería  Eléctrica  del  MIT  donde  desarrollo  proyectos  relacionados  con  dispositivos  ópticos,  composición  fotográfica,  almacenamiento  y  recuperación  de  microfilms.  También  diseño  el  primer computador analógico ��que fue desplazado por la computación digital  conocido como  Analizador Diferencial, aparte de crear  una máquina que funcionaba al dictado y que mientras  se le hablaba,   almacenaba la información en texto  escrito; el Vocoder , máquina precursora  de software como VoiceType.  Pasado el tiempo de las batallas de la II Guerra Mundial, este ingeniero ve que la investigación  se  va  a  volcar  a  extender  las  capacidades  intelectuales  y  la  comunicación  del  ser  humano,  especialmente de los científicos y facilitando el acceso al conocimiento de la población a nivel  global.  Desarrollo  la  idea  de  un  aparto  llamado  Memex  que  inspiro  posteriormente  los  conceptos  del  hipertextoe  internet.    En  este  dispositivo  mecánico,  se  podían  almacenar  37   


publicaciones  impresas,  grabaciones  así  como    comunicaciones,  estaba  mecanizado  de  tal  modo que en él se podía consultar la información almacenada de una forma rápida y flexible  y  no  lineal,  de  forma  similar  al  hipertexto  como  lo  conocemos  hoy.  Físicamente,  el  Memex  parecía  una  mesa  con  dos  monitores  accionables  mediante  lápiz  óptico  y  un  escáner.  En  su  interior  se  almacenaba  la  información  indexada  compuesta  tanto  por  texto  como  por  imágenes, siguiendo estándares universales tipo CDU.   Este  aparato  nunca  se  desarrolló  pero  inspiró  a  las  generaciones  posteriores.  La  idea  que  el  cerebro no trabaja de manera lineal sino por asociación, se graba en la mente de las nuevas  generaciones  de  estudiantes  de  ciencias,  llevándolos  a  ver  los  computadores  de  forma  radicalmente  diferente  a  como  en  ese  momento  estaban  concebidos.  Así,  Douglas  Engelbart  desarrollo  el  concepto  del  ratón  para,  por  medio  de  la  programación  relacionada  a  objetos,   relacionar una cosa u el conjunto al que pertenecía (sistema de iconos asociativos de cualquier  ordenados),  siendo  un   pionero  de  las  primeras  aplicaciones  de  interacción  humana  con  las  computadoras o Ted Nelson  (desarrollador    del  hipertexto    e  hipermedia    y  fundador  del  proyecto  Xanadu  en  la  década  del  60), cuya idea era crear una  biblioteca  en  línea  con  toda  la  literatura    de  la  humanidad.    Ted  Nelson  que  padecía  un  síndrome  neurobiológico  conocido  como  déficit  de  atención  que  desde  muy  pequeño  le  obligó  a  buscar  referencias  mentales de medios u objetos, para relacionarlos y permitirle recordar, debido a la capacidad  de olvidar inherente a este síndrome. Desde joven, en la década de los 60 se interesó por los  primeros  lenguajes  de  programación  del  incipiente  mundo  de  las  computadoras  intuyendo  potencialidades que en esa época muy pocos imaginaban.  El proyecto de Nelson relaciona las  palabras y frases de un texto, con otros, bien del mismo texto bien de otros textos a la manera  de  los  textos  medievales,  proponiendo  una  distinta  y  renovada  forma  del  acto  de  escribir  y  leer, en el que las palabras y las frases no ocupan un lugar fijo como en las páginas de un libro,  sino  que  se  vinculan  entre  ellas  por  medios  de  enlaces,  ofreciéndose  así  la  posibilidad  de  relacionar contenidos en espacios multidimensionales.   De  esta  forma  nació  el  concepto  hipertexto  mediante  el  cual  se  podría  tener  acceso  instantáneo al dato que necesitase, pudiendo así saltar entre diversas versiones de una misma  obra,  o  identificar  y  acceder  a  documentos  relacionados  con  el  tema  que  estuviera  consultando en ese momento. Ese fue el germen del proyecto Xanadu, concebido ya en los 60  como  una  red  mundial  de  computadoras  interconectadas  a  un  servidor  central,  en  la  que,  a  38   


partir  de  cada  terminal,    cada  usuario  podría  mantenerse  comunicado con miles y hasta millones de otros usuarios y, al  mismo  tiempo,  tener  acceso  libre  a  ingentes  cantidades  de  informaciónpues mediante el hipertexto, cada documento se  vinculaba con otros a partir de frases o extractos del mismo,  o sea, que partiendo de un solo texto, poder tener acceso a  otros muchos que se relacionasen con él.   En  su  visionaria  concepción  de  1965,  Xanadu  (xanadu.net)  además  de  la  gran  biblioteca  universal,    era  el  gran  espacio  virtual  en  el  que  se  encontraban  usuarios  de  todas  clases,  condiciones  y  edades,  sin  importar  en  qué  lugar  del  mundo  estuviesen    y  ahí,  en  ese  territorio  cibernético  y  libre   interactuarían  a  placer.  En  esa  utópica  concepción  para  la  época,  ,  Xanadu  era  la  gran  biblioteca  universal  donde  se  almacenarían  permanentemente  todos los textos del mundo, en un depósito universalmente accesible.   También  en  1967,  Marshall  McLuhan  fue  creador  de  numerosos  conceptos,  hoy  muy  populares,  acerca de los medios de difusión masiva y la sociedad de la información, creando el  concepto de la Galaxia Gutenberg o la Aldea global.    Ese año  publico The Medium is the Massage (El medio es el mensaje),prediciendo el impacto  que  sobre  el  futuro  tendrián  la  combinación  de  la  electrónica  y  los  libros,  así  como  sus  beneficios potenciales, a pesar de que, inicialmente, hubo quien interpretó  que promovía  el  fin de la cultura del libro. También McLuhan acuñó el término “aldea global”  para describir la  interconectividad humana a escala mundial  que se generaría por los medios electrónicos de  comunicación.  Su  génesis  del  “Homo  Typographicus,    The  Medium  is  the  Massage”    sigue  siendo una lectura obligada para la comprensión del fenómeno global. La podemos encontrar   (89.141.91.124/host/host/BOOKS/UPPER/MCLUHAN%20‐%20LA%20GALAXIA%20GUTENBERG.PDF) 

  Muy  poco  tiempo  después,  en  1968,  un  pionero  de  la  programación  orientada  a  objetos  o  interfaz  grafica  de  usuario,  Alan  Kay  (actualmente  profesor  del  MIT  y  colaborador  destacado  39   


del  proyecto  “One  Laptop  per  Child”  junto  con  Negroponte),  creo  el  Dynabook  una  especie  entre  ordenador    y  tableta  la  vez,  dotado  de  un  apantalla  de  alta  resolución  para  la  época  (tenía un millón de pixeles), dispositivo al que definía como “algo como súper papel”  Tuvieron que pasar casi tres décadas para que, la idea de Vannevar Bush se materializase.   En 1989 Tim Berners–Lee unio el hipertexto e Internet, al unir  la concepción del lenguaje de  etiquetas de hipertexto, el HTML (Hyper Text TrasferProtocol) y el sistema de localización de  objetos  en  la  Web  o    URL  (Union  Resour  Locator),  por  lo  que  se  le  considera  el  padre  de  Internet.  En  su  libro  Tejiendo  la  red  (disponible  para  su  lectura  en  Google  Books  bajo  la  búsqueda (tim berners tejiendo la red pdf), nos explica porque la tecnología es libre y deber  ser gratis, desarrollando su idea del diseño un sistema global de información de tal forma que,   cada  usuario,  en  un  nodo,    pudiera  navegar  por  el  resto  de  ella  de  forma  totalmente  automática, es decir, sin tener idea de cómo funciona el sistema del otro usuario, qué sistema 

operativo  usa,  qué  lenguajes  de  programación  utiliza  o  qué  aplicaciones  funcionan  en  su  equipo.  Así  es  como  la  gran  telaraña  mundial,  la  World  Wide  Web    se  ha  convertido  hoy  un  sistema  de  información  universal,  en  un  sistema  de  distribución  de  información  basado  en  hipertexto e hipermedios, en una forma de acceso a casi toda la información existente en  el  mundo y hoy en día que nos ha cambiado el ocio, el acceso a la información y el intercambio  de ideas a casi todos los habitantes del planeta  Posiblemente  la  forma  más  sencilla  de  explicar  la    WEB  sea  recurrir  a  la  imagen  de  una  biblioteca.  En  ella  hay  información  restringida  al  lugar  físico  donde  está  ubicada.  Con  anterioridad a esas fechas (olvidemos por un momento los catálogos colectivos), una persona  que buscase información sobre un determinado tema, debía recorrer biblioteca por biblioteca  y  correlacionar  la  información  a  mano,  sin  poder  “navegar”  a  través  de  la  imagen  virtual  de  todos los libros de todas las bibliotecas donde se encontrase la información; pues bien, la Web  lo está haciendo posible.  En 1998, cuando se celebra la primera feria del libro Electrónico en Gaithersburg, (Maryland,  Estados  Unidos),  publicándose  a  consecuencia  de  ella,  en  1999  la  versión  final  1.0  de  una  40   


especificación  denominada  “Estructura  de  Publicación  del  Libro‐e  Abierto  (Open  eBook  Publication  Structure)”,  que  determinó  las  plataformas  html  y  xml  como  el  estándar  para  la  edición electrónica ( markosweb.com/www/openebook.org/) .    Uno  de  los  primeros  proyectos  de  biblioteca  digital  en  lengua  española,  fue  laBitbilioteca,  alojada  en  analítica.com,    se  debe  al  venezolano  Roberto  Hernández  Montoya,  cuya  declaración de principios ya el 10 Octubre de 1997 la establece así:      Qué es La BitBlioteca?.La BitBlioteca es un proyecto infinito. Parte del principio de que no hay  límite  para  lo  que  puede  ser  publicado.  No  hay  límite  por  el  volumen,  no  hay  límite  por  lo  ideológico, no hay límite por lo "conveniente". El papel impone al libro su inercia y su costo. En  electrones,  en  bits,  el  libro  recibe  una  nueva  libertad  y  una  ingravidez  que  promete  más  temprano que tarde aligerar su instalación en todas las inteligencias. El libro electrónico no se  propone  desplazar  el  libro  de  papel  sino  complementarlo  y  completar  las  tareas  que  el  papel  no  permite.  Si  el  libro  de  papel  sobrevivirá,  o  no,  es  vaticinio  que  desborda  los  propósitos y  facultades de esta  presentación.  Lo  dejamos  al  tiempo  con  prudencia  y  comedimiento.  Basta  que  un  sector  de  la  sociedad  considere  que  un  documento es importante para que sea elegible por La BitBiblioteca. No hay pues un programa  condicionante.  Hemos  comenzado  con  algunos  documentos  cuyo  única  unidad  es  su  mutua  heterogeneidad, pero ello no implica ni un compromiso ni un confinamiento, sino un prototipo  de  lo  posible.  Presento  esta  aventura  intelectual  en  espera  de  las  observaciones,  las  sugerencias,  las  contribuciones  y  también  las  críticas,  porque  todas  serán  variantes  de  respaldo. Roberto Hernández Montoya.  De este autor sigue siendo muy vigente la Breve Teoría de Internet publicada en mayo de 1997  paradigma  del  libro  digital  y  cuya  lectura  sigue  siendo  plenamente  vigente.  Se  encuentra  en  (analitica.com/bitblioteca/roberto/teoria.asp)  Otra de las primeras tentativas de biblioteca digital la encontramos en el proyecto Gutenberg  que originariamente surge en la universidad de Illinois iniciado en 1971 por Michael Hart y se  nutre de obras clásicas cuyos derechos de autor  han prescrito (gutenberg.org/). Este proyecto se  ha extendido a escala mundial:  Australia   Canadá   Alemania  

(gutenberg.net.au)  (gutenberg.ca)  (gutenberg.spiegel.de)  41 

 


Europa    Suecia     

(pge.rastko.net)  (runeberg.org) 

                                           Como culminación de los sueños del los visionarios de las últimas seis décadas, y como prueba  evidente  de  que  la  utopía  puede  ser  realidad,  Internet  también  tiene  su  propia  biblioteca  donde  descargar  gratis  libros  electrónicos.  En  (archive.org/details/texts)    encontramos  a  nuestra  disposición  una  biblioteca  de  más  de  3.600.000  títulos,  en  una  amplia  variedad  de  temas,  tanto  de  ficción  como  de  divulgación,  académica,  histórica,  etc,  así  como  enlaces  o  contenidos  de  otras  bibliotecas  en  línea.    Dentro  de  las  subcoleciones  de  esta  biblioteca  de  Internet, encontramos:   

 

American  Libraries.  Cromolitografías,  textos  ilustrados  en  blanco  y  negro  o  color,  literatura, historia, etc.      1.700.000 títulos  Las  bibliotecas  canadienses.  Fundamentalmente  son  fondos  de  la  biblioteca  de  la  Universidad de Toronto que ha estado escaneando libros sin derechos de autor desde  2005  para  ponerlos  a  disposición  tanto  para  investigadores    e  investigadores  como  para público general. Continw  textos clásicos publicados entre 1575 y 1606 así como  obras clásicas de Galileo , manuscritos latinos, etc.  389.559 títulos  Biblioteca  universal.  El  Proyecto  Biblioteca  Universal,  a  veces  llamado  el  Proyecto  de  millones  de  libros,  fue  iniciada  por  Jaime  Carbonell,  ReddyRaj,  Shamos  Michael,  GlorianaSt  Clair,  y  Robert  Thibadeau  de  la  Carnegie  MellonUniversity.  Los  Gobiernos  de  la  India,  China  y  Egipto  están  ayudando  a  financiar  este  esfuerzo  a  través  del  escaneo aportando instalaciones y personal.  107.365 títulos   Textos comunitarios. Es el original proyecto Open SourceBooks que cambio el nombre  a  textos  de  la  comunidad    o  libros  de  la  comunidad.  Son  los  libros  aportados  por  la  comunidad internacional en la que se encuentran reflejados infinidad de países de los  cinco continentes.  163.910 titulos  Proyecto Gutenberg. Del que ya hemos hablado anteriormente. 40.000 titulos  BiodiversityHeritage Library. Contiene los textos de las diez principales bibliotecas de  museos  de  historia  natural,  asi  como    bibliotecas  botánicas  e  instituciones  de  investigación que se unieron para formar el  “BiodiversityHeritage Library Project”   y  que  desarrollaron    un  plan  estratégico  y  operativo  para  digitalizar  la  literatura  publicada  sobre    la  biodiversidad  en  sus  respectivas  colecciones  y  ponerla  asi  a  disposición de la comunidad mundial. 66.221 títulos 

Del ilustrativo (y fiable) blog Libros y Bitios de José Antonio Millán (jamillan.com) ‐uno de los  promotores  de  la  Biblioteca  Virtual  Miguel  de  Cervantes‐,    (cervantesvirtual.com)  extraigo  literalmente el dato, bastante fiable, de la disponibilidad de libros digitales a finales de 2011:  Obras libres de derechos           17.223.600    42   


       

Libros digitalizados en Google: 13.000.000  Internet Archive [muchos provienen de Google]: 2.500.000  Volúmenes digitalizados en Hathi Trust [muchos provienen de Google]: 1.583.000  Libros  digitalizados  en  la  Biblioteca  Virtual  Miguel  de  Cervantes:  60.000  [fuente:  Biblioteca Virtual]  Libros digitalizados en el Proyecto Gutenberg: 33.000  Libros disponibles para Kindle: 30.000 [según TUAW, gracias a jjclerici y a Toni Matas]  Libros digitalizados en la Biblioteca Digital Hispánica, de la Biblioteca Nacional: 14.000  El Aleph: 3.600 [gracias, Julieta] 

  Obras con copyright vigente      3.192.000     Libros digitalizados en Google por acuerdo con editores: 2.000.000   Libros  disponibles  para  Kindle:  700.000  670.000  [corrección  según  TUAW,  gracias  a  jjclerici y a Toni Matas]   Libros disponibles en Lulu (distintas lenguas, no autopublicación): 200.000   Libros disponibles en Laie: 124.000 [fuente: Laie]   Libros disponibles en E‐libro.com (para bibliotecas, en español): 38.000 [fuente: E‐libro]   Libros disponibles en iBook (para iPhone o iPad): 30.000 [fuente: TUAW, gracias a Toni  Matas]   Libros disponibles en BuBok (autopublicación): 30.000 [fuente: BuBok]   Libros disponibles en Publidisa: 100.000 25.000 [fuente: Publidisa]   Libros en español en P2P: 25.000 [estimación de Gorki]   Libros disponibles en Grammata: 23.000 [comprende también libros sin derechos]   Libros  en  “edición  electrónica”  editados  en  España  en  el  primer  semestre  del  2010:  9.546 [fuente: Boletín del Observatorio del Libro y de la Lectura, nº 1, Agosto 2010]   Libros que alcanzará Libranda este año: 8.000 4.000‐5.000   Libros  digitalizados  en  la  Biblioteca  Digital  Hispánica,  de  la  Biblioteca  Nacional  de  España, a través de Enclave: 2.700 3.300 [fuente: Boletín del Observatorio del Libro y  de la Lectura, nº 2, Octubre 2010, borrador]   Libros  en  español  disponibles  en  Lulu  (autopublicación):  2.885  [haciendo  la  búsqueda  desde España, en la categoría ebooks]   Libros  disponibles  en  Edi.cat:  2.400  [1.700  de  Libranda,  y  el  resto  entre  Edi.cat  y  EdiBooks; fuente: Edi.cat]   Libros disponibles en E‐libro.net [en español]: 2.000 [fuente: E‐libro]    La página del libro en su devenir ha tenido una forma bidimensional, similar a una pantalla  de  ordenador, en el que el conocimiento se ha expresado mediante signos y hoy, estos signos, se  están trasmutando alquímicamente, están cambiado su naturaleza de átomos a bits, bits que  se representan mediante pantallas o monitores por la que está brotando una buena parte del  conocimiento en el  mundo digital.     43   


La alquimia hermética ya fue muy conocida en la edad media. Hasta nosotros han llegado gran  cantidad de libros y documentos alquímicos que son incalculables obras de arte, (también  el  oscurantismo atávico llevo a muchos alquimistas a la hoguera) y seria la precursora de lo que  hoy  conocemos  como  como  una  ciencia  llamada  química,  que  junto  a  la  física  y  las  matemáticas,  han dado muchas respuestas a la esencia del ser humano.    Esperemos  que  pronto  un  nuevo  Dmitri    Ivánovich    Mendeléyev  cree  una  nueva  Tabla  Periódica de los Elementos, que ordenando todos los nuevos elementos analógicos o digitales,  naturales  o  creados  por  el  ingenio  del  ser  humano,  normalice  de  forma  irreversible  todo  el  proceso creativo del pasado para construir el futuro.    “Nupedia”  fue  el  proyecto  de  recopilación  de  información  de  contenido  libre  más  ambicioso,  iniciado  en el año 2000.  Cuando se llevó a cabo la idea de crear la  mayor  enciclopedia  de  la  historia,  con  unas  características  muy  particulares:  contenido  abierto  y  gratuito.   Debido  al  lento  avance  del  desarrollo  se  creó  de  forma  paralela  “Wikipedia”,  con  el  objetivo  de  crear  artículos  rápidos que fueran revisados por expertos para después  incluirlos  en  “Nupedia”,  sin  embargo,  los  directivos  rápidamente cambiaron sus expectativas y la obra inicial  fue abandonada a favor de “Wikipedia”. “Nupedia” dejó  de  funcionar  en  2003.    Wikipedia  es  actualmente,  la  enciclopedia  virtual  más  conocida  contando con más de 10.000.000 millones de artículos en 105 idiomas diferentes  Entre  galaxia y galaxia con agujero de gusano incluido, quisiera rendir tributo, a un pequeño  cuerpo menor de nuestro sistema solar, descubierto en 2003 y que recibió el nombre de una  diosa esquimal del mar; el  planeta Sedna.  En la URL, (portalplanetasena.con.ar) encontramos  uno de los portales más generoso y completo que podemos encontrar en Internet, incluso para  bajar libros. 

  Su  interfase  actual  tiene  más  de  60  enlaces  clasificados  por  disciplinas  o  especialidades,  También  ofrece  la  búsqueda  por  autores  y  títulos  para  dar  mayor  facilidad.  No  hay  que  suscribirse. Y toda publicidad o mensaje lleva un tono humanístico.  Además de dar la opción de bajar libros gratis, posee una sección de entretenimiento llamada  Ocio Sedna, otra para escuchar música online gratis y otra dedicada solamente a la ciencia y  tecnología.  Noticias  de  todo  tipo.  También  puedes  encontrar  la  Historia  de  Argentina,  la  Historia Universal, de la Edad Media, la Moderna y decenas de utilidades en este sentido.  44   


La información y los servicios sobretodo educativos en este sitio es sencillamente fascinantes.  Desde aquí quiero rendir mi reconocimiento a su mantenedor, el ingeniero argentino, Claudio  Pellini,  Webmaster  continuador  del  portal,  que  dedica  a  la  memoria  de  su  hijo,  da  la  bienvenida con una sencillez que reflejan los motivos que le llevaron a mantenerlo  "Planeta Sedna, Un Sitio Con Alma"  Esta página es personal, no comercial, y está dedicada  a todos aquellos curiosos del planeta  que viven sorprendidos ante este misterioso universo y se esfuerzan apasionadamente día a día  para comprenderlo un poco mejor.  Mi hijo Rubén era uno de ellos.    Volvamos  a  la  industria  del  libro.  Ya  digital  a  finales  del  siglo  XX  dos  nuevos  conceptos  empiezan a tomar fuerza; la digitalización automática (Digital On Line) y la impresión unitaria  del ejemplar bajo petición ( Print on Demand )   Digital On Line. El gran (y cuestionado proyecto) de la biblioteca digital mundial se revitalizo  

en  1998,  durante  el  doctorado  de  Larry  Page    y  Sergey  Brin  (creadores  de  Google)  en  la  Universidad de Stanford donde ya experimentaron hace más de 15 años con la digitalización  automática    de  libros,  utilizando  el  primer  robot  industrial  de  libros.  Este  robot  es  fabricado  por la empresa suiza 4DigitalBooks (4digitalbooks.com) y utilizado desde 2002. Es un escáner  de  libros  automatizado,  que  produce  imágenes  digitales  de  alta  calidad  de    materiales  impresos encuadernados con  tasas de rendimiento altas, (inicialmente sus resultados fueron  45   


1160  páginas  por  hora).  Dicha  máquina,,  se  diseñó  para  digitalizar  de  forma  automática  una  amplia  gama  de  tamaños  de  libros  y  con  sensores  para  detectar  las  variables  del  estado  del  papel; desde libros en rústica y folletos  pequeños (12,55 cm. de largo por 10 cm. de ancho),  hasta grandes formatos encuadernados (58 cm. de largo por 40 cm. de ancho). Trabaja sobre  una amplia variedad de libros, desde tapas (incluidas tapas duras) incluso ejemplares cosidos o  grapados.  Dotada  de  micro  sensores  muy  precisos,    procesa  toda  una  variedad  de  tipos  de  papel, que incluye  papel fino, medio o grueso, papel de periódico, papel no estucado y papel  recubierto. Este equipo desde su inicio estuvo equipado con  cámaras digitales fabricados por  la francesa I2S (i2s‐bookscanner.com ).  La máquina 4DigitalBooks  o su hermana pequeña la 4DigitalBooks DL Mini, son máquinas que  digitalizan en alta calidad, tanto en blanco y negro, como escala de grises o e, color. Trabaja en  formatos    TIFF,  Jpeg  p  Pdf  con  una  resolución  óptica  directa  de  hasta  600  dpi  y  junto  con  el  software  desarrollado  por  Imageaccess  (por  cierto  otro  buen  fabricante  de  escáneres  para  libros  (  imageaccess.com)),  permite  la  creación  manual  y  captura  automática  de  metadatos  descriptivos, administrativos y técnicos, así como la realizacion de derivados para el acceso en  línea en formatos JPEG, PDF de sólo imagen, PDF de búsqueda, e inclusos formatos de texto  plano. El motor de flujo de trabajo incluye módulos para la entrada manual de los metadatos  descriptivos,  recorte  automático,  la  división  y  el  procesamiento  de  imágenes  de  las  exploraciones  (capturas)  a  libro  abierto,  revisión  manual  y  el  tratamiento  de  imágenes.  Permiten la conversión de imágenes o corregir el texto (a través del reconocimiento óptico de  caracteres u OCR), y la creación de archivos PDF y derivados de texto.  También este software  permite  asociar  otros  capítulos  o  párrafos  de  un  libro  con  rangos  de  imágenes  de  la  página  para la creación de marcadores PDF o textos codificados.  

  También  en  el  mercado  de  escáneres  automatizado  para  libros  podemos  encontrar  los  modelos  Kabis  I,  II  y  III  de  Kirtas  Technologies  (kirtas.com)  y  o  los    ScanRobot  de  Treventus  (treventus.com)  Los  equipos  de  4DigitalBooks  fueron  la  base  a  lo  que  conocemos  como  el  proyecto  Google  Books.  Por  parte  de  Google  se  han  establecido  acuerdos  a  nivel  mundial  con  bibliotecas  de  universidades  públicas  o  privadas,  cuyo  objetivo  es  simple:  facilitar  la  búsqueda  de  libros  relevantes, especialmente aquéllos que no se pueden encontrar de ningún otro modo, como  46   


por  ejemplo,  libros  descatalogados  antiguos  o  agotados,  todo  ello  sin  violar  los  derechos  de  autores y editores.   Su objetivo final es colaborar con editores y bibliotecas para crear un amplio catálogo virtual  de  obras  en  todos  los  idiomas,  que  permita  a  los  usuarios  descubrir  nuevos  libros  y  a  los  editores descubrir nuevos lectores.   Con  posterioridad,  dentro  de  los  programas  de  Google  de  optimización  de  recursos,  Google  Books,  se amplió a recoger libros con derechos de autor, de los que, después de dar una breve  reseña, facilitan el contacto con librerías virtuales, bien para su adquisición digital, bien para su  adquisición impresa.   En  España,  se  han  acogido  a  este  programa  la  Biblioteca  de  Cataluña  y  la  Biblioteca  de  la  Universidad Complutense de Madrid. Para una lista de las bibliotecas asociadas al programa,  se puede consultar(books.google.es/intl/es/googlebooks/partners.html) .   Print  on  Demand.  En  sentido  opuesto  encontramos  la  impresión  bajo  demanda    (Print  on  Demand  o POD). Mediante este sistema, el libro permanece en catálogo bajo forma digital y  solo  se  imprime  cuando  se  recibe  el  pedido  por  parte  del  comprador,  todo  ello  de  forma  electrónica, generalmente a partir de Internet y el pedido puede llegar desde cualquier lugar  del mundo. Elimina los problemas derivados de las tiradas, el almacenaje y la distribución.   La impresión bajo demanda con tecnología digital se usa como una forma de impresión con un  coste fijo por cada copia, independientemente de la cantidad de copias pedidas y si bien tiene  un  precio unitario mayor que la impresión offset en tiradas importantes, el costo promedio es  mucho menor para tiradas pequeñas.  Muchas pequeñas prensas tradicionales han sustituido  su  equipo  de  impresión  tradicional  por  equipo  POD,    o  bien  contratan  la  impresión  a   proveedores de servicios establecidos bajo esta forma de impresión  Otros usuarios de este sistema son las editoriales académicas y las publicadoras de "literatura  gris"  universitaria  en  todo  el  mundo,    como  en  el  caso  de  UMI,  University    Microfilms  International,  empresa  fundada  en  1930  (durante  décadas,  la  mayoría  de  las  instituciones  educativas  y  universitarias  de  América  del  Norte  publicaron  sus  tesis  doctorales  a  través  de  UMI  contando  con  millones  de  ellas),  que  posteriormente,  en  1998  paso  a  ser  ProQuest  Information & Learming (proquest.com) y  en febrero de 2007 fue adquirido por el Cambridge  Information  Group  (cig.com),  empresa    gestión  e    inversión,  en  los  servicios  de  educación,  investigación e información .  A partir de 2006, la edición de libros bajo demanda ha crecido en popularidad, especialmente  en  el  mercado  de  consumo,  por  la  demanda  que  de  ella  realizan  los  autores,  al  permitirles  publicar  sus  obras  en  tiradas  pequeñas  y  situarlas  en  los  catálogos  de  las  grandes 

47   


distribuidoras.

  Existen también grandes empresas Print‐on‐demand que ofrecen sus servicios de impresión y  distribución a las empresas editoriales (en lugar de realizar directamente la auto‐publicación a  petición de los autores).  Estas  empresas están  creciendo en popularidad en la industria. Los  líderes de impresión bajo demanda de proveedores de servicios para las empresas editoriales  son  Lightning  Source,    http://www1.lightningsource.com/    una  división  del  Grupo  Ingran  (Ingrambook.com),    un  importante  mayorista  de  impresión  y  distribución  bibliográfica  de  EE.UU  que,  según  su  web,  tiene  un  stock    disponible  de  10.000.000  de  títulos,  diariamente  incorpora  500  títulos  a  su  repositorio  digital  e  imprimen  50.000  libros  atendiendo  27.000  pedidos.  En el mercado on‐line de lengua española encontramos IberLibro.  Es filial de  AbeBooks, pues  esta,  en  el  2001  adquirio  JustBooks  para  crear  AbeBooks  Europa,  que  a  su  vez,  en  2004  adquirió  la  plataforma  española  IberLibro.com,  para  enfocarla  a  los  mercados  español  y  latinoamericano.    En  2008    fue  adquirida  por    Amazon  (www.amazon.com  )  que  continua  operando  independientemente  a  través  de  seis  portales.  (www.abebooks.com,  www.abebooks.co.uk,  www.abebooks.de,  www.abebooks.fr,  www.abebooks.it,  www.iberlibro.com). Su fondo de  catalogo ofrece más de 140 millones de libros susceptibles  de  ser  comprados  telemáticamente  con  el  lema  “facilitar  que  cualquier  persona  pueda  encontrar y comprar el libro que busca en cualquier librería del mundo”  Otra editora ‐ distribuidora, AbeBooks (abebooks.co.uk) fue fundada en 1995 en Canadá y en  1996 revoluciono el mercado de los libros de ocasión por facilitar la compra de libros difíciles  de  encontrar,    consolidándose  en  apenas  cinco  años  como  una  de  las  principales  empresas  líderes de comercio electrónico. Abierta 24 horas al dia 365 días al año, su fondo oscila desde  libros del siglo XV a nuestros días, desde millones de libros de ocasión a las últimas novedades  del  mercado,  desde  incunables  a  e‐publicaciones.  Esta  editora  también  ha  incorporado  la  impresión bajo demanda.  48   


Las especificaciones que establece  Amazon Print‐on‐Demand,  para aceptar obras digitales, así  como  las  calidades  resultantes  bajo  esta  modalidad  las  encontramos  en  la  URL:  (amazon.co.uk/gp/help/customer/display.html?nodeId=200286790)  y  de  forma  muy  simple  e  ilustativa para los autores,  en su filial Createspace  (createspace.com/Products/Book/)  También  los editores tradicionales utilizan este sistema para asegurarse  de que, los libros de  una tirada de impresión que se ha agotado,  siguen estando disponibles hasta que efectué una  nueva  edición,  manteniendo  mientras  tanto  la  disponibilidad  de  los  títulos.  También  la  impresión  bajo  demanda  se  utiliza  para  tiradas  puntuales,  mientras  que  se  define  su  posible  mercado,  de  los  títulos    que  se  esperan  tener  grandes  ventas  durante  un  periodo    corto  de  tiempo    (por  ejemplo,  biografías  de  celebridades  o  eventos).  Estas  publicaciones  pueden  representar  una  alta  rentabilidad  pero  también  un    alto  riesgo,  por  el  peligro  de  que  se  impriman  más ejemplares de los necesarios, con  los costes consiguientes de mantenimiento  de inventarios.   La  impresión  bajo  demanda  también  se  utiliza  para  imprimir  y  reimprimir  "nichos"  de  libros  que pueden tener un alto precio al por menor, pero sus oportunidades de ventas limitadas por  tener un mercado muy restringido, como las obras de especialistas académicos.  

  En ejemplo completo, muy fácil de entender,  de diseño y maquetación de una obra a partir de  un fichero de texto de formato .doc  o .pdf, con gestión de los requisitos legales, producción de  ejemplares,  producción  de  eBook,  promoción  de  la  obra  con  inclusión  en  las  grandes  distribuidoras  (Amazon,  Pentian,  etc.)  e  incluso  su  inclusión  en  los  catálogos  de  las  librerías  online, lo encontramos en la editorial virtual Punto Rojo (puntorojolibros.com)    Existen  diversos  fabricantes  de  modelos    de    equipos  POD,  incluso  maquinas  pequeñas  susceptibles de instalarse en una librería tradicional como el equipo Marker III, fabricado por     Instabook ‐ Corporaration (instabook.net) o la más conocida Espresso Book Machine fabricada  por On Demand Books  (ondemandbooks.com). Este  equipo cuyo diseño original se remonta a  1999  y  con  una  visión  de  la  tecnología  futura,  donde  la  edición  de  libros  sería  un  sistema  49   


automático y de bajo costo, para poder ser colocado en una tienda de barrio, una librería, un  café, un quiosco de prensa, y porque no, en una biblioteca.  En  el  2003  se  fundó    On  Demand  Books,      subvencionada  por  la  fundación    Alfred  P.  Sloan   (sloan.org),  una  fundación  sin  ánimo  de  lucro  para  desarrollo  de  la  educación,  la  ciencia  y  la  tecnología),    con  el  fin  de  desarrollar  y  construir  la  versión  beta  de  una  máquina  POD.  La  primera máquina se instaló en 2006 en el Banco Mundial (worldbank.org)  y la segunda, poco  tiempo después en la Biblioteca de Alejandría (bibalex.org). Desde entonces se ha instalado en  numerosas organizaciones. Con posterioridad, esta compañía se asoció con Xerox, hace que la  venta, alquiler y por supuesto el mantenimiento, sea soportado por dicha empresa en todo el  mundo.  En  la  actualidad  tienen  acuerdos  con  Google  para  la  impresión  de  los  títulos  del  programa  GoogleBooks  e  Internet  Archive  (archive.org/details/texts).  En  el  sector  privado  estas  máquinas  son  utilizadas  por  Lightning  Source  (www1.lightningsource.com)  Random  House  (randomhouse.co.uk),    Hachette  (  hachettebookgroup.com),  McGraw‐Hill  (mcgraw‐hill.com),  

Simon  &  Schuster  (simonandschuster.com)  WW  Norton  (books.wwnorton.com)  entre  otros,  imprimiendo libros y revistas bajo petición, en todos los idiomas del mundo.    El primer libro escrito por un ordenador se escribió ya en 2008 cuando la editorial rusa Astral  SPb,  de  San  Petersburgo,  anuncio  en  enero  de  la  primera  novela  escrita  por  un  ordenador.  Basada  en  la  novela  de  León  Tolstói,  Anna  Karenina,  y  ambientada  en  una  isla  desierta,  un  programa  informático,  PC  Writer  2008  lo  hizo  al  incorporarle  el  desarrollo  de  una  trama,  un  estilo  de  escritura,    un  tiempo  y  un  lugar  en  los  que  situar  la  historia,    lo  escribió  imitado  la  forma de escribir de un escritor muy conocido, el japonés Haruki Murakami, basándose  en el  50   


vocabulario, el lenguaje y las herramientas narrativas de 13 escritores rusos y de otros países,  de los siglos XIX y XX.   Esta  primera  obra  fue  titulada  “Amor  verdadero  “y  si  bien  es  un    título  muy  poco  original  (todavía los ordenadores no entienden de sentimientos) se debe reconocer que es un medio  de  creación  totalmente  nuevo,  (ubu.artmob.ca/text/racter/racter_policemansbeard.pdf)  a  pesar de que ha generado dudas más que justificadas en la comunidad de críticos literarios y  autores de carne y hueso.  No  quisiera  terminar  el  recorrido  por  esta  galaxia    sin  referirme  a  los  dos  centros  que,  en  cuatro décadas la han hecho posible. Dos centro han cambiado el mundo (están cambiando el  mundo)  tal  como  lo  concebíamos  (tal  como  lo  concebimos).    Son  XeroxPark  y  el  MIT  Media  Lab. 

51   


El XeroxPark, PARC o Xerox Palo Alto Research Center, tiene su sede en Palo Alto, California,  Estados  Unidos.  Es  una  compañía  de  investigación  y  codesarrollo,  fundada  el  año  1970  por  Xerox  Corporation  como  “tanque  de  ideas”  interno,  para  desarrollar  nuevas  tecnologías  que  produjeran productos comerciales. Ha pasado a la historia como el centro de investigación de  tecnologías de la información y sistemas de hardware más prolífico de todos los tiempos  En él se gestaron avances tan importantes como la electrónica y el software para la impresión  láser,  desde  el  dos  investigadores,    John  Warnock  y  Chuck  Geschke  concibieron  la  idea  de  fundar  Adobe  Systems  en  1982.    (Adobe  adquirió  en  1994  la  compañía  Aldus  Corporation  fundada nueve años antes por  Paul Brainerd,  uno de los padres de la edición informatizada de  textos,  que  desarrollando  la  primera  versión  de  Aldus  PageMaker,  software  que  revoluciono  los procesos de preimpresión en las artes gráficas, al disponer  de funciones impensables hasta  ese  momento,  este  programa  supuso  la  revolución  de  los  sistemas  de  impresión  en  artes  gráficas.  Después  de  tres  revisiones,    PM6,  PM  6,5  y  PM7  Adobe  lo  sustituyo  en  1999  por  InDesingn y posteriormente por las CS Creative Suite, conjunto de aplicaciones muy versátiles  de  manejo  sencillo  e  intuitivo  ampliamente  utilizado  para  diseño  gráfico,  maquetación  y  diagramación). 

Allí, en XeroxPark se concibió  la tecnología de comunicaciones Ethernet (creada en conjunto  con  Intel  y  Digital  Equipment)  y  una  incipiente  “Internet”,  conectando  esta  Ethernet  con  ARPANET  (red  de  computadoras  Advanced  Research  Projects  Agency  Network  del  Departamento de  Defensa de Estados Unidos que funcionaba con fines militares desde 1968),  utilizando el PARC Universal Protocol, precursor del TCP/IP.   En  1977  se  desarrolló  allí  el  Xerox  Star,  primer  computador  personal  con  sistema  gráfico  y  mouse  (ese  mismo  año,  IBM  presento  el  IBM  PC  basado  en  un  procesador  Intel  8088  bajo  sistema  operativo  PC  DOS  que,  en  1981  sustituyeron  por  el  MS‐DOS  1.0  (MicroSoft  Disk  Operating  System)).  Este  equipo,  del  que  solo  se  vendieron  25000  unidades  a  nivel  mundial  sentó las bases de los ordenadores  personales de hoy en día. Muchas de las ideas en las que  se  basaba  el  Xerox  Star,  tales  como  WYSIWYG,  Ethernet,  y  servicios  de  red  como  directorio,  impresión, archivo, y enrutamiento entre redes son corrientes en los ordenadores de hoy.  El primer procesador de texto de interfaz amigable (WYSIWYG) de la historia, el Bravo y Tioga,  que  Charles  Simonyi    fue  concebido  allí  y  su  creador  lo  tomó  como  base,    aportándo  su  experiencia  a  Microsoft  para  desarrollar  Microsoft  Word.  También  el  primer  chip  gráfico  3D  “Geometry  Engine”  para  computadoras,  fue  creado  allí  por  James  Clark,  profesor  de  la  52   


Universidad  de  Stanford,    para  posteriormente  fundar  Silicon  Graphics  (sgi.com)    en  1982.  También la tecnología de almacenamiento en dispositivos magneto‐ópticos, los discos duros,  fueron  creados allí.  En  XeroxPark  se  inspiraron  o  influenciaron    directamente  los  fundadores  de  muchas  compañías;  equipos  como    el    Apple  Lisa,  el  Apple  Macintosh  (apple.com)  ,  GEM  de  Digital  Research (la compañía del DR‐DOS), Microsoft  Windows (microsoft.com) , Atari ST (atari.com),  Commodore  Amiga  (commodoreusa.net),  Elixer,  Metaphor  Systems,  Interleaf,  SunOS   actualmente Oracle Corporation (oracle.com) , KDE (kde.org), Ventura Publisher (corel.com)  y  NeXTSTEP  (adquirida  por  Apple).  También  el  formato  PostScript    de  Adobe  Systems  (www.adobe.com) fue basado en el Interpress desarrollado en XeroxPark.  Como  dato  anecdotico,  cuando  en  1988,  en  una  de  las  múltiples  demandas  de  violación  de  copyright  de  sus  respectivos  sistemas  operativos,  entre  Apple  y  Microsoft,  Bill  Gates  le  contesto a Steve Jobs “ ..que Apple no tenía nada que alegar, pues ambos habían copiado de  XeroxPark…”.   Entre  1970  y  1983  Xerox  Palo  Alto  fue  el  paraíso  de  la  creatividad  y  los  visionarios  que  han  cambiado  nuestro  mundo  se  iniciaron  en  él.  Actualmente  XeroxPark  sigue  investigando  en  áreas  tan  diversas  como:  sistemas  bio‐médicos  y  bio‐informáticos,  etnografía,  sistemas  de  control  inteligentes  y  autónomos,  reconocimiento  inteligente  de  imágenes,  microfluidos,  procesamiento  natural  del  lenguaje,  optoelectrónica  y  sistemas  ópticos,  privacidad  y  seguridad, entre muchos otros. 

  En  relación  con  el  mundo  de  artes  gráficas,  Xerox  desarrollo  allí  en  1987  el  QuarkXPress,  programa de autoedición  en entornos Mac OS X y Windows, producido por Quark Inc.  Esta  empresa  fue  considerada  una  las  primeras  empresas  autoedición  (junto  con  Aldus,  Xerox,  53   


Adobe  Systems  y  Apple  Computer).  La  versión  para  Mac  fue  lanzada  ese  mismo  año  y  la  de  Windows  apareció  tres  años  después  convirtiéndose  a  partir  de  1996  en  la  herramienta  de  trabajo preferida por los profesionales de la edición,   editores, impresores y fotomecánicos,  con  una  cuota  de  mercado  de  más  del  90%.  Contaba  ya  con  una  interfaz  gráfica  WISIWYG  y  trataba texto y gráficos de forma independiente, integrando tablas de colores Hexachrome  y  Pantone,    entre  otros  espacios  colorimétricos  y  permitiendo  crear    fácilmente  fotolitos  en  CMYK.  El MIT Media Lab, ubicado en Cambridge,  Massachusetts ha sido el otro centro. A lo largo de  sus veinticinco años de historia, el MIT Media Lab ha perfeccionado un estilo de investigación  propio que ha plasmado algunas de las ideas más originales de la revolución digital.   El  Laboratorio  de  Medios  de  la  Escuela  de  Arquitectura  y  Planificación  del  Massachusetts  Institute of Technology o MIT  (Institución fundada en 1861 y que cuenta con 76 premios nobel  entre los formados en ella)  (media.mit.edu/about), es otra de las instituciones que más han  contribuido al desarrollo de la ciencia y la tecnología en el siglo XX.  

                                       

 

En  1985,  Nicolás  Negroponte,    con  la  idea  es  reunir  a  las  mentes  más  brillantes  que  se  pudiesen encontrar, procedentes de un gran número de disciplinas dispares, revitalizo el MIT  para  averiguar  cómo  se  puede  cambiar  el  mundo,  creando  el  MIT  Media  Lab  que  está   dedicado  a  proyectos  de  investigación    en  los  campos  del  diseño,  multimedia,  redes  inalámbricas y navegadores Web.  Esta es otra de las instituciones donde el futuro se vive, no  se imagina (uno de sus lemas).   Actualmente  sus  líneas  de  investigación  y  trabajo    van  desde  la  neurobiología  (tratar  condiciones  como  la  enfermedad  de  Alzheimer  y  la  depresión)    a  los  robots  sociables  que  pueden  monitorean  telemáticamente  la  salud  de  niños  y  ancianos.  También  desarrollan  prótesis  inteligentes  que  pueden  imitar  o  incluso  superar  las  capacidades  de  los  miembros  biológicos  humanos.    En  MIT,  desde  los  primeros  días,  hubo  un  claro  interés  por  acercar  la  informática  a  los  seres  humanos;  en  un  tiempo  en  el  que  nadie  pensaba  en  términos  de  54   


equipos intuitivos o en la necesidad de adaptar las máquinas a los métodos humanos, hicieron  converger  la computación perceptiva, el aprendizaje y el sentido común, con la información y  el entretenimiento.   Desde su fundación empezaron a intentar fusionar el mundo físico y el virtual, potenciando los  trabajos dirigidos a integrar las tecnologías digitales emergentes en los objetos cotidianos. El  Media  LAB  fue  el  precursor  en  presentar  conceptos  tan  aparentemente  extravagantes,  hace  treinta años, como un frigorífico que podía avisar cuando quedaba poca leche o un coche que  daba indicaciones de por dónde ir a su conductor.   Actualmente están trabajando en la convergencia hombre‐máquina, convirtiendo el aumento  digital en  los humanos en uno de sus temas principales de investigación, conscientes de que  en  algún  punto  de  nuestras  vidas,  casi  todos  nosotros  podemos  sufrir  alguna  discapacidad  fundamental,  desde  la  demencia  senil  a  la  pérdida  de  una  extremidad  o  a  una  enfermedad  debilitante  como  el  Parkinson.  Sin  duda,  estos  enormes  desafíos  físicos  y  mentales  son  inherentes a la condición humana más el LAB no cree que se tengan que aceptar la definición  actual de discapacidad. En lugar de eso, se plantea si con  la invención de nuevas tecnologías  se  pudiese  mejorar  de  un  modo  profundo  la  calidad  de  vida  de  las  personas  que  padecen  discapacidades físicas, cognitivas o emocionales.     Quizá uno de sus proyectos más interesantes  es el relacionado con los mecanismos de visión   humanos sobre enfocado  sobre implantes de retina. En colaboración el MIT  ( Massachusetts  Eye  and  Ear  Infirmary  (www.masseyeandear.org/)  ,  VA  Boston  Healthcare  System,  y  otras  empresas  colaboradoras,  en  colaboración  con  el    Boston  Retinal  Implant  Project  o  BRIP  (bostonretinalimplant.org)  están  trabajando  en  desarrollar  una  prótesis  de  retina  que  digitalmente restaure la visión a los ciegos en determinadas patologías (retinitis pigmentosa y  degeneración macular), patrologías que causan  la perdida de receptores de la retina externa,  las  células  ganglionares  (células  internas  de  la  superficie  de  la  retina),    que  envían  la  información al cerebro a través del nervio óptico (rle.mit.edu/media/pr148/16.pdf).    (Este  proyecto,  recogido  y  dimensionado  por  el  Departamento  de  Energía  de  los  Estados  Unidos, coordina a la investigación u recursos de laboratorios de investigación de laboratorios  nacionales,  empresas  y  universidades  con  el  fin  de  desarrollar    el  programa  Artificial  Retina  Proyect (artificialretina.energy.gov).  El objetivo final del es restaurar la capacidad de lectura,  el reconocimiento facial y la movilidad a  personas con retinitis pigmentosa y las relacionadas  por la edad en relación a la degeneración macular. Con la retina artificial, una cámara montada  en  unas  gafas  envía  la  señal  a  un  microprocesador  procesador  que,  una  vez  convertidos    los  datos a señales electrónicas  se trasmiten a un receptor situado en las células de la retina. De  ahí, los impulsos pasan por el nervio óptico al cerebro que percibe estos patrones visuales de  que los pacientes aprenden a interpretar).  Entre las muchas aplicaciones surgidas del MIT Media Lab en las últimas dos décadas se puede  señalar (por su relación con el libro) la  tinta electrónica, que abre el camino a la posibilidad de  que  una  biblioteca  utilice  un  único  libro  como  soporte.  Esta  tecnología,  desarrollada  allí  y  comercializada  por  la  compañía      E  Ink    (ink.com)  es  la  utilizada  por  la  mayor  parte  de  los  55   


lectores  de  libros  electrónicos  o  E‐reader.  También  fueron  los  primeros  en  desarrollar  el   primer  periódico  web  electrónico,  personalizado  y  bajo  demanda,  así  como  el  primer  holograma sintético y móvil, en tiempo real del mundo.  Otro de los proyectos desarrollados, SixthSense, es una interfaz gestual portátil que relaciona  el mundo físico que nos rodea con la información digital, permitiendo usar gestos naturales de  mano  para  interactuar  con  la  información,  integrando  plenamente  la  información  en  el  entorno físico del usuario y convirtiendo  el mundo entero en un ordenador.  Su proyecto estrella sigue siendo la máquina XO, conocida en todo el mundo como el «portátil  de los 100 dólares», que ofrece conectividad a los niños de los países en vías de desarrollo.   

 

56   


57   


El agujero de gusano  Como epilogo a este rápido recorrido por la galaxia Gutenberg y la galaxia Siemens‐Marconi,  nada  mejor  que  un  concepto  que  apasiona  a  la  Física  y  que  van  a  suponer  una  evolución  exponencial  a  nuestra  sociedad,  haciéndola  evolucionar  hasta  límites  impredecibles  en  los  próximos lustros;  el agujero de gusano   Según  los  fisicos  los  llamados  agujeros  de  gusano,  son  una  especie  de  pasadizo  entre  dos  puntos distantes o no del espacio‐tiempo. Fueron descubiertos matemáticamente en 1916 por  Ludwing  Flamm,  unos  pocos  meses  después  de  que  Einstein  formulara  su  teoría  de  la  relatividad.  Actualmente  es  una  idea  muy  especulativa  de  la  astrofísica  moderna  pues,  según  las  teorías  matemáticas de Einstein, los agujeros de  gusano  pueden  existir  en  nuestro  universo.  La  derivada  de    Lorentz,  estableció  la  base  matemática  de  la  teoría  de  la  relatividad  de  Einstein,  ya  que  las  transformaciones  de  Lorentz  precisan  el  tipo  de  geometría  del  espacio‐tiempo  requeridas  por  la  teoría  de Einstein.  Los  físicos  actuales  admiten  que  los  agujeros  de  gusano  son  posibles  dentro  de  la  relatividad  general,  pero  la  posibilidad  física  de  estas  soluciones  es  incierta. Incluso,  desconocen si la teoría  de  la  gravedad  cuántica  que  se  obtiene  al condensar la relatividad general con la  mecánica  cuántica,  permitiría  la  existencia de estos fenómenos, así como  la  mayoría  de  las  soluciones  conocidas  de la relatividad general que permiten la  existencia  de  agujeros  de  gusano  atravesados.  requieren  la  existencia  de  materia  extraña,  que  es  una  sustancia  teórica  que  tiene  densidad  negativa  de  energía.  Sin  embargo, no ha sido matemáticamente probado que éste sea un requisito absoluto para este  tipo agujeros de gusano atravesados, ni ha sido establecido que la materia exótica no pueda  existir.  Tal vez esa  materia exótica exista y ya los científicos han empezado a experimentar con ella a  nivel práctico; tal vez sea el ordenador cuántico (calculo), el fotón (comunicación) y la célula  (almacenamiento de información), y con ella están obteniendo los primeros resultados. 

58   


Un ordenador cuántico no tiene chips, sino que sólo utiliza los átomos individuales para llevar  a cabo cálculos en teoría a una velocidad que resulta increíble... si bien, todos los dispositivos  actuales no pasan de prototipos y están compuestos por apenas un puñado de átomos, pero  las  posibilidades  de  la  computación  cuántica  son  gigantescas,  y  van  a  revolucionar  la  informática.   El físico español Ignacio Cirac, escribió un artículo teórico en el que indicaba que era posible  construir  uno  de  estos  artefactos  desde  el  punto  de  vista  teórico.  En  1995    fue  galardonado  con  el  Premio  Principe  de  Asturias  de  Investigación  Científica  y  Técnica  2006  por  ello.  Hoy  dirige  la  división  teórica  del  Instituto  Max  Planck  de  Optica  Cuantica,  (mpq.mpg.de)  en  Garching,  Alemania,    y  asegura  que  aquel  que  construya  el  artefacto  en  el  futuro  tendrá  el  poder para descifrar cualquier tipo de código.  

  IBM  ya  anuncio  en  el  2001  (ibm.com/developerworks/linux/library/l‐quant/index.html)  el  desarrollo de una computadora basada en las propiedades físico‐cuánticas de los átomos, que  capacitan a los ordenadores para utilizarlos como procesadores de datos y como memoria, en  lugar de los actuales chips de silicio. Este ordenador, emplea cinco átomos para hacer trabajar  su procesador y su memoria, demostrando por primera vez la capacidad de estos dispositivos  para resolver ciertos problemas matemáticos gracias a su velocidad, mucho mayor que la de  los  ordenadores  convencionales.  El  proyecto  está  considerado  como  el  siguiente  paso  hacia  59   


una  nueva  clase  de  computadoras,  capaces  de  realizar  operaciones  a  una  velocidad  hasta  ahora impensable. Este proyecto, desarrollado por un equipo de científicos de la Universidad  de  Stanford  (California)  y  de  Calgary  (Canadá),  financiado  por  IBM  fue  liderado  por  Isaac  C.  Chuang  (rle.mit.edu/rleonline/people/IsaacL.Chuang_cv.html)  actualmente  profesor  en  el  Massachusetts  Institute  of  Technology  (MIT),  que  estima  “La  etapa  de  los  ordenadores  cuánticos  empezará  hacia  el  2020,  cuando  los  principales  circuitos  tengan  el  tamaño  de  un  átomo”.    La  predicción  se  quedó  corta,  en  mayo  de  2011,  la  empresa  D‐Ware  The  Quantum  Computing Company (dwavesys.com/) anuncio que había desarrollado uno.  A  diferencia  del    ordenador  binario  convencional,  el  ordenador  cuántico  está  compuesto  de  unidades q‐bits del tamaño de una molécula, en lugar de bits dando lugar a nuevos algoritmos  (es.wikipedia.org/wiki/Computaci%C3%B3n_cu%C3%A1ntica).  Pero  lo  que  les  hace  únicos    es  su capacidad de «superposición», pues para resolver un problema, en vez de efectuar  todos  los  calculos  en  orden,  lo  que  hacen  es  añadir  todos  los  números  a  la  vez.  Gracias  a  esta  tecnología  ciertos tipos de cálculos, como complejos algoritmos criptográficos, serán resueltos  fácilmente, dado que los ordenadores podrán realizar billones de cálculos a la vez.   El  Fotón.  El  fotón  es  la  partícula  elemental  responsable  de  las  manifestaciones  cuánticas  del  fenómeno electromagnético que se puede comportar como partícula y como onda a la vez. De  acuerdo  con  el  modelo  estándar  de  física  de  partículas,  los  fotones  son  los  responsables  de  producir todos los campos eléctricos y magnéticos, y a su vez son el resultado de que las leyes  físicas tengan cierta simetría en todos los puntos del espacio‐tiempo.  Lo  que  hace  unas  décadas  tan  solo  podía  ser  soñado  por  la  ciencia‐ficción,  hoy  comienza  a  convertirse  en  realidad.  Dos  de  los  observatorios  más  importantes  de  las  Islas  Canarias  (la  Estación  Óptica  de  Tierra  de  la  Agencia  Espacial  Europea   en  el  Observatorio  del  Teide  y  el  telescopio  Jacobus  Kapteyn,  en  La  Palma)   llevaron  a  cabo  un  experimento  consistente  en   una  teleportación  entre  fotones  a  143  kilómetro  de  distancia.  Eso  sí,  ha  sido  una  teleportación  (proceso  de  mover  objetos  o  partículas  de  un  lugar  a  otro  instantáneamente)  cuántica.  Es  decir,  que  ninguna  de  las  dos  partículas  ha  ido  a  ninguna parte ni se ha movido de su punto de partida. Pero las propiedades de una de ellas sí  se han contagiado, se han replicado por así decirlo, a la otra, hasta el punto de que convertirla  en  una  réplica  exacta  de  sí  misma.  Y  ese  contagio  ha  ocurrido  sin  necesidad  de  contacto  alguno.  60   


Aunque  resulte  complicadísimo  de  entender,  los  científicos  cuánticos  han  desarrollado  un  procedimiento por el cual dos partículas pueden entrelazarse entre sí a una cierta distancia, de  tal manera que toda la información que define a una de ellas pasa a la otra.  De esta forma,  se sientan las bases de partida para que, en un futuro  se podrá teletransportar  información a través de partículas de luz, que no partículas materiales.  Esta investigación ha consistido en teletransportar información a través de múltiples fotones  ya que hasta ahora se había hecho con un sólo fotón y será la base para allanar el terreno de la  investigación  hacia  las  comunicaciones  cuánticas  a  larga  distancia.  Este  experimento  que  puede sentar las bases  de las comunicaciones, al estar vinculadas con la mecánica cuántica y,  más concretamente, con la paradoja de Einstein‐Podolsky‐Rosen (Paradoja EPR) que sienta las  bases  de  las  telecomunicaciones  cuánticas  que  ya  comienzan  a  ser  una  realidad  en  varios  centros de investigación de todo el mundo.   Hasta  la  fecha,  el  récord  de  distancia  cubierta  por  una  comunicación  cuántica  estaba  en  16  kilómetros  (en  un  experimento  realizado  en  China  hace  dos  años),  pero  con  el  realizado  en  Canariasw,  al  haber  conseguido  cubrir  143  kilómetros  es  más  que  interesante  pues,  aproximadamente, es la misma distancia a la que orbitan los satélites LEO (los de órbita baja),  pudiendo establecerse en el futuro canales de comunicación cuántica con estos satélites. Este  experimento nos acerca mucho más a  una nueva era en los sistemas de comunicación y si a  este  tipo  de  comunicaciones  le  sumamos  los  computadores  cuánticos,  podrían  obtenerse   redes de ordenadores que se conectarían, de manera instantánea, entre sí, ( y la esperanza de  que puedan llegar a uso civil algún dia).   La  celula  (y  la  bacteria  por  lo  tanto).  La  célula  es  el  elemento  de  menor  tamaño  que  puede  considerarse vivo y cada célula se deriva de otras precedentes durante su ciclo vital. Todas sus  funciones emanan de sus procesos  y de la interacción con las células adyacentes, así como  de  la información genética contenida en ella por la herencia recibida, trasmitiendo su información  en el ADN de generación en generación. En el caso del  cuerpo  humano puede llegar a cientos  de billones en constante renovación. Entre las diversas hipótesis sobre el proceso evolutivo de  las formas de vida, la más plausible científicamente,  asocia la aparición de la primera célula al  primer organismo vivo sobre la tierra.   Las  bacterias  son  organismos  sencillos  que  disponen  de  un  único  cromosoma  y  poseen  elementos genéticos adicionales que le permiten reproducirse binariamente muy rápidamente  generando un gran número de células idénticas entre sí. Son los organismos más abundantes  en  el  planeta  pudiendo  incluso  sobrevivir,  algunas  de  ellas,  en  las  condiciones  de  vacio  absoluto del espacio exterior. Son imprescindibles en los ciclos de vida (en el cuerpo humano  hay  diez  veces  tantas  células  bacterianas  como  células  humanas),  siendo  la  gran  mayoría  inofensivas  y  beneficiosas,  especialmente  en  la  piel      y  el  aparato  digestivo,  pero  algunas  de  ellas,  que  sufran  alteraciones  negativas,    pueden  causar  enfermedades  infecciosas  incluso  mortales. La mayoría de ellas no son parásitos de otros seres vivos viviendo libremente en el  ambiente, incluso en los océanos, donde producen el oxigeno que respiramos. 

61   


Los antibióticos para el tratamiento de enfermedades humanas no aparecieron hasta el siglo  XX, recibiendo el reconocimiento en 1945 cuando Fleming, Chain y Florey, recibieron el Premio  Nobel, gracias a  Fleming se produjo una forma purificada de penicilina como forma de tratar  las infecciones provocadas por la heridas.   A  partir  de  ese  momento  la  biología  continuo  investigando,  especialmente  en  la  acción  bloqueante la síntesis del ADN, ARN, ácidos nucleídos o enzimas que participan en su  síntesis  y que dan como, resultando las  proteínas defectuosas  Durante la segunda mitad del siglo XX, al potenciar los gobiernos la investigaciones  biológicas,  en  un  esfuerzo  científico    internacional    para  localizar  y  secuenciar  todos  los  genes  que  constituyen el genoma (humano y de algunos otros organismos) para adquirir el conocimiento  de  la  organización,  estructura  y  función  de  los  genes  en  los  cromosomas  humanos,  en  el  conocido Proyecto Genoma Humano.  El  26  de  junio  de  2000  se  inscribía  como  una  fecha  memorable,  un  hito  en  la  historia  de  la  humanidad; se presentaba un proyecto donde se identificaban los genes humanos. Ese día la  comprensión  del  genoma  humano  (es.wikipedia.org/wiki/Genoma_humano)    alcanzó  su  primera  meta.  Los  científicos  habían  conseguido  descifrar  90  por  ciento  de  la  secuencia  de  unos 3 mil millones de letras,  que componen el enorme texto contenido en los 23 pares de  cromosomas,  localizados en el núcleo de todas y cada una de nuestras células.  

  El Proyecto Genoma Humano, (PGH) fue un proyecto de investigación científica con el objetivo  fundamental de determinar la secuencia de pares de bases químicas que componen el ADN e  identificar  y  cartografiar  los  aproximadamente  20.000‐25.000  genes  del  genoma  humano  desde un punto de vista físico y funcional. Este proyecto fue desarrollado con un presupuesto  de 280 millones de dólares (otras fuentes indican que su coste total fue de dos mil millones)  y  presentado por ex presidente Bill Clinton y el ex primer ministro británico Tony Blair, después  de un trabajo en colaboración de universidades y centros de investigación de Estados Unidos,  Canadá, Nueva Zelanda, Gran Bretaña y España.  62   


Un proyecto paralelo se realizó fuera del gobierno por parte de una empresa estadounidense  fundada en 1998 por  Applera Corporation ( actualmente  invitrogen.com) y  J. Craig Venter.  Fue presentado en 2001 en la revista Science por la Corporación Celera (celera.com) e iniciado  dos  años  antes,  utilizando  el  método  Shotgun,  basado  en  la  rotura  del  ADN  en  múltiples  trozos,  su  clonación,  y  búsqueda  de  solapamientos  con  aplicaciones  bioinformáticas    con  un  método  de  secuenciación,  muy  controvertido  inicialmente  porque,  si  bien  era  más  rápido,  necesitaba apoyarse en los datos de sus competidores.  Cada línea de investigación  tenía objetivos diferentes. En el caso del proyecto financiado con  fondos públicos (PGH),  el propósito era de poner los resultados a  disposición de la comunidad  de  investigadores  internacional,  mientras  que  el  caso  de  Celera  Genomics  ,  al  ser  empresa  privada, su objetivo era el de hacer rentable su inversión mediante la obtención de beneficios.  Después  de  ciertas  diferencias  con  el  proyecto  gubernamental,  llegaran  a  acuerdos  para  compartir  información,  y  que  parte  de  la  investigación    se  realizase  con  las  potentísimas  herramientas informáticas de Applera Corporación concluyéndose ésta en un plazo muy breve. 

  El  genoma  contiene  en  forma  de  varias  decenas  de  miles  de  genes,  el  conjunto  de  instrucciones  que  hacen  que  una  célula  embrionaria  se  multiplique  y  se  diferencie  en  sus  procesos de mitosis‐miosis,  dando lugar a un ser humano.  En ese libro de instrucciones que es  el ADN, se detallan las complejas particularidades del individuo, entre las que se encuentra su  predisposición  a  ciertas  enfermedades  por  lo  que,  el  ADN  está  considerado  como  un  código  que contiene información codificada (una secuencia de ADN puede ser ATGCTAGATCGS....) que  se copia en la moléculas de ARN en un proceso conocido como transcripción.  63   


Ha  pasado  apenas  una  década    y  a  medida  que  la  investigación  sobre  el  ADN  han  avanzado,  otras  investigaciones  han  comenzado.  Están  en  marcha  las  primeras  investigaciones  para  utilizar  el  ADN  como  medio  de  almacenamiento  de  información  basada  en  bits    o  en  los  recientes  q‐bits,    ya  que  se  que  este  código  digital,  es  semejante  al  código  binario  de  los  ordenadores, aunque es cuaternario (tiene 4 letras en vez de) 2 lo que parece hacerle indicado  para la próxima generación de ordenadores quánticos.    La densidad posible de la información codificada en el ADN abruma la imaginación y ya que, en  ambientes biológicos ‐ informáticos, los  más optimistas empiezan a estima que, si en media  cucharadita  de  ADN  existe  suficiente  espacio  de  almacenaje  de  información  como  para  almacenar todas las instrucciones de ensamblado,  de todas las criaturas que hayan existido,  ¡Puede sobrar espacio para incluir todos los libros que hayan sido escritos!.  (El contenido de  información  de  una  bacteria  ha  sido  estimado  alrededor  de  10.000.000.000.000  bits  de  información, comparable a cien millones de páginas de la Enciclopedia Británica).   Por otra parte, ya los científicos han escrito un libro entero en una tira de ADN. Se trata del  borrador  del  libro  Regenesis:  How  Synthetic  Biology  Will  Reinvent  Nature  and  Ourselves,  de  George  Church,  genetista  de  Harvard,  uno  de  los  coautores  de  la  versión  genética,  que  citaremos  posteriormente.    Los  científicos  usaron  el  código  binario  para  almacenar  el  texto,  pero en vez del disco de 5,2 pulgadas, al utilizar el ADN, la densidad de los bits está casi por  fuera  de  la  imaginación:  5,5  petabits  o  1  millón  de  gigabits  por  milímetro  cúbico.    Los  científicos  utilizaron  microchips  de  ADN  comercial  para  evitar  cuestionamientos  morales  por  utilizar  células  de  organismos  vivos.  Su  desventaja  es  que  el  almacenamiento  en  ADN  no  es  reescribible. Su gran ventaja es archivar una cantidad increíble de datos. 

  En agosto de 2012 fue publicado por Sciencie, Next‐Generation Digital Information Storage in  DNA,  un  trabajo  realizado  por  George  M  Church  (Department  of  Genetics,  Harvard  Medical  64   


School,    de  Boston),  Yuan  Gao  (Department  of  Biomedical  Engineering,  Johns  Hopkins  University)  y  Sriram  Kosuri  (Institute  for  Biologically  Inspired  Engineering,  Boston).  Con  este  experimento se demuestra que el ADN como medio biológico de almacenamiento de datos es  denso,  estable,  eficiente  en  uso  de  energía  y  duradero  con  un  promedio  de  vida  de  3,5  millones de años.   Un poco antes,  en 2010,  científicos de la Universidad de China de Hong Kong lograron dar un  paso  más  en  el  almacenamiento  de  información  en  soportes  biológicos,  al  guardar  90GB  de  datos en una bacteria de un gramo de peso.  La iniciativa no era pionera ya que entre 2001 y  2007  se  habían  producido  distintos  experimentos  donde  se  pretendía  emplear  sistemas  de  almacenamiento  biológico.  Estos  experimentos  no  tuvieron  éxito,  pero  desde  la  Universidad  China de Hong Kong (2010.igem.org/Team:Hong_Kong‐CUHK)  los destacan como los primeros  pasos en la materia.   Para  los  investigadores  chinos  la  clave  está  en  su  sistema  de  codificación.  estos    científicos  creen  que  podrían  almacenar  el  equivalente  de  2TB  en  apenas  unos  gramos  de  bacterias.  Gracias  a  sus  avances  confían  en  que  este  tipo  de  almacenamiento  pueda  ser  el  futuro.  "Creemos  que  esto  podría  ser  un  estándar  industrial  para  la  manipulación  a  gran  escala  del  almacenamiento de datos en las células vivas" han declarado los responsables del proyecto en  su página web.  Este  proyecto  conocido  como  “sistema  de  almacenamiento  en  paralelo  en  bacterias”,  utiliza  módulos  de  encriptación  de  datos  (opera  randomizando  secuencias  de  ADN)  y  módulos  de  lectura/escritura. Los investigadores esperan lograr desarrollar una especie de estándar para el  almacenamiento de datos en células vivas. En cuanto a las posibles aplicaciones de este “disco  rígido  biológico”  (que  sería,  además,  increíblemente  seguro  y  resistente),  mencionan  el  almacenamiento  de  texto,  imágenes,  música  y  video,  además  de  la  inserción  de  “códigos  de  barra” que puedan servir como medio de identificación entre organismos sintéticos y naturales  Lo interesante de la investigación es que ya han logrado almacenar 90 GB de información en  un gramo de bacterias, aunque se muestran confiados en lograr almacenar hasta 2 TB en unos  gramos de bacterias. En palabras de los científicos:   "Exploramos las posibilidades de utilizar  un  sistema  biológico  como  solución  alternativa  para  el  almacenamiento  y  encriptación  de  información". La Universidad publicó un documento en el que detallan los descubrimientos y  explicado (2010.igem.org/files/presentation/Hong_Kong‐CUHK.pdf ) que por ejemplo, 1 gramo  de células está compuesto por 10 millones de células.   

                                                     

  65 

 


66   


A modo de conclusión   La  filosofía  de  la  ciencia,  entendida  como  explicación  del  saber  humano  razonando  como  el  conocimiento  acumulado  afecta  a  las  personas,  tanto  históricamente  como  en  el  conjunto  socio‐cultural  de  la  humanidad,  y  su  relación  con  otras  formas  de  conocimiento  distintas  al  proceder científico como la religión , la política o la economía, en su función de divulgación y  de  adaptación  de  los  conceptos  complejos  a  la  inteligibilidad  general  del  conocimiento  humano  mediante  un  proceso  de  observación,  datos  empíricos  razonamiento  e  hipótesis;  la  filosofía  analítica  preconizada  en  la  teoría  del  conocimiento  de  Bertand  Rusell,  uno  de  los  filósofos  lógicos  más  influyentes  del  siglo  XX.    Los  avances  experimentados  por  las  ciencias  prácticas,  especialmente  desde  la  incorporación  de  las  computadoras  para  emulación  de  procesos  en  los  años  60,  ha  hecho  que  la  lógica  haya  quedado  superada  por  la  praxis  y  no  subordinada a esta como expresaba Kant “en la que la doctrina moral debía implicar una teoría  política para proporcionar unos principios efectivos para la reforma del Estado y la Sociedad".  En el principio de la segunda década del siglo XXI estamos en los albores de algo nuevo para la  historia  de  la  humanidad,  de  difícil  previsión  pero  de  consecuencias  importantes  que  condicionaran su devenir en un corto espacio de tiempo. En un mundo globalizado con graves  problemas  socioeconómicos,  políticos  y  de  recursos  energéticos  limitados,  en  el  que  ya  los  “ismos”  quedaron  obsoletos,  e  incluso  el  concepto  multinacional,  está  empezando  a  quedar  desfasado por las nuevas  prácticas globales, en este viejo planeta generado  a partir del Bing  Bang inicial, nos encontramos con importantes problemas para los seres humanos que de no  encontrar solución, condicionarán su supervivencia.    Mis  mejores  deseos  para      que  el  futuro  nos  depare  un   “Planeta  Sedna”  y  no  ese  mundo  feliz  preconizado  por  Aldous  Huxley    en  1932.              Buenos Aires, Noviembre  2012. 

67   


68   


EL LIBRO: DEL ÁTOMO AL BIT