Page 1

Política digital Innovación gubernamental

www.politicadigital.com.mx

Una publicación de

nexos

Gestión de datos

Un tsunami de información

ISSN 1665-1669

Número 65 • diciembre 2011 / enero 2012 Ejemplar de obsequio

Telecomunicaciones Henoch Aguiar Salvador Apodaca Carlos Casasús Ernesto Flores-Roux Jana Palacios

Transparencia Sergio López Ayllón

Gobierno electrónico Alejandro Barros

Economía digital Ricardo Medina Álvarez

Industria TI Sergio Carrera

Cómputo en la nube Rodrigo Gallegos

Gobiernos abiertos Miguel Pulido y Jorge Soto

aniversario


> Contenido Reportaje especial

El diluvio de datos

Telecomunicaciones

24 La opacidad de la transparencia Por Sergio López Ayllón 28 La brecha digital en México en relación con América Latina Por Ernesto M. Flores-Roux 36 Banda ancha: lo que la regulación ha de tener Por Henoch Aguiar 42 Las líneas del tiempo en políticas públicas

Una entrevista con Carlos Casasús

53 Qué quiere cada quién en las telecomunicaciones Por Jana Palacios 58 Regulación y política de competencia en telecomunicaciones,

21 años después

Por Salvador Apodaca Sarabia

Visualización de datos

66 Qué puede decir una imagen

Gobierno electrónico

68 Gobierno electrónico: ¿dónde estamos, a dónde vamos? Por Alejandro Barros

Economía digital

74 El rumbo de la economía digital en México Por Ricardo Medina Álvarez

Industria TI

78 La industria de TI en México: Avances, retos y expectativas Por Sergio Carrera Riva Palacio

Cómputo en la nube

82 Cloud computing, un detonador para la competitividad en el país Rodrigo Gallegos y Cecilia Reyes-Retana

Gobiernos abiertos 86 Una conversación...

2 < Política digital

De gobiernos abiertos y otras promesas

Por Miguel Pulido y Jorge Soto


Política digital Una publicación de

nexos

> Editorial

Año 11 • Número 65 • diciembre 2011 / enero 2012

Cumplimos 10 años

n Director general Andrés Hofmann

andres@politicadigital.info

H

n Editor José Luis Becerra Pozas

joseluis@politicadigital.info

n Investigación y redacción Mariano Garza-Cantú Chávez

mariano@politicadigital.info

n Internet Paula Sepúlveda Kischinevzky

paula@politicadigital.info

n Directora comercial y Susana Espinosa Cruz

de mercadotecnia

susana@politicadigital.info

n Ventas de publicidad Carmen Fernández Corro

carmen@politicadigital.info

Morayma Alvarado Alfonso morayma@politicadigital.info

Ángeles Nava

angeles@politicadigital.info

n Suscripciones y Distribución Lourdes Maldonado Nava

suscripciones@politicadigital.info

n Asistente del director Mónica Barrón

general

monica@politicadigital.info

n Diseño Angélica Musalem Achcar n Ilustraciones Estudio la fe ciega n Director de Administración Bernardo Ortigoza Díaz n Producción Leonel Trejo n Consejo Editorial Alejandro Barros, Rodrigo Gallegos Toussaint,

Rafael Martínez Puón, Mauricio Merino Huerta, Lina Ornelas Núñez, Alejandro Pisanty Baruch, Rodrigo Sandoval Almazán

Publicidad: publicidad@politicadigital.info Suscripciones: www.politicadigital.com.mx Información general contacto@politicadigital.info Teléfonos:

5241-6930 • 5241-6935 01 800 904 22 22 Ofi­ci­nas: Cuau­tla 10, Col. Con­de­sa, de­le­ga­ción Cuauh­té­ moc, C.P. 06140. Mé­xi­co, D.F. Política digital en In­ter­net: www.politicadigital.com.mx Co­rreo elec­tró­ni­co: contacto­@politicadigital.info Im­pre­sión y en­cua­der­na­ción: Cía. Impresora y Editora ANGEMA S.A de C.V., Salvador Díaz Mirón No. 81-A, Col. Santa María la Rivera, México, D.F., C.P. 06400. No se res­ pon­de por ma­te­ria­les no so­li­ci­ta­dos. Po­lí­ti­ca di­gi­tal es una pu­bli­ca­ción bi­mes­tral de Ne­xos, So­cie­dad, Cien­cia y Li­te­ra­ tu­ra S. A. de C. V. Cer­ti­fi­ca­do­ra de Pu­bli­ca­cio­nes y Re­vis­tas Ilus­tra­das. Ti­ro: 30,000 ejem­pla­res. Edi­tor res­pon­sa­ble An­drés Hof­mann. Tí­tu­lo re­gis­tra­do en el Ins­ti­tu­to Na­cio­nal del De­re­cho de Au­tor, cer­ti­fi­ca­do 04-2001-103017153700102. Re­gis­tro en la Di­rec­ción Ge­ne­ral de Co­rreos PP090883. Cer­ti­fi­ca­do de li­ci­tud de tí­tu­lo nú­me­ro 11819 del 11 de di­ciem­bre de 2001. Cer­ti­fi­ca­do de li­ci­tud de con­te­ni­do nú­me­ro 8422 del 11 de di­ciem­bre de 2001.

4 < Política digital

ay un afán que nos ha movido durante 10 años: tratar –desde nuestra trinchera, que no es más que esta revista– que México sea un país mejor. Decidimos, desde el principio, dedicar esta publicación a los servidores públicos. Trabajamos para ellos, y a ellos nos debemos. Por fortuna, nos hemos ganado su confianza, y eso nos honra. Hubo también –y los siguen habiendo– ejecutivos de las empresas privadas que creen en lo que estamos haciendo, y que han movido sus entornos para invertir en Política Digital. Para ellos, nuestro agradecimiento. Y están los que hacen posible esta publicación y las actividades que giran a su alrededor. Son muy pocos y están comprometidos con su trabajo. Mi gratitud para los que pasaron por esta empresa, y para los que siguen aquí. Con todo y que han pasado 10 años, ha llegado la hora, otra vez, de mirar hacia adelante. Vamos tras la reflexión, tras la construcción de una mirada más fresca, profunda, y de más largo alcance; un tanto alejada del bullicio diario y de la inmediatez que se lo chupa todo. En lo que sigue, nos concentraremos en atender unos cuantos asuntos que parecen fundamentales para el futuro de México. Esta edición de aniversario resume, en 12 textos, los temas que, en su conjunto, permiten vislumbrar un camino para el país. Las telecomunicaciones son el piso sobre el que se habrá de levantar el México que perseguimos. Por tal motivo, atenderemos la disponibilidad de redes de banda ancha, y su utilización por parte de la población y las empresas. Haremos un esfuerzo por mostrar otros campos de batalla que nos ayuden a situar los dilemas de un horizonte con mayor alcance. Por su parte, el gobierno electrónico no termina de ser lo que tanto se ha pregonado: ofrecer trámites y servicio por múltiples canales y centrados en la ciudadanía, parece ser un reto del pasado que no termina por ocurrir. Pondremos el acento en lo que sigue, como, por ejemplo, desregular, compartir información entre agencias, subrogar servicios, subir recursos a la nube, asegurar la información gubernamental, crear modelos eficientes de gobernabilidad para las TI, y el siempre espinoso tema de las compras púbicas. La transparencia y el acceso a la información pública gubernamental son un capítulo aparte que Sergio López Ayllon aborda con particular lucidez en esta entrega. La opacidad de la transparencia manda. Nos asiste la convicción que las políticas de datos abiertos (open data) son el próximo gran paso que se habrá de dar para romper con el sentido de propiedad privada de la información, que hoy cubre, completamente, al sector público. La digitalización de la economía mexicana, empieza, de manera tardía, a dar señales de avance. Su relevancia para que el país transite por su inacabada modernización, parece que no ha sido captada con suficiente vigor. Un atisbo de la trascendencia que tiene la e-economía para nuestro futuro, se podrá leer en estas páginas. Y finalmente está la novísima construcción de la industria TI en México, que ha tenido un crecimiento espectacular en los últimos años. La política púbica que la induce tendrá un espacio en los contenidos de las ediciones por venir. No vamos a dejar pasar la mirada global de lo que nos está pasando, como personas y como país. El acceso a volúmenes inconmensurables de información –el diluvio de datos– las pugnas por alterar el modelo en el que se sustenta internet, o el advenimiento del mundo móvil y sus impactos en los negocios, la salud, la educación o nuestra seguridad personal son algunos temas que iremos abordando. Esta edición es un pequeño botón de muestra de lo que queremos hacer.n Andrés Hofmann


Manténgase enterado de la transformación del sector público en México Suscríbase sin costo a

Política digital www.politicadigital.com.mx

...y reciba semanalmente nuestro boletín electrónico

Contáctenos para publicidad: publicidad@politicadigital.info


> Tema central

Reportaje especial

El diluvio de datos

edici贸n sesenta y cinco > 7


> Tema central

Contenido 8

El diluvio de datos 9

Datos, datos en todas partes 11

Un juego diferente 12

Hay oro tras cada clic

El diluvio de datos

14

La regla de cálculo 16

La sociedad abierta 17

“Muéstralo en una gráfica” 19

Nuevas reglas para manejar información 20

¿Se puede gestionar la abundancia?

Copyright The Economist, Limited, Londres, 2011. Todos los derechos reservados. Traducción: Paula Sepúlveda Kischinevzky, Mariano Garza-Cantú Chávez y José Luis Becerra Pozas.

8 < Política digital

Las empresas, los gobiernos y la sociedad apenas comienzan a aprovechar el enorme potencial que ofrece la abundancia de información

E

n el 2009, los aviones estadounidenses no tripulados que volaron sobre Irak y Afganistán enviaron cerca de 24 años de imágenes de video. Los nuevos modelos que se utilizan este año producen 30 veces más información. Por donde se mire, la cantidad de información en el mundo se está disparando. Según una estimación, la humanidad creó 150 exabytes (mil millones de gigabytes) de datos en 2005. Este año, se crearán 1,200 exabytes. Mantener este flujo y almacenar los bytes que pueden resultar útiles es una labor bastante difícil. Y más complicado aún es detectar patrones y encontrar información relevante. De todas maneras, el diluvio de información ha comenzado a transformar a las empresas, a los gobiernos, a la ciencia y la vida cotidiana de todos nosotros. Algunos sectores de la industria se han convertido en líderes para la obtención y explotación de los datos. Compañías de tarjetas de crédito monitorean cada compra y pueden identificar fraudes con un alto grado de precisión, al utilizar reglas derivadas del análisis de millones de transacciones. Las tarjetas de crédito robadas se utilizan más para comprar licores fuertes y de menor precio que vino tinto, por ejemplo, pues son más difíciles de identificar. Las compañías de seguros han demostrado ser muy buenas para seguir pistas y combinar información para detectar reclamos sospechosos: por ejemplo, los reclamos fraudulentos se suelen hacer con mayor frecuencia los lunes que los martes, debido a que los asegurados aprovechan el fin de semana para reunir a sus amigos e invitarles a actuar como testigos falsos. Gracias a la combinación de este tipo de reglas, es posible encontrar qué tarjetas de crédito tienen mayor probabilidad de haber sido robadas y cuáles quejas son poco confiables.


10

o

> Tema central

aniversario

Los operadores de telefonía móvil, por su parte, analizan patrones de llamadas de sus suscriptores. Pueden por ejemplo, saber si la mayoría de sus contactos están en alguna red de la competencia. Y si la competencia tiene una promoción más atractiva, es posible que pierdan la fidelidad de ese suscriptor. Y para que esto no ocurra, pueden darle algún incentivo. Por estos días, tanto las industrias tradicionales como las nuevas utilizan la analítica (analytics) de los datos. Los distribuidores de bienes y servicios en línea –o fuera de línea– son maestros de la minería de datos (o “inteligencia de negocios”, como se le conoce). De esta forma, al analizar “datos de la canasta común”, los supermercados pueden adaptar sus promociones a las preferencias de los clientes. Pero aún queda mucho camino por recorrer porque, a pesar de años de esfuerzo, las bases de datos policiales y de las agencias de inteligencia todavía no están totalmente vinculadas. En salud, la digitalización de los expedientes facilitaría el monitoreo de tendencias, y ayudaría a evaluar la eficiencia de los distintos tratamientos. Asimismo, los esfuerzos a gran escala para computarizar los expedientes clínicos tienden a tener problemas burocráticos, técnicos y éticos. La publicidad en línea se dirige más a audiencias específicas que a la población en general, por lo que hay más posibilidades de personalizarla y los consumidores optarían por estos anuncios si se les ofrecieran más y mejores servicios gratuitos en línea. Los gobiernos por su parte, parecen están dispuestos a publicar más información sobre incidencia delictiva, mapas georreferenciados, detalles sobre compras gubernamentales o estadísticas sobre el desempeño del servicio público. La gente puede reutilizar esta información para crear nuevas aplicaciones y promover la rendición de cuenteas de los políticos. Las empresas que aprovechan estas oportunidades, o proveen herramientas para que otros lo hagan, prosperarán. La inteligencia de negocios es la parte que crece más rápidamente en la industria del software.

Y ahora, las malas noticias El diluvio de datos tiene sus riesgos. Abundan los ejemplos de bases de datos robadas: discos con inmensas bases de datos perdidos, computadoras portátiles cargadas con registros de impuestos que se dejan olvidadas en taxis o números de tarjetas de crédito robados en línea, que originan violaciones a la privacidad, robo de identidad y fraude. Aunque también se puede invadir la privacidad sin causar estos problemas, como cuando Facebook o Google cambian su configuración inesperadamente en sus redes sociales, ocasionando que los miembros revelen información personal sin darse cuenta. Una amenaza aún más siniestra proviene de las distintas variantes del Big Brother, particularmente cuando el gobierno pide a las compañías entregar información personal sobre sus clientes. En vez de controlar y poseer sus propios datos personales, la gente se da cuenta que no tiene control sobre ellos. La mejor manera de lidiar con los inconvenientes del diluvio de información es, paradójicamente, hacer que la información correcta esté más disponible y requerir más transparencia. Después de todo, el proceso de aprendizaje para hacer frente al diluvio de información apenas comienza.

Datos, datos en todas partes La información ha pasado de la escasez a la sobreabundancia. Este cambio aporta nuevos beneficios, pero también ocasiona grandes dolores de cabeza

C

uando la empresa Sloan Digital Sky inició sus operaciones en el 2000, su telescopio en Nuevo México reunió más información en sus primeras semanas de la que se había recolectado en toda la historia de la astronomía. Una década después, su archivo contiene 140 terabytes de información. Uno de sus sucesores, el Gran Telescopio Sinóptico, que entrará en operaciones en 2016, en Chile, reportará esta cantidad de datos cada cinco días. Estas montañas de información también se pueden encontrar en la Tierra: la cadena de supermercados Wal-Mart maneja las transacciones de más de un millón de usuarios cada hora; su base de datos cuenta con más de 2.5 petabytes –el equivalente a 167 veces la cantidad de libros que hay en la Biblioteca del Congreso en Estados Unidos. Facebook alberga 40 mil millones de fotografías; y la decodificación del genoma humano, que implica analizar de tres mil millones de pares de cromosomas, demoró diez años la primera vez que se hizo en 2003; hoy tarda una semana. Todos estos ejemplos se refieren a lo mismo: el mundo produce una cantidad inimaginable de información

edición sesenta y cinco > 9


> Tema central

digitalizada que crece cada vez más y de forma más rápida. Esto permite hacer cosas que antes no se podían hacer, como identificar tendencias, prevenir enfermedades, combatir el crimen y más. Bien manejada, la información se puede utilizar para crear valor económico, proveer ideas frescas para la ciencia, y lograr que los gobiernos rindan cuentas. Pero también se están creando nuevos problemas, pues la abundancia de herramientas para capturar, procesar y compartir esta información –mediante sensores, computadoras, teléfonos móviles y similares– excede el espacio disponible para su almacenamiento (ver gráfica). Más aún, la seguridad de la información, y la protección de la privacidad se complica en la misma medida en que la cantidad de información crece y se comparte en todo el mundo. ¿Hasta dónde llegará la sobrecarga de información? La información creada supera la capacidad de lo que es posible almacenar 2,000

PRONÓSTICO 1,750

Información creada

1,500

1,250

1,000

750

500

Almacenamiento disponible 2005

2006

2007

2008

2009

2010

2011

250

0

Fuente: IDC

Alex Szalay, astrofísico de la Universidad John Hopkins, señala que la proliferación de datos los está volviendo menos accesibles. “¿Cómo darle sentido a toda esta información? Deberíamos preocuparnos más de entrenar a la próxima generación para que aprovechen estos datos. Y no me refiero sólo a los científicos, sino también a los funcionarios de gobierno y a los ejecutivos de las empresas”, dice Szalay. Los efectos se están sintiendo en todas partes, desde los negocios hasta la ciencia, desde el gobierno hasta las artes. Los científicos e ingenieros computacionales crearon un nuevo término para este fenómeno: big data. Desde el punto de vista epistemológico, un conjunto de datos integran la información; y el conocimiento se crea a partir de un cuerpo de información. En este reportaje especial utilizaremos los términos “datos”, “data” e “información” de manera indistinta.

La analítica y los nuevos profesionales El negocio de administrar información crece a pasos agigantados. Recientemente, las empresas Oracle, IBM, Microsoft y SAP han invertido más de 15 mil millones de dólares para adquirir compa-

10 < Política digital

ñías de software especializadas en la analítica y la administración de datos. Se estima que esta industria tiene un valor de 100 mil millones de dólares y que aumenta a un ritmo de 10% anual, casi el doble de lo que crece la industria de software en el mundo. Los responsables de las áreas de Tecnologías de la Información y Comunicaciones (CIOs) se han vuelto cada vez más importantes en el organigrama empresarial y empieza a aparecer en el mapa de las organizaciones un profesional de nuevo tipo: los científicos de datos, que combinan las habilidades del programador de software, las del estadístico, y las de una especie de modernos “gambusinos digitales” que extraen pepitas de oro escondidas bajo montañas de información. Hal Vrian, economista en jefe de Google, predice que el trabajo del estadístico se transformará en la más glamorosa de las actividades en esta industria. La información, dice, está en todas partes; lo escaso, es la habilidad para extraer sabiduría de ella.

¿Por qué hay tanto de todo? Existen muchas razones que explican el explosivo crecimiento de la información. La más evidente es la tecnología. Mientras la capacidad de los dispositivos digitales se disparan y los precios se desploman, los sensores y las aplicaciones digitalizan toneladas de información que antes no estaban disponibles. Además, cada vez hay más personas que tienen acceso a herramientas más poderosas. Por ejemplo, en el mundo hay más de 4.6 mil millones de suscripciones a telefonía móvil (aunque muchas personas tienen más de una suscripción) y casi dos mil millones de personas utilizan internet. Más aún, hay cada vez más gente que interactúa con la información. Entre 1990 y 2005, más de mil millones de personas en todo el mundo accedieron a la clase media. En la medida en que tengan más ingresos, se alfabetizan más, lo que impulsa el crecimiento de la información. Otra razón es la famosa “Ley de Moore”, que la industria de computación da por sentada. esta Ley afirma que cada 18 meses, la capacidad de procesamiento y almacenamiento de los microprocesadores se duplica, mientras que sus precios disminuyen casi el doble. La cantidad de información digitalizada aumenta diez veces cada cinco años. Buena parte de esta información se comparte. Para 2013, el flujo anual de tráfico en internet alcanzará los 667 exabytes, según estimaciones de Cisco, una empresa que fabrica equipos para comunicaciones. Por otra parte, la cantidad de datos crece más rápido que la habilidad que tienen las redes para transportarla.

La nueva materia prima Los datos se están convirtiendo en la nueva materia prima de los negocios: un insumo económico casi tan importante como el capital y el trabajo. “Lo que observamos es la posibilidad de crear economías que giran en alrededor de la información. Ese es, para mí, el gran cambio”, afirma Craig Mundie, Jefe de Investigación y Estrategia de Microsoft.


10

o

> Tema central

aniversario

Por su parte, Rollin Ford, el CIO de Wal-Mart, comenta: “Cada día me despierto y me pregunto: ‘¿cómo puedo mejorar el flujo de datos, administrarlos mejor, analizarlos mejor?’”. Los sofisticados análisis cuantitativos se aplican a muchos aspectos de la vida. Un ejemplo de ello es Farecast, una herramienta del sistema de búsquedas Bing de Microsoft. Luego de examinar 225 mil millones de registros de vuelos y precios, esta herramienta en línea notifica a los clientes si deben comprar un boleto de avión ahora o esperar a que los precios bajen. Esto también se aplica en las reservaciones de hotel, vehículos o servicios similares. Asimismo, los bancos y sitios web de finanzas personales agregan datos extraídos de sus clientes, para mostrar tendencias macroeconómicas, lo cual les permite crear negocios complementarios.

Datos que revelan más de lo esperado El rastro de clics que los usuarios de internet van dejando mientras navegan, y del que se puede extraer valor, se ha vuelto un pilar de la economía de internet. Por ejemplo, el sistema de búsquedas de Google identifica la relevancia de algún tema por el número de clics que tiene. Si el tema ubicado en el octavo lugar pasa a ser el más socorrido por quienes buscan información, el algoritmo lo subirá de lugar en la lista de resultados. En la medida en que el mundo se digitaliza, el análisis y la agregación de datos aportan enormes beneficios en otros campos. Tal es el caso por ejemplo del trabajo que realizan Craig Mundie, de Microsoft, y Eric Schmidt, ex Presidente y Director General de Google. Ambos participan en una iniciativa presidencial para reformar el sistema de Salud de Estados Unidos. “Al iniciar este trabajo Eric y yo decíamos: ‘mira, si realmente quieres transformar el sistema de salud, debes construir una economía que gire alrededor de la información que aportan los individuos”, dice Mundie. “De esta manera, los datos no serán sólo un padrón de personas que reciben servicios de salud, sino un insumo central para mejorar cada aspecto del sistema”. No cabe duda que los registros digitales harán que el trabajo de los doctores sea más fácil, que se reduzcan los costos para proveedores y pacientes, y que se mejore la calidad del servicio. Al agregar data, se podrán identificar reacciones no deseadas de un medicamento, puntualizar los tratamientos más efectivos, y predecir la aparición de enfermedades antes de que aparezcan los síntomas. Las computadoras son capaces de hacer este tipo de operaciones, pero se necesitan programas específicos para lograrlo. En ocasiones esos datos revelan más de lo que se espera. Tal es el caso del sitio Oakland Crimespotting, que publicó el lugar y la hora en que se realizaban arrestos en la ciudad de Oakland, California. Con unos cuántos clics, los ciudadanos pudieron comprobar que la policía hacía redadas contra la prostitución todas las noches excepto los miércoles, una táctica que probablemente la policía no deseaba revelar. Creer ciegamente en la agregación de datos puede ser muy riesgoso. Durante la crisis financiera del 2009-2010 fue evidente que los bancos y las agencias calificadoras confiaron en modelos que requerían grandes insumos de datos, pero fallaron al no reflejar los riesgos financieros del mundo real. Esta fue la primera crisis desatada por los “big data”. Y habrán más. “La economía basada en datos está naciendo”, advierte Mundie, de Microsoft.

Un juego diferente ¿De qué manera la información transforma los negocios tradicionales? La inteligencia de negocios y la analítica de datos pueden darnos una respuesta

E

xiste una variedad de tecnologías que se aglutinan bajo el concepto de Inteligencia de negocios o Business Intelligence o minería de datos gracias a los cuales las empresas han empezado a reunir y procesar datos como nunca antes. En el pasado, estos datos residían en diferentes sistemas dentro de las áreas de Finanzas, Recursos Humanos o Atención a Clientes, sin posibilidad de “hablarse” unas con otras. Actualmente, los sistemas de información están vinculados, y las empresas utilizan técnicas de minería de datos para obtener una imagen completa de sus operaciones. Esta versión única de la verdad permite a las empresas operar con mayor eficiencia, identificar tendencias y mejorar sus pronósticos.

Ese fue el caso de Cablecom, empresa operadora de telecomunicaciones con sede en Suiza. Una quinta parte de los sus clientes desertaba al cabo de un año, pero la empresa logró revertir esta tendencia y redujo la cifra de deserción a menos del 5%. ¿Cómo lo hizo? Mediante un software descubrió que, a pesar de que la deserción de sus clientes alcanzaba el punto máximo 13 meses después de contratar el servicio, en realidad decidían

edición sesenta y cinco > 11


> Tema central

dejar a la compañía alrededor del noveno mes (así lo señalaban diversos indicadores como la cantidad de llamadas a los servicios de atención al cliente). Ante esta evidencia, Cablecom ofreció paquetes y servicios especiales a ciertos clientes siete meses después de su suscripción.

Agonía y tortura La minería de datos tiene una dudosa reputación. “Si torturas los datos, te confesarán todo”, bromean los estadísticos; aunque en realidad esta práctica se ha vuelto común. Best Buy, la cadena de tiendas especializadas en tecnología, descubrió que el 7% de sus clientes representaban el 43% de sus ventas, por lo que reorganizó sus tiendas para concentrarse en las necesidades de su clientela. También las aerolíneas mejoraron su administración cuando aplicaron técnicas analíticas y descubrieron un indicador determinante para que un pasajero reserve un vuelo: la posibilidad de ordenar comida vegetariana. La industria de tecnologías de la información considera que la inteligencia de negocios será un factor dominante en este siglo. IBM sostiene que esta especialidad será un pilar de su crecimiento, pues será aplicado en cosas tan diversas como sensores para monitorear el flujo de tráfico de una ciudad, o el flujo de sangre de un paciente. Hasta 2010, la empresa había invertido unos 12 mil millones de dólares e inaugurado seis centros de analítica donde trabajan cuatro mil empleados. Pero el aprovechamiento de los datos no es tarea fácil. El primer paso consiste mejorar la calidad de la información. Nestlé, por ejemplo, vende más de 100 mil productos en 200 países, y utiliza 550 mil proveedores. Pero hace unos años no pudo aprovechar su enorme poder de compra, porque sus bases de datos eran un desastre. Al analizarlas se dieron cuenta que, de los nueve millones de registros de vendedores, clientes y materiales, casi la mitad estaban obsoletos o duplicados, y un tercio eran inexactos o incompletos. El nombre de un vendedor aparecía abreviado en un registro y de manera completa en otro, por ejemplo. Nestlé no ha sido el único en tener problemas con su base de datos. La mayoría de los responsables del área de Tecnologías de la Información en las empresas reconocen que sus datos son de mala calidad. En un estudio realizado por IBM, la mitad de los directivos interrogados no confiaba en la información sobre la cual basan sus decisiones. Muchos afirmaron que cuando trataban de darle sentido a los datos, con frecuencia producían más información. En lugar de encontrar una aguja en el pajar, producían más paja. Sin embargo, conforme la analítica se convierte en una práctica más extendida, las decisiones se sustentarán en algoritmos, y no en corazonadas. Esto obliga a producir administradores que se sienten bien manejando datos, pero los cursos de estadística en las universidades no son populares.

12 < Política digital

Hay oro tras cada clic Las empresas de internet ganan dinero con los datos que vamos dejando inadvertidamente en la web

¿S

abía usted que Amazon.com no quiere revelar lo que conoce de sus hábitos? Y no nos referimos únicamente a los libros que usted haya comprado en línea, sino al rastro que alguna vez dejó mientras navegaba por su sitio, y que le sirvieron a la compañía para mejorar sus servicios. De hecho, la información que obtiene Amazon mediante Kindle –su versión de libro electrónico– es aún más rica: la empresa sabe cuánto tiempo pasa una persona leyendo cada página o si toma notas. Pero Amazon se niega a revelar los datos que recopila, ni cómo los utiliza. Y no es el único caso. En la economía de Internet, las empresas recogen grandes masas de información de las personas: sus actividades, gustos, aversiones, sus relaciones con los demás e, incluso, algunos secretos de familia. Por ejemplo, el sitio de redes sociales Facebook sigue las actividades de sus usuarios –la mitad de los cuales pasan en promedio casi una hora en este sitio todos los días–, pero nunca habla de lo que encuentra. Google guarda más información de la que revela; e incluso eBay, la casa de subastas en línea, se mantiene en total silencio.


10

o

> Tema central

aniversario

tes a la información que obtiene de su usuarios: sus conductas a la hora de subastar, tendencias de precios, tipos de búsqueda que se hacen y el tiempo que destinan para consultar una página. Cada categoría de producto es tratado como una “microeconomía” que se administra por separado. Por ejemplo, si la compañía observa que hay gran cantidad de búsquedas, pero pocas ventas de un artículo costoso, esto podría indicar que se trata de una demanda no satisfecha, por lo que eBay podría pedir ese mismo producto a otro proveedor. Pero sin duda, la empresa que obtiene el máximo rendimiento de los datos que obtiene de sus usuarios es Google. El valor de la empresa se explica, en buena medida, por la inimaginable cantidad de información que posee de sus usuarios. Google explota la información que se produce al interactuar con ellos, transformándola en productos colaterales que son automáticamente reciclados para mejorar el servicio o crear nuevos productos completamente.

Los votos del ratón

“Ellos no quieren llamar la atención sobre este tema porque forma parte de su ventaja competitiva”, afirma Tim O’Reilly, uno de los autores del concepto Web 2.0 y propietario de la editorial O’Reilly Media. Estas empresas tienen una gran ventaja sobre aquellas que no pueden obtener esta información. Como lo admitiera el director de comunicaciones de uno de los sitios web más grandes, “no estamos en posición de conversar sobre esto. El asunto tiene menos que ver con la privacidad. No estamos dispuestos a abrir nuestra mano”. En otras palabras, la empresa no quiere revelar sus secretos comerciales. Esta reticencia se debe el temor que provocan en los usuarios y a la atención que de los reguladores. Pero esto refleja también una falta de visión: Primero porque los políticos y el público están realmente ansiosos; y segundo, si los usuarios supieran cómo utilizan la información, probablemente se sientan más impresionados que alarmados. Los sitios web más grandes ya reconocieron que la información sobre sus usuarios es un gran tesoro que puede ser utilizado de manera inmediata, cosa que las empresas tradicionales no pueden hacer. Los grandes sitios web llevan a cabo experimentos controlados para aprovechar la información que van dejando sus clientes. Netflix, un sitio que ofrece películas de alquiler, emplea una técnica estadística llamada “filtrado colaborativo” para saber qué recomienda un usuario a otro, lo que le ha reportado millones de dólares en ventas adicionales. Casi dos tercios de las películas que seleccionan los clientes de Netflix provienen de las recomendaciones en línea que recibieron de un familiar o amigo. El sitio de eBay, que a primera vista se parece a una plataforma neutral para el intercambio comercial, realiza miles de ajus-

En 1998, Larry Page, cofundador de Google, ideó el algoritmo PageRank. En ese entonces, los motores de búsqueda se limitaban a contar el número de veces que una palabra aparecía en una página web para determinar su relevancia. Se trataba de un sistema abierto a la manipulación. Tuvieron que mejorar el sistema para que cuente el número de enlaces entrantes desde otras páginas web. Estos vínculos actúan como “votos” por parte de los usuarios de Internet, para expresar que se trata de un buen contenido. Si hay más enlaces, significa que es una página web más útil. Sucede algo similar con un libro: si más obras lo citan como fuente confiable, esto indica que es mejor que otros. Pero esta mejora era susceptible al spam de enlaces, con lo cual se podría engañar al sistema. La solución a este segundo problema la tenían frente a sus narices: contabilizar solamente aquellas páginas de resultados de búsqueda donde los usuarios habían hecho clic, y se quedaron en ellas. Una búsqueda en Google puede producir dos millones de resultados en un cuarto de segundo, pero la mayoría de los usuarios sólo quieren consultar una página, por lo que le dicen a Google qué quieren encontrar, y el algoritmo alimenta la consulta de forma automática. A partir de entonces, Google se dio cuenta de que estaba en el negocio de la minería de datos. Sacar provecho de la enorme cantidad de datos no es privilegio exclusivo de Google, ni tampoco una técnica nueva. Uno de los ejemplos más significativos se remonta a mediados de 1800, cuando Matthew Fontaine Maury, oficial de la Armada estadounidense, tuvo la idea de agregar los registros de las rutas de los buques que cruzaban el Pacífico, para identificar la que ofreciera mejores vientos y corrientes marinas. Sin proponérselo, Fontaine creó una variante temprana de una “red social” entre capitanes, con quienes compartía sus libros de registro, siempre y cuando le entregaran sus rutas de navegación. Era un proceso lento y laborioso.

edición sesenta y cinco > 13


> Tema central

Las inferencias estadísticas Google aplica el principio de “aprendizaje recursivo” en muchos de sus servicios, incluyendo el de corrección ortográfica, y ha producido el mejor corrector ortográfico en casi todos los idiomas. Microsoft afirma haber gastado varios millones de dólares y más de 20 años para construir su robusto corrector ortográfico en su procesador de textos. Pero Google obtuvo la materia prima sin costo: su programa se basa en las faltas de ortografía que los usuarios escriben en la ventana de búsqueda, y en las correcciones que luego hacen. Con casi tres millones de consultas diarias, los resultados se acumulan con rapidez. Por cierto, dos nuevos servicios de Google utilizan el mismo sistema: la traducción y el reconocimiento de voz. Ambos le han provocado grandes dolores de cabeza a los informáticos que trabajan en inteligencia artificial. Durante más de cuatro décadas, los cerebros más brillantes de la industria trataron de programar las computadoras para que entendieran la estructura y la fonética de los idiomas. Esto significaba definir reglas gramaticales para saber dónde van los sustantivos y dónde los verbos en una oración, y cuáles son los tiempos verbales correctos, y demás. Google por el contrario, abordó este reto como un problema de matemáticas que podría ser resuelto mediante una gran

cantidad de datos y capacidad de procesamiento. Al final, se le ocurrió algo muy práctico. Para la traducción, recurrió a sus otros servicios. La firma ofrece documentos de la Comisión Europea, traducidos a unos 20 idiomas, y su proyecto de escaneo de libros cuenta con miles de títulos que han sido traducidos a muchos idiomas. Todas estas traducciones son muy buenas, realizadas por expertos bajo los estándares más exigentes. De manera que, en vez de enseñar a sus computadoras las reglas de un idioma, Google empleó los textos que ya tenía para hacer inferencias estadísticas. El Traductor de Google (Google Translate) ofrece textos en más de 50 idiomas, de acuerdo con Franz Och, uno de los ingenieros de la compañía. El sistema identifica qué palabra o frase en un idioma es el equivalente más probable en una segunda lengua. Si las traducciones directas no están disponibles (por ejemplo, del hindi al catalán), el inglés es utilizado como puente. El sistema fue desarrollado gracias al procesamiento de casi dos trillones de palabras. Pero el sistema no está a punto, a pesar de que aprende de una gran cantidad de datos. Aquí la retroalimentación es fundamental, pero Google tan sólo pide la opinión de los usuarios sobre el servicio recibido, nada más.

La regla de cálculo Es difícil cuantificar la cantidad de información que existe en el mundo. Lo que está claro es que hay mucha, que está creciendo a un ritmo monstruoso de 60% anual, y que tiende a acelerarse El flujo de datos proveniente de sensores, computadoras, laboratorios de investigación, cámaras digitales, teléfonos celulares y otros dispositivos rebasó la capacidad de las tecnologías para almacenarla en 2007. Y es que la cantidad de información se incrementa de manera sorprendente. Un ejemplo son los experimentos que se realizan en el Gran Colisionador de Hadrones, el laboratorio de partículas subatómicas en Génova: genera 40 terabytes cada segundo, una magnitud mayor de la que se puede almacenar o analizar. Por eso, los científicos recolectan lo que pueden y dejan que el resto se disipe en el éter. Según un estudio realizado por la

14 < Política digital

firma de investigación de mercado IDC, se generaron casi 1,200 exabytes de datos digitales en 2010. Pero, ¿acaso se consume toda esta información? Investigadores de la Universidad de California en San Diego (UCSD) estudiaron el flujo de datos en los hogares estadounidenses. En 2008 encontraron que estos hogares eran bombardeados con 3.6 zettabytes de información (o 34 gigabytes por persona al día). Los datos más pesados correspondían a videojuegos y programas de televisión; los textos escritos representaron menos del 0.1% del total de bytes. Sin embargo, la cantidad de lectores, que estaba en franco declive por la televisión, se ha triplicado desde 1980 gracias a los textos que hay en internet. Además, en el pasado, el consumo de información se hacía de manera pasiva, descontando el teléfono; hoy en cambio

la mitad de todos los bytes se reciben interactivamente, según la UCSD. La marcha de las máquinas En el futuro cercano, “es muy probable que la información creada por máquinas, y consumida por otras máquinas, crezca más que cualquier otra cosa”, advierte Roger Bohn, de la UCSD, uno de los autores que realizó el estudio de los hogares estadounidenses. Según sus estimaciones, únicamente el 5% de la información se crea de manera “estructurada”, es decir, con formatos estandarizados de palabras o números que pueden ser leídos por computadoras. El resto son archivos de fotografías o audios de llamadas telefónicas, que son más difíciles utilizar o recuperar. Pero esto está cambiando en la medida en que el contenido de la web se vuelve más “etiquetado” y el software para reconocimiento de voz y rasgos faciales permite identificar palabras y personas. “Es triste que hoy exista tan poca información inútil”, bromeaba Oscar Wilde en 1894.


10

o

> Tema central

aniversario

Por otra parte, el sistema de reconocimiento de voz de Google destaca por el uso exhaustivo de datos. Para utilizar su directorio telefónico, los clientes marcan el número y mencionan de viva voz lo que están buscando. El sistema repite esta información; cuando el cliente lo confirma, o hace nuevamente la consulta, el sistema desarrolla un registro de las diferentes formas en que puede expresarse la palabra utilizada. El sistema no aprende a entender la voz, sino que compila las probabilidades que hay para verbalizar una palabra. “La reutilización de datos es un nuevo modelo para la práctica de la computación”, dice Edward Felten, de la Universidad de Princeton: “Trabajar con grandes cuerpos de data y hacer inferencias acerca de lo que puede ir junto, está avanzando más rápido de lo esperado. Ya no se trata tanto de entender, sino de hacer análisis estadístico. Muchas empresas de internet están viendo las cosas de esta manera. “Si tenemos datos generados por los propios usuarios, podremos construir mejores sistemas, en vez de mejorar algoritmos”, señala Andreas Weigend, quien fuera Director de Desarrollo de Amazon y que actualmente trabaja en la Universidad de Stanford.

Todo esto está perfectamente alineado con la audaz misión de la empresa que consiste en “organizar la información del mundo”. Las palabras que acompañan esta misión fueron elegidas cuidadosamente: Google no necesita ser dueña de los datos. Lo que quiere es tener acceso a ellos (y asegurarse que sus rivales no los tengan). La iniciativa “Frente de Liberación de Data”, una iniciativa de Google que arrancó hace un par de años pretende que todos los servicios puedan ser discontinuados con gran facilidad por sus usuarios, que podrán retirar sus datos de la empresa. En una industria que se sustenta en la captura, retención, y encierro de los datos de sus clientes, Google pretende “reducir las barreras de salida”. Esto debería salvar a sus ingenieros de la complacencia, que es la maldición de muchas empresas tecnológicas. Es muy posible que Google reconozca que sus usuarios no se opondrán a compartir información con la empresa, si saben que pueden retirar su información en cualquier momento.

La “inflación” en los datos Unidad

Tamaño

Lo que significa

Bit (b)

1o0

Bit es la abreviatura de “dígito binario” (binary digit), ya que en las computadoras se utiliza el código binario (1 o 0) para almacenar y procesar datos.

Byte (B)

8 bits

Suficiente información para crear una carta en inglés o el número de código de computadora. Es la unidad básica de la computación.

Kilobyte (KB)

1,000 o 210 bytes

Proviene de “mil” en griego. Una página de texto equivale a 2KB.

Megabyte (MB)

1,000 KB o 220 bytes

Procede de la palabra griega mega, que significa “grande”. Las obras completas de Shakespeare caben en 5 MB, y una canción pop típica “pesa” aproximadamente 4 MB.

Gigabyte (GB)

1,000 MB; 230 bytes

De “gigante”, en griego. Una película de dos horas puede comprimirse en 2.1 GB.

Terabyte (TB)

1,000 GB; 240 bytes

De “monstruo”, en griego. Todos los libros catalogados en la Biblioteca del Congreso de Estados Unidos suman 15 TB.

Petabyte (PB)

1,000 TB; 250 bytes

Todas las cartas enviadas por el servicio postal de Estados Unidos durante un año equivalen a unos 5 PB. Google procesa alrededor de 1 PB cada hora.

Exabyte (EB)

1,000 PB; 260 bytes

Equivalente a 10 mil millones de copias de la revista The Economist.

Zettabyte (ZB)

1,000 EB; 2 bytes

Este año, se prevé que la cantidad total de información en el mundo será de casi 1.2 ZB.

Yottabyte (YB)

1,000 ZB; 2 bytes

Actualmente es una cantidad de información demasiado grande para imaginar.

70

80

Los prefijos son establecidos por un grupo intergubernamental, la Oficina Internacional de Pesas y Medidas; Yotta y Zetta se añadieron en 1991; los términos de cantidades mayores todavía no se han establecido. Fuente: The Economist

edición sesenta y cinco > 15


> Tema central

La sociedad abierta El llamado Open government se ha convertido en una de las áreas más prometedoras de la política pública en Estados Unidos

D

esde la antigüedad hasta los tiempos modernos, la nación ha sido, siempre, el resultado de la administración de información. Su habilidad para exigir el pago de impuestos, promulgar leyes, contabilizar ciudadanos o crear ejércitos es el corazón del Estado. Pero algo nuevo aparece en el horizonte. Por estos días, la apertura democrática es mucho más que organizar elecciones libres y justas: hoy los ciudadanos esperan tener acceso a la información gubernamental. Por mucho tiempo, el Estado ha sido el principal generador, recolector y usuario de datos. Guarda las actas de cada nacimiento, matrimonio y defunción; compila los números de la economía y guarda las estadísticas de licencias y del clima. Hasta hace poco, esta información se resguardaba bajo llave; incluso la de acceso público era difícil de encontrar. Pero ahora, tanto los ciudadanos como las organizaciones no gubernamentales del mundo están presionando para acceder a información pública nacional, estatal o municipal, y algunos funcionarios apoyan esta iniciativa con gran entusiasmo. “La información que manejan los gobiernos es una especie de infraestructura, no menos importante que las carreteras, la red eléctrica o los sistemas de agua potable”, afirma Carl Malamud, jefe del grupo Public.Resource.Org, que publica información de gobierno por internet.

16 < Política digital

Estados Unidos lidera el acceso a datos en el mundo. El primer día de su administración, el presidente Barack Obama publicó un decreto instruyendo a los titulares de las agencias federales a publicar tanta información como pudieran, y los exhortaba a actuar bajo una clara presunción: “ante la duda, la apertura prevalece”. Esto fue algo notable, ya que la administración Bush había ordenado a las dependencias hacer exacta y expresamente, lo opuesto. El decreto del presidente Obama produjo una oleada de información gubernamental que se publicó en internet. Ahora es posible obtener cifras de muertes relacionadas con el trabajo que proporcionan el nombre de los empleadores, o conocer los datos anuales sobre migración, todo en forma gratuita y en un sitio público llamado data.gov. Las alternativas que brinda esta apertura son infinitas. Ejemplo de ello sucedió hace unos meses: 48 horas después de que el gobierno estadounidense publicara información sobre retrasos de vuelos comerciales, surgió un sitio web para diseminarlos. Y es que dar acceso a los datos “crea una cultura de rendición de cuentas”, afirmó Vivek Kundra, quien fuera CIO del gobierno federal estadunidense. Una de las primeras acciones que realizó Kundra cuando asumió el cargo, fue crear un tablero de control en línea que detallaba el gasto del gobierno federal en tecnología (unos 70 mil millones de dólares). Esto ha marcado toda la diferencia.”Se está dando un cambio cultural respecto a lo que la gente espera del gobierno, gracias a la experiencia de comprar en internet, y a la información financiera en-línea”, señala John Wonderlich, de la Sunlight Foundation, que promueve gobiernos abiertos. En el marco de la crisis económica, “la ciudad de San Francisco enfrenta importantes reducciones presupuestarias. Tenemos que reducir nuestros gastos operativos en un 50%, por lo que tendremos que resolver cómo cambiar nuestro funcionamiento”, dice Chris Vein, el CIO de la ciudad, Para él, proveer a los ciudadanos de información hará que el gobierno de la ciudad sea más eficiente. Uno de los primeros usuarios de esta nueva disponibilidad de data, fue el sitio web “San Francisco Crimespotting”, desarrollado por la empresa Stamen Design, que ofrece cifras históricas de criminalidad georeferenciadas sobre un mapa de la ciudad, y permite a los usuarios manipular los datos para encontrar tendencias ocultas en su colonia, o solicitar la presencia de patrullas en áreas particulares. Otras ciudades como Nueva York, Chicago y Washington, D.C., también están tomando la delantera. Ahora que grupos ciudadanos y empresas cuentan con la información, la pueden utilizar para mejorar los servicios. Por ejemplo, cleanscores.com publica los resultados de inspecciones sanitarias a los restaurantes; otros sitios difunden actividades infantiles o ayudan a las personas a encontrar lugares de estacionamiento. En el pasado, los gobiernos estaban obligados a proporcionar estos servicios de información, ahora en cambio, sólo entregan datos. Europa también ha comenzando a ofrecer mayor apertura. En 2005, la Comisión Europea hizo un llamado para que la in-


10

o

> Tema central

aniversario

formación del sector público fuera más accesible, aunque se trató de una invitación carente de dientes. No obstante, los activistas digitales del viejo mundo han comenzado a emplear la red para rastrear a los políticos y para tratar de mejorar los servicios públicos. En Gran Bretaña, FixMyStreet.com ofrece a los ciudadanos la oportunidad de ventilar públicamente los problemas de su localidad, para que no sean ignorados por las autoridades.

Los agentes del cambio El propósito de abrir la información no es exhibir al mundo, sino cambiarlo. Los movimientos que buscan una mayor transparencia en el gobierno se han convertido en una de las áreas más vibrantes y prometedoras de la política pública. Y es que, en ocasiones, revelar información puede contribuir al logro de políticas más eficientes y a un menor costo, que si se hiciera por la vía de la regulación. Un importante giro de estas iniciativas consiste en obligar al sector privado a que también rinda cuentas. En estos casos, el gobierno junto con la ciudadanía, son los que lo exigen. Se han dado varios casos exitosos en áreas tan diversas como la sanidad en restaurantes, seguridad automotriz, nutrición, préstamos inmobiliarios para minorías, y desempeño educacional, anota Archon Fung, Mary Graham y David Weil, del Transparency Policy Project de la Kennedy School of Government, en su libro Full Disclosure. Pero la transparencia por sí sola no basta. Debe existir una comunidad de ciudadanos que promueva la apertura de la información, y sus proveedores - los funcionarios públicos - necesitan un incentivo para proporcionarla, y penalizaciones por retenerla. Por su parte, los desarrolladores deben encontrar nuevas formas para asegurar que la información pública que se libera sea utilizada de forma efectiva. Según Fung, en la medida en que los gobiernos liberen información acerca de las cosas que hacen, los datos serán utilizados más para demostrar las insuficiencias del sector público, que para dar cuenta de sus éxitos. Otra preocupación es que la calidad de los datos dejarán mucho que desear, lo que representa un problema tanto para los empresarios como para los ciudadanos. También hay un debate respecto a si los gobiernos deberían proveer únicamente la información en bruto o si debieran involucrarse en su procesamiento. Otra preocupación radica en que pudieran manipularla, aunque eso podría hacerlo cualquiera. El acceso público a cifras gubernamentales genera, sin duda, valor económico y fomenta los negocios. Esto ya ocurrió con los datos del clima y con el sistema de navegación satelital de Estados Unidos, que fue abierto para su uso comercial hace más una década. John Stuart Mill anticipaba todo esto en 1861, cuando hizo un llamado para que hubiera “apertura en los asuntos administrativos y judiciales…con la mayor publicidad posible”. En nuestros días, esto equivaldría a alcanzar la máxima apertura de datos posible por medios electrónicos.

“Muéstralo en una gráfica” Hace apenas unos cuantos años, apareció un vibrante y creativo campo que fusiona las habilidades de la ciencia computacional, la estadística y el diseño artístico. Es la visualización de datos

E

n 1998, Martin Wattenberg, diseñador gráfico de la revista neoyorquina SmartMoney, tenía un problema: quería ilustrar los movimientos diarios del mercado de valores en forma diferente. En ese entonces, las gráficas se limitaban a mostrar estos comportamientos mediante una sola línea. A Wattenberg se le ocurrió aprovechar la tecnología existente para crear un mapa del mercado que mostrara el movimiento accionario de más 500 empresas ordenadas por sector. Una cuadrícula sombreada en color verde o rojo indicaría si la acción había subido o bajado y qué tanto. El éxito fue instantáneo y permitió llevar el naciente campo de la visualización de datos (data visualization) a audiencias masivas. “La visualización de datos trata la inhumana cantidad de información y la presenta en una escala humana que el ojo pueda ver”, explica Wattenberg, que ahora trabaja en IBM y encabeza una nueva generación de especialistas en este campo. La información bursátil puede ser difícil de mostrar, pero sus datos, al menos, son numéricos. Visualizar palabras es más difícil: Una manera de hacerlo es contarlas y presentarlas todas juntas de tal forma que las más utilizadas aparezcan con tipografía más grande. El método se conoce como nube de palabras, y es muy común en la web. Poco después de que Obama asumió la presidencia, apareció en la web una nube de palabras con una representación gráfica semiótica de su discurso de 21 minutos. Las tres palabras más utilizadas fueron nación, América y pueblo. Las de su predecesor, América y libertad; y las de Abraham Lincoln fueron, guerra, Dios y ofensa.

¿Arte o información? Algunos trabajos de visualización de datos se han exhibido en lugares como el Museo Whitney y el Museo de Arte Moderno de Nueva York. Otros se han convertido en libros, como el proyecto web “We Feel Fine”, de Jonathan Harris y Sep Kamvar, que captura cada instante de la palabra “sentir” o “sentimiento” en Twitter, y lo relaciona con el tiempo, el espacio, la edad, el sexo e incluso el estado del clima.

edición sesenta y cinco > 17


> Tema central

La visualización de datos es una disciplina relativamente nueva. Las líneas de tiempo, que han sido las tablas más comunes, aparecieron en escritos científicos hacia finales del siglo XVIII, afirma Edward Tufte en su clásico The Visual Display of Quantitative Information), considerada como la biblia de este negocio. De manera que los expertos en infografías son ahora los pioneros de un nuevo campo, que consiste en mostrar información mediante una narrativa atractiva, “algo que está entre el libro de texto y la novela”, como señala Nathan Yau, de la UCLA, en su libro Beautiful Data. Si una foto vale más que mil palabras, una infografía vale por un montón de puntos de datos.

Estas técnicas se están moviendo hacia el mundo de los negocios. Fry diseñó tablas interactivas para la División de Salud de la empresa General Electric que muestran los costos que pagan pacientes y aseguradoras por enfermedades comunes. En las empresas de medios, destacan The New York Times y The Guardian, en Gran Bretaña, que han producido gráficas interactivas ricas en datos y con suficiente fuerza y coherencia informativa. Estas herramientas se están haciendo cada día más accesibles. Por ejemplo, la empresa Tableau Software –cofundada en 2003 por Pat Hanrahan, de la Universidad de Stanford– hace por la visualización de datos lo que el procesador de textos hizo por la escritura, al permitir que cualquier persona pueda mani-

Algo de biología

pular información en forma creativa. Tableau ofrece versiones gratuitas y comerciales de sus productos, lo mismo que el sitio Swivel.com. Otros sitios son completamente gratuitos. Tal es el caso Google y un sitio de IBM llamado Many Eyes, que permiten a la gente subir datos para mostrarlos de forma novedosa y compartirlos con otras personas. Algunos datos se representan mejor con una imagen en movimiento, y conforme las publicaciones impresas se mueven a lectores electrónicos, las infografías animadas eventualmente se convertirán en el estándar. El software Gapminder permite publicar de forma elegante cuatro variables dinámicas al mismo tiempo. Mostrar información puede marcar una diferencia al permitir que la gente entienda asuntos complejos y encuentre soluciones creativas. Valdis Krebs, un especialista en mapeo de interacciones sociales, recuerda haber sido llamado para colaborar en un proyecto corporativo que estaba rebasado en presupuesto y retrasado. Krebs dibujó en un mapa la intrincada red de tráfico de correo electrónico que mostraba distintas áreas de la empresa. De esta manera, demostró que los equipos involucrados no se comunicaban en forma directa, sino a través de los gerentes. La empresa cambió sus procesos de trabajo rápidamente y el proyecto regresó al camino correcto. Una rudimentaria visualización de datos hizo la diferencia.

Para el cerebro es más fácil procesar información si es presentada como una imagen, en vez de palabras o números. El hemisferio derecho reconoce formas y colores, mientras que el izquierdo procesa información de una manera analítica y secuencial, y es más activo cuando la gente lee textos o mira una hoja de cálculo. Ver una tabla numérica requiere mucho esfuerzo mental, pero la información presentada visualmente puede ser comprendida en pocos segundos. El cerebro identifica patrones, proporciones y relaciones de información para luego hacer comparaciones subliminales instantáneas. Estas gráficas utilizan inmensas cantidades de datos. Farecast, el servicio de predicción de precios en línea, contrató psicólogos especializados en colores para diseñar las tablas y esquemas que aparecen en su sitio. Jeffrey Heer, de la Universidad de Stanford, ayudó a desarrollar sense.us, un sitio que permite consultar los datos de los censos de Estados Unidos con datos de hace más de un siglo. Ben Fry, un diseñador independiente, creó un mapa de las 26 millones de carreteras que hay en Estados Unidos. Las densas comunidades del noreste forman un poderoso contraste con el desolado oeste. Aaron Koblin, de Google, trazó un mapa de cada vuelo comercial en Estados Unidos durante 24 horas; con líneas más brillantes identificó las rutas de mayor tráfico.

18 < Política digital


> Tema central

10

o

aniversario

Nuevas reglas para manejar información Privacidad, seguridad, retención, procesamiento, propiedad e integridad de la información se han convertido en los nuevos principios para el flujo de bienes y servicios digitales. Muchas de las leyes vigentes son obsoletas o ineficaces para proteger estos principios

E

n 1650, dos siglos después de que Gutenberg inventara la imprenta, se habían publicado una gran cantidad de libros, pero eran caros y de baja calidad. La primera ley de derechos de autor, promulgada a principios de 1700 en Gran Bretaña, otorgaba libre acceso al conocimiento y ponía los libros a disposición del público después de un periodo de exclusividad de casi 14 años. Las leyes que protegen la libertad de expresión surgieron hasta finales del siglo XVIII. Antes de que la imprenta se extendiera, la necesidad de estas leyes era limitada. Hoy la abundancia de datos ha cambiado, una vez más, la relación entre la tecnología y el Estado. Muchas de las reglas vigentes parecen arcaicas. Por ejemplo, las leyes de privacidad no fueron diseñadas para las redes de cómputo, y las reglas para retener documentos se refieren a registros en papel. Debido a que toda la información está interconectada, se requieren reglas globales. En la era del big data, los nuevos principios deben responder a seis elementos: privacidad, seguridad, retención, procesamiento, propiedad e integridad de la información. Revisémoslas. La privacidad es una de las principales preocupaciones. Hoy la gente revela más información personal que

nunca, sobre todo en las redes sociales, que dependen de este tipo de información. Pero la tensión entre el interés de los individuos por proteger su privacidad y el de las empresas por explotarla, se puede resolver ofreciéndole a la gente más control sobre su información. A los cibernautas se les puede dar el derecho a ver y corregir la información que está en manos de las organizaciones, y éstas pueden notificarles cómo fue utilizada y con quién fue compartida. Las normas actuales de privacidad aspiran a esto, pero se quedan cortas debido a las dificultades técnicas que a la industria le gusta exagerar. Una mejor tecnología podría eliminar tales problemas. Los beneficios de la seguridad de la información –que consiste en proteger sistemas y redes de cómputo– son invisibles: si las amenazas se evitan, las cosas funcionan con normalidad, lo que provoca importantes descuidos. Una forma de lidiar con esto es mantener a la gente informada. En 2003, el estado de California fue el primero en expedir una ley que exigía a las empresas notificar a los usuarios sobre fallas de seguridad que comprometen su información personal. Esto presionó a las empresas a invertir más en seguridad preventiva. El modelo fue adoptado por otros estados y se podría expandir aún más. Además, los reguladores podrían colaborar en esta tarea obligando a grandes compañías a que se sometan a auditorías anuales de seguridad de la información, similar a las auditorías financieras. La información sobre las vulnerabilidades no se divulgaría, pero las empresas podrían utilizarla para mejorar sus prácticas. Es más, podría incluso ser un requisito para la cobertura de seguros, permitiendo así la creación de un mercado de seguridad de la información. Respecto a la retención, las reglas actuales sobre registros digitales establecen que los datos no se deberían almacenar más de lo necesario, pues podrían ser utilizados de manera incorrecta o fugarse sin que nadie lo note. Viktor Mayer-Schönberger, de la Universidad Nacional de Singapur, advierte que el creciente poder y la disminución del precio de las computadoras facilitarán el almacenamiento de información. En su reciente libro Delete (Borrar), argumenta a favor de sistemas que olvidan, es decir, archivos que han expirado o que lentamente se degradan con el tiempo. Pero las regulaciones están empujando a la dirección opuesta. Funcionarios estadounidenses de seguridad han presionado a las empresas para que conserven sus registros, argumentando que de esta manera podrán

edición sesenta y cinco > 19


> Tema central

obtener pistas en caso de ocurrir algún acto terrorista. En el futuro será más probable que las compañías conserven los archivos digitales en vez de eliminarlos. El procesamiento de información es otra de las preocupaciones. Rebeca Goldin, matemática de la Universidad de George Mason, plantea su preocupación sobre “la ética de las correlaciones estadísticas”. Por ejemplo, rechazar un préstamo bancario por discriminación racial es un acto ilegal. Pero si se pueden hacer correlaciones con el nivel educativo de la madre del postulante, que en Estados Unidos está fuertemente relacionado con la raza. ¿Y qué tal si al momento de hacer la solicitud, la base de datos de la institución bancaria predice la susceptibilidad que tiene el solicitante a padecer una enfermedad? Un nuevo principio regulador en la era del big data podría ser que los datos de las personas no pueden ser utilizados para discriminar contra ellas sobre el supuesto de que algo pueda o no suceder. Esto es similar a la regla que tienen las oficinas nacionales de estadística, donde los datos recogidos de las encuestas no se pueden usar en contra de las personas, como la deportación de inmigrantes ilegales que, desafortunadamente, no siempre ha sido respetado. Las reglas de privacidad se inclinan a tratar los datos personales como un derecho de propiedad. Una presunción razonable es que el rastro de información que deja una persona, como los clics a la hora de navegar por un sitio web, le pertenecen al individuo y no a la empresa que recolecta la información. El “Frente de Liberación de Datos” de Google apunta a esta dirección (ver artículo “Hay oro tras cada clic”, en la página 12). De hecho la “portabilidad de datos” estimula la competencia de la misma manera que lo hace la portabilidad numérica entre los operadores de telefonía móvil. También podría reducir la necesidad de leyes antimonopolio al contrarrestar el deseo de almacenar para obtener economías de escala. Asegurar la integridad de la información es una parte fundamental de la era del big data. Cuando Hillary Clinton, Secretaria de Estado estadounidense, criticó a los chinos por haber presuntamente hackeado las computadoras de Google, la funcionaria utilizó el término “red global común”. Y en efecto, la idea es que internet sea un ambiente global compartido, como los océanos o el espacio aéreo, que requiere de la cooperación internacional. La censura contamina este medio. Interrumpir los flujos de información no sólo viola la integridad de los datos, sino que coarta la libertad de expresión y niega el derecho de reunión. De la misma manera, si los operadores de telecomunicaciones dan preferencia a ciertos proveedores de contenido, minan la neutralidad de la red. Así como los gobiernos establecen requisitos para etiquetar los alimentos procesados o imponer estándares de salud pública, también pueden definir mejores prácticas para manejar los flujos de información y el procesamiento de datos. La Organización Mundial de Comercio, que supervisa el intercambio comercial físico, puede supervisar también el flujo de bienes y servicios digitales. Pero esta labor no será rápida ni sencilla.

20 < Política digital

¿Se puede gestionar la abundancia? El abismo entre la cantidad de información que se genera y la capacidad del hombre para manejarla se puede estar ensanchando, pero no hay por qué alarmarse

“L

o que la información consume es muy obvio: Consume la atención de sus receptores” escribió el economista Herbert Simon, en 1971. “De ahí que la riqueza de información crea pobreza de atención”. Pero así como las computadoras generan gran parte del diluvio de datos, también pueden ser utilizadas para resolver este problema. Y conforme el torrente de información crece, no sorprende que la gente se sienta abrumada. “Hay un inmenso riesgo de una sobrecarga cognitiva”, explica Carl Pabo, biólogo molecular especializado en el campo de la cognición. La mente humana puede manejar siete piezas de información en su memoria de corto plazo y puede lidiar con sólo cuatro conceptos o relaciones a la vez. Si necesita procesar más información, o si es muy compleja, la gente se confunde. Más aún, el conocimiento se ha especializado tanto, que es imposible para un individuo aprehender la fotografía com-


10

o

> Tema central

aniversario

pleta de su entorno. Un verdadero entendimiento del cambio climático, por ejemplo, requiere conocimiento en Meteorología, Química, Economía y Leyes, entre otras materias. Y aunque se esperaba que los doctores de hace un siglo supieran todo en el campo de la medicina, ahora tendrían que estar familiarizados con 10 mil enfermedades, tres mil medicamentos y más de mil pruebas de laboratorio. Un estudio realizado en 2004, sugirió que solo en epidemiología a un médico le tomaría 21 horas de trabajo diario para mantenerse actualizado. Desde esta perspectiva resalta el rol que tienen las computadoras como “intermediarias de la información”: la gente rara vez trata con información en bruto; prefiere consumirla una vez que haya sido procesada por las computadoras. De hecho, muchas de las tecnologías descritas en este reportaje, desde la analitica de datos y el aprendizaje recursivo hasta el software de visualización, existen para que los datos sean más digeribles. Algunas aplicaciones se han vuelto tan comunes que se dan por sentado. Por ejemplo, aterrizar un avión requiere mucho esfuerzo mental, por lo que el proceso ha sido en gran medida automatizado. En salud, la tendencia apunta hacia la medicina basada en evidencias, donde no sólo los doctores sino las computadoras se involucran en el diagnóstico y el tratamiento.

Los peligros de la complacencia En la era del big data como la que vivimos, los algoritmos piensan más por la gente. Pero eso conlleva nuevos riesgos. La tecnología es menos confiable de lo que se cree. En el manejo de big data, por cada éxito hay muchos fracasos. Ejemplo de ello fue la inhabilidad que tuvieron los bancos para entender los riesgos que propiciaron la crisis financiera hace un par de años. El deficiente sistema utilizado para identificar terroristas, es otra muestra. En la Navidad de 2009, el nigeriano Umar Farouk Abdulmutallab intentó activar una bomba que llevaba escondida mientras su avión aterrizaba en Detroit. Resultó que su padre había informado a las autoridades estadunidenses que su hijo representaba una amenaza. El nombre de Umar fue introducido en una gran base de datos de casi 550 mil personas, quienes representan un riesgo para la seguridad nacional de ese país. Pero se trataba de una base de datos defectuosa: contenía muchos nombres duplicados o parte de la información se perdía durante los respaldos. Las autoridades cumplieron con todos los protocolos, pero aún así el sistema nunca previno que el sospechoso abordaría ese avión. ¿Y qué pasaría si la tecnología dejara de funcionar totalmente? No es una idea descabellada. En enero de 2000, un torrente excesivo de datos en la Agencia de Seguridad Nacional (NSA) de Estados Unidos provocó que el sistema se cayera. La agencia tuvo una especie de “muerte cerebral durante tres días y medio”, dijo el general Michael Hayden, entonces director de la NSA. “Estábamos en la oscuridad. Nuestra habilidad para procesar información fue nula”. Parte de la solución consiste en dedicar más recursos para mejorar el desempeño de las tecnologías existentes en vez de promover más innovaciones. La industria de cómputo pasó por

un periodo similar de revaloración en 2001 y 2002, cuando Microsoft y otras empresas proveedoras anunciaron que estaban concentrando sus fuerzas para hacer productos más seguros en vez de añadir nuevas funcionalidades. Otra preocupación es el consumo de energía eléctrica. Procesar grandes cantidades de datos requiere muchos megawatts. “En dos o tres años vamos a saturar los cables eléctricos que entran a nuestros edificios”, advierte Alex Szalay, de la Universidad John Hopkins. “El reto será hacer las mismas cosas que hacemos hoy, pero con 10 o 100 veces menos energía eléctrica”. Para anticipar esta situación, tanto Google como Microsoft decidieron poner algunos de sus grandes centros de datos junto a plantas hidroeléctricas para así asegurar el acceso a suficiente energía a un precio razonable.

Conocimiento es poder La búsqueda de información ha preocupado a los seres humanos desde que el conocimiento se registró por primera vez. En el siglo III a.C., Ptolomeo robó todos los pergaminos que pudo de viajeros y naves para abastecer su gran biblioteca en Alejandría. Después del 11 de septiembre de 2001, el Departamento de Defensa de Estados Unidos lanzó un programa llamado “Total Information Awareness” (Conciencia de Información Total) para recolectar la mayor cantidad de datos sobre cualquier cosa: correos electrónicos, llamadas telefónicas, búsquedas en internet, registros bancarios y médicos, transacciones de compras, y mucho más. Por otra parte, desde 1996, Brewster Kahle, un notable emprendedor de negocios por internet, ha registrado todo el contenido de la red mediante una empresa sin fines de lucro llamada el “Internet Archive”. En realidad, siempre ha habido más información de la que la gente puede procesar mentalmente. “Nuestros sistemas sensoriales y de atención son afinados por la evolución y la experiencia de ser selectivos”, explica Dennis Proffitt, psicólogo cognoscitivo de la Universidad de Virginia. Cada ser humano encuentra patrones para comprimir la información y hacerla manejable. Nadie espera, razonablemente, que el hombre sea reemplazado por un robot. “La flexibilidad que tienen los humanos para considerar consecuencias imprevistas al tomar decisiones importantes, así como resolver problemas de manera instintiva o por razonamientos abstractos acumulados a través de años de experiencia, no serán reemplazados por un algoritmo computarizado”, afirma el Comandante Schmorrow, un cientista cognitivo que trabaja en la Marina estadounidense. La sobreabundancia de datos y otros recursos disponibles, como la tecnología no son ni buenos ni malos, pues depende cómo se utilicen. En la era del big data, las computadoras monitorearán más tareas, tomarán más decisiones e incluso mejorarán sus propios procesos de manera automática. Pero el hombre se quedará con los mismos retos que siempre ha enfrentado. El escritor T. S. Eliot preguntó alguna vez: “¿Dónde está la sabiduría que perdimos con el conocimiento? ¿Dónde está el conocimiento que perdimos con la información?”.

edición sesenta y cinco > 21


> Telecomunicaciones

La opacidad de la transparencia Por Sergio López Ayllón

Siguen 10 ideas que desatan nudos y mueven a la reflexión sobre el verdadero sentido de la transparencia

usan algunos servicios de espionaje). Por ello, la transparencia alude a ciertas características de un flujo de información, tales como la oportunidad, la pertinencia, la verificabilidad, la calidad, la integralidad o la facilidad de acceso. Eso, quizá, signifique la transparencia.

1. La transparencia es un término opaco. Transparencia es un concepto de moda, políticamente correcto, que a fuerza de usarse a veces pierde todo sentido. Literalmente es la cualidad de algunos cuerpos para dejar pasar la luz. Por extensión, dice el diccionario, se predica de aquello que es claro, evidente, que se comprende sin duda. Por eso, es difícil saber qué debe entenderse cuando decimos que “alguien es transparente”, pues, por definición, el cuerpo humano no deja pasar la luz. El asunto es aún menos claro cuando predicamos que una organización, un gobierno o hasta un país es “transparente”. ¿Tiene algún sentido esta idea? ¿Puede un gobierno ser “claro” o “evidente” en su política o sus acciones, sobre todo si consideramos la complejidad social? Resulta necesario hacer un análisis contextual para aproximarnos a un significado más o menos coherente. Quizá el hilo conductor esté en la idea de “información”. Cuando una persona u organización entrega información, contribuye a dar legibilidad a su pensamiento y acción, y por ello genera un mejor entendimiento y comunicación con su entorno. El problema es que esto no siempre sucede así. Un flujo continuo y abundante de información puede, por el contrario, generar confusión o desorientar (pensemos, por ejemplo, en las tácticas de “intoxicación de información” que

24 < Política digital

2. El nuevo (y desconocido) principio de publicidad de la información gubernamental. En 2007 se reformó el artículo sexto constitucional. Esta reforma pasó relativamente inadvertida, pero constituye uno de los cambios más radicales que hayamos visto. Dice hoy la Constitución: “Toda la información en posesión de cualquier autoridad, entidad, órgano u organismo federal, estatal o municipal, es pública y sólo podrá ser reservada temporalmente por razones de interés público en los términos que fijen las leyes”. Este párrafo acabó de tajo con la tradición secular del secreto administrativo que permitía el manejo discrecional de la información gubernamental, o simplemente que se le considerara como patrimonio de los funcionarios y autoridades. Por ello, nada más normal que “llevarse los archivos a casa”. El nuevo principio convierte a las organizaciones gubernamentales en grandes bibliotecas públicas donde cualquiera puede solicitar y obtener los documentos que ahí se generan, usan o conservan, sin necesidad de justificar su uso o propósito. La razón es simple como el agua: la información pública es pública. 3. La transparencia como política pública. La “transparencia” es algo que va más allá del derecho fundamental de acceso a la información. Éste consiste en el derecho que tiene cualquier persona para solicitar un documento al gobierno, y la obligación correlativa de éste para entregarlo de manera expedita. Así de simple. Las políticas de transparencia, en cambio, se refieren a las políticas referidas a la gestión, uso y divulgación


> Telecomunicaciones

10

o

aniversario

de la información gubernamental. También supone un curso de acción deliberado para usarla como recurso estratégico en beneficio de los fines del organismo público, al mismo tiempo que se maximiza su utilidad social. Esta política es una consecuencia necesaria del principio de publicidad. Mauricio Merino lo ha resumido cuando dice: “la política de transparencia se refiere a las decisiones y los procesos asumidos por los poderes, las dependencias y los órganos públicos del Estado para darle contenido sustantivo a los principios democráticos de responsabilidad (en sus diversas acepciones), publicidad e inclusión”�. 4. Transparencia no es igual a rendición de cuentas. ¿Poner algo de información a disposición del público constituye un acto de rendición de cuentas? Me temo que la respuesta es claramente negativa, y es una pena que con tanta frecuencia se asuma que la “transparencia” conduce necesaria e inexorablemente a la rendición de cuentas. Esto es una mentira. Veamos por qué. La rendición de cuentas es una obligación de las autoridades en los regímenes democráticos. Supone una relación entre dos actores, en los que el primero debe informar, explicar y justificar su conducta ante el segundo, y éste debe deliberar, evaluar y, en su caso, sancionar la conducta del primero, pues cuenta con los instrumentos para hacerlo.1 Sin la posibilidad de establecer un responsable de una obligación previa respecto de la cual se rinde cuentas, ésta se vuelve una ficción, como sucede cotidianamente en nuestro país. Así, la información –es decir, la transparencia–, constituye una condición necesaria, pero no suficiente, para que haya rendición de cuentas. 5. La transparente ficción de los portales de transparencia. Después de haberse producido leyes, cambios constitucionales y alternancia política cabe preguntarse: ¿hemos avanzado en cantidad y calidad de información disponible, especialmente en Internet? La respuesta es mixta. Si comparamos la cantidad de información que se encuentra disponible en las redes públicas respecto de la que existía hace diez años, sin duda hemos dado un gran salto hacia adelante. Las mediciones hechas por diversas organizaciones muestran que prácticamente en todo el país las diferentes autoridades cuentan con portales de transparencia.2 Otro asunto es la calidad y orientación de esa información. Aquí hay mucho camino por andar. Aunque hay excepciones, por lo general los portales de transparencia son meros repositorios de documentos medianamente organizados y sin orientación al ciu-

dadano. De manera caricaturizada, diríase que son almacenes de información en “burocrat” (la lengua de los burócratas), frecuentemente desactualizados, sin posibilidad para verificar su contenido y sin valor agregado alguno. 6. El país es un mosaico variado y asimétrico de prácticas en materia de transparencia. Quizá algunos lectores –sobre todo si son funcionarios– no coincidan con lo dicho previamente respecto de los portales, y puedan apuntar a ejemplos concretos que muestren una realidad diferente. Seguramente tendrán razón. Como han mostrado las métricas de transparencia, ocurre que el país es un mosaico diverso y asimétrico de prácticas en la materia. El problema es que éstas no se explican ni por la entidad federativa, los recursos disponibles, el grado de desarrollo, la calidad de la legislación o el tipo de poder (Legislativo, Ejecutivo o Judicial). En un mismo estado, dos municipios contiguos pueden tener prácticas diferentes. Peor aún, la experiencia de un ciudadano puede variar si compara los portales de dos secretarías del mismo gobierno. No tenemos una respuesta satisfactoria a esta situación y será necesario seguir investigando. 7. La transparencia es un problema organizacional. Lo antes dicho no es producto de la opacidad intrínseca de los funcionarios, sino más bien el resultado de severas fallas organizacionales relacionadas con el manejo de la información en las instituciones públicas. Durante décadas, la información se fragmentó en islotes asilados. Esto servía bien al propósito de usar la información para maximizar los proyectos estratégicos de cada funcionario. Nunca se pensó en la información como un recurso estratégico de toda la organización. Esto explica en parte el catastrófico estado de los archivos, la dramática falta de recursos humanos capacitados en gestión documental, la subinversión en tecnologías de la información, así como la carencia absoluta de arquitecturas de información y de procedimientos documentados. Las obligaciones generadas por las nuevas leyes de transparencia obligaron a poner información en los portales, pero cuya operación y diseño ha sido –en la mayoría de los casos– improvisado ante la ausencia de 1 Sobre el complejo concepto de rendición de cuentas véase Merino, Mauricio, Sergio López Ayllón y Guillermo Cejudo, eds. 2010. La estructura de la rendición de cuentas en México. México: UNAM – CIDE; Schedler, Andreas. 2004. ¿Qué es la rendición de cuentas? México: Instituto Federal de Acceso a la Información Pública (serie Cuadernos de Transparencia no. 2). 2 Existen varios ejercicios de medición de portales. Uno reciente y completo es la Métrica de Transparencia 2010, disponible en www.metricadetransparencia. cide.edu

edición sesenta y cinco > 25


> Telecomunicaciones

una política capaz de repensar la gestión de la información desde una perspectiva organizacional. No es de sorprender entonces el resultado. La solución existe, pero no es mágica ni sencilla. Supone invertir tiempo y recursos, estrategias y decisiones para reinventar la manera en que el gobierno, en todos sus niveles, administra su información. Si lo logramos, habremos hecho un avance sustantivo no sólo en materia de transparencia, sino de una gestión pública más informada, racional y responsable. 8. La protección de datos personales y la transparencia son polos opuestos. El derecho a la protección de datos personales ha crecido en importancia y conocimiento público. Este derecho fue incorporado en el artículo 16 de la Constitución en 2009, y un año después el Congreso expidió la Ley Federal de Protección de Datos Personales. La terminología puede inducir al error, pues no se protege los datos personales, sino el derecho que tienen las personas a determinar el uso que puede darse a sus datos personales, y la obligación de las autoridades de velar por que esto sea efectivo. Algunos han querido ver en esta reforma un retroceso que menoscaba el derecho de acceso a la información y dificulta la transparencia, pero a mi juicio están equivocados, pues se trata de dos derechos que se complementan. Como hemos argumentado, toda la información en posesión de las autoridades es pública, pero ésta no incluye los datos personales que las autoridades recaban en el ejercicio de sus funciones. Esta protección, sin embargo, no impide en absoluto la generación de información agregada sobre las políticas públicas, su diseño, implementación y evaluación, que es lo relevante. Cierto, hay zonas grises, pero existen técnicas que permiten, mediante una ponderación de derechos, dar una solución razonable. 9. La transparencia no es una ocurrencia mexicana. A veces una mirada demasiado provinciana nos hace pensar que lo que ocurre dentro de nuestro país es un fenómeno único e irrepetible. Mirar más allá de nuestras fronteras siempre ilustra y nos permite situarnos mejor. La transparencia es un fenómeno que, aunque relativamente reciente, tiene alcances globales. La mayor parte de los países del mundo han legislado en la materia después de 1990, y existen desarrollos importantes, experiencias exitosas y fracasos rotundos en muchos países. También se ha generado una corriente 3 Fung, Archon, Mary Graham y David Weil. 2007. Full Disclosure. The Perils and Promise of Transparency. New York: Cambridge University Press.

26 < Política digital

crítica que considera una exageración proponer a la transparencia como la medicina para todos los males. En realidad se trata de una política que tiene sus problemas y limitaciones. El desarrollo de las tecnologías de la información y los problemas de seguridad y gobernabilidad también han impactado el concepto. En un importante ensayo, un grupo de profesores americanos3 ha analizado cómo, en muchos casos, se asume que las políticas de transparencia son sencillas y que inevitablemente resultan beneficiosas. Pero esta concepción se enfrenta a visiones y políticas que favorecen el secreto, además de las dificultades prácticas de tener información verdaderamente accesible. Investigaciones recientes han arrojado datos que permiten entender mejor los procesos y han sugerido alternativas como la transparencia focalizada, que permiten una intervención puntual del gobierno cuando existen asimetrías de información que generan daños o dificultan la rendición de cuentas. En el fondo, se trata de buscar una transparencia sustentable que, sin ser una panacea, permita mejorar el proceso democrático de la toma de decisiones. 10. Transparencia y gobierno abierto. En septiembre de este año se formó la “Alianza para el Gobierno Abierto”, una iniciativa multilateral para mejorar la calidad de los gobiernos y de la cual nuestro país forma parte.� Uno de los objetivos de este esfuerzo es propiciar compromisos concretos de los gobiernos para promover, entre otras cosas, la transparencia. En esta materia se quiere que la información gubernamental sea “abierta, completa, oportuna, gratuita y de fácil acceso para el público”. El paradigma que se usa es el de la “información abierta”, que supone la posibilidad de procesar y tratar la información cruda, y permitir su acceso mediante herramientas tecnológicas. Cada gobierno participante, el nuestro incluido, ha presentado un Plan de Acción que contiene un conjunto de medidas que marcan el rumbo a seguir en la materia, entre los que destaca un portal ciudadano y el acuerdo de interoperabilidad y datos abiertos, que permitirá avanzar en una arquitectura de datos abierta. Si bien ésta es una iniciativa muy importante que conviene conocer, la política de transparencia no se agota en ella, pues implica una visión de conjunto del manejo de la información gubernamental y, sobre todo, una orientación que fortalezca el conjunto de la actividad del Estado en México. n Sergio López Ayllón es profesor investigador del Centro de Investigación y Docencia Ecónomicas (CIDE), sergio.lopez@cide.edu


> Telecomunicaciones

La brecha

digital en México en relación con América Latina

Por Ernesto M. Flores-Roux

En vez de identificar acceso y disponibilidad de servicios de telecomunicaciones para establecer la llamada “brecha digital”, como hace todo el mundo, el autor relaciona el concepto con la participación, en PIB y en población, que tiene México en el concierto latinoamericano. Se trata de una investigación original, que explica muchas de las vicisitudes por las que han atravesado las telecomunicaciones en México

pacto directo, sino también por medio de sus externalidades a lo largo de la economía, como el empleo y el crecimiento. En el pasado, las telecomunicaciones eran sinónimo de voz a través de una línea fija. Pero hoy hablamos de voz, movilidad, datos, video e internet. De igual modo, ya casi no se habla de acceso universal sino de “planes nacionales de banda ancha” y “agendas digitales”. Estos conceptos necesitan abordar, necesariamente, tres grandes asuntos de manera simultánea: la infraestructura, los contenidos y aplicaciones y, sobre todo, la apropiación. Los primeros dos están estrechamente ligados a la oferta, mientras que el último, a la demanda.

¿Qué es la “brecha digital”?

E

ste escrito pretende hacer una retrospectiva de cómo han evolucionado las telecomunicaciones en México en relación con América Latina. Todos sabemos que el sector ha crecido, pero como lo dijera el Presidente de Chile, Sebastián Piñera, “ésta es una carrera contra un mundo que avanza y, por tanto, si avanzamos más lento que el mundo, en el fondo estamos retrocediendo” (Discurso en la reunión del Foro de Cooperación Económica Asia-Pacífico, APEC, noviembre 2011). Existe amplio consenso respecto a que el acceso y adopción de servicios de tecnologías de la información y comunicación (TIC) son fundamentales para el crecimiento económico y social de las naciones. Las TIC aumentan la competitividad y promueven el desarrollo social. Los derrames positivos sobre otros sectores han sido vastamente documentados: contribuyen de manera significativa a la generación de riqueza económica y al bienestar general, no sólo a través de su im-

28 < Política digital

La Organización para la Cooperación y el Desarrollo Económico (OCDE) define brecha digital como la diferencia que existe entre individuos, hogares, negocios y áreas geográficas en diferentes niveles socioeconómicos respecto a las oportunidades para acceder a las TIC y al uso de internet1. El síntoma más básico de la brecha digital es el total de los canales de acceso a telecomunicaciones por cada cien habitantes (OCDE, 2001). Por cuestiones geográficas y culturales, tiene sentido analizar el desempeño de la brecha digital mexicana respecto a América Latina. México es el mayor país de habla hispana en el mundo y el segundo de la región en términos de población y riqueza, por lo que debería ayudar a formar tendencias y ser, en muchos aspectos, líder regional. Esto debería verse reflejado en un sector de telecomunicaciones vibrante y acorde con esta expectativa. 1 Fuente: OECD (2001). Understanding the Digital Divide. En http://www.oecd.org/dataoecd/38/57/1888451.pdf


10

o

> Telecomunicaciones

aniversario

Hacia diciembre del 2010, en México habitaba el 20% de la población latinoamericana –una de cada cinco personas– y generaba el 21.7% del PIB de toda la región2 (ver gráfica 1).

Gráfica 2 Accesos de telecomunicaciones en servicio (BUSD) En millones Telefonía fija

Telefonía móvil

Gráfica 1

Banda ancha fija

91.36

Participación de México en el PIB y en la población regional En porcentaje 5.35

19.89

12.33

14.08

12.14 1.14

45% 40%

1990

35%

2000

PIB USD PPP

2010

x 1.6

30%

2000

2010 x 6.5

2000

2010 x 10.6

Fuente: Cofetel

25% 20% PIB USD

15%

Población

10% 5%

2010

2009

2008

2007

2006

2005

2004

2003

2002

2001

2000

0%

Fuente: FMI (2011)

Si llevamos estos datos al ámbito de las telecomunicaciones en América Latina, nuestra participación en el sector debería ser equivalente al 20% con respecto a la población, y del 21.7% con respecto al PIB. Pero si estuviéramos más avanzados, estos porcentajes serían mayores. En lo que sigue, revisaremos si hay o no hay una brecha en el sector que separa a México del resto de América Latina y, en caso de haberla, qué tan grande o pequeña es.

Las cifras de nuestra realidad Como se puede apreciar en la gráfica 2, el sector de telecomunicaciones en México ha avanzado de manera importante. Medido en términos de PIB en dólares nominales, México tuvo una participación de 21.7% en 2010. El máximo fue de 39.7% y se alcanzó en 2003, cuando hubo una desvalorización importante del tipo de cambio del real brasileño. A partir de entonces, este porcentaje se ha venido reduciendo casi de manera lineal hasta alcanzar el valor actual. Para PIB en dólares a poder de paridad de compra (PPP en la gráfica), la participación de México fue de 24.8% en 2010, con un máximo de 29% en el año 2000.

2

Durante la primera década de este siglo, México pasó de tener 12.3 millones de líneas fijas a 19.9 millones, es decir, aumentó 1.6 veces. Este crecimiento fue superior al que hubo desde 1878 –cuando se instaló el primer sistema –hasta 1990, cuando se privatizó Telmex. Tan sólo en 10 años, creció 40% más que todo lo conseguido en 112 años. De igual manera, la telefonía móvil tuvo un crecimiento espectacular. En el mismo período, pasamos de 14.1 millones a 91.4 millones de líneas, 6.5 veces más. En la historia de nuestro país ningún servicio ha alcanzado tal universalización en tan poco tiempo. Y no se diga el servicio de internet. Al iniciar este siglo, 90% de los 1.14 millones de accesos existentes eran de discado (dialup); hoy contamos con 12.14 millones, de los cuales más del 98% son de banda ancha. Es decir, tuvimos un incremento de 10.6 veces y una diferencia notable en la calidad del servicio. Por su magnitud, estos números son sorprendentes. Pero es importante preguntarnos si este crecimiento corresponde al tamaño de nuestro país medido en población y en riqueza, o si la brecha digital que nos separa del resto de la región está aumentando o disminuyendo.

La brecha en telefonía fija y móvil Del total de líneas fijas que existen en América Latina, México cuenta con el 19% de ellas,

edición sesenta y cinco > 29


> Telecomunicaciones

poco superior–, al de su población. Pero desde 1994 empieza un descenso relativo hasta el día de hoy, con una recuperación marginal entre 2002-2006. En cuanto a la telefonía móvil, a pesar de que la desaceleración ha disminuido en los últimos dos años, hemos perdido participación a razón de 1.4% anual a lo largo de casi una década. De continuar esta tendencia, en menos de cinco años México tendrá la mitad de líneas móviles por habitante que el resto de la región.

Gráfica 3 Participación de México en la telefonía fija y móvil en América Latina En porcentaje

70% 60% Móvil

50% 40%

PIB

30%

La brecha en banda ancha

Total

20%

Fijo

10%

2010

2009

2008

2007

2006

2005

2004

2003

2002

2001

2000

1999

1998

1997

1996

1995

1994

1993

1992

1991

1990

0%

En lo que se refiere al acceso a internet, al despliegue de la banda ancha, y al uso de infraestructura en México, se aprecia una evolución más optimista.

Fuente: UIT (2011), WirelessIntelligence (2011), FMI (2011)

el 16.2% de los accesos móviles, y el 16.7% del total de líneas de voz3 (ver gráfica 3)4. Como se puede observar, en ninguno de estos indicadores nos situamos en una participación equivalente a nuestro PIB; y en relación a la población (20%), estamos peor atendidos, en promedio, que los habitantes del resto de la región. Respecto a las líneas móviles, en 20012002, México llegó a tener una participación regional del 26.6% –más que su participación en PIB y población. Esto ocurrió durante un período de expansión sensiblemente más acelerado que en el resto de América Latina, que coincide con la implementación y masificación de la modalidad “el que llama paga”, el advenimiento de los servicios prepagos, y un crecimiento sostenido de la economía (1998-2002). Concluido este período, se inició una tendencia en la que se pierde participación año tras año. ¿Cuál es la tendencia de estos indicadores? En los últimos 20 años, la telefonía fija ha mantenido una participación en el mercado regional muy cercana –y en ocasiones, un 3 La suma de las líneas fijas y móviles, partiendo del supuesto de que son sustitutos suficientemente cercanos. Este es el indicador usado por la OCDE, conocido como “access paths”. 4 Como la población relativa se ha mantenido más o menos constante en 20%, no se dibuja en las gráficas.

30 < Política digital

Telefonía móvil: ¿cuántos la tienen, realmente? La telefonía móvil es la que ha permitido universalizar los servicios de voz en México. Aunque se reconozca que el indicador tradicional de penetración (líneas por cada 100 habitantes) no refleja de manera fidedigna qué porcentaje de la población posee efectivamente una línea móvil (ver gráfica), resultan una buena medida relativa de qué tan masificado está el servicio. Si tomamos las cifras reportadas por el Instituto Nacional de Estadística y Geografía en la última Encuesta Nacional de Ingresos y Gastos de los Hogares (2010), observamos que tan sólo 63.7% de los hogares poseen al menos una línea móvil. Sin embargo, según la Cofetel, la penetración de la telefonía móvil en el momento en que se condujo la encuesta era de aproximadamente 78%, esto es, 87 millones de líneas Ambas cifras sobreestiman la cantidad de personas que tienen una línea móvil: la cifra es forzosamente inferior. Esto se debe a las siguientes razones principales: Por una parte, se encuestaron hogares y no personas, donde no se espera que en cada hogar todos sus miembros tengan un teléfono móvil; por otra, la base de teléfonos reportada incluye personas que tienen más de uno, el churn de la industria*, y las * Cuando un usuario abandona su línea, las empresas telefónicas demoran unos meses en darla de baja. Por lo tanto, hay teléfonos que están contados en la base activa, pero que ya no están en uso.


10

o

> Telecomunicaciones

aniversario

Gráfica 4 Participación de México en los servicios de acceso a banda ancha en América Latina En porcentaje

45% 40% PIB

35% 30% 25%

Total

20% Fijo

15%

Móvil

10% 5%

2010

2009

2008

2007

2006

2005

2004

2003

2002

2001

0% 2000

A finales de 2010, el 29% de todas las conexiones de banda ancha fija de la región estaban en México; cerca de 5 puntos por arriba de nuestra participación en el PIB regional (ver gráfica 4). ¿Cómo se llegó a este resultado? Se distinguen tres momentos fugaces de aceleración: el primero (2001-2002) se debió al lanzamiento relativamente tardío del servicio de banda ancha en el país, por lo que sólo fue una recuperación del tiempo perdido. El segundo (2004-2005) se fundamentó en dos hechos: la entrada de las empresas cableras al mercado (que se reflejó en la reducción de precios y en nuevas ofertas de los competidores existentes), y en el lanzamiento de paquetes de autoinstalación de ADSL (lo que disminuyó las barreras de adquisición).

Fuente: UIT (2011), WirelessIntelligence (2011), FMI (2011)

conexiones entre máquinas (por ejemplo, terminales punto de venta para tarjetas bancarias). Por lo anterior, se infiere que menos de 63.7% de la población tiene un teléfono móvil.

Penetración de los servicios de telecomunicaciones en los hogares mexicanos por nivel de ingreso (2010) En porcentaje Telefonía móvil X

91.5

IX

85.9 79.5

VIII

77.1

VII VI

71.5

V

66.1 56.8

IV

49.2

III 37.1

II I

22.0

63.7 Fuente: INEGI (2011)

El tercero (2008) se explica por acciones comerciales del mayor proveedor, que lanzó al mercado paquetes con descuentos. Importa destacar que en todos estos momentos se intensificaron las estrategias para financiar la adquisición de computadoras. México instaló el 40% de todas las nuevas líneas de banda ancha fija de la región en los años 2005, 2008 y 20095. Esta participación de nuestro país en el crecimiento regional no se ha visto en ningún servicio de telecomunicaciones en más de 30 años (ver gráfica 5). En banda ancha móvil se observa un patrón similar. A pesar del lanzamiento tardío de los servicios de tercera generación (3G), México comenzó a recuperar el terreno perdido que tenía en la región a partir del año 2007. En 2004, este tipo de servicios eran inexistentes, pero en 2010 crecieron hasta representar cerca de 23% del total de la región.6 México no ha tenido un buen inicio, pero parece estar recuperándose. 5 En 2009 se dio una ralentización del mercado latinoamericano y no una aceleración del mercado mexicano. 6 Es importante mencionar que la definición de este servicio no es homogénea. Las cifras cambian según la fuente. Para la presente estimación se utilizaron los dados reportados por la Unión Internacional de Telecomunicaciones y el Banco Mundial. Si se emplea la base de datos de Wireless Intelligence, este porcentaje disminuye unos 4 puntos.

edición sesenta y cinco > 31


> Telecomunicaciones

Gráfica 5

Gráfica 6

Participación de México en el crecimiento de infraestructura de banda ancha y número de usuarios en América Latina

Penetración de internet y participación de México en el total de usuarios de internet en América Latina

En porcentaje, millones

En porcentaje

45%

45%

40%

40%

35%

PIB

35%

Banda ancha fija

30%

30%

25%

25%

20%

20%

15%

15%

10%

10%

Penetración AL L

o Penetración México Participación de México en AL L

Usuarios de internet

5%

5%

0%

0% 2001

2002

100%= Accesos= 0.5 Usuarios= 9

0.9 15

2003

0.9 17

2004

2005

3.6 18

2.2 12

2006

4.6 24

2007

6.9 19

2008

7.7 25

2009

5.0 19

2010

1998

6.1 18

1999

2000

2001

2002

2003

2004

2005

2006

2007

Fuente: UIT (2011), Banco Mundial (2011)

Fuente: UIT (2011), Banco Mundial (2011)

Si se considera el total de la banda ancha (fija y móvil), hoy nos ubicamos en 25.6% y estamos cerca del punto máximo de nuestra participación en América Latina –que alcanzó el 27% en 2009. Después de conseguir un desempeño acelerado, México parece haber llegado a un punto de estancamiento en el desarrollo relativo de la banda ancha. Pero si se repite la tendencia de los indicadores de voz, poco a poco se reducirá nuestra participación regional en este servicio7, cuya penetración apenas ha alcanzado una distribución equiparable a nuestra riqueza.

La brecha en apropiación En este artículo hemos analizado la situación de la infraestructura, pero es importante saber qué tanto se utiliza. Medir la apropiación y el uso es una tarea complicada porque no existen estadísticas internacionales comparables y consistentes. El único indicador razonable para hacer una comparación es el “número de usuarios de internet”, A pesar de que la definición y método de medición varía de país en país, este sesgo no 7 La base de datos de Wireless Intelligence (2011) pronostica que la participación regional de México se mantendrá constante en el período 2011-2015.

32 < Política digital

afecta un análisis a lo largo del tiempo para identificar tendencias. El uso de internet en la región está creciendo rápidamente (ver gráfica 6). Cada año, América Latina incorpora casi 20 millones de nuevos usuarios de internet, equivalentes a 4 puntos de penetración regional por año. Si 20% de estos nuevos usuarios fueran mexicanos, nuestro país sólo estaría manteniendo su posición relativa actual, y mantendría más o menos constante el tamaño de la brecha relativa. Pero México ha contribuido de manera poco predecible al crecimiento del uso de internet en la región8. Algunos años ha contribuido con menos del 5% (como sucedió en 2006 y 2008), y otros con más del 25% (2003, 2009 y 2010). Pero de manera acumulada, hemos contribuido con apenas 17.2% del crecimiento en la región desde el 2000. Esta cifra está por debajo del 20% que representamos en términos de población (gráfica 5). Para hacer un comparativo, tomemos el caso de Brasil, país donde habita 35% de la población total de América Latina, pero que aporta el 41% de los usuarios de internet, y que ha agregado a 43% de todos los usuarios de la región en el mismo periodo. Es probable que una de las razones que explican esta varianza es la metodología de estimación 8

2008

2009

2010


> Telecomunicaciones

En México, la tendencia parece haberse revertido hace dos años. A pesar de reportar una participación menor a la que nos correspondería, ésta va en aumento. De mantenerse así, llegaremos al punto de neutralidad con respecto a la población en uno o dos años, y si revisamos esta tendencia respecto a nuestro nivel de riqueza, llegaremos al punto de neutralidad después del 2015.

México todavía es baja y crece más despacio que la infraestructura, tenemos, claramente, un efecto de concentración de la riqueza. En otras palabras, además de los esfuerzos para que siga creciendo la infraestructura, son necesarias medidas que motiven el uso, la apropiación y la posibilidad de acceso colectivo como parte de una política digital integral.

El dilema de la individualización de la infraestructura

El sector de las telecomunicaciones en México, como motor diferenciador de nuestra economía con respecto al resto de América Latina, no parece estar cumpliendo cabalmente su papel. En servicios tradicionales de voz, nuestro país deja mucho qué desear. En servicios de internet, se recuperó rápidamente el tiempo perdido hasta sobrepasar nuestras expectativas, pero corremos el riesgo de perder el momento actual. Esperemos que quienes diseñan las políticas públicas entiendan bien dónde y por qué han ocurrido períodos claros de diferenciación positiva, y consigamos replicarlos en el futuro. Sólo así los beneficios de las tecnologías de la información podrán convertirse en un elemento clave para que México realice su potencial de crecimiento, y avance en términos de igualdad e inclusión digital. n

Por último, es importante poner en perspectiva la utilización de la infraestructura. Si se analiza el número de usuarios con acceso a internet, México reporta una de las menores cifras en América Latina (gráfica 7). Gráfica 7 Utilización de la infraestructura y comparación con el aumento de usuarios En porcentaje Usuarios de internet por cada línea de acceso fijo 7

Razón de las tasas de crecimiento (usuarios / infraestructura) 2.0

América Latina

6

2.0

América Latina

5 1.5

4

México

3

1.0

Conclusión

2 0.5

1

México

0

0 2000 2001 2002 2003 2004 2005 2006 2007 2008 2009 2010

2003

2004

2005

2006

2007

2008

2009

2010

Fuente: UIT (2011), Banco Mundial (2011)

En nuestro país, hay tres usuarios por cada acceso a internet, contra un promedio de cinco en América Latina. Esto puede interpretarse como que México tiene menos demanda latente por infraestructura que el resto de la región, dado el número de personas que acceden a internet. Sin embargo, vemos que prácticamente todos los años –desde 2003–, la infraestructura crece más rápido que la demanda9. Es evidente que los accesos se están individualizando. Esto sería positivo si no hubiera un importante problema de apropiación. Pero debido a que la penetración de internet en 9 Comparando la tasa de crecimiento de la infraestructura y la del número de usuarios

34 < Política digital

Ernesto M. Flores-Roux es investigador en el Centro de Investigación y Docencia Económicas (CIDE), en el programa Telecom-CIDE, miembro del Consejo Consultivo de la Comisión Federal de Telecomunicaciones (Cofetel) y miembro del Diálogo Regional sobre la Sociedad de la Información (DIRSI), ernesto.flores@cide.edu


> Telecomunicaciones

Banda ancha: lo que la regulación ha de tener Por Henoch Aguiar

Varios países de América Latina están a punto de revisar su normativa de telecomunicaciones. En este escenario, el autor expone algunos criterios generales para alcanzar una regulación eficiente, que permita un mercado dinámico, al servicio de la sociedad

E

l 25 de octubre de 2011, la comisión de banda ancha de la Unión Internacional de Telecomunicaciones (UIT) recomendó que, para el 2015, los países en vías de desarrollo se fijaran como meta ofrecer servicios de banda ancha para el 50% de su población. En América Latina estamos lejos de alcanzar tal propósito: Uruguay apenas ofrece el 12% de cobertura; Argentina, 11.7%; Chile, 10%; México, 8.5%; Colombia y Venezuela, el 5%. La capacidad de banda ancha –es decir, el número de bits por habitantes que un país logra ofrecer– es el indicador más seguro para saber cuál será la competitividad de esa nación de aquí a diez años. Sin banda ancha no hay progreso. Por supuesto, no es el único factor, pero la banda ancha es el “piso”, el requisito mínimo necesario para poder pensar en educación, investigación y desarrollo, o en la competitividad que tendrá el conjunto de sectores económicos de un país. Una política de banda ancha universal –de acceso ubicuo a internet, en cualquier punto geográfico, de manera alámbrica o inalámbrica, sin discriminar a poblaciones– ya no es más un objetivo de la política de telecomunicaciones. Hoy forma parte de una estrategia nacional mucho más amplia de respuesta a los nuevos desafíos mundiales de la Sociedad del Conocimiento.

36 < Política digital

¿Qué hacer entonces? Hasta hace unos años, los gobiernos tenían políticas, normas diferenciadas para la telefonía fija, la móvil y la banda ancha. En la actualidad, la demanda de internet explotó; los servicios convergen, y si alguno no es eficiente o está mal regulado, impacta a los otros y el país pierde competitividad. El desarrollo de las telecomunicaciones depende tanto de la tecnología cuanto de la regulación. La tecnología es la misma para todos, es el denominador común de los mercados. Sin embargo, lo que hace a un país más eficiente que otro es su regulación. Si es tortuosa, impide la innovación, fomenta la concentración del mercado, merma la inversión y degrada los servicios.


> Telecomunicaciones

10

o

aniversario

Por el contrario, si la regulación genera que el conjunto de los operadores invierta anualmente el 20% de sus ingresos en nuevas redes y tecnologías, ese país está en la avanzada tecnológica; si las inversiones promedian el 15%, los servicios de telecomunicaciones progresan, siguen la evolución mundial, aunque ceden el liderazgo a otros. Pero si la inversión está en el 10% o por debajo, algo falla en la regulación de ese país, sus habitantes pagan de más por lo que reciben y su sector telecomunicaciones es un obstáculo para el desarrollo. Para lograr una regulación eficiente, que permita un mercado dinámico, al servicio de la sociedad, importa definir criterios mínimos como los siguientes: 1. Licencia única de telecomunicaciones El primer criterio es generar un mercado abierto, sin barreras de entrada, que establezca la igualdad entre todos los prestadores, sean grandes o chicos, sean prestadores históricos o el último de los entrantes. Hasta la década de los noventas, los países solían dar una licencia por el tipo de servicio prestado. Hoy las prestaciones son convergentes. El titular de un servicio de telefonía celular, por ejemplo, puede ofrecer datos, internet y radiodifusión. ¿Qué sentido tiene separar jurídicamente lo que la tecnología ha unido? La regulación no puede pretender “etiquetar” el torrente de bits con diferencias que ya ni existen. Un mismo título basta para brindar todos los servicios. Se agilizaría así el ingreso a todos los mercados, eliminando burocracia y corrupción. En definitiva, se iguala a los usuarios, al darle semejante alcance jurídico al título habilitante de sus prestadores, por nuevos que sean. Ya hay antecedentes. Argentina, desde el 2000 y Colombia, desde el 2009, han adoptado el sistema de licencia única. 2. Regular la realidad, no las quimeras Un “plan de negocios” (business plan) tiene tanto de realidad como un cuento de hadas. Sin embargo, para otorgar una licencia de telecomunicaciones, muchos países todavía lo exigen, lo aprueban o modifican sesudamente, con un sinnúmero de formalidades previas. Los órganos reguladores maduros se preocupa más por la dinámica real del mercado, que los dominantes no adopten conductas anti-competitivas, o que el cliente ejerza su derecho a la información; les interesa incentivar lo más posible la competencia para permitir y encauzar positivamente todo adelanto tecnológico o de servicios. Para decirlo en una frase: la regulación ex-post (donde la ley es posterior al hecho) armoniza al mercado; la regulación ex-ante (anterior al hecho) lo petrifica o entorpece. 3. Establecer la plena libertad tecnológica El regulador debe incentivar la máxima libertad tecnológica. Promover que los prestadores, públicos y privados ensayen todas las formas y fórmulas para brindar los servicios, para

de esta manera establecer la mejor y más eficiente. Esto se traduce en libertades muy concretas: libertad de arquitectura de red, de definición de estándares tecnológicos, de establecimiento de los puntos de interconexión con la red del dominante; libertad de uso complementario y diverso del espectro radioeléctrico, de asociación entre sí y con otros prestadores de servicios públicos, etc. Este entorno de libertad aún debe verificarse en nuestra región. Hay países que prohíben lo que llaman el “by pass” de las comunicaciones celulares o de la larga distancia. Es algo ilógico: si una llamada puede dar la vuelta al mundo y llegar a la casa de enfrente por tres centavos, ¿por qué el regulador impone un ruteo que vale diez? ¿A quién se beneficia: al usuario o al prestador ineficiente? Porque si la regulación coarta el uso del protocolo IP o si se defiende regulatoriamente al que cobra más caro, estamos castigando nuestra inteligencia. 4. Necesario, un regulador que “muerda” Un regulador que no sanciona, más que regulador es un amigo. Un tigre desdentado no defiende la competencia frente a los poderosos. El regulador debe inspirar respeto, por sus decisiones bien fundadas y por su rigor en aplicarlas. Su rol es el de equilibrar la cancha, lograr que prestadores nuevos e históricos compitan en igualdad de condiciones, para que entre ellos arbitre el usuario y sólo él. Algunos países como Uruguay y Paraguay mantienen prestadores estatales. El regulador puede verse tentado a exigirles menos, pero esto, sin quererlo, los “mata” en el largo plazo. Y es que sin presión ni competencia, hasta el mejor de los prestadores engorda, entumece y se debilita. En el ámbito de las telecomunicaciones, un año equivale a siete de otras industrias. Quien no acelera, se retrasa. Al final, el regulador complaciente genera un mercado mediocre e ineficiente. 5. Con la interconexión no se juega En todos los países, el “juego de las telecomunicaciones” es similar: si no es vigilado en forma adecuada, el prestador dominante retrasa la interconexión de sus competidores, degrada sus condiciones técnicas, encarece la instalación de sus enlaces, impone absurdos puntos de interconexión, etc. Es habitual que los prestadores dominantes en un país se comporten de manera contraria cuando compiten en un mercado extranjero: fuera de casa defienden las libertades, la competencia y la innovación tecnológica, la interconexión inmediata y fundada en costos. Pero en sus países de procedencia, estos mismos prestadores condenan tales prácticas. Son como las máscaras de teatro griego: de un lado ríen y del otro lloran. Esta dualidad no es ni buena, ni mala. Simplemente refleja los intereses. Por ello, los reguladores y legisladores no

edición sesenta y cinco > 37


> Telecomunicaciones

pueden ser ingenuos; deben conocerla y estar por encima de ella. Su único interés debe ser generar la competencia suficiente que obligue a unos y otros a perfeccionar y abaratar sus servicios en beneficio del conjunto. 6. Desjudicializar los conflictos Cuando hay conflictos de interconexión entre un entrante y el prestador dominante, el regulador debe arbitrar y resolver. En México y otros países de América Latina es común que las decisiones demoren mucho tiempo cuando se interponen medidas judiciales. Para que esto no suceda, la regulación debe generar condiciones que hagan exigible la interconexión cuando es planteada. Esto no significa denegar el recurso a la Justicia, sino tornarlo excepcional y establecer un procedimiento abreviado. Cuando en el 2000 Argentina abrió el mercado de las telecomunicaciones a la plena competencia, se estableció que, en caso de conflicto, las partes tendrían diez días para acudir al Regulador y exponer sus opiniones contrapuestas. El Regulador tendría diez días más para dictar una Resolución Preliminar que, en su caso, ordenara la interconexión física y estableciera condiciones económicas. Meses después, el Regulador dictaría la Resolución Definitiva. Si uno de los prestadores se hubiera beneficiado con la Resolución Preliminar en detrimento del otro, debería devolver la diferencia desde el primer momento, más los intereses por los montos devengados. De esta manera, si la regulación establece el resarcimiento posterior de las posibles diferencias, se le quita fundamento al recurso judicial, porque “sin daño, no hay acción”, dicen los abogados. La intervención inmediata del Regulador y el pulimiento posterior de su Resolución Preliminar permiten alcanzar decisiones más elaboradas, que dan poco sustento a su apelación judicial. Por ésta o por otras vías, según la tradición jurídica de cada país, las normas que regulen la interconexión deben buscar la inmediatez. Demorar o encarecer la interconexión genera graves efectos de distorsión, al tiempo que entorpecen la competitividad nacional, la lucha por la inclusión digital y el desarrollo de la educación –impensable sin una banda ancha accesible. La interconexión es un tema complejo, sólo abordado por especialistas, pero que impacta profundamente en la sociedad. 7. Abrir el espectro y los ductos El Estado debe licitar el espectro, o disponer de su uso abierto, a fin de incentivar la pluralidad de actores, impidiendo que el espectro sea acaparado por pocos prestadores. Los caminos del aire son esenciales para desarrollar las comunicaciones. Y puede

38 < Política digital

existir la competencia sin tener que licitar nuevas porciones de espectro. En materia de telefonía celular, por ejemplo, el regulador puede definir la existencia de Prestadores Virtuales Móviles o MVNO (mobile virtual network operators). Estos operadores no tienen redes, pero se las alquilan a los operadores celulares a un precio establecido por el regulador, o bien les compran millones de minutos. Esto permite que los MVNO brinden servicios de telefonía celular con nuevas variantes comerciales, enriqueciendo la gama de ofertas disponibles. Si el Estado tiene como fin la mejora de los servicios ofrecidos a los usuarios, debe ofrecer su infraestructura y coordinar el uso racional de las demás para abaratar las comunicaciones. En Alemania, el regulador BNnetzA ha establecido un Atlas donde se registra el tendido de las redes que han instalado unos 160 operadores de telecomunicaciones. La información del Atlas ha permitido ahorrar hasta un 70% por los costos de nuevos tendidos. De esta manera, el Estado alemán no sólo regula a los competidores, sino que ha asumido un rol más activo al consolidar y hacer disponible información que aporta mayor inteligencia en las asignaciones presupuestarias de comunicaciones públicas y privadas.

Conclusiones Varios países de América Latina están a punto de revisar su normativa de telecomunicaciones. Los criterios generales suelen ser compartidos, porque forman parte de un acervo común. Pero “el diablo se esconde en los detalles”, dice el refrán. Hacia el 2000, los países de la región regularon la competencia. Una década después, los progresos han sido evidentes, pero sabemos que recuperar los tiempos de modernidad perdidos requiere esfuerzos complementarios. La mayoría de las normas que originaron la apertura de los mercados aún siguen vigentes. En una década, mucho se aprendió en materia de regulación. La Unión Europea, que destronó a los monopolios públicos de telecomunicaciones el 1 de enero de 1998, avanzó poderosamente con una legislación comunitaria fuertemente pro-competitiva. Es hora de renovar las legislaciones de América Latina: establecer reguladores fuertes, independientes de las empresas y de los gobiernos de turno; otorgar licencias únicas; fundar la interconexión en costos y exigirla; desburocratizar la administración y ponerla al servicio de la modernización tecnológica y de la competencia; eliminar las barreras de entrada que obstaculicen la dinámica del mercado y de la tecnología; proteger al usuario; generar un sector que sea causa y no freno del desarrollo de nuestras naciones en el nuevo escenario y con las nuevas exigencias de la Sociedad del Conocimiento. n Henoch Aguiar es Socio del Estudio Aguiar & Marsiglia y fue Secretario de Comunicaciones de la República Argentina, henochaguilar@yahoo.com


> Telecomunicaciones

Las líneas del tiempo en políticas públicas Una entrevista con Carlos Casasús En conversación con Ernesto Flores-Roux, investigador del Centro de Investigación y Docencia Económicas, y con Andrés Hofmann, Director General de Política Digital, Carlos Casasús revela detalles inéditos de una serie de decisiones –y omisiones– en política pública de los últimos 35 años, cuyos efectos sobreviven hasta nuestros días. Carlos es Director General de la Corporación Universitaria para el Desarrollo de Internet (CUDI), y fue testigo y actor privilegiado de varios hitos de la historia de las telecomunicaciones en México: la privatización de Telmex, la Ley Federal de Telecomunicaciones y la creación de la Cofetel, de la que fue su primer Comisionado Presidente

Andrés Hofmann: En tu trayectoria profesional, ¿cuál ha sido la principal lección que has aprendido? Carlos Casasús: Son muchas, pero la que me gustaría discutir aquí es que las políticas públicas en telecomunicaciones se tardan muchos años en producir efectos. Demoran en madurar y sus resultados se producen mucho más adelante en el tiempo. Lo que hagas o dejes de hacer hoy, impactará al país mucho tiempo después. AH: ¿Cómo empezó tu carrera en las telecomunicaciones? CC: Entré a trabajar a Telmex en 1975, recién egresado de la universidad. Ahí experimenté en carne propia las consecuencias de una primera decisión importante de política pública que se tradujo en un impresionante deterioro del sistema telefónico de México. AH: ¿Qué decisión fue esa? CC: El gobierno decidió transformar a Telmex de una empresa privada con participación estatal a una empresa

42 < Política digital

controlada por el Estado, con el 51% de las acciones, y el resto en manos de inversionistas privados. Unos 15 años después de convertirse en una empresa de participación estatal mayoritaria, hacia finales de los años ochentas, Teléfonos de México era una zona de desastre total. Tenía unos seis millones de solicitudes pendientes de atender y apenas instalaba unas 200 mil líneas por año. A ese ritmo de crecimiento, un solicitante podía tardar hasta 12 años en llegar a tener un teléfono. Realmente, la empresa se había convertido en un lastre para la economía mexicana Y eso que durante el período del desarrollo estabilizador de los años cincuentas y sesentas, Telmex era la segunda compañía telefónica en el mundo con mayor crecimiento, después de la coreana. AH: ¿Por qué pasó eso? CC: Recuerdo que cuando llegué a la empresa, estalló la primera de muchas huelgas encabezadas por Francisco Hernández Juárez. Había una guerra constante entre la empresa y el sindicato en las renegociaciones de los con-


> Telecomunicaciones

10

o

aniversario

venios de trabajo, que invariablemente desembocaban en una huelga anual donde la empresa nunca ganaba. El verdadero poder del monopolio no residía en el Estado, sino en el sindicato de telefonistas, que gozaba de una fuerza desmedida en el manejo de Telmex. El deterioro de las condiciones laborales llegó a tal grado, que la única forma de conseguir una línea o que te repararan una falla en el servicio era corromper alguna camioneta de Telmex que circulaba por las calles. Hacia finales de los setentas, el gasto público descontrolado provocó un entorno inflacionario que deterioró el sistema financiero de la empresa. Además, el gobierno extraía cada vez más recursos por medio de impuestos especiales. El resultado fue que la empresa ganaba dinero a borbotones en la larga distancia nacional e internacional, y perdía cualquier cantidad en el servicio local. La distorsión era absoluta. Esto ocurría al final del sexenio de Miguel de la Madrid.

Primeros atisbos de la privatización de Telmex AH: ¿Cómo empezó a rondar la idea de privatizar Telmex? CC: El tema de la privatización de Telmex aparece cuando Salinas se convierte en el candidato del PRI. En el equipo de campaña de Carlos Salinas –donde participé junto a Pedro Aspe–, se llegó al convencimiento de que la única forma de resolver el problema de Telmex era privatizarla. Esta fue otra de las grandes decisiones de política pública en telecomunicaciones que todavía tiene efectos hoy. Salinas adoptó la estrategia económica de sacar al Estado de muchos sectores económicos para reducir los déficits de finanzas públicas y generar recursos para pagar la agobiante deuda pública que se heredó del populismo de Echeverría y López Portillo. Esto implicaba privatizar muchas empresas estatales. En esa época, durante los ochentas, ocurrían grandes cambios en materia de telecomunicaciones, fundamentalmente en Inglaterra y Estados Unidos. En Inglaterra, durante el gobierno de Margaret Thatcher, se privatizaron muchos sectores de la economía y se hicieron grandes contribuciones conceptuales sobre cómo regular monopolios privados de electricidad, agua, trenes, y aeropuertos. AH: ¿Privatizó la telefonía? CC: Así es. Inglaterra privatizó el monopolio de British Telecom gracias a la Telecommunications Act de 1984. AH: Y entonces Salinas asume la presidencia… CC: Cuando finalmente se resuelve el tema de la elección, Salinas comenzó el proceso de privatizaciones. El primer

caso importante fue Aeroméxico, donde se adquirió una experiencia importante que abrió el camino a las privatizaciones que siguieron después. En el gabinete de Salinas no había pleno consenso de cómo privatizar Telmex. El Secretario de Comunicaciones y Transportes, Andrés Caso Lombardo, no estaba de acuerdo con la privatización. Él quería darle una participación financiera más fuerte al sector privado, sin perder el control por parte del Estado. Pero ni Salinas ni Aspe pensaban así. Esta situación se resolvió cuando el Presidente Salinas nombró a Pedro Aspe como presidente del Consejo de Telmex. Aspe cambió al Director General y nombró a Alfredo Baranda, que había sido gobernador del Estado de México, y aunque no tenía experiencia en el sector, era un buen político. Yo fui ascendido a Director de Finanzas. Ernesto Flores-Roux: ¿Por qué crees que te nombró a ti? CC: Creo que fue por varias razones: yo había venido trabajando con Aspe desde la campaña de Salinas en un esquema de privatización. El nuevo Director General era un político que sabía poco de telecomunicaciones y, además, yo era de los pocos directivos de Telmex que creía en la privatización. AH: Ya como Director de Finanzas, ¿qué te tocó hacer? CC: Me tocó jugar un papel clave en el diseño de todo el proceso. Como Teléfonos de México tenía tarifas totalmente distorsionadas y un régimen especial de impuestos que la hundía cada vez más, me correspondió idear e implementar, antes de la venta, un esquema financiero que diera certidumbre a los posibles inversionistas. AH: ¿Cuáles fueron los pasos que se dieron para privatizarla? CC: Primero se tuvo que renovar el título de concesión de Telmex, eliminar el régimen fiscal especial de la empresa y renegociar el contrato colectivo. Además, se transformó la estructura accionaria de la empresa, de tal forma que se crearon dos grandes paquetes accionarios: uno de suscripción libre con voto limitado que podría ser adquirido por cualquier inversionista; este paquete consistió en las famosas acciones “L”, que permitieron una amplísima participación de capital extranjero y que ascendieron al 49% del capital total de la empresa. El segundo paquete accionario, con derecho a voto, creó el grupo de control que estaría en manos de inversionistas mexicanos a los que se les permitiría asociarse con empresas telefónicas extranjeras capaces de introducir mejores prácticas operativas a Telmex. Una vez modificada la estructura accionaria, se decidió privatizar en dos tramos: el primero, denominado “tramo

edición sesenta y cinco > 43


> Telecomunicaciones

de control”, y el segundo, que consistió en colocar, de manera pública y abierta, las acciones de voto limitado que tenía el gobierno en su poder. Pienso que se hizo un gran trabajo en el diseño de la concesión de Teléfonos de México, ya que a pesar de que no se cambió la Ley de Vías Generales de Comunicación, se logró convencer a todos los inversionistas que la concesión era un título con suficiente fuerza jurídica para poder llevar a cabo la privatización y producir un rendimiento económico atractivo. El título de concesión lleva 21 años rigiendo a Telmex y fue el elemento que dio la certeza jurídica para poder privatizar. AH: ¿Qué otras decisiones importantes se tomaron? CC: Hubo un par de decisiones claves que marcaron el desarrollo del sector hasta ahora: una fue privatizar la empresa como “un todo” y no en “en partes”; la segunda fue la necesidad de otorgarle a Telmex un período de monopolio en la larga distancia para ajustar los desbalances tarifarios antes de abrir el mercado a la competencia. EF: En Estados Unidos, el juicio antitrust contra AT&T concluyó con la decisión del juez Green de partir a esta empresa en varias compañías regionales y una compañía de larga distancia: las Baby Bells y AT&T. ¿Por qué no se consideró la alternativa de privatizar a Teléfonos de México “en pedazos”? CC: El problema para partir a Telmex en varias compañías regionales era que, debido a las bajas tarifas del servicio local, ninguna de las ellas hubiera sido rentable. Se consideró que el ajuste tarifario que debíamos hacer era demasiado fuerte y, por lo tanto, políticamente inviable. La posibilidad de reorganizar a Telmex en diversas compañías regionales enfrentaba además otros problemas cuya solución hubiera requerido demasiado tiempo. Entre ellos estaba la necesidad de partir también al sindicato; además, a diferencia de lo que sucedía en Estados Unidos, no llevábamos una contabilidad separada entre servicio local y el de larga distancia. En Estados Unidos cada una de las compañías que terminaron por separarse y que eran subsidiarias de AT&T tenían contabilidad propia, ya que estaban reguladas a nivel local por las public utilities comissions (comisiones de servicios públicos). Cada una de estas subsidiarias locales tenías sus activos por separado, de manera que cuando llegabas a una central telefónica, se podían distinguir los activos que pertenecían a la subsidiaria de servicio local y los que pertenecían a la subsidiaria de larga distancia. Aquí en México, como teníamos mucha prisa por privatizar, no daba tiempo para implementar una contabilidad separada del servicio local y el servicio de larga distancia.

44 < Política digital

AH: Y la segunda gran decisión fue otorgar un período de seis años sin competencia en la larga distancia. CC: Sí. Se estableció ese período para balancear las tarifas, para que tanto la larga distancia como el servicio local fueran rentables. Sólo así podría haber competencia en ambos lados del negocio. El negocio de la larga distancia era extraordinariamente rentable, pero el servicio local perdía mucho dinero. Sin tarifas que lo hicieran rentable, nunca habría sido posible abrir la competencia en servicio local. Por eso, una de las condiciones clave del título de concesión era precisamente el establecimiento de un modelo tarifario que le permitiera a Telmex rebalancear las tarifas elevando las de servicio local y bajando las de larga distancia. De esta manera, si entraba la competencia en larga distancia disminuyendo la rentabilidad de esa parte del sistema, Telmex tendría la posibilidad de elevar las tarifas del servicio local para enfrentar la competencia. El sistema tarifario que se adoptó en la concesión fue el de los precios tope o “price caps”. AH: ¿Además del sistema de control tarifario, qué otras condiciones contenía el título de concesión? CC: El título contemplaba la obligación de crecer el número de líneas a una tasa del 12 % anual, a cambio de un rendimiento del 15% en términos reales, considerando los precios topes. AH: Pero había otra: Cuentan las malas lenguas que uno de los grandes temores que tenía el equipo de Carlos Salinas, era que, quien ganara esta licitación, vendiera la empresa al “Tigre” Azcárraga. CC: Sí. No se quería que estuvieran en el mismo grupo, y con sobrada razón. Por eso la concesión de Telmex impide su participación en la televisión.

El día “cero” AH: ¿Y a qué horas aparece el ingeniero Carlos Slim en todo esto? CC: El esquema de privatización generó el interés de un buen grupo de empresas. Fue un proceso público manejado por Goldman Sachs y Banco Internacional, S.N.C., con gran éxito. EF: ¿Y se hizo un aumento de capital o sólo se privatizó? CC: Solamente se privatizó. EF: Las acciones de control que vendió el gobierno, ¿qué porcentaje del capital representaban?


10

o

> Telecomunicaciones

aniversario

CC: Representaban algo menos del 21% del capital total, pero el 51% de las acciones con derecho a voto. AH: ¿Quiénes entraron a la puja? CC: Se formaron tres consorcios que hicieron la oferta final. Uno lo conformaba un grupo de mexicanos encabezados por Slim con France Telecom y la Southwestern Bell Corporation (SBC), con sede en Texas. El señor Slim tenía un porcentaje pequeño del grupo de control. El otro consorcio estaba liderado por Roberto Hernández, acompañado por Telefónica de España y GTE. Hubo además una tercera postura, pero de mucho menor cuantía. EF: ¿Qué porcentaje tenía Slim? CC: Yo estimo que como un 3% del capital total de la empresa, pero él mandaba en el grupo de control que estaba obligado a votar junto. EF: Cuéntanos de la colocación de las acciones de voto limitado del gobierno federal CC: Una vez que hubo un ganador en la licitación de las acciones de control, debían colocarse en el mercado de valores las acciones “L”, que tenían derecho a voto limitado y que estaban en poder del gobierno. Estas acciones se colocaron en la bolsa de Nueva York. Telmex fue la primera empresa mexicana que se listó en la New York Stock Exchange. Por medio de las acciones “L”, pudo lograrse una amplísima participación de la inversión extranjera, aunque se mantuvo –como estaba establecido en la concesión– el control por parte de mexicanos. Además de exitosa, fue la colocación primaria más grande que se hubiera hecho hasta entonces en la bolsa de Nueva York. Por muchos años, Telmex fue una de las acciones con mayor volumen de intercambio en ese mercado. EF: Con todas las restricciones que se tenían hace 22 años, y sabiendo lo que sabes hoy, ¿hubieran hecho algo diferente? CC: Yo creo que esa parte se hizo muy bien. Se lograron todos los objetivos que habíamos planteado como el crecimiento, eficiencia operativa, tarifas razonables, recursos para el Estado. AH: ¿A poco todo resultó a pedir de boca… todo resultó perfecto? CC: No, no te voy a decir que perfecto, pero salió muy bien. Recuerdo que en ese tiempo asistimos a un evento organizado por el Banco Mundial y en una de las conferencias le preguntaron lo mismo al que había hecho

la privatización argentina: “¿Qué hubiera hecho usted diferente?”. Su respuesta fue: “Mire, el mero hecho de que la privatización ocurriera fue un milagro”. En México también, porque se logró un cambio dramático en comparación con lo que había. EF: En el ’89, había que esperar años para conseguir un teléfono en México, y la congestión de líneas era tal, que el tono para marcar tardaba varios minutos. Esto se nos olvida muy rápido… CC: ¡Exacto! Además, la privatización fue una gran señal política. Si nos hubiéramos atrasado en los calendarios o en la oferta, la credibilidad de todo el gobierno de Salinas se hubiera perdido. Pero el haberlo hecho como se dijo que se iba a hacer, apoyó la gran credibilidad económica que gozó Salinas. Durante su sexenio, México era “el lugar del optimismo”, quizá como lo es hoy Brasil. AH: Entonces, ¿tú hubieras hecho todo igual? CC: En general, sí. La política de telecomunicaciones se tradujo en un gran desarrollo del sector que duró todo el sexenio, aunque se creó una empresa con mucho poder y sin competencia por seis años.

Las prisas por sacar la Ley EF: Pero la concesión de Telmex tenía un plazo para la apertura, que fue agosto de 1996. En ese tiempo tú eras subsecretario y participaste en la elaboración de la Ley Federal de Telecomunicaciones. CC: En efecto, después de la privatización del grupo de control yo continué como Director de Finanzas de Telmex y representaba el interés del gobierno frente a Carlos Slim. Era una situación complicada porque el gobierno federal quería vender caras sus acciones “L”, mientras Slim quería que no se revaluaran, porque deseaba seguir aumentando su participación accionaria. AH: Eras como una inserción del sector público en la empresa recientemente privatizada. CC: Así es. Mi relación personal era buena tanto con el ingeniero Slim como con Juan Antonio Pérez Simón, quien fue nombrado nuevo Director General de Telmex. Sin embargo, cuando se terminó la colocación pública de las acciones “L”, yo salí de Teléfonos de México. EF: Saliste en el ‘91.

edición sesenta y cinco > 45


> Telecomunicaciones

CC: Sí. Entonces empecé a trabajar en el gobierno del Distrito Federal buscando privatizar el manejo del agua, un proceso que tiene su propia historia. AH: Al cambiar el sexenio, con Ernesto Zedillo, entraste a la Subsecretaría de Comunicaciones. CC: Efectivamente. Después del llamado “error de diciembre”, tuve el privilegio de que el Presidente Zedillo me nombrara Subsecretario, a las órdenes de Carlos Ruiz Sacristán que, en mi opinión, fue un extraordinario Secretario. A Zedillo le tocó un momento muy difícil. En materia de telecomunicaciones tuvo muy claro que a pesar de la crisis económica, debía seguir adelante con la apertura a la competencia y cumplir los plazos establecidos en la concesión de Telmex. Esto le iba a dar credibilidad al proceso frente al gobierno americano que había hecho un gran préstamo para rescatar a la economía mexicana, y también frente a los inversionistas, quienes, a pesar de la crisis económica, habían manifestado su interés de participar en la apertura. AH: Había que acabar entonces con el monopolio legal. CC: Sí. El tema era que la concesión de Telmex sólo aplicaba a Telmex. No había forma de regular a los nuevos competidores. El reto que se nos planteó fue sacar adelante una nueva Ley de Telecomunicaciones que permitiera la competencia. Los tiempos estaban dados, y teníamos que mandar la iniciativa de ley antes del receso legislativo de Semana Santa. AH: ¿Tú cuándo asumes el cargo? CC: En enero de 1995. AH: ¿De modo que debían hacerla en tres meses? CC: Logramos hacerla en tres meses. Y se hizo una buena ley. AH: ¿Por qué es una buena ley? CC: La Ley permitió abrir la competencia tanto en larga distancia como en el servicio local. Se presentaron muchas empresas a solicitar concesiones y se disparó la construcción de infraestructura. Se revivieron sectores como la televisión por cable y el trunking. Y otra cosa clave: permitió asignar espectro de manera transparente, mediante licitaciones públicas. Esto fue la base para que en años posteriores se acelerara el crecimiento de la telefonía celular. Este fue otro momento donde las decisiones que tomamos marcaron el futuro del sector. EF: Se trata de una ley moderna que se promulgó antes de la ley estadounidense: la ley de telecomunicaciones ame-

46 < Política digital

ricana es de ’96; la nuestra se expidió en ‘95. Yo creo que fue un benchmark, un punto de referencia para esos tiempos. Analizamos cuantas leyes existían. Pero volviendo al tema de la ley, la primera aplicación fue la apertura de la larga distancia. Ahí empezaron los problemas y uno de ellos fue la interconexión con Telmex. ¿No crees? CC: En 1995 vivíamos una gran distorsión de precios. Todo el rebalanceo de tarifas realizado durante el sexenio de Salinas se había perdido por el “error de diciembre”, que mandó la paridad de 3 a 7 pesos por dólar. Al inicio del gobierno de Zedillo se desató de nuevo la inflación y se decretó un período de control de precios. La larga distancia internacional, cuyo precio estaba en dólares, se volvió de nuevo la fuente de ingresos principal de Teléfonos de México y, otra vez, había que rebalancear las tarifas del servicio local para poder abrir la competencia. Aquí la decisión que afectó a la competencia por muchos años fue que se establecieron mecanismos de interconexión muy favorables a Telmex para que pudiera preservar el ingreso de la larga distancia internacional. De no haberlo hecho, se corría el riesgo de que la empresa empezara a perder dinero. Todo esto en un entorno en el cual se había decretado una congelación de precios después de la devaluación. Era una situación muy adversa y complicada. Tuvimos que hacer una negociación muy delicada con los reguladores estadounidenses. Ellos no permitían que Telmex participara en su mercado, que era donde se originaba la mayor parte del tráfico de larga distancia internacional hacia México, mientras que las empresas americanas AT&T y MCI, participaban en nuestro mercado compitiendo contra Telmex por ese mismo tráfico. El conflicto entre los dos países se resolvió negociando una regulación específica de la larga distancia internacional que aseguró a Telmex una importante participación del mercado y una muy buena proporción del negocio total de la larga distancia internacional, a cambio de que arrancara la competencia. AH: ¿Y eso nos ayudó o nos perjudicó? CC: En su momento fue bueno porque nos permitió abrir el mercado. Pero las altas tarifas de interconexión se debieron eliminar tres o cuatro años después, cuando la economía


> Telecomunicaciones

de México se volvió a estabilizar y había más competencia. Esto no se hizo, y esta omisión fue otra política pública deliberada que tuvo graves efectos durante muchos años.

cisiones fáciles de tomar, que no deberían estar sujetas a procesos legislativos o judiciales complejos y que, sin embargo, no se toman.

Réquiem por la regulación

EF: ¿A cuáles decisiones te refieres?

AH: ¿Y en qué momento, como dicen, se jodió la patria? CC: El tema central de esta plática es que los cambios en el sector, para bien o para mal, toman mucho tiempo en materializarse. No hubo un solo momento en el que todo se vino abajo; fue un proceso largo. Al entrar (Vicente) Fox al poder, el sector traía unos números espectaculares, pero el deterioro de hoy se da porque el gobierno panista prácticamente “tiró la toalla” en materia de regulación. No quiso tocarle un pelo a nadie. Fue un default regulatorio de muy largo plazo. Durante el sexenio de Fox y buena parte del de Calderón, se dejó de licitar espectro y se dejó de emitir regulación. Esto nos ha salido carísimo como país. Tenemos indicadores abismales en comparación con la Organización para la Cooperación y el Desarrollo Económicos (OCDE), incluso en comparación con países como Brasil o Chile. que han venido haciendo las cosas mejor. Volviendo al tema de las líneas del tiempo, lo que hagas o dejes de hacer, te va a impactar muchos años después. EF: En los últimos diez años, Telmex se hizo mucho más fuerte. CC: Bueno, obviamente la magnitud del negocio se multiplicó por el mercado de la telefonía celular. Antes de emitir la Ley Federal de Telecomunicaciones de 1995 había menos de 300 mil celulares. Después de la licitación de espectro, en el ‘98, y gracias al esquema de “el que llama paga” y a las tarjetas de prepago, este mercado empieza a crecer a tasas de 80% y 90% anual. EF: En los últimos cinco años tampoco ha pasado mucho. CC: Algo se ha hecho recientemente: por fin se licitó algo de espectro con muchas dificultades, y se bajaron las tarifas de interconexión, pero se tiene que hacer mucho más para tener competencia y crecimiento en el futuro.

Lo que nos falta AH: ¿Qué habría que hacer? CC: Hay que cambiar el campo de batalla y pensar que hoy lo que verdaderamente importa ya no es la telefonía ni la tercera cadena de televisión sino el internet y la digitalización de la sociedad. Esto abre la posibilidad de cambiar dramáticamente el sector y dejar de dar batallas del siglo pasado. Me parece que el gobierno tiene en sus manos de-

48 < Política digital

CC: Creo que deberíamos empezar por tener una agenda digital que organice todas las políticas públicas y a todas las dependencias. Se debería designar a un responsable para dar seguimiento a esto. Asimismo, el gobierno se debería comprometer a prestar todos los servicios públicos mediante internet, especialmente en educación, salud y seguridad. Creo que se necesita concesionar mucho más espectro, empezando por licitar la banda de 700 MHz, y resolver la renovación de concesiones de espectro que impiden la entrada de nuevos competidores. Me parece increíble que la Comisión Federal de Electricidad no comercialice fibra óptica a precios de reposición a quien la desee. Esto facilitaría muchísimo el despliegue de nuevas redes. Finalmente, se deberían quitar los impuestos especiales a las telecomunicaciones y dejar de ver al espectro como una fuente de recaudación en vez de verlo como palanca de desarrollo. AH: ¿Se requiere una nueva ley? EF: Yo creo que la ley actual necesita ajustes mínimos. El debate sobre el cambio de la ley, creo que es un debate incorrecto. CC: Yo también lo creo, porque el tema es su aplicación. Creo que hay conceptos que deben cambiar, pero son menores como son el cerrar la doble ventanilla, quitar las restricciones a la inversión extranjera y que sea más fácil imponer regulación de dominancia, sobre todo ahora que es América Móvil y no Telmex el dominante. AH: ¿Por qué no avanzamos? ¿Es un problema de Mony (de Swaan)? CC: Creo que es un problema más sistémico del gobierno actual. No hay una estrategia definida desde arriba y hay muchísimas contradicciones entre los diferentes actores. Antes había credibilidad hacia los reguladores porque hacíamos las cosas que decíamos: “El 10 de agosto de 1996 se abre la larga distancia”, y se abría. “Vamos a sacar una ley antes”, y pasaba la ley… Hoy la credibilidad del gobierno se ha perdido. Hoy no les creen. Más vale que el nuevo gobierno le dé prioridad al tema y recupere la credibilidad, porque si no, la falta de políticas públicas le va a seguir costando al país por muchos años. n


10

o

> Telecomunicaciones

aniversario

Qué quiere cada quién en las telecomunicaciones Por Jana Palacios

¿A qué aspira cada grupo empresarial que compite en el sector de las telecomunicaciones en México? Gráfica 1

Banda Ancha

70.3%

79.9%

74%

4.8%

15%

4.3%

Otros

3.7% 4

Televisión Abierta

Televisión de Paga

América Móvil

Telefonía Fija

10%

Televisa

2 3

Telefonía Móvil

70%

Telecomunicaciones en México: un balance

23%

En nuestro país, 60% de los ingresos de la industria de las telecomunicaciones proviene de servicios móviles, lo que convierte a este segmento –voz y datos– en el más grande. A pesar de que cada vez se ofrecen y se contratan más paquetes triple play, al cierre de 2010 los servicios de voz generaron 72% de los ingresos de la industria, mientras que los datos constituyeron 19% y los de video 9%, según estimaciones de Pyramid Research. Respecto a los proveedores de servicios de telecomunicaciones, aunque existen en el mercado varias empresas, son pocos los grupos empresariales que participan (gráfica 1). En América Móvil tenemos a Telmex, Telcel y una asociación de facturación con Dish, de MVS; bajo el paraguas de Grupo Televisa se encuentran Televisa, Bestel, GTAC, Cablevisión, TVI, Cablemás y Sky; y bajo la figura de Grupo Azteca están Televisión Azteca, Total Play y Iusacell.

TOTAL

30%

5.1% 2.3%

21.7%

7.9%

100%

100%

11% 26% 100%

100%

n México, la convergencia de los mercados de radiodifusión y telecomunicaciones, así como la unificación de la oferta de los servicios de voz, datos y video (triple play) ha propiciado un clima de mayor competencia en telefonía (fija y móvil), televisión (abierta y de paga) e internet, y ha vuelto a equilibrar las fuerzas de las empresas en cada segmento de mercado. Las cableras, por ejemplo, ofrecen triple o cuádruple play. Telmex está lista para lo mismo, pero el gobierno aún no se lo permite. Podría surgir en el mercado al menos una nueva cadena nacional de televisión y espectro disponible para servicios avanzados de banda ancha móvil; sin embargo, las empresas de televisión quisieran retrasar el apagón digital.

41%

Grupo Salinas

1

Participación de mercado por segmento de servicio por grupo empresarial*

E

100%

Fuente: Elaboración propia; con datos de la COFETEL (2011), Pyramid Reaserch (2010) y Expansión (2011) * El tamaño de las esferas representa el porcentaje de participación de mercado de las distintas empresas por segmento (telefonía móvil, fija, banda ancha, TV abierta y TV de paga. 1 América Móvil: Telefonía móvil: Telcel (70.3%); Telefonía fija: Telmex (79.9%); Banda ancha: Prodigy (74%); TV de paga: Dish (10%), aunque Telmex no participa ni directa en el capital de Dish México, sino apoyándola en las actividades de facturación y cobranza. 2 Grupo Televisa: Telefonía fija: Cablevisión y Bestel (4.8%); Banda ancha: Yoo -Cablevisión, Cablemás y Megacable- (15%), aunque Megacable no pertenece al Grupo; TV abierta: Televisa (70%); TV de paga: Cablevisión y Cablemás (26.3%), Sky (15%). 3 Grupo Salinas: Telefonía móvil: Iusacell/UNEFON (4.3%); TV abierta: TV Azteca (30%) 4 Otros: Telefonía móvil: Nextel (3.7%), Telefónica (21.7%); Telefonía fija: Axtel (5.1%), Megacable (2.3%), Resto (7.9%); Banda ancha: Resto (11%); TV de paga: Megacable (23.2%), Otros (25.5%)

1. El segmento de la telefonía fija: cartas jugadas y sus consecuencias Hasta 1990, el servicio telefónico en México fue provisto por el Estado a través de Teléfonos de México (Telmex). Durante el gobierno de Carlos Salinas, el

edición sesenta y cinco > 53


> Telecomunicaciones

corporativo se privatizó y se vendió como una empresa verticalmente integrada en red y servicio. Aquel esquema de venta implicó que el mercado arrancara con una empresa, Telmex, con la enorme ventaja de contar con una red de telecomunicaciones en prácticamente todo el territorio nacional. En teoría, la competencia en la telefonía local inició en 1998, aunque la verdadera lucha se dio a partir de 2007, cuando las empresas de televisión por cable ofertaron los servicios de voz, datos y video. Actualmente, al menos 15 empresas ofrecen paquetes triple play. Pero a pesar de que hay mayor competencia, Telmex mantiene una participación de mercado equivalente a 81.8%.

54 < Política digital

En 1995 y 2009, la Comisión Federal de Competencia (CFC) declaró dominante a Teléfonos de México. Su presencia era evidente en el mercado de larga distancia local: por mucho tiempo, las empresas se quejaron de no poder competir contra Telmex debido a lo caro de la tarifa de reventa de larga distancia. Esta tarifa es la que los demás operadores pagan a Telmex –única empresa con una red de cobertura nacional– para completar sus llamadas en las poblaciones donde no tienen presencia. El monto de la reventa era de 75 centavos de peso, y la tarifa de larga distancia nacional de Telmex hacia sus clientes era de un peso por minuto (aunque lo ofrecía en paquete con internet y llamadas locales). Aparentemente, el precio de la reventa era 25% menor de lo que se cobraba a los usuarios, aunque en realidad, al asignarle un precio público al servicio de internet y a las llamadas locales –cada uno por separado–, la cuota de larga distancia nacional que recibían los clientes de Telmex tenía un precio inferior a los 75 centavos. Ante esto, los operadores argumentaban que no se podía competir en precios con Telmex, por lo que en junio de 2011 la Comisión Federal de Telecomunicaciones (Cofetel) redujo esta cuota de 75 a 39 centavos. Como respuesta, América Móvil –la empresa matriz de Telmex– anunció que apelaría la resolución de los 39 centavos ante el Poder Judicial. Además notificó la creación de Telmex Social, empresa que ofrecerá el servicio de telefonía exclusivamente en zonas rurales y marginadas, aunque advirtió que, de casi 23 mil comunidades, sólo podría atender entre 10 o 12 mil. La estrategia de Telmex es dejar claro que, pese a ser la única empresa que tiene infraestructura en todo el país, le cuesta operar redes en áreas rurales. En su opinión, al resto de los operadores les conviene –aunque sea a precio alto– rentar dichas instalaciones en vez de construir redes propias de telecomunicaciones en las zonas alejadas del país. Otras medidas que la autoridad está por imponer a Telmex son reglas especiales relacionadas con tarifas, niveles de calidad de servicio e información contable. Estas obligaciones aplicarían a Telmex y, en su momento, a cualquier otro operador declarado como dominante en el mercado de la telefonía fija. La decisión de la Cofetel aún está en revisión por la Comisión Federal de Mejora Regulatoria. 2. Telefonía móvil: a la expectativa de nuevos aires de competencia En la actualidad, Telcel da servicio a 70% de todos los usuarios móviles (tabla 1). Cuando el mercado arrancó, se presentó un trato asimétrico para esta compa-


10

o

> Telecomunicaciones

aniversario

ñía. A finales de los ochentas, el país fue dividido en nueve regiones y Telcel fue la única empresa a la que se otorgó permiso para ofrecer el servicio en todo el territorio nacional. Con el paso del tiempo los demás jugadores también obtuvieron concesiones en todas las regiones del país.

Tabla 1. Porcentaje de participación de las empresas en telefonía móvil (2011) Participación de mercado (número de clientes)

Participación de mercado (porcentaje de ingresos totales)

Espectro

Telcel

70%

69.2%

32%

Movistar

22%

12.3%

25%

Iusacell

4.4%

5.0%

22%

Nextel

3.8%

13.5%

21%

Fuente: Elaboración propia con base en reportes de mercado y datos de la Cofetel.

En julio de 2010 se llevaron a cabo dos licitaciones. Las subastas fueron especialmente relevantes porque limitaron la acumulación de espectro de Telcel y Telefónica Movistar. Como consecuencia se esperaba la entrada de un nuevo operador móvil al mercado y en su momento se anunció la participación de Televisa en Nextel, y la entrada de este grupo en el mercado de prepago. Por las restricciones a la acumulación de espectro, la Licitación 21 favorecía a Nextel y a cualquier nuevo operador –más que a Telcel, Telefónica y Iusacell. Como no hubo nuevos postores, Nextel obtuvo una porción importante de espectro sin que otros grupos pujaran por éste e “inflaran” el precio. La licitación fue cuestionada por la opinión pública y objetada con más de 70 amparos judiciales por parte de Iusacell. Como consecuencia, Televisa decidió romper su alianza con Nextel, pero meses después anunció su participación en este segmento de mercado a través de la adquisición de 50% de las acciones de Iusacell (aún falta la aprobación de la CFC para que sea oficial esta transacción). La historia de los convenios de interconexión móvil está marcada por disputas legales. Según la CFC, lo que ha permitido a Telcel ofrecer precios bajos, recibir ganancias extraordinarias y tener tanto porcentaje de mercado es la diferencia entre la tarifa que ofrece en las llamadas realizadas por los usuarios de un teléfono Telcel a otro, y la tarifa que cobra por interconectar las llamadas de la red Telcel desde o hacia otra red. Después de años de múltiples demandas por parte de algunos operadores que no aceptaban las tarifas de interconexión ofrecidas –en particular la de Telcel–, la

Cofetel intervino. Resolvió que se pagarían 39 centavos por punta de terminación en vez de los 95 centavos que habían acordado los operadores para 2011. Al cierre de esta edición, la Suprema Corte de Justicia de la Nación analiza si los operadores deben cobrar la tarifa de 39 centavos que fija la Cofetel, o bien, la que habían concertado. Determinó que mientras analiza esta situación, las empresas deben acatar la tarifa propuesta por Cofetel. Estas medidas implican que Telcel debe respetar la tarifa de 39 centavos. Pero si los juzgados decidieran revocar la nueva tarifa, con el argumento de que están violando las garantías de Telcel, entonces los 39 centavos de interconexión no serían válidos en el tiempo. 3. Televisión abierta y de paga: avance a cuenta gotas La televisión abierta entra a 92.5% de los hogares mexicanos. En cuanto al número de competidores, existen cinco cadenas nacionales de televisión abierta que pertenecen a dos empresas: Televisa posee 70% del mercado en términos de encendidos o share, y TV Azteca alcanza 25% de la teleaudiencia. Entre Televisa y TV Azteca existe una relación de competencia, pero también de colaboración. Por ejemplo, hacen arreglos respecto a los horarios de transmisión de partidos de futbol y manejan publicidad cruzada. Recientemente, con la inversión de Televisa en Iusacell, la preocupación de que los grupos se coludan aumenta. Una de las ventajas de los cambios tecnológicos es que en la banda que se utiliza para transmitir el servicio de TV abierta (espectro de 700 MHz) ahora caben más señales. Para la transmisión de señales digitales (Televisión de Alta Definición), el gobierno tiene posibilidades de dar cabida hasta a dos operadores con cobertura en prácticamente todo el territorio nacional. Aunque aún no conocemos el esquema de licitación, la Cofetel y la CFC buscan la posibilidad de colocar este espectro en manos de empresas privadas y con ello permitir la entrada de al menos un nuevo operador de televisión abierta. Se especula sobre la posibilidad de que Carlos Slim esté interesado. Aunque el empresario se había pronunciado públicamente en contra de invertir en un canal de televisión abierta, en marzo de 2011 se retractó y dijo: “Hoy no estamos cerrados a esa opción” (Lajous & Gálvez, 2011). Otro de los factores que generarían una verdadera dinámica de competencia en TV abierta es la penetración del servicio en alta definición. Según la Cofetel, en 86% de los hogares mexicanos las televisiones son

edición sesenta y cinco > 55


> Telecomunicaciones

Gráfica 2

Por ahora, Televisa está obligada a ofrecer el acceso a sus contenidos televisivos a un precio fijo por suscriptor y a cualquier concesionario de TV restringida con menos de cinco millones de suscriptores. Ha cumplido con el convenio al ofrecer sus señales de televisión abierta empaquetadas junto con otras diez señales que también produce. Sin embargo, los operadores de cable o satélite no pueden contratar estos 14 canales de manera desagregada (por elección o a la carta). Dish, por ejemplo, quisiera sólo los canales de televisión abierta, pues, paradójicamente, los canales de televisión abierta son los más vistos en los sistemas de paga.

Evolución reciente de la tasa de penetración de la televisión restringida en México 38.0%

27.2% 21.0%

23.7%

13.5%

2001

2006

2007

2009

4. Internet y banda ancha: competencia por las redes En este servicio también hay una empresa dominante, Telmex, que concentra 74% del mercado en el país, y sólo ofrece este servicio empaquetado con una línea de telefonía fija. Las empresas de televisión por cable adquieren cada vez más una posición relevante en internet. En particular, Grupo Televisa y Megacable –bajo la marca Yoo– cuentan con un 15% de participación de mercado. Sin embargo, el desarrollo de este servicio se limita a la disponibilidad de los enlaces y de las redes de transmisión,

2012*

Fuente: INEGI, Proyección ón para 2 2012

analógicas y necesitarán un convertidor para recibir la señal digital. Respecto a la televisión de paga, por cable o satelital, tomando en cuenta todas las tecnologías, Grupo Televisa tiene aproximadamente 50% de participación de mercado. Al cierre de 2010, en México había una TV de paga en 27.2% de los hogares. A raíz de la aparición de los paquetes triple play a partir de 2007, este segmento de mercado ha crecido de forma importante (gráfica 2). En la actualidad, dos de cada tres suscripciones son de televisión por cable, repartidas mayoritariamente entre Televisa (con Cablevisión, Cablemás y TVI, que poseen 35% del mercado) y Megacable, con 31% (Pyramid Research, 2010). En cuanto a la televisión satelital, el mercado estuvo muchos años dominado por Sky –también propiedad de Televisa. Pero desde 2008, con la llegada de Dish –de MVS y Telmex–, el precio de los paquetes se redujo casi a la mitad y después de casi tres años de operación, Dish cuenta con 40% del mercado de la televisión por satélite. Una de las propuestas para generar mayor competencia en este servicio es el ingreso de Telmex al segmento, con lo cual la empresa ofrecería paquetes de voz, datos y video a precios muy accesibles. Telmex ya ofrece triple play en 12 países de América Latina y, debido a su poder regional de mercado, tiene la capacidad de comprar contenido televisivo a precios relativamente bajos. Sin embargo, su título concesión le prohíbe ofrecer servicios de televisión a través de sus redes en forma directa. Para la CFC, un paso adicional para generar mayor competencia en el segmento de la televisión restringida sería establecer la obligatoriedad para que los operadores del sistema abierto entreguen sus señales a los concesionarios de TV de paga de manera gratuita.

56 < Política digital

Tabla 2. Comparativo precio/transmisión y existencia de redes de telecomunicaciones Ciudad

Proveedor del servicio de transmisión (2Mbps)

Renta mensual por servicio de transmisión (MXN$)

Proveedores de acceso a Internet

Toluca, Edomex

Bestel, Maxcom, Alestra

$ 3,300

Megacable Bestel Maxcom

León, Gto.

Bestel, Maxcom, Alestra

$ 3,300

Megacable Bestel Maxcon

Tapachula, Chis.

Telmex

$ 13,000

Uninet 1

Salamanca, Gto.

Telmex

$ 18,200

Megacable Uninet

El Grullo, Jal.

Telmex

$ 35,108

Uninet

Sayula, Jal.

Telmex

$ 40,000

Uninet

$ 58,650

Uninet Bestel Alestra

San Miguel de Allende, Gto.

Telmex

Fuente: Secretaría de Comunicaciones y Transportes (2008). 1 Uninet, S.A. de C.V., es el nombre de la empresa mediante la cual Teléfonos de México comenzó a ofrecer el servicio de internet (ISP) a mediados de los años noventas.


> Telecomunicaciones

10

o

aniversario

por lo que no se espera que la estructura de mercado cambie mucho. La cobertura de las redes de las empresas de TV por cable es limitada en relación con Telmex. Hay zonas en donde la red de Telmex es la única salida para la transmisión de internet. Es por eso que donde no hay competencia en redes de telecomunicaciones, las tarifas de renta de los enlaces cuesta mucho más con respecto a los lugares donde sí la hay (tabla 2). Este fenómeno se agudiza conforme la comunidad que solicita el servicio de internet está alejada de las ciudades donde se concentran las redes de transmisión. De manera que la prestación de este servicio en ciertas zonas del país es económicamente inviable o de calidad muy baja. Para remediar la falta de redes de transmisión, el gobierno decidió adjudicar a Grupo de Telecomunicaciones de Alta Capacidad (GTAC) –consorcio conformado por Televisa, Megacable y Telefónica Movistar– una parte de la capacidad de transmisión de la red de fibra óptica de la Comisión Federal de Electricidad (CFE). Las empresas que conforman el GTAC han decidido invertir en la red de la CFE para no depender de Telmex, de Axtel o de terceros para la transmisión de sus servicios. Si se reduce el costo de los enlaces en las zonas urbanas de menor tamaño, entonces será más atractivo para las cableras ofrecer este servicio. Se estima que con las nuevas fibras se podría reducir el costo de la banda ancha en el sureste del país hasta en dos terceras partes (The Economist, 2010).

Comentario final Este breve recorrido por el sector nos muestra que en todos los segmentos de mercado existe una empresa líder, y que la diferencia de participación entre ésta y su competidor más cercano es muy amplia. También se ha reducido la participación de Telmex como operador dominante en los servicios de telefonía fija y banda ancha. Ante este declive surge un nuevo grupo: Televisa, que está presente en todos los segmentos. Cada vez más, el sector de las telecomunicaciones se divide en dos grupos: América Móvil (Telmex y Telcel) –con un marcado liderazgo en los segmentos de telefonía fija y móvil–, y Grupo Televisa –líder de los servicios de televisión de paga y de los contenidos televisivos. Dos empresas compitiendo entre sí son mejor que una sola, pero un tercero disruptivo sería aún mejor, que no necesariamente tiene que ser el mismo en cada uno de los segmentos de mercado. ¿Qué nuevos impulsos hay que darle al sector para que esto suceda? n Jana Palacios es Directora de Proyectos de Competencia y Buen Gobierno del Instituto Mexicano para la Competitividad, A.C., jana. palacios@imco.org.mx

edición sesenta y cinco > 57


> Telecomunicaciones

Regulación y política de competencia en telecomunicaciones, 21 años después Por Salvador Apodaca Sarabia

En este ensayo se revisan puntualmente algunos de los aspectos de la regulación y la competencia que han determinado el funcionamiento de las telecomunicaciones en los últimos 21 años, y se aportan alternativas para mejorarlos

58 < Política digital

C

onocer a fondo la apertura al proceso de competencia y libre concurrencia y su evolución en las telecomunicaciones es importante para identificar las dificultades que lo han afectado y explorar posibles soluciones. En México, esta experiencia comenzó en 1990, cuando se privatizó Telmex y se emitió el Reglamento de Telecomunicaciones. De entonces a la fecha (1990-2011, que en este artículo denominaremos El Periodo) se emitieron y reformaron las leyes federales de Competencia Económica y de Telecomunicaciones (LFCE y LFT, respectivamente), así como reglamentos y otras regulaciones relacionados con dichas leyes. En la apertura, promoción y protección del proceso de competencia y libre concurrencia en las telecomunicaciones (en adelante, Proceso) destacan los siguientes avances:


10

o

> Telecomunicaciones

aniversario

1. Han aumentado los competidores en mercados finales y algunos de servicios intermedios. 2. Los precios reales de los servicios finales han disminuido. 3. Servicios que tenían una presencia menor han ganado una enorme importancia. 4. Se han diversificado las opciones a los usuarios.

plearse para prestar cualquier servicio previsto en el Cuadro Nacional de Atribución de Frecuencias, siempre que lo permitan la infraestructura y tecnología de la red en cuestión. Es importante que esta facilidad se extienda a las concesiones anteriores y no sea disminuida por la capacidad “creativa” gubernamental o los intereses privados.

Esto ha ocurrido a pesar de los elevados niveles de concentración en los servicios locales y de televisión restringida, y de una interconexión e interoperabilidad afectada por deficiencias originadas por los concesionarios y la ineficaz aplicación de la regulación. Los avances se deben a la entrada de nuevos competidores impulsada por el nuevo marco normativo. Pero este factor tiene sus límites y enfrenta importantes obstáculos. A partir de ahora, los buenos resultados dependerán de acciones regulatorias y de competencia (más complejas y sujetas a conflictos) que incidan con mayor eficacia en cuestiones medulares de la nueva industria de telecomunicaciones surgida durante El Periodo. En el presente artículo veremos cómo contribuye la regulación sectorial al funcionamiento eficiente de los mercados de telecomunicaciones, a la luz de los criterios de competencia económica.

b. La no exclusividad en la cobertura y los servicios de las RPT reconoce que, en las condiciones técnicas y económicas actuales, la regulación sustentada en el monopolio natural debe dar paso una legislación orientada a la libre concurrencia. Esta apertura al Proceso ha enfrentado, particularmente, la oposición de los concesionarios de TV restringida por cable. Ante ello la reacción de la Secretaría de Comunicaciones y Transportes fue contradictoria: por un lado, otorgó y defendió las segundas concesiones, para más tarde (2005) proponer, sin éxito, reformas al reglamento de TV restringida que condicionaban artificialmente la entrada de competidores en redes cableadas. La oposición a las segundas concesiones de estas redes, y, por tanto, al Proceso, persiste hasta la fecha. Sin embargo, la reciente entrada de la marca Dish ha despertado la competencia en TV restringida, pero aún queda mucho por hacer. La alternativa de que los operadores locales presten el servicio anterior, está seriamente limitada por la cobertura de sus redes (salvo en el caso de Telmex) , así como por desventajas en su acceso a contenidos y/o la indefinida aplicación asimétrica del Acuerdo de Convergencia. La superación de estos obstáculos provocaría efectos muy positivos para el Proceso, la convergencia y los servicios de banda ancha.

Formación de estructuras pro-competitivas a. La concesión de las redes públicas (RPT), pero no de sus servicios, posibilita que los concesionarios de estas redes compitan en la prestación de cualquier servicio que, técnicamente, puedan ofrecer. Esta medida, y la posibilidad de que las comercializadoras participen en los mercados sin ser concesionarias, son básicas para facilitar la convergencia y/o promover El Proceso, según sea el caso. Desafortunadamente, la aplicación de esta medida ha sido desigual e incluso contraria a la LFT. Ejemplo de ello son los múltiples obstáculos enfrentados por Nextel para prestar servicios locales, las contrariedades en la instrumentación del Acuerdo de Convergencia de Servicios Fijos de Telefonía Local y Televisión y/o Audio Restringidos…, y las condiciones restrictivas que impone el Reglamento para la Comercialización de Servicios de Telecomunicaciones de Larga Distancia… a los permisionarios de esta actividad. Las complicaciones para autorizar el empleo del espectro radioeléctrico en usos distintos a los señalados en el título de concesión y el pago de derechos adicionales por este motivo también han constituido un freno importante para la convergencia y El Proceso. Hace apenas unos años (2008-2009) se estableció en las nuevas concesiones que el espectro puede em-

c. La prevención de concentraciones anticompetitivas es indispensable para evitar retrocesos en las nuevas estructuras de mercado. Las disposiciones en esta materia –contenidas en la LFT– establecen criterios de revisión preventivos que refuerzan los establecidos en la LFCE y aprovechan la especialización de la Comisión Federal de Competencia (CFC). Aunque existen cuestionamientos sobre la autorización de algunas concentraciones y/o sobre el cumplimiento de las condiciones impuestas, se puede afirmar que, en términos generales, el ejercicio de esta función ha protegido la competencia sin perjuicio de las eficiencias asociadas a estas transacciones.

edición sesenta y cinco > 59


> Telecomunicaciones

d. La aplicación de medidas que permitan a los usuarios cambiar de proveedor con la mayor libertad y los menores costos de transacción son esenciales para evitar restricciones estructurales al Proceso. El establecimiento temprano de la portabilidad de números hubiera facilitado la entrada y el crecimiento de los entonces nuevos competidores en servicios locales fijos y móviles. Sin duda, la portabilidad es uno de los factores que han impulsado la competencia en servicios de voz, entre las plataformas de telefonía fija y televisión por cable. Cabe reconocer el impulso dado por la CFC para establecer esta facilidad. Sin la presuscripción, la apertura a la competencia en larga distancia (LD) hubiera sido imposible. Desafortunadamente nunca se aplicó la selección por marcación del operador de larga distancia, prevista en las reglas de este servicio, pues esta medida hubiera contribuido a intensificar la competencia. En la práctica, la obligación de presuscripción pasó de una regulación general a una regulación asimétrica, aplicable solamente a las redes locales de Telmex. Mantener esta política es un asunto cuestionable por dos razones: 1) en las circunstancias actuales la competencia no sería afectada si se eliminan las excepciones a la presuscripción y se aplica la selección de operador LD por marcación; 2) si la presuscripción ya no contribuye a la competencia en LD, entonces debe eliminarse para evitar costos innecesarios.. La selección del operador de LD por marcación y la diversidad de oferentes en los números 900 depende del arreglo de convenios de facturación entre operadores. Tanto la Comisión Federal de Telecomunicaciones (Cofetel) como la CFC deberían ser más activas en promover su realización.

Eliminación de barreras a la entrada a. La política de licitación de espectro instrumentada entre 1996 y 1998 contribuyó a facilitar la entrada a los mercados de telecomunicaciones. Destacan la programación de licitaciones de frecuencias –orientada a impulsar la competencia en los mercados más concentrados –, los caps –establecidos para evitar la acumulación anticompetitiva del recurso– y la aplicación de licitaciones simultáneas ascendentes –para promover la competencia eficiente por el espectro licitado. Sin embargo, las licitaciones han perdido eficacia como mecanismos de mercado, al reducir la contraprestación más a un pago por obtener el Título de concesión que por el uso del espectro que ampara,

60 < Política digital

e incluir caps y concursos que disminuyen o limitan artificialmente la competencia. La experiencia indica que, al menos desde 2009, es necesario: 1) sustituir los caps por una aplicación rigurosa del “úselo o piérdalo”, 2) volver a la contraprestación ganadora de la concesión como único pago en la vida de la concesión, y 3) diseñar los concursos en función de los requerimiento mínimos de espectro que impone la tecnología y de coberturas que permitan la participación del mayor número de interesados nacionales y regionales. Para facilitar la participación de éstos últimos, es necesario incluir el roaming obligatorio que, en esencia, es una forma de interconexión. El concesionamiento de espectro para proveer capacidad para enlaces punto a punto (instrumentada en 1997), y su deficiente regulación, han derivado en la monopolización y escasez artificial de este recurso, aún cuando la posibilidad de multiplicar el uso de estas frecuencias en una misma área lo hace prácticamente ilimitado. Para remediar esto, es necesario que el regulador actúe con rigor en la aplicación de medidas que separen la oferta de dichos enlaces del servicio de provisión de capacidad; que haga efectivo el cumplimiento de la contabilidad separada, e impida que la oferta de capacidad se ate a la prestación de servicios de telecomunicaciones, particularmente de tales enlaces. b. El costo del cambio y diversificación de los usos del espectro constituye una limitación al Proceso y a la convergencia. Las medidas administrativas y legales que generan este problema se han prestado a maniobras legales tendientes a desplazar o impedir la entrada de competidores. Esto, aunado a la falta de una política de rescate de frecuencias (cuyo diseño debe dar certidumbre y ser neutral a la competencia), generan conductas oportunistas contrarias al Proceso e impiden un mayor dinamismo y eficiencia en el uso del espectro. Se requiere una nueva visión gubernamental para solucionar estos aspectos. c. La conectividad entre redes es indispensable para contar con un sistema de telecomunicaciones integrado por competidores independientes entre sí. La interconexión eficiente contribuye a nivelar el terreno entre concesionarios nuevos y establecidos, grandes y pequeños; condición que es necesaria para el Proceso. A pesar de su importancia, su tratamiento ha adolecido de insuficiente análisis e inconsistencias, así como de distorsiones propiciadas por intereses de los operadores.


> Telecomunicaciones

Los desacuerdos generalizados en interconexión y la sistemática intervención del regulador, revelan que los mercados correspondientes no han facilitado los convenios voluntarios ni la competencia en precios de estos servicios. Así, la competencia y la libertad de precios son generalmente inexistentes e inoperantes, respectivamente. Por otra parte, la regulación del agente con poder sustancial de mercado requiere de procedimientos previos complejos y dilatados a cargo de la CFC que es necesario agilizar así como de una instrumentación informada, práctica y no distorsionante; sin esto último, la regulación será contraproducente. Los fracasos en ese sentido, aunados a la inexperiencia, han propiciado medidas simplistas de regulación asimétrica que contravienen la LFT e ignoran el análisis de competencia y su aplicación en la desagregación de las RPT . Tal es el caso del Plan Fundamental de Interconexión e Interoperabilidad, el cual permite determinar rápidamente –pero sin rigor analítico– el concesionario a regular. La regulación de la interconexión es un asunto toral que requiere un enfoque multidisciplinario, por personas experimentadas, especializadas y blindadas contra las presiones de la industria. La experiencia en nuestro país indica que es necesario diseñar mecanismos y estructuras de mercado que: 1) neutralicen los efectos anticompetitivos de “El que llama paga”; 2) resuelvan las distorsiones que implica el servicio universal a costa de un agente económico, y 3) disminuyan sustancialmente el problema de informa-

ción asimétrica que afecta al regulador, entre otros. Asimismo, es indispensable revisar periódicamente las condiciones de competencia en estos mercados; determinar en cuáles y a quién(es) es indispensable aplicar una regulación asimétrica, así como su diferenciación, según la posición de los concesionarios de que se trate . En cualquier caso, siempre debe buscarse una alternativa que sustituya o minimice la intervención del regulador –mediante un rediseño de mercados y/o su operación– para facilitar el Proceso.

Hacia un servicio universal La LFT establece que: 1) el gobierno federal procurará el servicio universal (cobertura social y rural de RPT) mediante programas que podrán ser ejecutados por cualquier concesionario, y 2) el operador que sea el único prestador de un servicio en una localidad no podrá interrumpirlo unilateralmente. A la fecha, dichos programas se limitan prácticamente a las localidades donde no existen obligaciones de cobertura. El servicio obligatorio a localidades pequeñas y poco rentables solo está previsto en el título de concesión de Telmex,. La falta de tales programas en las localidades menos atractivas, cubiertas obligatoriamente por Telmex en razón de su título de concesión, explica el monopolio de esta empresa en las mismas. Esta obligación causa una regulación de tarifas de servicios finales e intermedios afectada por distorsiones y subsidios cruzados. La permanencia de este problema genera una situación inestable que afecta “dos frentes”: 1) Telmex verá disminuida su capacidad para cumplir esta obligación en la medida que se intensifique la competencia en las zonas más rentables, y 2) sus competidores continuarán en desventaja para prestar servicios de larga distancia hacia las áreas poco rentables cubiertas por Telmex. Por otra parte, los programas al amparo del fondo de cobertura social adolecen de múltiples deficiencias, limitaciones y falta de incentivos a la competencia. Una solución eficiente requiere de políticas de subsidios que abran al Proceso las localidades poco rentables (bajo la modalidad de competencia por los mercados) incluidas las cubiertas por Telmex en términos de su concesión.

Competencia y regulación La LFCE aplica a todas las áreas de la actividad económica, incluidas las telecomunicaciones a través de dos vertientes principales: 1) corrección y prevención de prácticas y concentraciones monopólicas y 2) promoción de un marco regulatorio procompetitivo. Algunas medidas incluidas en la primera vertiente no

62 < Política digital


> Telecomunicaciones

10

o

aniversario

son adecuadas para resolver las restricciones al Proceso en mercados de recursos esenciales (situación que se presenta en algunos servicios de telecomunicaciones intermedios y en otras industrias de redes). En estos casos, el enfoque de la LFT es más efectivo. Por ejemplo: • La determinación y corrección de la negativa de trato, discriminación, depredación y elevación de costo de competidores bajo el enfoque de la regla de la razón y la aplicación de medidas ex-post previstas en la LFCE, suelen ser tardías, parciales y distorsionantes. • Las obligaciones per se en interconexión e interoperabilidad –establecidas en la LFT– resultan más eficientes que la prohibición de la negativa de trato y la obstaculización del proceso productivo previstos en la LFCE. En cuanto a la discriminación y depredación, la LFT carece de criterios precisos para definirlas, lo cual debe resolverse. Las medidas comprendidas en la segunda vertiente (por ejemplo: opinar sobre políticas y legislación) son adecuadas, pero el diseño y aprobación de estructuras, políticas y legislación de industrias y mercados es una función de Estado que trasciende a las autoridades regulatorias y de competencia. Esto requiere de una intervención más amplia y sistemática del poder legislativo, inscrita en un proceso democrático que refleje las necesidades, preferencias y objetivos de la sociedad, mismos que pueden no coincidir con la(s) corriente(s) en boga o la visión de la autoridad de competencia y los reguladores. En este contexto, la instrumentación de la segunda vertiente precisa de una institución verdaderamente autónoma sujeta a revisión del poder lejislativo e integrada por un cuerpo colegiado aprobado por dicho poder, que aglutine conocimientos y experiencia en la interface mercado/estructura industrial/papel económico del Estado, y tenga autoridad para arbitrar entre las autoridades de competencia y regulación Una autoridad con estas características podría evaluar con mayor equilibrio el marco regulatorio en ambas materias y el desempeño de los mercados. También podría evaluar la aplicación de medidas administrativas desde un punto que responda a los legítimos intereses político-económicos de la sociedad. Además, sería un auxiliar técnico importante de los poderes Legislativo y Judicial. n Salvador Apodaca Sarabia es Presidente de Consultores en Regulación de Redes + Asociados, S.C., s.apodaca@crr-a.com

edición sesenta y cinco > 63


> Visualización de datos

Qué puede decir una imagen Diversas dependencias gubernamentales y centros de investigación en México y el mundo emplean la visualización de datos para mostrar gran cantidad de información en una sola imagen y así lograr una mayor comprensión, interpretación y asombro. Estos son algunos ejemplos

¿Una nueva isla en México? En esta perspectiva de la zona Ensenada-San Diego se puede observar el relieve de la Tierra y el fondo marino, con los hipocentros de terremotos registrados por las redes sísmicas de California, Estados Unidos, y el Centro de Investigación Científica y de Educación Superior de Ensenada, Baja California (CICESE).

Este modelo digital por escaneo permite ver el rompimiento en la superficie terrestre que produjo el temblor de magnitud 7.2 grados Richter, el 4 de abril de 2010, cerca de Mexicali, B.C. Fuente: CICESE.

66 < Política digital


10

o

> Visualización de datos

aniversario

Así se expandió la influenza en 2009 En esta secuencia de imágenes se observa la proliferación de los casos confirmados de influenza AH1N1 en los municipios del país. La gama de colores indica las localidades donde se confirmó un solo caso (color rosa claro), hasta los lugares con 653 a 1,088 casos (rojo oscuro) en cada periodo de la muestra.

Del 1 al 8 de abril de 2009

Del 23 al 29 de abril de 2009

Del 14 al 20 de mayo de 2009

Del 8 al 14 de octubre de 2009

Fuente: Subdirección de Geografía Médica/ Centro Información para Decisiones en Salud Pública del Instituto Nacional de Salud Pública.

edición sesenta y cinco > 67


> Gobierno electrónico

Gobierno electrónico: ¿dónde estamos, a dónde vamos? Por Alejandro Barros

Los proyectos de gobierno electrónico son un componente más del desarrollo y la modernización del Estado, tareas que, por cierto, muestran un atraso significativo en América Latina. ¿A qué se debe esto? ¿Cómo revertir tal situación?

M

e parece relevante iniciar este artículo con lo que ocurrió hace unas semanas. Me encontraba en una reunión sobre Sistemas de Ventanillas Únicas de Comercio Exterior –también denominadas VUCE–, organizada por el Banco Interamericano de Desarrollo. Uno de los asistentes presentó una gráfica muy reveladora del avance del gobierno electrónico (eGovernment):

Como se puede apreciar, la “e” (de electronic) constituye la parte pequeña del concepto en comparación con la palabra “Gobierno” (Government). Esta obviedad –que a menudo se olvida– implica que debemos preocuparnos más por los temas de gobernabilidad que por los tecnológicos, aunque esto, en mi experiencia, es poco común. No es extraño ver procesos modernizadores que rápidamente se transforman en proyectos tecnológicos, sin abordar otros componentes que son fundamentales para tener éxito. Esto ocurrió en Chile, cuando un grupo de expertos1 en la materia se reunieron y desarrollaron propuestas de modernización que no contemplaban –al menos de manera explícita– el uso de las tecnologías de la información y comunicaciones (TIC).2 www.reformadelestado.cl www.alejandrobarros.com/content/view/849049/La-modernizaciondel-Estado-sigue-con-una-pata-coja.html#content-top

1 2

68 < Política digital


10

o

> Gobierno electrónico

aniversario

El proceso modernizador del Estado incluye una serie de componentes (ver gráfica 1). Probablemente, el mayor desafío de los responsables del área TIC en las administraciones públicas es orquestar cada uno de estos componentes.

Gráfica 1. Componentes del modelo de modernización del Estado

Al momento de definir un proceso modernizador, es necesario tomar en cuenta las acciones que se emprenderán en cada una de las áreas, así como sus aportaciones, para generar una solución de mayor valor público. En las últimas décadas, los procesos modernizadores del Estado han transcurrido por tres fases,3 como lo muestra la tabla 1:

Tabla 1. Fases del proceso modernizador en los países de América Latina Fase Paradigma

Periodo

Características

1

Burocracia Tradicional Regulatoria

Antes de 1980

• Autoridad • Rigidez • Basado en reglas y normas muy estrictas

2

Nueva Gestión Pública

1980 1995

• Adopción de prácticas empresariales en el Estado • Orientado a resultados

3

eGov

1995+

• Enfocado al ciudadano • Interactivos • Respuesta rápida

La Unión Europea ha identificado ciertos criterios que son fundamentales para el pleno desarrollo de las iniciativas de gobierno electrónico, sobre todo los relativos al empoderamiento que día a día consiguen los ciudadanos, producto del soporte que les entregan las tecnologías de información y comunicaciones. En los últimos meses, hemos visto surgir manifestaciones de los “indignados” para exigir cambios en la administración pública de sus respectivos países. Estas expresiones hacen urgente el diseño de nuevos modelos de interacción Estadociudadano que incluyan al menos los siguientes elementos:

• Servicios diseñados en torno a las necesidades del usuario e inclusivos. Esto presupone la personalización de servicios. Un modelo a seguir ha sido planteado por el centro de investigación e innovación pública MindLab4 y su director, Chistian Bason5. • Producción colaborativa de servicios, que plantea el empleo de herramientas de la Web 2.0 en los servicios que provee el Estado. • Reutilización de la información del sector público, de acuerdo con el modelo open data y open gov. Muchos países han tomado acciones en ese sentido. • Mejoramiento de la transparencia en sus modalidades activa y pasiva. En América Latina han destacado los casos de Brasil, Chile y México. • eDemocracia, esto es, establecer mecanismos de mayor participación ciudadana y promover la participación de los ciudadanos en el diseño de políticas públicas. Para lograr servicios con atributos como los mencionados se requieren cambios profundos e incluir algunos elementos en la arquitectura tecnológica que potencien esto. Me refiero a especificaciones abiertas e interoperables, uso de identificación electrónica, nuevos modelos de servicio y provisión de infraestructura TI como los servicios en la nube6.

Un poco de historia Al analizar el proceso evolutivo de los servicios electrónicos del Estado en América Latina, podemos observar que éstos han iniciado fundamentalmente en tres áreas: 1. Administraciones tributarias: En muchos países de la región, las instituciones asociadas a la administración tributaria son las que cuentan generalmente con mayores niveles de madurez tecnológica, personal mejor remunerado y con un modelo de negocios conocido y bastante estable. Estas características les ha permitido incorporar servicios electrónicos con menor esfuerzo relativo. Por lo general, las administraciones tributarias en América Latina ofrecen soluciones de gobierno electrónico basadas en software a la medida, con acceso a formularios web que deben ser completados por los contribuyentes. Precisamente la reducción de costos (¡procesar un formulario en papel puede resultar 10 veces más costoso que uno electrónico!), así como la eficiencia de los procesos en línea son dos de las razones fundamentales que han estimulado el desarrollo de tales soluciones, que tienen un alto impacto ciudadano y empresarial. Dinesh Chandra, 2007, Defining eGovernment: a citizen-centric criteria based approach. www.mind-lab.dk/en 5 http://mindblog.dk/en/author/christian-bason/ 6 www.alejandrobarros.com/content/view/901992/El-cloud-computing-ataca-de-nuevo.html#content-top 3

4

edición sesenta y cinco > 69


> Gobierno electrónico

No está demás decir que estas instituciones por lo general tienen recursos y se mueven con bastante independencia y soltura, lo cual les genera espacios de poder que les permiten avanzar más rápido. El argumento central para el uso de las TI es ¿cómo puedo recaudar más y de forma más eficiente? 2. Compras públicas: A diferencia del anterior, este ámbito de desarrollo está más vinculado a ofrecer herramientas y tecnologías que permitan una mejor relación comercial entre el Estado y sus proveedores. Esto significa establecer un mercado de contratación con reglas, procedimientos, estándares y soporte tecnológico para realizar este intercambio de manera más eficiente y con bajos costos de transacción para ambas partes (comprador público–proveedor del Estado). El desarrollo tecnológico en esta área consistirá en diseñar una “plataforma” (mercado electrónico o marketplace) a la cual puedan acceder los usuarios compradores y los usuarios proveedores para establecer relaciones comerciales. El nivel de adopción de estas plataformas es relativamente lento, ya que se contrapone a prácticas muy establecidas y definidas por unidades compradoras dentro del Estado. Por consiguiente, el cambio de paradigma en esta área no es asunto menor. Transferir estas plataformas de un país a otro no es tarea fácil, porque el marco jurídico de contrataciones públicas es propio de cada nación. Aunque existen algunos elementos comunes, hay gran cantidad de particularidades jurídicas que implica importantes esfuerzos de adaptación. El principal argumento para el avance de este tipo de soluciones están asociadas a responder la temática, ¿de qué manera el Estado puede contratar en forma más eficiente? 3. Transparencia: En los últimos años se han desarrollado marcos jurídicos para promover el acceso a la información pública y promover la transparencia. Incluso algunos organismos como la Organización para la Cooperación y el Desarrollo Económicos (OCDE) han recomendado la publicación de información pública7. Otros han establecido la fiscalización en este ámbito, como el Instituto Federal de Acceso a la Información y Protección de Datos (IFAI) en México, o el Consejo para la Transparencia en Chile. A diferencia de los dos ámbitos anteriores, en la Transparencia la arquitectura tecnológica se asocia más con la búsqueda, el acceso y la disponibilidad de la información, y menos con aspectos transaccionales, como en el caso de los impuestos y las compras públicas. www.oecd.org/document/36/0,3746,en_2649_34223_44384228_ 1_1_1_1,00.html www.agesic.gub.uy/

7

8

70 < Política digital

El desarrollo tecnológico para tener acceso a la información pública todavía se encuentra en etapas tempranas (no estamos hablando de Open Data, que prácticamente no existe en la región, salvo algunos experimentos en estado bastante embrionario). Hasta ahora, la implementación ha consistido en establecer estándares para publicar información en diversas plataformas y adicionar mecanismos de fiscalización. En esta área es relativamente simple copiar prácticas y adoptar desarrollos de terceros. En la tabla 2 se describen las características de los tres tipos de iniciativas para gobierno electrónico:

Tabla 2. Características de las tres áreas fundamentales que dieron inicio al eGobierno en América Latina Características

Tipo de información Estándares internacionales

Impuestos

Acceso a información pública

Compras

Transaccional

Documental

TransaccionalDocumental

PP

P

PPP

Medio

Bajo

Alto

Riesgo institucional

Bajo

Medio

Alto

Impacto ciudadano

PPP PPP PPP PP P PPP P P

PP PP PP PPP PPP P PPP PPP

P PPP P P PP PP PP PP

Riesgos tecnológicos

Impacto empresarial Velocidad de adopción Percepción de valor público Rechazo grupos de poder Volumen transaccional Prácticas homologables Volumen de contenido Fuente: Con información del autor. 

Desarrollo del gobierno electrónico en AL Las iniciativas de gobierno electrónico en América Latina se han centrado en soluciones de carácter transaccional, en muchos casos “digitalizando la burocracia” y con errores en su diseño más básico. En mi opinión, tales iniciativas se han regido por tres criterios fundamentales: institucionalidad, planes nacionales y servicios del Estado. Institucionalidad: Por lo que he podido analizar, en la región son pocos los países que han tomado las estrategias de gobierno electrónico en serio y de forma sistemática. Cuando digo sistemática, me refiero a procesos y políticas públicas de largo plazo y sustentables en el tiempo. Destacan los casos de Uruguay –con su agencia Agesic8– y Colombia, que han establecido modelos institucionales interesantes, bastante estables y que han resistido los embates del cambio de gobierno –un gran problema para la continuidad de estos temas en la región.


> Gobierno electrónico

10

o

aniversario

Plan Nacional: Muchos países, entre ellos México9, Chile10, Uruguay11, Colombia y otros, han desarrollado Agendas Digitales Nacionales con capítulos relativos al desarrollo del gobierno electrónico. Probablemente la mayor dificultad que han enfrentado esas agendas son los bajos niveles de sustentabilidad en términos de continuidad, recursos y prioridad política del plan. Por otra parte, se aprecia una falta de alineamiento con el modelo de desarrollo del país y con otras iniciativas para la modernización del Estado. Servicios del Estado: En la última década, los avances más significativos se han producido en los gobiernos centrales de la región. En los niveles de gobierno local o estatal el progreso ha sido bastante menor, salvo algunas excepciones como el gobierno de Nuevo León (México) y el municipio de Peñalolén (Chile) por nombrar algunos de los que conozco. Desde el punto de vista de los servicios, los mayores avances en la región se han dado en sistemas tributarios, compras públicas y algunos desarrollos en materia de transparencia. Si esto lo contrastamos con el modelo Bekkers y Homburg,12 el desarrollo ha sido bastante parcial, ya que se cubren sólo algunas de las cinco categorías de Bekkers, que son: 1. Servicios Informacionales, es decir, los relativos al acceso a información pública (como programas, normas y decisiones administrativas). La búsqueda y el acceso a información en diversas bases de datos públicas también forman parte de este tipo de servicios. 2. Servicios de Contactos. Se refieren a la posibilidad de contactar o interactuar con funcionarios públicos y autoridades gubernamentales para realizar consultas y/o eventuales reclamos. 3. Servicios Transaccionales, como el pago de impuestos, compras públicas y la obtención de permisos. Es común que este tipo de servicios se les asocie con la recaudación de ingresos del Estado. Tiene lógica, ¿no? 4. Servicios de Participación Ciudadana. Aquí se incluyen los foros en línea, los grupos de interés que interactúan con algún funcionario o dependencia del gobierno, y las votaciones electrónicas. 5. Servicios de Transferencia de Datos entre el Estado y los ciudadanos, ya sea mediante personas, organizaciones o empresas. Por su parte, Hamburg plantea en su libro Understanding e-Government13 que, dependiendo de la problemática a resolver, existen tres modelos de servicios electrónicos: 1. Modelo Gerencial, en el cual se visualiza al ciudadano como un “cliente” al que hay que entregar servicios en forma eficiente y efectiva. Este modelo

edición sesenta y cinco > 71


> Gobierno electrónico

apunta a servicios transaccionales y de interacción directa entre el ciudadano y el Estado, como los de ventanilla única. 2. Modelo Consultivo, busca establecer mecanismos de interacción y comunicación entre ciudadano y su rol de citoyen14 más que de un “cliente”. Se trata de una interacción que apunta a servicios de contacto, participación e información. 3. Modelo Participativo. Aquí el ciudadano no sólo opina respecto a políticas públicas sino también participa en su construcción. Estos servicios no necesariamente son entregados por el Estado. Al analizar las políticas públicas en materia de gobierno electrónico de la región, es evidente que la mayoría se centran en servicios de carácter transaccional y son pocos los casos en que un diseño de servicios se vincula con la participación. Esto probablemente se deba a que los servicios de carácter gerencial son más fáciles de implementar. Por lo tanto, al observar la relación entre tipologías de gobierno electrónico y modelos de implementación de políticas públicas, éstas se pueden resumir en la tabla 3:

Tabla 3. Relación de los tipos de servicios y modelos de gobierno electrónico Servicios / Modelos

Gerencial Consultivo Participativo

Informacionales

P P

Contacto Transaccionales

P

Participación Transferencia de datos

P

P

P

La región en cifras El Departamento de Asuntos Económicos y Sociales de las Naciones Unidas (UNDESA) genera un ranking de gobierno electrónico denominado United Nations E-Government Survey, el cual incluye una medición de determinados sitios web del sector público, niveles de infraestructura tecnológica y capital humano15. En la tabla 4 se observan los diez países de América mejor calificados en las últimas tres mediciones (Nota: no

www.e-mexico.gob.mx/web/agenda-digital www.estrategiadigital.gob.cl 11 www.agesic.gub.uy/innovaportal/v/258/1/agesic/agenda_digital. html 12 Bekkers, V. J. J. M, y Homburg V. M. F. (2005), The Information Ecology of e-Goverment, Amsterdam 13 Vincent Homburg (2008), Understanding e-Goverment, Routledge. 14 Término en francés que expresa el rol más asociado que tuvieron los ciudadanos durante la Revolución Francesa. 15 www.unpan.org

incluí a Estados Unidos ni a Canadá para comparar niveles de desarrollo equivalentes):

Tabla 4. “Top ten” del eGobierno en América, según la ONU Posición 1

2010

2008

2005

Colombia

México

Chile

2

Chile

Argentina

México

3

Uruguay

Chile

Brasil

4

Barbados

Brasil

Argentina

5

Argentina

Barbados

Uruguay

6

Antigua

Uruguay

Colombia

7

México

Colombia

Venezuela

8

Brasil

Trinidad y Tobago

Perú

9

Perú

Perú

Jamaica

10

Bahamas

Costa Rica

Barbados

Fuente: United Nations E-Government Survey (2008 y 2010) y UN Global E-Government Readiness Report (2005).

Según la UNDESA, los países que han reportado mejor desempeño en las últimas tres evaluaciones han sido Colombia –que subió siete posiciones y obtuvo el primer lugar en 2010– y Uruguay –que ha mostrado avances significativos en materias de gobierno electrónico en los últimos años. En el otro extremo, los países de más bajo desempeño en el continente son México –que descendió seis posiciones en la última evaluación– y Brasil –que ha bajado hasta ubicarse en octavo lugar en 2010. A nivel regional, América Latina descendió 4% su posición en el ranking, lo cual muestra que nuestro desempeño agregado no es del todo bueno. Si tomamos otros indicadores como es el caso del Network Readiness Index (NRI) que publica cada año el Foro Económico Mundial,16 en las variables asociadas al “Uso de TI en los procesos del Estado”, los lugares de avanzada los ocupan Colombia, Chile y Uruguay. América Latina enfrenta importantes desafíos en materia de gobierno electrónico, que van desde servicios básicos –como los mencionados en este artículo– hasta nuevos modelos de interacción más centrados en el ciudadano, que incorporan conceptos de co-creación y uso intensivo de Web 2.0, cloud computing y movilidad. n

9

10

72 < Política digital

Alejandro Barros es consultor internacional de empresas e instituciones públicas, y miembro del Consejo Editorial de Política Digital, www.alejandrobarros.com

16

http://reports.weforum.org/global-information-technology-report/


> Economía digital

El rumbo de la economía digital en México Por Ricardo Medina Álvarez

$ 3,000,000,000,000. Tres billones, o tres millones de millones de pesos, es el valor de las transacciones electrónicas que se hacen diariamente en nuestro país. Esta cifra equivale aproximadamente a todo lo que produce México en un trimestre, por lo que, en cuatro días de transacciones electrónicas, se mueve un volumen de dinero equivalente al PIB en un año. En lo que sigue, se identificarán las claves que marcan al rumbo del país hacia una economía digital

74 < Política digital

E

l conjunto de las operaciones de compra y venta que se realizan en nuestro país son de dos tipos: las que se hacen con dinero en efectivo, y aquellas en las que intervienen sofisticadas aplicaciones digitales que los especialistas denominan sistema de pagos. A diferencia del efectivo, en el que las transacciones se concretan de manera presencial entre la persona física o moral que paga y la que cobra, en el sistema de pagos intervienen otras instituciones para materializar una operación de compra/venta. Por ejemplo, cuando se paga con una tarjeta de débito emitida por el Banco A en algún comercio que es atendido por el Banco B, en la transacción participan, además de los bancos, empresas procesadoras, cuya función es conectar al Banco A con el Banco B. Hay que advertir que de esos tres billones de pesos que se tranzan diariamente, el 95% del total corresponde al importe de las transacciones


10

o

> Economía digital

aniversario

que se hacen en el sistema financiero1, mientras que sólo el 5% restante, obedece a transacciones comerciales que se realizan principalmente por medio de tarjetas de crédito o débito, transferencias electrónicas bancarias y cheques (ver recuadro). Cifras que cuentan En México existen alrededor de 80 millones de tarjetas de débito y casi 25 millones de tarjetas de crédito. Asimismo, los bancos administran alrededor de 85 millones de cuentas a la vista, entre sus diferentes modalidades: cuentas de ahorro, cuentas de cheques, cuentas maestras, etc., mediante las cuales se pueden realizar transferencias y domiciliaciones.

Gráfica 1 Comparativo de medios de pago distintos Promedio diario en el semestre respectivo (millones de operaciones)

5.0

4.47

4.5 4.0

3.63

3.5 3.0 2.5

2.24

2.0

1.56

1.52 1.5 1.0

1.32

0.5

0.21

0.11 0.0

1S 2005 2S 2005 1S 2006 2S 2006 1S 2007 2S 2007 1S 2008 2S 2008 1S 2009 2S 2009 1S 2010 2S 2010 1S 2011

Por otro lado, con relación al número de transacciones electrónicas, sucede lo contrario: alrededor de 10 millones al día corresponden a operaciones comerciales realizadas con tarjetas, cheques y mediante transferencias electrónicas, (ver gráfica 1), mientras que en el sistema financiero se llevan a cabo casi 40 mil operaciones diarias.

Pagos en comercios con tarjeta Transferencias Cheques Domiciliaciones Fuente: Información proporcionada al Banco de México por los bancos y otros participantes en el sistema de pagos.

Gráfica 2 Composición del uso de medios de pago

Las transacciones comerciales

1 Principalmente se considera al monto total realizado en: i) el sistema mediante el cual se liquidan las operaciones de compra-venta de títulos de deuda emitidos por el gobierno federal e instituciones del sector público, sector bancario y sector privado (dos billones de pesos), y ii) los esquemas en que cada banco transfiere recursos desde una cuenta administrada por ese banco a otra cuenta que administre otro o ese mismo banco (0.850 billones de pesos).

12%

8%

8% 12%

4%

6% 11%

8% 25%

9%

12%

19% 26%

20%

2%

10%

20% 16%

2%

23%

32% 24%

20%

43%

11% 7%

56%

55%

36%

21%

44% 34%

31% 17%

15%

39%

68%

16% 57%

51%

45%

43%

43%

43%

41%

41%

ñ España

Italia l Italia

Su iza Suiza

Franci ca Francia

xico 2010 2010 México

Bélgica c Bélgica

es Bajos o Países

no Unido Unido d Reino

Australi la Australia

o Estadoss Unidos

Suecia

39%

28%

25%

Brasil s Brasil

59%

3%

xico 2004 2004 04 México

60%

Canadá d

A las transferencias electrónicas, a los cheques y a las tarjetas de crédito y débito y a la domiciliación se les denomina medios de pagos. Los medios de pagos más utilizados para hacer operaciones en el sector comercial son las tarjetas de crédito y débito, las transferencias electrónicas y los cheques. Sin embargo, la tendencia mundial es que el cheque tiende a perder importancia. Incluso hay países en los que este instrumento de pago ha desaparecido prácticamente o se usa muy poco (gráfica 2). La menor utilización del cheque y, por ende, la mayor utilización de otros medios de pago, responde a la existencia de una gran armonía entre el público usuario, los bancos y las autoridades financieras para instrumentar medidas que incentiven notablemente medios de pagos más modernos basados completamente en tecnología, gracias al desarrollo de las telecomunicaciones y al acceso a internet por múltiples vías, incluso mediante el teléfono celular.

Cheques Domiciliaciones Transferencias Pagos en comercios con tarjeta Fuente: BIS-CPSS statistics 2009. ECB-Blue Book statistics for 2009, The 2010 Federal Reserve Payments Study, Reserve Bank of Australia, Banco de España, Banco Central de Brasil y Banco de México.

El cheque y el efectivo se parecen a las cartas que enviábamos antes por correo tradicional, mientras que los medios de pagos como las tarjetas y las transferencias electrónicas se parecen, cada vez más, a los

edición sesenta y cinco > 75


> Economía digital

mensajes que se envían por correo electrónico, Twitter o Facebook. Otro aspecto a destacar en las gráficas 1 y 2 es el medio de pago denominado “domiciliación”, que no es muy utilzado en nuestro país, pero que en otras latitudes es de los más relevantes, como por ejemplo en Alemania, donde da cuenta del 50% de las transaccines comerciales. La domiciliación consiste en la autorización que el público otorga a una empresa proveedora de bienes o servicios para que cobre, directamente, cada mes, mediante cargos a su cuenta. Este es el caso, por ejemplo, de los pagos de luz, teléfono o televisión de paga. Esta modalidad representa eficiencias importantes, ya que la persona que recibe el servicio no tiene que preocuparse por hacer el pago, y la empresa que otorga el servicio tiene el incentivo de que la cobranza está asegurada.

Las transacciones del sector financiero Un componente muy relevante del sistema de pagos se refiere a la compra de títulos de deuda en el mercado primario (cuando la venta la realiza directamente el emisor –público o privado– de dichos valores), o en el mercado secundario (cuando la venta la realiza la persona física o moral que posee estos valores). A este componente se le denomina, sistema de Depósito, Administración, y Liquidación de Valores (DALI). Aunque el número de transacciones realizadas en DALI es bajo (aproximadamente 20 mil al día), su importe en dinero explica un altísimo porcentaje de los

Tabla 1. Importe total operado en el sistema de pagos Sector

Sistemas de Pagos

Comercial

Financiero

Componente del sistema de pagos

Importe total diario de las transacciones (aproximado en millones de pesos)

Cheques

$35,000

Tarjetas

$3,000

Transferencias*

$111,000

Domiciliación

$1,000

Subtotal

$150,000

DALI

$2,000,000

Transferencias*

$850,000

Subtotal

$2,850,000

TOTAL

$3,000,000

* Incluye transferencias realizadas por el Sistema de Pagos Electrónicos Interbancarios (SPEI), las cuales pueden ser de bajo valor, para operaciones comerciales, y de alto valor, por transacciones financieras. FUENTE: Elaboración propia con información de Banxico.

76 < Política digital

tres billones de pesos que se operan diariamente en el sistema de pagos (ver tabla 1). Imaginemos cómo serían estas transacciones sin la mediación de la tecnología: ¿Sería factible, seguro y rápido cerrar una operación de estas magnitudes con dinero efectivo, cheque o tarjeta? ¿Acaso el comprador de los valores estaría dispuesto a pagar, y luego esperar a que el vendedor entregue los títulos? Una de las características más relevantes del sistema DALI es la que se denomina “Entrega contra Pago”, que consiste en asegurar que, en una operación de compra-venta, el comprador realiza el pago y al mismo tiempo recibe los títulos; o visto al revés, el vendedor recibe los recursos en el mismo instante en que entrega los títulos. Lo que hace el sistema DALI es administrar una cuenta de dinero y otra de valores para cada operación. Así, cuando un operador pacta una venta con otro que compra, la transacción se realiza sólo cuando el sistema DALI confirma que los títulos que se están vendiendo están realmente en la cuenta de valores del vendedor, y que el dinero que va a pagar el comprador está en su cuenta de dinero. Una vez realizado este chequeo, el sistema DALI procede a transferir, de manera simultánea, los títulos de la cuenta del vendedor a la del comprador, y el dinero de la cuenta del comprador, a la del vendedor. Se trata de un procedimiento que genera certidumbre y confianza en quienes lo utilizan.

Pagos en efectivo Si quisiéramos conocer el importe total de las transacciones que se realizan en nuestro país, habría que sumar a esos tres billones diarios aquellas que se hacen por medios no electrónicos, esto es, con dinero en efectivo. ¿Cuál es el importe total diario de las transacciones en efectivo? Con todo y el expertise que existe en el Banco de México, se trata de una pregunta nada fácil de contestar, ya que las operaciones en efectivo no dejan absolutamente ningún registro. Pero veamos: debido a que el Banco de México emite todos los billetes y todas las monedas que circulan en el país (la llamada base monetaria), se sabe con certeza que éstas


10

o

> Economía digital

aniversario

ascendían a 651,531,413,000 pesos el 21 de noviembre de 2011, por ejemplo. Si el 5% de esta base monetaria se intercambiara diariamente, el valor de las transacciones en efectivo ascendería aproximadamente a 32.5 mil millones de pesos, por lo que el importe de las transacciones comerciales del sistema de pagos sería mucho mayor, lo que significa que los medios de pago electrónicos serían claramente predominantes en la economía. Por el contrario, si el porcentaje de la base monetaria que se intercambia diariamente fuera, por decir algo, el 95%, (618 mil millones de pesos aproximados) entonces, el valor de las transacciones electrónicas comerciales sería bajo. Además estaríamos muy lejos de nuestras metas, que consisten en lograr que el sistema de pagos tenga una mayor penetración en nuestra economía. Habremos de seguir estudiando este tema para estimar el valor de las transacciones en efectivo que se realizan en el país.

Conclusión Es muy relevante para la economía que los sistemas de pagos funcionen con seguridad, rapidez, y que además estén al alcance de todos los agentes económicos del país, esto es, de las instituciones financieras, las grandes, medianas y pequeñas empresas, las entidades del sector público, y las personas físicas. Importa hacer notar que el cheque y el efectivo todavía se utilizan de manera relevante en nuestra economía. Sin embargo, ante la emergencia de dispositivos tecnológicos como el celular y el acceso a internet cada vez más generalizado, estos instrumentos tenderán a utilizarse cada vez menos. Esta disminución está sujeta a que los agentes económicos se convenzan de la ineficiencia de estos medios de pago respecto a otros que ya están a su alcance, y que son, objetivamente, más seguros, más ágiles y más baratos de utilizar. Siguiendo la analogía de las cartas manuscritas que se enviaban por correo, nunca hubo una política por parte de las autoridades para inducir a la gente a que dejara de escribir cartas en papel y empezara a utilizar el email, por ejemplo. Lo que ocurrió más bien es que la gente se dio cuenta que el email era mucho más rápido, seguro y barato. La autoridad financiera encargada de propiciar que el sistema de pagos tenga un funcionamiento adecuado es el Banco de México2. De esta manera, para cumplir con esta importante responsabilidad, el Banco 2 Ley del Banco de México, Artículo 2o.- Serán también finalidades del Banco promover el sano desarrollo del sistema financiero y propiciar el buen funcionamiento del sistema de pagos.

Central actúa con tres diferentes papeles: 1. Regula y supervisa que las principales instituciones participen de una manera adecuada en los sistemas de pagos. 2. Opera algunos componentes relevantes del sistema de pagos, como el SPEI, el sistema de transferencias electrónicas interbancarias que se procesan en tiempo real, el cual es utilizado tanto para transacciones comerciales como financieras. 3. Promueve medidas para que gran parte de los agentes económicos del país tengan a su alcance sistemas de pagos seguros y ágiles. Para el Banco de México es muy importante promover la creación y el crecimiento de medios de pagos eficientes para que la población en general esté convencida de utilizarlos. Esto trae beneficios a los agentes económicos que los usan y, por ende, trae ganancias para la economía nacional. Es primordial que los sistemas de pagos operen de manera estable, sin fallas o interrupciones relevantes, para que las transacciones electrónicas sigan creciendo y acerquen a nuestro país, cada vez más, a la economía digital que deseamos. n Ricardo Medina Álvarez es Director de Sistemas de Pagos del Banco de México, rmedinaa@banxico.org.mx

edición sesenta y cinco > 77


> Industria TI

La industria de TI en México: Avances, retos y expectativas Por Sergio Carrera Riva Palacio

Desde que se vislumbró el primer programa para desarrollar la economía digital en México en el año 2000, el camino para alcanzar una industria de TI competitiva a nivel internacional ha amalgamado las aspiraciones e intereses de diversos sectores. ¿Cuánto se ha logrado en poco más de 10 años? ¿Qué falta?

U

na “política pública” representa la posibilidad de articular un esfuerzo deliberado para modificar el rumbo de las cosas. En el caso de la industria de las tecnologías de información (TI) en México, hemos tenido la oportunidad de que así sea. El estado actual en el que se encuentra el sector TI, sus exportaciones, el posicionamiento internacional, la madurez de sus procesos y la cantidad de los empleos que genera son hechos que dan cuenta de los alcances de esa política pública. Los resultados son la consecuencia de un trabajo que encabeza la Secretaría de Economía, en el cual se han amalgamado los esfuerzos de gobiernos estatales y municipales, de la academia y, naturalmente, de la industria y sus organizaciones. No obstante, hay todavía áreas de mejora en las que conviene trabajar.

Oportunidades globales, capacidades locales Hacia el año 2000, quienes participamos de esta iniciativa sin precedente preparamos un proyecto de programa para desarrollar la economía digital en México. Eran momentos en los que se había promovido el reconocimiento legal de las transacciones electrónicas y la equivalencia funcional de las obligaciones suscritas en papel con las acordadas electrónicamente. Se abrió entonces una avenida para detonar los circuitos de transacciones entre negocios y consumidores (B2C), negocios y sus pares (B2B), gobierno y negocios (B2G), así como entre el gobierno mismo (G2G). El mundo ya se había enfrentado al fenómeno del cambio de milenio (Y2K), hecho que fue magníficamente capitalizado por países como la India, que aceleraron una ola de subcontrataciones para operaciones relacionadas con software y servicios basados en tecnologías de la información.

78 < Política digital

La industria en México tenía para entonces una veintena de años. Las empresas venían haciendo un esfuerzo relevante por abrir un espacio en el que se aprovechara el talento mexicano para ofrecer servicios tecnológicos en la materia. Hay que recordar que los departamentos internos de tecnologías de información y telemática eran “comunes” en grandes organizaciones gubernamentales, en el comercio y en el sector financiero, principalmente. La formación de recursos humanos con orientación informática, tanto en las universidades como a nivel técnico, emergía con fuerza desde la década de los noventa. La calidad de la oferta nacional aún no era reconocida y su presencia en otros países era muy limitada. Sin embargo, empresas como Softtek, Hildebrando y Neoris forjaban esfuerzos hacia esa dirección.

Prosoft, compromisos compartidos Para el cierre de 2001, gobierno e industria se plantearon la conveniencia de articular un programa para desarrollar la industria del software y los servicios relacionados. Así nació el Prosoft, bajo la idea de fomentar el desarrollo de las capacidades nacionales, siempre que se hiciera en un entorno de competitividad internacional. Nos dimos a la tarea de convocar a la industria, así como a diferentes organizaciones del gobierno federal, de los gobiernos estatales y a la academia. El resultado fue la conformación, por consenso, de un programa con siete estrategias: promoción de la inversión y de las exportaciones; desarrollo del capital humano; adecuación del marco jurídico; adopción de TIC en empresas usuarias; acceso al financiamiento; niveles internacionales de capacidad de procesos; e infraestructura. Tales estrategias se trabajarían de manera simultánea. El programa se dio a conocer a finales de 2002 y se establecieron mesas de trabajo para instrumentar las líneas de acción definidas. La industria, la academia y las organizaciones públicas tenían tareas que cumplir y roles para darle seguimiento. Este es uno de los factores más relevantes de su “éxito”: los vectores de interés se alinearon y la responsabilidad de la gestión se definió ex-ante (antes de producirse) y sobre ella hubo que dar resultados.

Financiamiento público y contragarantías Con el apoyo del Congreso de la Unión, se obtuvieron los primeros recursos para la industria en 2003: 100 millones de pesos, la


10

o

> Industria TI

aniversario

mayoría de los cuales sirvieron para integrar un fondo de contragarantías que le permitiera a la industria acceso al crédito. Además, se dieron los primeros apoyos a proyectos de integradoras de empresas, crecimiento de capacidad instalada y adopción de Modelos de Capacidad y Madurez (CMM). El estado de Jalisco autorizó fondos concurrentes para fortalecer estos proyectos y a él se sumaron los gobiernos de Baja California, Nuevo León y Sonora. Es preciso apuntar que al entusiasmo de los gobiernos estatales no correspondió un interés semejante por parte de la banca comercial. A pesar del esfuerzo de Nacional Financiera (Nafin), no fue posible interesarlos en la oportunidad de este negocio, del que se preveían importantes tasas de crecimiento anual –como efectivamente las ha tenido–, inclusive teniendo garantizado el pago de las llamadas “primeras pérdidas”. Más adelante incursionaría una Sociedad Financiera de Objeto Limitado (Sofol), que fue la única que brindó apoyos crediticios por algunos años. No deja de llamar la atención la forma en la que la banca selecciona sus áreas de interés en el mercado nacional, situación que se mantiene desde entonces hasta la fecha. Hacia 2005, más de la mitad de las entidades federativas se habían vinculado a Prosoft y participaban activamente en la promoción internacional, en el fomento a sus clústeres, en la adopción de modelos de calidad y en el apoyo con recursos fiscales para apuntalar los proyectos de la industria, que se sumaban a los recursos federales.

Prosoft recargado Con el cambio de la administración federal, el programa se renovó al revisarse sus estrategias y líneas de acción. El propósito fue reflexionar sobre la conveniencia de mantener o ajustar las líneas definidas, de modo que se lograra el objetivo general establecido desde el origen: contar con una industria competitiva internacionalmente hacia el año 2013. Las gráficas 1 y 2 muestran la manera como se ajustaron los objetivos y las estrategias del Prosoft 2.0: Gráfica 2 Política pública nacional de largo plazo - Prosoft 2.0

Exportaciones e Inversiones

Captital Humano

Facturación

• 15,000 millones de dólares

Certeza jurídica

Uso

• 2.3% TI/PIB

Difusión de uso de TI

Gráfica 1

Posicionamiento

• Líder latinoamericano

La industria de TI en México 2002-2011 Competitividad

2,785

32

Estados enfoque TI

Empresas 2,095

367

4

27

24

Parques tecnológicos

Clústers TI

Fondeo

4,150

200

Calidad y madurez

-1%

0

Exportaciones TI y BPO (BDD)

Empleo

• 625,000

Tasa de crecimiento

4

Empresas certificadas en TI

16.6%

0

367

Centros de desarrollo certificados 4

Datos: Secretaría de Economía INEGI, AT Kearney y Select.

90,000

Fuente: Secretaría de Economía

Egresados de Ingeniería y Tecnología 65,000

Fuente: Secretaría de Economía.

En esta etapa del programa, se desarrollaron iniciativas como: Mexico IT always near your business1; cursos paracurriculares para la formación de desarrolladores e ingenieros de software en instituciones de educación superior2; desarrollo del modelo de madurez de procesos, Moprosoft3; fomento a los clústeres de TI en los estados4; integración de la mesa de fomento a software libre5; y adecuación de la normatividad vigente (Código de Comercio y Ley de Protección al Consumidor)6.

1 Campaña de posicionamiento de la industria mexicana de TIC en Estados Unidos, principalmente, con el apoyo de la Cámara Nacional de la Industria Electrónica de Telecomunicaciones y Tecnologías de la Información (Canieti) y la Asociación Mexicana de la Industria de Tecnologías de Información (AMITI). 2 En coordinación con la Asociación Nacional de Instituciones de Educación en Informática (ANIEI). 3 Con el impulso de la extinta Asociación Mexicana para la Calidad en la Ingeniería del Software (AMCIS). 4 Con apoyo de la Asociación Nacional de Distribuidores de Tecnología Informática y Comunicaciones (Anadic). 5 Con apoyo de la Asociación Mexicana Empresarial de Software Libre (Amesol). 6 Con orientación de la Asociación Mexicana de la Industria Publicitaria y Comercial en Internet (AMIPCI).

edición sesenta y cinco > 79


> Industria TI

financiero7, cuatro lugares por encima de Chile, el siguiente país latinoamericano en el índice global.

Gráfica 3 Estrategias y herramientas de impacto de Prosoft 2.0

Capital Humano

• México FIRST • Talento de TI • Estándares laborales

Exportaciones e Inversiones

• México IT • IT Link

Valor de uso y apropiación tecnológica

Competitividad

Calidad y Madurez

• Clusters • Innovación • Mapa Ruta (nichos) • Parques Tecnológicos

• MoProSoft • Inciciativa PSP/TSP • CMMI

Financiamiento

Difusión de uso de TI

Certeza Jurídica

• Fondo Prosoft • Findo Contragarantías • Capital de riesgo

• Proyectos de usuario • Compras de gobierno • Sello de confianza para portales de Internet

• Ley datos personales • Homologación normativa • NOM 151Conservación de mensajes de datos

Fuente: Secretaría de Economía.

Los resultados en materia de exportaciones, posicionamiento internacional y crecimiento en empleo son más que evidentes. La Secretaría de Economía ha reforzado en el último año su impulso al cumplimiento de las metas programadas y a los compromisos adquiridos con la industria y con los gobiernos estatales, así como los relativos a organismos internacionales (ver gráfica 3).

Sin embargo, no todo es éxito. La adopción de más TIC para la competitividad de las empresas en otros sectores –especialmente en las empresas de mayor rezago tecnológico– ha crecido a una tasa poco significativa, que no contribuye lo suficiente para cerrar las brechas tecnológicas. Después de analizar varios casos fallidos en la adopción de estas tecnologías para lograr la eficiencia y competitividad de las empresas, concluyo que han sido orientados por el lado de la oferta; es decir, se ha procurado acercar soluciones a los negocios, pero los empresarios involucrados en los proyectos no han percibido el retorno de la inversión con claridad, o no ha sido evidente el valor de uso que tienen para el desempeño del negocio. Recordemos también que hubo un intento de implantación de este tipo de tecnologías con fines de fiscalización, lo que probablemente ha afectado nuevos intentos. La mayor adopción no es, necesariamente, un tema de financiamiento o tecnológico, sino un asunto de apropiamiento (en función de su valor de uso) y/o de claridad en el retorno de la inversión (estas inversiones, por pequeñas o grandes que sean, siempre compiten con otras por el capital de trabajo disponible: si el retorno no está claro, el recurso será asignado a otro proyecto en el que sean mejores las probabilidades de recuperación).

Gráfica 4

Tareas pendientes

Mercado local y exportaciones de TI + BPO (BUSD) Mercado interno

Exportaciones

4.8

13.5

Billones de dólares

4.2

9.0

2.0

3.2

3.7

5.8

6.3

5.9

19% 2007

14% 2008

1% 2009

2.5

4.5 5.0

0.0

Tasa de Crecimiento 2006

6.7

13% 2010

7.8

17% 2011

Datos: Secretaría de Economía, Gartner, AT Kearney y Select.

Con datos de Secretaría de Economía, Gartner, AT Kearney y Select. En materia de empleo, los indicadores de crecimiento sugieren que la meta a 2013 será alcanzada antes de tiempo. Las cifras oficiales registran que en 2010 ya había 600 mil personas empleadas en industrias del sector TI, lo que representa un avance de 96%, tres años antes de lo esperado. Por otra parte, de acuerdo con el estudio Global Services Location Index 2011, de AT Kearney, México ocupa la sexta posición debido a su disponibilidad de capital humano y atractivo

80 < Política digital

Aunque la industria está ganando prestigio en materias de escala, madurez de procesos y volumen de exportaciones, se presentan todavía pendientes con respecto a suficiencia y pertinencia del capital humano –no obstante los 90 mil ingenieros que se gradúan cada año, la industria debe invertir todavía entre seis y nueve meses para complementar su formación y su capacidad para dominar el inglés. También es necesario fortalecer la capacidad de innovación de la industria, porque a pesar de que es muy sólida su oferta en desarrollo y mantenimiento de software hecho a la medida o de servicios basados en TIC, no es suficiente para desarrollar sistemas embebidos o para generar productos originales, por ejemplo. De ahí que debamos ver con interés y apoyar las iniciativas creadas recientemente por la Secretaría de Economía para fortalecer la existencia de fondos de capital semilla y de riesgo, así como el fortalecimiento de competencias –resultado del desarrollo del mapa de ruta en coordinación con ProMéxico–, pues estos cambios abonarán al crecimiento sostenido a largo plazo. Desde el inicio del Prosoft, era claro que el desarrollo de la industria no podría lograrse sobre la base de subsidios. En efecto, es necesario que el valor añadido local crezca para que la industria se arraigue en nuestro país. Ver artículo “México, buen destino de inversión para la industria mundial de TI”, en Política Digital No. 64, octubre-noviembre, 2011.

7


10

o

> Industria TI

aniversario

La industria de TI es transversal, ya que habilita muchas transformaciones en sectores muy disímbolos. Es también una industria generadora de valor y de competitividad, capaz de generar una gran cantidad de empleos bien remunerados, aunque, ciertamente, menos de los que la coyuntura ofrece, si se articulara un esfuerzo más agresivo, como el que han sido capaces de integrar los países contra los que competimos. En mi opinión, para concretar las oportunidades del entorno a favor de nuestro país, es preciso sumar a la voluntad del gobierno federal –y en especial, de la Secretaría de Economía– lo siguiente: • Un renovado esfuerzo de las entidades federativas y de las instituciones de educación, dispuestas a invertir en el mediano plazo, de manera constante, en la formación del talento local con capacidades internacionales, favoreciendo así un ecosistema caracterizado por incentivos –monetarios y no monetarios– para generar mayor valor local. • El replanteamiento de la participación del sector financiero en el fondeo de las empresas y proyectos de la industria. Aquí se requiere la participación de la banca, de los intermediarios no financieros y de fondos de capital para cubrir las necesidades de las empresas. Esta es una industria en crecimiento y un sector pagador; por lo cual, resulta tan impensable un crecimiento de gran escala en esta acti-

vidad sin financiamiento, como increíble la aversión del sector financiero para apoyarla. • La adecuada canalización y “garantía” de recursos presupuestales a mediano plazo para el desarrollo del Prosoft. Esto evitaría las interrupciones en el flujo de los recursos o asignaciones subóptimas, derivadas de la incertidumbre en la disponibilidad de los mismos. De cara a 2013 –año en el que culmina el periodo para el cual se establecieron las grandes metas del Prosoft–, corresponderá a las organizaciones empresariales y a las instituciones de educación e investigación realizar una evaluación del impacto y promover la renovación de esta política. Sólo nos resta confiar en que los servidores públicos a quienes corresponda decidir el establecimiento, modificación o término de una política pública específica para el desarrollo del sector, lo hagan sobre bases sólidas y convoquen a la suma de voluntades en beneficio de una más grande y mejor industria TI mexicana. n Sergio Carrera Riva Palacio es Director Ejecutivo del Fondo de Información y Documentación para la Industria (Infotec), centro público de investigación, innovación y servicios en TIC, perteneciente a la red de centros del Consejo Nacional de Ciencia y Tecnología (Conacyt). Fue Director General de Comercio Interior y Economía Digital en la Secretaría de Economía, donde se desempeñó como servidor público de 1997 a 2009, sergio.carrera@infotec.com.mx

Manténgase enterado de la transformación del sector público en México

Suscríbase sin costo a

Política digital www.politicadigital.com.mx

...y reciba semanalmente nuestro boletín electrónico

Contáctenos

para publicidad: publicidad@politicadigital.info

edición sesenta y cinco > 81


> Cómputo en la nube

Cloud computing un detonador para la competitividad en el país Por Rodrigo Gallegos y Cecilia Reyes-Retana

Para calcular cuánto ahorro puede ofrecer el modelo de cloud computing, el Instituto Mexicano para la Competitividad comparó el gasto en TI que realizan las dependencias gubernamentales y las empresas antes de migrar a “la nube” y después de hacerlo. Los resultados del estudio son sorprendentes

“C

loud computing” o “la nube”, como se conoce en español, es una nueva forma de aprovechar la infraestructura de cómputo existente que detona la competitividad de las empresas y transforma a los gobiernos. En un estudio que acabamos de realizar en el Instituto Mexicano para la Competitividad (IMCO) mostramos el impacto potencial de la adopción de cloud computing en México, tanto para el sector público como para el sector privado y la ciudadanía. El punto de partida del estudio fue definir cloud computing desde una perspectiva económica, ya que el impacto potencial de “la nube” surge del principio de optimizar la infraestructura de cómputo existente. De acuerdo con estimaciones de expertos en el tema, si la mayor parte de los servicios de cómputo que hay en Estados Unidos migraran a “la nube”, el aprovechamiento actual de los servidores en ese país, que es de 12%, podría pasar a 60%.1 Alfred and Morton, The Economics of Cloud computing: Addressing the Benefits of Infrastructure in the Cloud. Booz, Allen, Hamilton 2009.

1

82 < Política digital


10

o

> Cómputo en la nube

aniversario

Este “principio de eficiencia” hace que cloud computing sea un modelo basado en la demanda, tal como el servicio de agua en nuestro hogar: no tenemos que invertir en la tubería del sistema hidráulico donde vivimos o comprar una cantidad mínima del preciado líquido. Basta con abrir el grifo de la casa y pagar sólo lo que consumimos. “La nube” representa este mismo principio, pero para los servicios de cómputo. En términos más formales, “la nube” es un modelo de tecnología que muda los servicios de computación (software, plataformas o infraestructura) de un medio tradicional (computadora personal, centros de datos) a internet.2 En este sentido, los servicios en “la nube” se solicitan a través de Internet, y se pagan únicamente por el tiempo y el uso del servicio. El acceso a éste se puede hacer desde cualquier computadora, teléfono o medio con conexión a la Red. Con estas soluciones, una empresa pequeña puede competir con otra mucho más grande. El mejor ejemplo de esto sucedió hace unos meses en Brasil: una empresa de sólo tres empleados compitió con el gigante Ticketmaster para la venta de boletos en línea de un festival de rock. Esto fue posible gracias a que la microempresa no invirtió en infraestructura de cómputo para atender la demanda en línea de sus clientes el día de mayores ventas, sino que se concretó a rentar “espacio en los servidores” conforme a sus necesidades. En otras palabras, aumentó su capacidad de infraestructura los días con más demanda y disminuyó esta capacidad (y su pago) el resto del año. Para esta empresa brasileña, el ahorro no sólo radicó en los servidores, sino también en el personal necesario para administrarlos, las licencias de software para operarlos, la energía eléctrica y el espacio necesario para que funcionen. Con el propósito de dimensionar estos ahorros en México, el IMCO estimó el gasto de una empresa mexicana “tipo” antes de migrar a la nube y después de hacerlo. Se comparó el gasto de servicios generales de tecnologías de la información (TI) en empresas de 45 empleados para los servicios de correo electrónico, portal de colabora-

ción, servicio de mensajería instantánea empresarial, audioconferencia y videoconferencia, además de paquetería Office3. Para hacer un comparativo con los servicios cloud computing, se consideró la renta de Office 3654 que ofrece estos mismos servicios. La diferencia de los costos de operar un sistema antes y después de “la nube”, se resumen en la gráfica 1: Gráfica 1 Costos antes y después de la nube para empresa con aplicaciones Exchange + Share pt + Lync (costo anual en pesos)

CON NUBE

SIN NUBE 6 servidores $36,000

$216,000

6 licencias de servidores + 40 CAL** $24,000 $960

6 sistemas operativos por servidor $36,000

$182,800

$216,000

Share Point Online

Lync

Apps online $ 51,030** Admon Apps $ 360,000

$411,030

Ahorro 67% $837,450 c/empresa

Consumo de electricidad de 6 servidores $5,600

$33,600

Mantenimiento HW + aplicaciones Administración de aplicaciones $360,000

$600,000 **CAL es Client Access License y este costo se multiplica p p por los empleados en la oficina (45) ponderado p p por el número de PCs promedio por empleado (0.9)

Administración de servidores $240,000

Total

$411,030

Fuente: Elaboración propia con datos de Microsoft 2011.

Los hallazgos Como muestra la gráfica, la empresa tradicional que compra el equipo de TI para su operación gasta un millón 248 mil 400 pesos anuales por estas aplicaciones (incluyendo la inversión inicial de servidores de 216 2 Esta definición oficial se puede consultar en: http://csrc.nist.gov/ publications/drafts/800-145/Draft-SP-800-145_cloud-definition.pdf 3 Office web app, para el caso de servicios en nube. 4 Este paquete provee los servicios estándar que requiere cualquier empresa pequeña, cuyo costo fue proporcionado por Microsoft.

edición sesenta y cinco > 83


> Cómputo en la nube

Los tres documentos consultados fueron: 1. SaaS CRM Reduces Costs and Use of Consultants. Gartner Inc., 2008; 2. Alfred y Morton; The Economics of Cloud computing: Addressing the Benefits of Infrastructure in the Cloud. Booz, Allen, Hamilton, 2009; 3. Appirio Cloud computing Savings – Real or Imaginary? 2009.

5

84 < Política digital

zamos la estructura del presupuesto de TI 2011 de las principales instituciones del gobierno federal (41), de todos los gobiernos estatales (excepto Hidalgo)6 y de 110 gobiernos municipales. Las estimaciones muestran que el sector público ahorraría 1.7% del PIB del subsector si migrara a la nube. Entre las instituciones públicas federales que mayores beneficios podrían generar por adoptar el modelo de cloud computing están el Servicio de Administración Tributaria (tres mil 510 millones de pesos), Petróleos Mexicanos (mil 595 millones de pesos), el Instituto Mexicano del Seguro Social (879 millones de pesos) y la Secretaría de Educación Pública (627 millones de pesos). Ver gráfica 1. Gráfica 2 Ahorros en las instituciones del gobierno federal

4000 3500

3,510 3,5

3000

Millones de pesos

2500 2000 1,595

1500 879

1000

30

29

26

25

23

SENER

SSP

39

SEDESOL

SEMAR

57

SEMARNAT

63

SCT

69

SAGARPA

73

SSA

77

CAPUFE

99

SHCP

297

SEPOMEX

409

SEDENA

627

500

CFE

ISSSTE

SEP

IMSS

SAT

0 PEMEX

mil pesos, que representan el 17%). Este gasto no incluye los costos de las computadoras ni el de la conexión a internet, que son imprescindibles para ambos casos (con o sin nube). El ahorro en TI es muy revelador: alcanza el 67% en el primer año de operaciones, y casi 60% en los siguientes años, producto de los ahorros en servidores, los servidores espejo, las licencias para cada uno de éstos, las licencias de software para cada una de las herramientas consideradas por empleado, así como el costo de un administrador para los servidores y la energía eléctrica. En el IMCO estimamos que el ahorro económico por adoptar cloud computing en México podría representar el 0.31% del PIB nacional (38,653 millones de pesos), lo que equivaldría a incrementar el programa Oportunidades en casi 70%; esto es, aumentar la cobertura a 3.9 millones de familias mexicanas. Cerca de 75% del ahorro total, o el 0.23% del PIB, correspondería al sector privado, mientras que el 0.08% del PIB restante, al sector público. Para elaborar este cálculo se seleccionaron 351 empresas de seis sectores de la economía mexicana (instituciones de intermediación crediticia y financiera no bursátil; comercio al por menor en tiendas de autoservicio y departamentales; industria alimentaria; radio, televisión y otras telecomunicaciones; servicios educativos y actividades del gobierno) que representan entre el 50% y el 95% de los ingresos de dichos subsectores y se tomó como base la información del presupuesto que destinaron a TI en el 2011. Supusimos un ahorro de 25% en software, de 65% en soporte y mantenimiento, y de 30% en infraestructura de hardware (servidores) debido a que son los ahorros más conservadores de los documentos consultados5. En el caso de los gobiernos, utilizamos los mismos supuestos de ahorros y anali-

Fuente: IMCO con información de Microsoft.

Sin embargo, estas economías de escala no sólo se traducen en ahorros económicos y de energía eléctrica, sino también en mejores gobiernos, creación de empleos y un mayor acceso y acercamiento con los ciudadanos. Un ejemplo de cómo el modelo de cloud computing puede mejorar la capacidad del sector público para relacionarse con los ciudadanos es migrar el pago de impuestos a “la nube”, ya que esto prevendría el riesgo de que el sistema “se cayera” el último día de la declaración anual. Esto también evitaría las largas filas para pagar contribuciones en las oficinas gubernamentales, o recibir multas por incumplimiento. 6

No se conto con información de su gasto en TI.


10

o

> Cómputo en la nube

aniversario

Asimismo, el cloud computing puede facilitar las votaciones y la participación ciudadana en línea, así como compartir documentos por internet y que los ciudadanos puedan trabajar en éstos, con lo cual se promueve la transparencia y la rendición de cuentas.

Un “promotor” de nuevas empresas Contrario a lo que la mayoría piensa, el modelo de cómputo en la nube no genera desempleo –aún cuando reduce la necesidad de técnicos de mantenimiento para los servidores– debido a que estimula la creación de nuevas empresas. En un ejercicio del estudio realizado por el IMCO, estimamos una generación de 63 mil nuevos empleos, producto de la creación de mil 800 nuevas pequeñas y medianas empresas (PyMEs) en el país. Este resultado se obtiene una sola vez, (no es anual) al considerar una disminución de 1% en los costos fijos de entrada7 de las PyMEs. Además, el capital humano liberado por migrar al cloud computing se puede emplear en la generación de nuevas herramientas y servicios de TI –como por ejemplo plataformas o software para mejorar la colaboración entre empleados en “la nube”,– lo cual promueve la competitividad de las empresas y el crecimiento del país.

Otros beneficios colaterales Cloud computing también representa importantes ahorros en la emisión de gases de efecto invernadero debido al menor consumo de electricidad producto de un mejor aprovechamiento de los servidores existentes. Según estimaciones del IMCO, las empresas medianas y grandes en México que migran su correo electrónico, calendario, contactos y su portal de colaboración a “la nube” ahorran una cantidad de energía eléctrica equivalente a casi 680 mil toneladas de dióxido de carbono equivalente al año. Es como si se retiraran 90 mil vehículos automotores de circulación. 7 Este fue el estimado más conservador de los que existen en la literatura sobre este tema

¿Cómo promover el uso de este modelo? El gobierno juega un papel preponderante para influir en la adopción de cloud computing en el país. Además de actuar como un agente de cambio y enseñar con el ejemplo, debe promover el desarrollo de la banda ancha y establecer un marco jurídico adecuado para la implementación de “la nube”. En efecto, México necesita una estrategia nacional para aumentar la cobertura y el uso de banda ancha de forma agresiva, medible y comprometida, al más alto nivel público y privado. Una parte de esta estrategia se encuentra redactada en la Agenda Digital Nacional. La otra parte se deberá consensuar con las autoridades y el sector privado para aprovechar nuevas frecuencias – como las de la televisión abierta para transmitir datos– o abrir el sector de telecomunicaciones a la inversión extranjera. Y es que para hablar del desarrollo de “la nube” en nuestro país, lo primero que debe atenderse es la banda ancha. En cuanto al marco jurídico, es muy importante fomentar la competencia entre proveedores de “la nube”. Esto se puede lograr mediante la adopción de estándares internacionales y garantizando la cooperación internacional. De esta manera, la información podrá viajar libremente entre países y existirá una protección real contra actos ilegales en la red. Como agente de cambio, el gobierno debe migrar la mayor cantidad de servicios de cómputo a “la nube”, pues esto le permitirá ahorrar gran cantidad de recursos y mejorará la relación gobierno/ciudadanos, así como la relación entre gobiernos y entre ciudadanos. Para que esto ocurra, las autoridades gubernamentales deberán promover la neutralidad tecnológica, difundir información sobre la calidad y precios que ofrecen los proveedores, y emitir recomendaciones para migrar a “la nube”, entre otras medidas. En conclusión, creemos que cloud computing representa una enorme oportunidad para mejorar la competencia económica y promover la competitividad del país de una forma simple y a menor costo, que puede beneficiar la vida de gran cantidad de personas “de un solo golpe”. En ese sentido, esperamos que este artículo sirva tanto a los actuales gobernantes como a los nuevos aspirantes a gobernar en el 2012, para que consideren la relevancia de esta modalidad de ahorro para el sector público y la posibilidad de transformar la relación con los ciudadanos. n Rodrigo Gallegos es Director de Cambio Climático y Tecnología en el Instituto Mexicano para la Competitividad, rodrigo.gallegos@imco. org.mx; Cecilia Reyes-Retana es Analista en el mismo Instituto, cecireyesretana@gmail.com

edición sesenta y cinco > 85


> Gobiernos abiertos

Una conversación...

De gobiernos abiertos y otras promesas Por Miguel Pulido y Jorge Soto

Con un tono fresco y entusiasta, dos representantes de organizaciones de la sociedad civil –Fundar y Citivox– nos comparten su correspondencia virtual sobre temas de transparencia y apertura de datos en manos de los gobiernos Hola, Jorge, ¿Cómo estás? Hoy estuve pensando en nuestra conversación sobre la interacción del gobierno con la sociedad civil a través de los nuevos medios digitales y todo el potencial que ofrece, pero también en los riesgos que pueden existir si su uso se presta a la simple simulación. Creo que si no se le da la atención y el tratamiento adecuados, muy pronto el gobierno abierto será simplemente otro término vacuo. Algo así como populismo digital. Miguel Ps. ¿Conoces a estos? http://www.frontlinesms.com

Qué onda, Miguel. Creo que tienes razón. El gobierno abierto debe ser una filosofía centrada en el ciudadano. Es una estrategia que sugiere que los mejores resultados se dan cuando se crean alianzas entre ciudadanos y gobiernos, en todos los niveles. Sus objetivos son la eficiencia, el manejo de la información, la transparencia y el involucramiento del ciudadano. Sus consecuencias son que incrementa la calidad de los servicios, aumenta la legitimidad, reduce costos y puede crear un capital social. Pero no estoy seguro que los gobiernos estén comprendiéndolo bien, lo que, por supuesto, incluye al caso mexicano. Jorge Miguel Pulido es Director Ejecutivo de Fundar, Centro de Análisis e Investigación, A.C., miguel@fundar.org.mx Jorge Soto es Cofundador de Citivox, jorge.soto@citivox.com

86 < Política digital

Ps. La plataforma de frontline que me enviaste es muy buena. De hecho, la hemos usado para la recepción de reportes por SMS. Mira esta otra: http://www.datamasher.com


10

o

> Gobiernos abiertos

aniversario

Jorge, para ser franco, no creo que exista siquiera un conjunto de elementos esenciales autoidentificables para lo que es gobierno abierto. O, al menos, no son del dominio público. Si me apuras, tampoco están muy claras sus fronteras con otros términos ¡Hola! como e-government o transparencia focalizada. En Fundar estamos metidos en el Una última característica de un gobierno abierto es que precisamente conecta a tema –aunque no tanto desde la perspeclos ciudadanos y a los gobernantes a través de datos abiertos, innovación abierta tiva técnica–, pero muchas veces resulta y diálogo abierto (ahí radica la diferencia con el e-government o el simple uso de difícil entender el alcance y magnitud de tecnologías Web). un gobierno abierto tanto para los ciudaPor ello, no es lo mismo tener información disponible –tal vez en formatos danos como para los mismos funcionarios PDF o en una página Web–, que información accesible que puede manejarse y públicos. Después de leer tu correo confirmo compararse para fomentar mejoras, aumentar el profesionalismo y generar ciuque la idea tiene un ADN propio. Pensandadanos informados. do desde la trinchera de la sociedad civil, Pero ojo. La tecnología por sí sola no crea ningún impacto. Los datos que se creo que –sumado a lo que señalas– un nos presentan diariamente como una sobrecarga cognitiva deben ser atenuados. gobierno abierto es aquél que abraza y El reto de la recepción de información está en la representación y visualización de fomenta la transparencia, que estimula datos. En estos tiempos de Twitter, debemos pensar en 140 caracteres que sean la rendición de cuentas y la participade fácil entendimiento para todos. Es por eso que la aplicación de la tecnología, ción ciudadana usando la innovación alimentada con información procesada y aplicada al contexto, funciona como y las nuevas tecnologías para establecer un medio entre el gobierno y el público en general. Ese es su verdadero potencial. un diálogo entre ciudadanos y gobierno. Ps. Me voy a Perú a presentar este proyecto http://www.promesometro.pe que hici¿Cómo ves si armamos un “wikilinks” de mos con Proética ¿Crees que refleje algún sentido de comunidad o de transparencia? páginas e información relevante relacionadas con gobierno abierto? J. M. Ps. Ya te estoy empezando a creer. La tecnología al poder. ¡Hola!

¡Felicidades, Jorge, el sitio está buenísimo! Esa es mi interpretación de una “segunda generación de transparencia”, esto es: que integre información sustancial, relevante para al menos un propósito público de gran escala, útil para al menos una audiencia definida, presentada en formatos de fácil uso y con mucha data disponible para los que quieren más. Lo que me parece destacable es que lo haya hecho una organización de sociedad civil en alianza con tu empresa. Eso confirma mi convicción de que, en muchos casos, los gobiernos no son tan abiertos, pero no por falta de recursos sino de voluntad política.

Lo interesante de la tecnología es el potencial que ofrece para modificar la manera como se hacen las cosas. El gobierno también debe percibir esta nueva utilización de recursos como una ventaja para reducir su costo de oportunidad con una mejor utilización de recursos. Este resultado proviene de información clara que conlleva a políticas más eficientes y efectivas. Es poco común que un ciudadano se despierte por la mañana con la intención de explorar datos y hacer visualizaciones, pero si se le proporcionan herramientas concretas que le permitan expresar sus necesidades y comunicarse, lo va a hacer. Por ejemplo, que pueda reportar una queja desde su celular o pueda comunicarse con su diputado o senador y entender sus iniciativas a través de internet. Es por esto que los datos se deben usar para satisfacer proyectos o acciones concretas y para crear comunidades que fomenten la participación.

Me interesa mucho tu opinión sobre el alcance real de su uso.

El poder de la tecnología está en el potencial de su uso estratégico, no en su simple aplicación.

Miguel

Jorge

edición sesenta y cinco > 87


> Gobiernos abiertos

Wikilink “OpGob” Sitio

Fuente

Comentario

Open Data Kenya

http://www.opendata.go.ke

Excelente desagregación de información y numerosas bases de datos.

Gobierno y datos abiertos del País Vasco

http://www.irekia.euskadi.net/ http://opendata.euskadi.net/w79-home/es

Dos páginas con información tanto de datos abiertos como de gobiernos abiertos. Aquí se explican claramente ambos conceptos.

Municipalidad de Lima

http://www.munlima.gob.pe/datos-abiertos-mml.html

Este sitio actualiza en forma periódica bases de datos sobre la gestión municipal.

Open Government Open Data

http://opengovernmentdata.org/

Sitio especializado de la Open Knowledge Foundation, con ligas a Manuales sobre Datos y Gobiernos Abiertos.

Portal de datos de gobierno de Chile

http://www.data.gob.cl/

Cátalogo de datos de gobierno en distintos formatos accesibles.

Plataforma de gobierno abierto de Chile

http://www.modernizacion.gob.cl/

Plan estratégico de gobierno digital, participación ciudadana e ideas para mejorar el estado.

Desarrollando América Latina

http://desarrollando.ciudadanointeligente.cl

Primer concurso para desarrollar soluciones en seis países de América Latina realizado de forma simultánea.

Fuente: Elaboración de los autores.

Hola, Jorge, Pues sí. El hecho de que muchos gobernantes no se hayan sumado a esta nueva tendencia es un problema de antropología, no de tecnología. Tocas un punto realmente destacado. Como comentas, los resultados pueden ser muy positivos, pues la Con frecuencia, los gobernantes se tecnología logra fortalecer lazos y es un espacio donde la sociedad civil sienten amenazados por datos que no se puede redefinir. La comunidad de experiencias compartidas que se va pueden controlar o por las interprea crear a través de la suma de transparencia, participación y accesibitaciones “maliciosas y perversas” que lidad, invitan al ciudadano a formar parte del proceso de gobernanza, pueda hacer la ciudadanía con esa inhaciendo efectivas sus capacidades políticas. formación. Entonces suceden dos cosas: A propósito de burocracias no modernizadas, hay una anécdota 1) justifican su negativa a implementar que lo ejemplifica: cuando Aeromexico cambió de sistema y todo dejó medidas debido a los “altos costos” o a de funcionar, en la Profeco recibieron cerca de 90 mil menciones y la “imposibilidad tecnológica”; o 2) de quejas en Twitter, pero ninguna por la vía tradicional (para ellos, la plano nos dan toda la información ya “formal”). Obviamente no pasó nada. ¿A poco no es un buen ejemplo procesada y sin margen de interpretade los “procesos del siglo XX con necesidades del siglo XXI”? ción de nuestra parte. Ya por último, ciertamente el ideal es alcanzar un gobierno particiEn todo caso, ninguna de estas alterpativo donde los ciudadanos se sientan incluidos y con información acnativas me parecen aceptables. Lo cierto cesible. Pero como dices, no es que las oportunidades desaprovechaHola, Miguel, está fácil vencer el miedo o das por usar las tecnologías afectan la la ignorancia de los políticos. calidad de la democracia y, en muchas Creo que los nuevos medios y la tecnología ocasiones, la vida de las personas. no son la solución, pero sí son un nuevo esJorge Además, tenemos un déficit en térmipacio donde la sociedad civil se puede redefinos de actualización y modernización de nir y organizarse, coordinarse e interactuar procesos, uso de instrumentos de comunicación y herramienentre ellos y con sus gobiernos en tiempo real tas tecnológicas en la “tramitología”. Si te fijas, los procesos y establecer un nuevo diálogo. burocráticos son esencialmente comunicativos, la forma de comunicarse ha cambiado, pero la formalidad burocrática Un abrazo, sigue muy rezagada. M.

88 < Política digital

Jorge


Un tsunami de información  

El diluvio de datos

Advertisement