Lavado de activos virtual bitcoin tomo ii on line3

Page 1

HEINZ ORTIZ JARA PEDRO DANIEL FLORES VILLEGAS ULISES PEDRO FLORES ROSAS

TEORIA Y PRACTICA DEL USO VIRTUAL EN EL LAVADO DE ACTIVOS II - TOMO II

2018


INDICE LA TEORÍA DEL DINERO: DINERO-MERCANCÍA, DINERO “IDEAL” Y DINERO “REAL” EL DINERO, CONDICIÓN DE EXISTENCIA DE LAS MERCANCÍAS EL “DINERO IDEAL” (LA UNIDAD DE CUENTA) 15 EL “DINERO REAL” (EL MEDIO DE PAGO) 16 EL “SALTO MORTAL DE LA MERCANCÍA” (LA POSIBILIDAD DE CRISIS) 17 UNA TEORÍA INCOMPLETA PERO ESPECÍFICA 19 AMONEDACIÓN Y RÉGIMEN MONETARIO 22 LA HISTORIA DEL DINERO DE LA PIEDRA ARENISCA AL CIBERESPACIO LA REINVINDICACION DEL DINERO 24 ¿FIN DEL DINERO EN EFECTIVO? LOS TIPOS DE INTERÉS VUELVEN A DAR VIDA A MONEDAS Y BILLETES 26 LA 'REINVENCIÓN' DEL DINERO 28 ¿QUÉ ES LA TECNOLOGÍA DE CONTABILIDAD DISTRIBUIDA O BLOCKCHAIN? 31 TIPOS DE BLOCKCHAIN 33 RESCATE EN BITCOINS, GARANTÍA DE ANONIMATO PARA CIBERATAQUE U OTROS DELITOS 37 CÓMO UNO DE LOS PRIMEROS CIBERATAQUES DE ORIGEN RUSO DE LA HISTORIA TRANSFORMÓ A UN PAÍS 40 CIBERATAQUE, MONEDAS VIRTUALES Y LAVADO DE ACTIVOS 50 ¿QUÉ ES UNA MONEDA VIRTUAL? 51 ¿QUÉ SON LOS BITCOINS? CARACTERÍSTICAS 51 UBS, SOBRE EL BITCOIN: "ADVERTIMOS CONTRA ESTE PRODUCTO, NO ES NI VALIOSO NI SOSTENIBLE" 52 NARRATIVAS POPULARES SOBRE ESTA MONEDA 56 EL LADO BUENO DE LAS MONEDAS VIRTUALES 56 ALGUNOS CAMBIOS EN LAS REGULACIONES A NIVEL MUNDIAL 57 LA MASACRE QUE SE PREPARA EN EL MERCADO DE LAS CRIPTOMONEDAS MATTHEW LYNN 58 REGULACIÓN EN ARGENTINA 61 FORO ORGANIZADO POR LA CÁMARA BRITÁNICA 63 THE WALL STREET JOURNAL LA BANCA TRADICIONAL HUYE DE LOS BITCOIN 64 NUEVAS AMENAZAS VIRTUALES ALD.COM 64 HONG KONG USARÁ RECONOCIMIENTO FACIAL EN CAJEROS AUTOMÁTICOS 68 OJO CON AUGE DEL BITCOIN O MONEDA VIRTUAL, PUEDE TERMINAR EN UN LÍO DE LAVADO DE ACTIVOS 69 ESQUEMA DE UN SINCROTRÓN 70 ELEMENTOS MAGNÉTICOS 75 LÍNEAS DE LUZ SINCROTRÓN 76 ESTUDIO DE MATERIALES 78 ONDULADOR 79 PRINCIPIOS Y PROPIEDADES 80 ONDULADORES EN SINCROTRONES 81 LÁSERES DE ELECTRONES LIBRES 81 APLICACIONES 82 LÁSER DE ELECTRONES LIBRES 82 CREACIÓN DEL HAZ LÁSER 83


ACELERADORES 85 USOS Y APLICACIONES 86 USOS MILITARES 86 LÁSERES DE RAYOS X ATÓMICOS 88 LÁSER DE CRISTAL LÍQUIDO 88 FUNCIONAMIENTO 89 LCL VS LÁSERES SEMICONDUCTORES 91 PANTALLA LÁSER 92 FILTRO DE FOURIER Y COMBINACIÓN DE COLORES 94 ESPEJO DE ESCANEADO 94 TECNOLOGÍA NECSEL 95 LED 96 DESCUBRIMIENTO Y PRIMEROS DISPOSITIVOS 97 DESARROLLO COMERCIAL INICIAL 100 LED AZUL 101 LED BLANCO Y EVOLUCIÓN 102 ÍNDICE DE REFRACCIÓN 109 LA EFICIENCIA Y LOS PARÁMETROS OPERACIONALES 110 COLORES Y MATERIALES 115 AZUL Y ULTRAVIOLETA 117 LEDES BASADOS EN FÓSFORO 124 CONSIDERACIONES DE USO 137 VENTAJAS 139 INCONVENIENTES 141 ILUMINACIÓN SOSTENIBLE 148 CONSUMO DE ENERGÍA 148 FUENTES DE LUZ PARA SISTEMAS DE VISIÓN ARTIFICIAL 149 MEDICINA Y BIOLOGÍA 150 DIAGNÓSTICO Y VISIÓN 151 TERAPIA 152 INDUSTRIA 152 OTRAS APLICACIONES 153 AMOLED 154 CÉLULAS FOTOVOLTAICAS LISTAS PARA SU USO 165 CÉLULAS DE SILICIO AMORFO 166 EL SEMICONDUCTOR FBI 169 LAS TRES GENERACIONES DE CÉLULAS FOTOELÉCTRICAS 172 CÉLULA SOLAR DE TERCERA GENERACIÓN 173 PRIMERA CÉLULA SOLAR MODERNA 181 ENERGÍA SOLAR ESPACIAL 182 PRIMERAS APLICACIONES TERRESTRES 186 APLICACIONES DE LA ENERGÍA SOLAR FOTOVOLTAICA 190 FOTOVOLTAICA INTEGRADA EN EDIFICIOS 195 PANELES SOLARES FOTOVOLTAICOS 197 AUTOCONSUMO Y BALANCE NETO 220


COLECTOR SOLAR TÉRMICO 230 PRODUCTORES DE PANELES 233 RECICLAJE DE PANELES 238 PDVSA PODRÍA PERDER 20 MILLONES DE DÓLARES EN TRIBUNALES VENEZOLANOS 238 EL BLANQUEO DE CAPITALES O LAVADO DE DINERO ALGUNOS EFECTOS EN LA ECONOMÍA Y EN LA SOCIEDAD 260 ARABIA SAUDITA EXIGE 6.000 MILLONES DE DÓLARES A UN PRÍNCIPE PRESO POR CORRUPCIÓN 264 ¿REALIDAD O FICCIÓN? MONTAÑA DE DINERO POR CASO LAVA JATO SORPRENDE A BRASILEÑOS 267 EL LAVADO DE DINERO ES EL DELITO MÁS DIFÍCIL DE PROBAR: EXPERTOS 268 DETENCIÓN DOMICILIARIA A EMPRESARIO IMPLICADO EN LAVADO DE ACTIVOS PARA ODEBRECHT. 270 ¿CUÁL ES LA RELACIÓN ENTRE "LAVA JATO" Y EL ESCÁNDALO DE ODEBRECHT? 271 SENADO ESTADOUNIDENSE DISCUTE DEFINICIÓN DE CRIPTOMONEDAS PARA LEY ANTI-LAVADO DE DINERO 274 ETERNAS ‘PIRÁMIDES’ 275 EL BITCÓIN IRRUMPE EN EL MERCADO DE FUTUROS 277 ¿QUÉ ES UN RANSOMWARE? 289 EL JOVEN DE 22 AÑOS QUE SE HIZO "HÉROE" AL DETENER EL VIRUS QUE SECUESTRÓ COMPUTADORAS EN UNOS 150 PAÍSES 297 A ESTARÍA PROYECTANDO EMITIR EL "CRIPTORUBLO" 308 SE TRATA DEL CASO DE LAVADO DE DINERO MÁS GRANDE DEL MUNDO COMPAÑÍA BASADA EN COSTA RICA ACUSADA DE MILLONARIO LAVADO DE DINERO 309 LAVADO DE DINERO USA TECNOLOGÍA DE PUNTA 312 VULNERABILIDAD DE ESTA MONEDA VIRTUAL PARA LEGITIMAR CAPITALES 322 ASÍ UTILIZAN LOS CIBERCRIMINALES EL BITCOIN PARA BLANQUEAR EL DINERO PROCEDENTE DE UN DELITO 332 ORGANISMOS ESTATALES A LOS CUALES EL JUEZ Y EL FISCAL PUEDEN PEDIR INFORMACIÓN EN CASOS DE LAVADO DE ACTIVOS. 348 LA INVESTIGACION FINANCIERA EN CASOS DE LAVADO DE ACTIVOS 355 DOS AGENTES DEL FBI Y EL SERVICIO SECRETO DE USA DETENIDOS POR ROBO DE BITCOINS 359 MENTES MÁS BRILLANTES EN LA TECNOLOGÍA. 361 BOMBA FORK 372 MALWARE POR CATEGORÍAS 375 PROGRAMAS ANTI-MALWARE 379 CHUPONEO EN EL PERU 400 OREJAS DEL SISTEMA 411 MANIPULAR GENES PARA CURAR 515 MADURO ANUNCIA CREACIÓN DE CRIPTOMONEDA EN VENEZUELA 517 JOAN MELÉ, PROMOTOR MUNDIAL DEL MODELO DE BANCA ÉTICA: "CHILE VA A SER EL PRIMER PAÍS EN LATINOAMÉRICA QUE CREE SU BANCO" 532 LA MONJA QUE ENSEÑA A AHORRAR A LOS MÁS POBRES DE CALI 536 "EL BITCOIN PODRÍA SOBREPASAR EL USO DEL ORO", PRONOSTICAN LOS 544 CRISTINA ELISABET FERNÁNDEZ - CRISTINA KIRCHNER 549


CASACIÓN CONFIRMÓ EL PROCESAMIENTO DE TRES HIJOS DE BÁEZ POR LAVADO DE ACTIVOS 594 ARGENTINA EXPANDE EL CONTROL MONETARIO AL BITCOIN 597 BRASIL CORRUPCIÓN EMPRESAS EN PARAÍSOS FISCALES POSEEN 2.700 MILLONES EN INMUEBLES EN SAO PAULO. EN FACEBOOK COMPARTE 607 ECOTEVA EN FISCALÍA POR LAVADO DE ACTIVOS 610 MÉXICO OMITE INVESTIGAR LAVADO DE DINERO VÍA BITCOINS 619 LA TECNOLOGÍA JAQUEA LA LUCHA CONTRA LAVADO DE ACTIVOS 628 LA POLICÍA DE ALEMANIA RECIBE HERRAMIENTAS CONTRA LA ENCRIPTACIÓN DE MENSAJES 632 LA AMENAZA DE LAS CRIPTOMONEDAS DARÁ LUGAR A LA INTRODUCCIÓN DE MONEDAS DIGITALES RESPALDADAS POR EL ESTADO, CEO DE CITIGROUP 638


PRESENTACIÓN La rendición de cuentas y la transparencia en las finanzas pùblicas para reducir la corrupción con los avances tecnológicos se permite acrecentar extraordinariamente en ubicar el dinero negro que circula en la sociedad y el mundo, por ejemplo, si un gobierno decide construir una carretera, puede determinar como se gasta cada dólar, identificar a los usuarios de los fondos y asegurarse que únicamente los que están autorizados, lo hagan para los fines previstos. Las investigaciones para detectar el fraude y corrupción que ahora demoran tiempo, ahora se realizan simplemente pulsando un botón y a una fracción del costo, lo que es importante, este tipo de seguimiento financiero desalienta los sobornos, que oscilan en millones y billones de dólares anuales, es decir aproximadamente el 2 o el 3% del PBI mundial. La adopción de una criptomoneda, moneda digital que emplea criptografía para dar seguridad a las transacciones como forma de pago en un proyecto, permite la identificación de cada usuario de la moneda, a diferencia de las formas de pago tradicionales como los billetes, monedas o contratos. Si bien las criptomonedas màs populares como el bitcoin, son anónimas y solo utilizan una clave para identificar al usuario, es posible incluir información personal como el número de documento de identidad para que dejen de serlo. El dinero con alas ya es una realidad en la intermediación financiera, los gobiernos e instituciones pueden utilizarlo para reducir la volatilidad. La adopción del blakchaing ayuda a rastrear el uso de las criptomonedas, en una lista de constante crecimiento de transacciones efectuadas con criptomonedas y registradas cronológicamente, es muy similar a un trabajo de mineros, que se adhieren a un protocolo para validar sus bloques. A diferencia de lo que ocurre con el dinero tradicional, la ausencia de anonimato y la rigurosa trazabilidad dificulta la corrupción con sus propias características que usando tecnología etereum, una plataforma de software de código abierto basada en el uso de cadenas de bloques que permite la creación de diferentes nuevos tipos de criptomonedas. Por ejemplo, el cripto kuelap es una billetera virtual que debería instalarse como moneda para america latina, que no necesita una cuenta bancaria, lo que representa una ventaja en los países en desarrollo con escaso acceso a los servicios financieros, ya que los bancos por su intermediación, portes, cobran en forma usurera y arbitraria a sus usuarios. El objetivo es que la trancision de la criptomoneda a la moneda fiduciaria se produzca lo mas cerca posible del beneficiario del dinero, es decir, se encuentra acuñada en sus recursos naturales y esto permitirá que si es un país minero, el oro es el fundamento, asì como el petróleo y gas de esta moneda, de esta manera se previene los grandes fraudes y la corrupción mundial sobre los costos del valor agregado a los recursos naturales debiendo industrializarlo en las zonas de origen, y los fondos fiduciarios de organismos internacionales deberán tener un circuito de préstamo, donación del grupo a los receptores o fondos públicos por lo que al apreciar en el presente segundo tomo del Libro Lavado de Activos On Line, la intención para con los usuarios al utilizar esta moneda virtual, donde no existe la intermedicaciòn de persona natural o jurídica en las transacciones jurídicas por los criptohabitantes, ello genera confianza y facilita gestiones que son fundamentales para el nucleo del proceso de regulación para implementar de esa forma una factura de compra y venta para las operaciones con criptomoneda, pero es también motivo que


las criptomonedas y la tecnología se han vinculado a la red de corrupción y crimen organizado en lavado de activos. Descripciòn que se realiza en el grupo de estudios económicos de la unidad de investigación de prensa del diario respuesta, integrados por los coautores que sacuden conciencias e ilustran almas desde el punto teorico asì como la praxis del sistema financiero moderno. Lo ocurrido con ODEBRETCH solo es una señal en el nivel de corrupción mundial, que viven las naciones, hasta con intervenciones militares que a sangre y fuego podemos descubrir que solo 1% de la población mundial, acapara el 82% de la riqueza, es decir, 50% de la población mundial està mas pobre y cada año la riqueza de los multimillonarios se incremente en un 13% mientras que los salarios de los trabajadores llegan a un incremento del 2%. En Amèrica Latina 10% de la población acapara el 68% de la riqueza. Si aplicaramos la Criptomoneda Kuelap con la riqueza de los multimillonarios latinoamericanos, sería suficiente para acabar con toda la pobreza monetaria de un año de America Latina y garantizaríamos que los ricos paguen los impuestos, así como también se garantizarìa establecer un salario digno para los trabajadores y trabajadoras.



LA TEORÍA DEL DINERO: DINERO-MERCANCÍA, DINERO “IDEAL” Y DINERO “REAL” Publicado por Antonio Olivé

¿Quién de nosotros no ha escuchado que no vale la pena protestar, ni hacer huelgas ni ir a manifestaciones?, que no vale para nada, que las cosas no cambian…; pues a veces pocas, eso si la realidad pone a cada uno en su sitio. Gracias a la lucha continua y mantenida por el pueblo de Madrid, han conseguido paralizar la privatización de la sanidad pública y de rebote, han propiciado la dimisión del consejero de turno y le anota una importante derrota al PP. Si se lucha se puede o no ganar, si permaneces como un vegetal, desde luego que no. Por otro lado, acogemos con gran regocijo las luchas internas del PP (con un poco de suerte, explotan en mil pedazos). De vuelta al marxismo, coincidiremos que el núcleo central de la teoría económica de Marx consta de tres estudios: un análisis sobre el valor, un análisis sobre el dinero y un análisis del capital y de la plusvalía. Nuestra entrada de hoy se centra en el segundo, en el tema del dinero a través del trabajo de Ghislain Deleplace. ¿Dispuestos?… Salud. Olivé LA TEORÍA DEL DINERO: DINERO-MERCANCÍA, DINERO “IDEAL”, DINERO “REAL” Ghislain Deleplace La teoría monetaria atribuida generalmente a Marx descansa sobre la idea según la cual el dinero es una mercancía especial . Se sostendrá aquí que Marx proporciona argumentos para considerar el dinero como una condición de la existencia de las mercancías sin que ella misma lo sea. El dinero se presente entonces como unidad de cuenta (“dinero ideal”) y medio de compra (“dinero real”). Esta teoría monetaria aún permanece inacabada pero es específica. El dinero-mercancía El punto de partida del análisis es el papel del dinero en la homogeneización de los trabajos privados. Este análisis lleva a un estudio de las “formas del valor” donde Marx intenta la integración del dinero en la teoría del valor.

Dinero y heterogeneidad de los trabajos El dinero es para Marx aquello que, en el intercambio, permite hacer conmensurables las mercancías heterogéneas a través de sus valores de uso y, por tanto, se trata de hacerlas existir


como magnitudes de valor. Dado que a la pareja valor de uso/valor Marx le hace corresponder la pareja trabajo concreto (privado)/trabajo abstracto (social), el dinero aparece también como lo que permite hacer conmensurables los trabajos privados heterogéneos y, por lo tanto, dichos trabajos aparecen como cantidades de trabajo social. Pero esto es una consecuencia de ello, y no su causa. A pesar de la importancia que Marx atribuye al trabajo como “sustancia” del valor, la constitución de la unidad social (el valor) se hace a través de la evaluación de las mercancías en dinero en el momento del intercambio, y no por la evaluación de los trabajos en dinero cuando estos se intercambian en la relación salarial. La prueba es que el dinero es introducido por Marx desde el análisis del intercambio, en el capítulo 1 de El Capital, mucho antes de la introducción del salario (que sólo se hace en el capítulo 6). Se trata de una diferencia evidente con Ricardo. En la agregación de las distintas cantidades de trabajo incorporadas en las mercancías, Ricardo encuentra también el problema de la proporcionalidad del trabajo: las horas proporcionadas por los diferentes trabajadores no deben ser contabilizadas de la misma manera. Ricardo resuelve este problema, después de Smith, suponiendo que la escala dada de salarios constituye una aproximación aceptable de la jerarquía de los trabajos : si a un trabajador se le paga dos veces el salario de base, la hora de trabajo que el proporciona debe ser contabilizada por el doble de la hora ordinaria. Es pues la relación salarial misma la que proporciona los diferentes trabajos. Esto sucede de manera distinta en Marx: esta tarea incumbe, no al intercambio de los trabajos sino al intercambio de sus productos; y el dinero que es el instrumento de esta manera social particular de contar el trabajo empleado en la producción de un objeto desempeña este papel como medio de intercambio general y no como medio de pago de los salarios. Pero al mismo tiempo se tiene el presentimiento que la referencia al trabajo ya no es necesaria para la comprensión del dinero, como tampoco lo es para la comprensión del valor. Es lo que se verificará con las dificultades encontradas por Marx para caracterizar el trabajo del productor y de lo que es el dinero por excelencia: el oro. En el estudio del intercambio en general, considerado como relación social, que puede descubrirse la naturaleza del dinero, y no en el análisis de las características del trabajo, cualquiera sea su forma (asalariada o no). Ahora, es precisamente este rol del dinero para expresar el valor de las mercancías en las transacciones que, según Marx, los economistas (incluso los mejores) han sido incapaces de analizar: Una de las fallas fundamentales de la economía política clásica es que nunca logro desentrañar, partiendo del análisis de la mercancía y más específicamente del valor de la misma, la forma del valor, la forma misma que hace de él un valor de cambio. Precisamente en el caso de sus mejores expositores, como Adam Smith y Ricardo, trata la forma del valor como cosa completamente indiferente, o incluso exterior a la naturaleza de la mercancía. Ello no solo se debe a que el análisis centrado en la magnitud del valor absorba por entero su atención. Obedece a una razón más profunda. La forma del valor asumida por el producto del trabajo es la forma más abstracta, pero también la más general, del modo de producción burgués, que de tal manera queda caracterizado con tipo particular de producción social y con esto, a la vez como algo histórico. Si nos confundimos y la tomamos por la forma natural eterna de la producción social, pasaremos también por alto, necesariamente, lo que hay de específico en la forma de valor y por tanto en la forma de la mercancía, desarrollada luego en la forma de dinero, la de capital .


Se observará que para Marx, la debilidad de los economistas clásicos reside en su incapacidad de “desarrollar” una teoría del valor de cambio a través de una teoría monetaria. El estudio de ésta, tanto antes de Marx como después, confirma lo acertado de este punto de vista. Sin embargo, es necesario preguntarse si Marx tuvo más éxito en este “desarrollo”. En todo caso Marx concede a esta cuestión una atención mucho más marcada que sus predecesores o sucesores (con la excepción notable de Keynes), ya que su teoría del dinero aparece desde las primeras páginas de El Capital, con el análisis de las “formas del valor”. Las “formas del valor” Marx introdujo el dinero en la teoría del valor examinando sucesivamente las diferentes “formas” bajo las cuales el valor de una mercancía se manifiesta. Una “forma del valor” es la forma concreta que ese valor adopta en el intercambio, como la imagen de un cuerpo que se refleja en un espejo, que no es más que el valor de cambio de la mercancía, y la distinción entre estas diferentes “formas” se refiere simplemente a lo que sirve para medir este valor de cambio. Marx distingue cuatro “formas”: La “forma simple o accidental”: el valor de cambio de i es una cantidad de una mercancía j cualquiera contra la cual ella se cambia. La “forma desarrollada”: el valor de cambio de i es la serie de las cantidades de las mercancías 1 … j … n contra las cuales ella se cambia: El valor de una mercancía, por ejemplo el lienzo, queda expresado ahora en otros innumerables elementos del mundo de las mercancías. Todo cuerpo de una mercancía se convierte en espejo del valor del lienzo . La “forma general”: ahora son los valores de cambio de las mercancías 1 … j … n que son medidos por cantidades de i, que es su unidad de medida común o “equivalente general”: las mercancías se manifiestan ahora no sólo como cualitativamente iguales, como valores en general, sino, a la vez, como magnitudes de valor comparables cuantitativamente. Como aquellas ven reflejadas sus magnitudes de valor en un único material, en lienzo, dichas magnitudes de valor se reflejan recíprocamente, unas a otras . La “forma dinero u oro”: el valor de cambio se convierte en el precio monetario; el “equivalente general” de todas las mercancías ya no es un mercancía i arbitraria, sino esta mercancía que la sociedad ha consagrado como dinero, el oro: La forma IV, al contrario, no se distingue en nada de la forma III, si no es en que ahora, en vez del lienzo, es el oro el que reviste la forma de equivalente general. El progreso consiste tan solo en que ahora la forma de intercambiabilidad general directa, o la forma de equivalente general, se ha soldado de modo definitivo, por la costumbre social, con la específica forma natural de la mercancía oro (p.85-86). ¿En qué difiere este análisis de las “formas del valor” de la relación entre el valor y el dinero de los economistas clásicos? Difiere en un aspecto importante: Tanto en Smith como en Ricardo, el problema de la medida del valor de cambio (el patrón) es separado del problema del medio de cambio (dinero)(3). Si el primer problema es esencial para la elaboración de una teoría de los precios relativos, el segundo no puede ser articulado a esta última teoría de una manera satisfactoria, de tal manera que el valor de cambio sigue siendo real. En Marx, la única


unidad de medida del valor de cambio socialmente reconocida es el medio de cambio, es decir el dinero; y la existencia de intercambio monetario es la negación de una ficción atribuida por Marx a los economistas clásicos: el intercambio de trueque. Al respecto Marx escribe: Cabría imaginarse, por consiguiente, que se podría grabar en todas las mercancías, a la vez, la impronta de ser directamente intercambiables, tal como cabría conjeturar que es posible convertir a todo católico en el papa. Para el pequeño burgués, que ve en la producción de mercancías el nec plus ultra (extremo insuperable) de la libertad, humana y de la independencia individual . Pero parece contradictorio, como lo hace Marx, querer deducir la “forma monetaria del valor” de su “forma simple”, de la misma manera que en Smith el intercambio monetario aparece como la generalización del intercambio de trueque . Marx vio claramente que el desafío de este enfoque es el tratamiento de dinero como una mercancía. En el análisis de las formas del valor, el punto nodal es la transición de la forma II a la forma III, que hace aparecer el concepto de equivalente general. La forma IV “no difiere en nada”, dijoMarx, de la forma III, salvo la sustitución de i por el oro. Que el dinero sea así deducido del equivalente general implica suponer que tiene un valor y que es una mercancía igual que los “espejos” utilizados para las formas I y II. El dinero es incluso la mercancía por excelencia puesto que el equivalente general es, de acuerdo con la cita tomada de Marx(1859), un “trabajo general materializado”. El análisis de las “formas del valor” lleva a la conclusión siguiente: el dinero es integrado por Marx en su teoría del valor como una mercancía. Ahora Marx debe, como cualquier autor, plantearse la siguiente pregunta: ¿esta integración es exitosa, es decir, es coherente tanto con la teoría del valor como con la definición de dinero? EL DINERO, CONDICIÓN DE EXISTENCIA DE LAS MERCANCÍAS La crítica de la integración del dinero en la teoría del valor es realizada por Marx a partir del capítulo 2 de El Capital (titulado “El proceso del intercambio”). Esta crítica se apoya, no sin ambigüedades, sobre la “exclusión” del dinero y aparece contradictoria con el deseo de mantenerle al dinero un estatus de mercancía a través del “trueque del oro”.

El dinero, mercancía “excluida” El punto de partida del capítulo 2 es la afirmación según la cual la concepción del intercambio es una relación social entre propietarios privados. Volvemos a encontrar la cita de la sección anterior: Para vincular esas cosas entre sí como mercancías, los custodios de las mismas deben relacionarse mutuamente como personas cuya voluntad reside en dichos objetos, de tal suerte que el uno, solo con la voluntad del otro, o sea mediante un acto voluntario común a ambos, va a apropiarse de la mercancía ajena al enajenar la propia. Los dos, por consiguiente, deben reconocerse uno al otro como propietarios privados La naturaleza del intercambio combina dos actos voluntarios:


– Como comprador, el individuo es atraído por el valor de uso de la mercancía que compra (la cual no tiene ningún valor de uso para su vendedor). Se trata solamente de una cuestión de gustos y el intercambio no es para el más que un asunto individual – Como vendedor, el individuo quiere realizar el valor de la mercancía que posee, independientemente de la razón por la cual otro individuo se la compra. Se trata de la cuestión de la evaluación por los demás y el intercambio es para él un proceso social general. Considerado así, el intercambio no puede existir: Pero el mismo proceso no puede ser a un mismo tiempo, para todos los poseedores de mercancías, exclusivamente individual y a la vez exclusivamente social general. Si examinamos el punto más de cerca, veremos que a todo poseedor de mercancías toda mercancía ajena se le presenta como equivalente particular de la suya, y ésta como equivalente general de todas las demás. Pero como esto se aplica igualmente a todos los poseedores de mercancías, ninguna de ellas es equivalente general y, en consecuencia, las mercancías no poseen una forma de valor relativa general en la que puedan equipararse los valores, compararse en cuanto magnitudes de valor. Las mercancías, pues, en absoluto se enfrentan entre sí como mercancías, sino solamente como productos o valores de uso . Esta afirmación es una crítica lúcida de la idea, expresada por Marx en el capítulo 1, según la cual las formas no monetarias del valor son relevantes para la comprensión de una sociedad de mercado. La expresión de los valores de las mercancías exige una medida común de todos los trabajos privados; las relaciones espontáneas entre los individuos generan tantas medidas posibles de las mercancías que no puede haber ninguna que sea común. Estas medidas sólo son subjetivas y las relaciones de trueque entre los agentes privados no tienen un carácter social. Para que el intercambio pueda ser una relación social (o, dicho de otra manera, que una sociedad de mercado pueda existir), algo debe ocurrir que no sea un simple “desarrollo” de las relaciones de trueque entre individuos. En contraste con lo que Marx escribió en el capítulo 1, “la forma dinero” del valor IV no es un “progreso” de la “forma valor general” III (y, en consecuencia, de las formas “simple” I y “desarrollada” II). La “forma dinero” constituye una ruptura fundamental que cambia completamente la naturaleza del intercambio. ¿Qué fue lo que ocurrió entonces? Responde Marx: solo un acto social puede convertir a una mercancía determinada en equivalente general. Por eso la acción social de todas las demás mercancías aparta de las mismas una mercancía determinada, en las cuales todas ellas representan sus valores. Su carácter de ser equivalente general se convierte, a través del proceso social, en función específicamente social de la mercancía apartada. Es de este modo como se convierte en dinero . Se nota la ambigüedad de estas frases. Por un lado, el dinero es concebido como equivalente general, y como tal, es una “mercancía especial”. Por otro lado, es el “resultado de una acción social” específica que lo “excluye”. Esta “acción social” no tiene nada con un proceso histórico (como en Smith) en el cual la humanidad descubriría progresivamente que los metales preciosos tienen propiedades naturales que los hacen elegibles para desempeñar la función de medio de cambio, transformando así una economía de trueque en una economía monetaria. El dinero interviene en el funcionamiento regular de la sociedad de mercado: es en el proceso de la creación de dinero que, según Marx, una mercancía (el oro) llega a ser dinero:


La dificultad no estriba en comprender que el dinero es mercancía, sino en cómo, por qué por intermedio de qué una mercancía es dinero” . Pero ¿cómo el oro llega a ser dinero? Pues a través de su propio trueque.

EL “TRUEQUE DEL ORO” De acuerdo con Marx, dado que el dinero es una mercancía, entonces se le aplica una teoría del valor como a cualquier otra mercancía: Al igual que todas las mercancías, el dinero solo puede expresar su propia magnitud de valor relativamente, en otras mercancías. Su propio valor lo determina el tiempo de trabajo requerido para su producción y se expresa en la cantidad de toda otra mercancía en la que se haya solidificado el mismo tiempo de trabajo. Esta fijación de su magnitud relativa de valor se verifica en su fuente de producción, por medio del trueque directo. No bien entra en la circulación como dinero, su valor ya está dado . Esta afirmación es repetida en el capítulo 3, cuando es analizado el medio de circulación: Para que el oro funcione en cuanto dinero, tiene que ingresar, naturalmente, por algún punto cualquiera en el mercado. Ese punto está en su fuente de producción, donde, como producto directo del trabajo, se intercambia por otro producto laboral de valor idéntico . A diferencia de otras mercancías para las cuales el trueque no tiene carácter social sino que es una relación puramente privada, el trueque del oro (es decir el intercambio que hace su productor contra cualquier otra mercancía) es la “acción social” a través de la cual se crea el dinero. Aquí residiría la “especialidad” de la mercancía-dinero. Esta afirmación es sorprendente si se la compara con la insistencia de Marx en el “doble carácter” del trabajo (privado y social). El trabajo del productor de oro está, en efecto, desprovisto de este doble carácter, pues ocurre solo una de dos cosas: – O el trabajo del productor de oro es inmediatamente social en el momento en el cual es gastado, lo que permite a las mercancías intercambiadas contra este trabajo expresar su valor, pero este trabajo no es, por definición, jamás privado; – O es el oro producido por trabajo privado, pero este trabajo no puede ser evaluado socialmente cuando se hace trueque contra un bien cualquiera puesto que sólo el intercambio contra dinero permite tal evaluación. En la ausencia del doble carácter del trabajo que lo produce, el oro que es trocado al momento de salir de la mina no puede ser considerado como una mercancía. Tal trueque es una relación puramente privada entre el productor de oro y el poseedor del bien intercambiado, sin ningún contenido social. La identificación de la “acción social” en la cual “una mercancía llega a ser dinero” se queda corta. El dinero no es pues la consecuencia (como quería establecerlo Marx con su teoría de las “formas de valor”) de la existencia de las mercancías, sino al contrario su condición. El dinero no puede ser deducido del valor, sino que es la condición de la evaluación social de los individuos en la sociedad de mercado. Observamos que esta sorprendente conclusión no se alcanza mediante la exclusión del trabajo de la teoría del valor, como se había sugerido hacerlo, sino apoyándose en el “doble carácter del trabajo” subrayado por Marx. Evidentemente, el resultado habría sido el mismo si en lugar del


productor de oro se hubiera considerado el poseedor de oro, para hacernos la pregunta de su doble carácter de persona privada y de individuo social: hablar de la división social del trabajo, es en efecto, hablar de una sociedad de propiedad privada. LA UNIDAD DE CUENTA Y EL MEDIO DE COMPRA El análisis anterior lleva a rechazar una concepción del dinero-mercancía, aún considerándolo como “especial”. Este rechazo va más allá de la simple constatación del fracaso de Marx en la integración del dinero en su teoría del valor, el mismo fracaso de los demás economistas. Esto se debe a que, persiguiendo un objetivo inalcanzable, se plantean dos cuestiones fundamentales: por un lado, el dinero como unidad de cuenta (que es la condición de la evaluación social de los individuos) y, por otro lado, la creación monetaria (¿cuál es el procedimiento –“la acción social”- que permite a un objeto -el oro- convertirse en dinero?). Ambas cuestiones deben ser tratadas en conjunto: el dinero es la condición del intercambio como relación social ya que proporciona una medida común de las mercancías y de sus propietarios, pero no es creado a través de un intercambio. Para entender cómo se crea el dinero, debemos examinarlo bajo dos aspectos: la unidad de cuenta y el medio de compra, lo que revela una posibilidad de crisis.

EL “DINERO IDEAL” (LA UNIDAD DE CUENTA) El valor de las mercancías, como se ha visto, debe “manifestarse en las transacciones sociales”. ¿Cómo? Ese es el objeto del capítulo 3 de El Capital: “El dinero o la circulación de mercancías” a lo largo del cual los términos “oro” y “dinero” son utilizados indiferentemente puesto que, con el objeto de simplificar, [se parte] del supuesto de que el oro es la mercancía dineraria. Cuando el poseedor de la mercancía se presenta en el mercado, él le atribuye un “precio ideal”, es decir, una cantidad definida de esta unidad de medida del valor de cambio socialmente reconocida, el dinero: El precio o la forma dineraria del valor característica de las mercancías es, al igual que su forma de valor en general, una forma ideal o figurada, diferente de su forma corpórea real y palpable. El valor del hierro, del lienzo, del trigo, etc., aunque invisible, existe en esas cosas mismas; se lo representa mediante su igualdad con el oro, mediante una relación con el oro, la cual, por así decirlo, es sólo como un duende que anduviera en sus cabezas. De ahí que el custodio de las mercancías tenga que prestarles su propia lengua, o bien colgarles un rótulo, para comunicar sus precios al mundo exterior . Para que el comerciante “anuncie su precio”, el dinero es necesario, pero solamente bajo una forma “ideal”: Como la expresión de los valores mercantiles en oro es ideal, el oro que se emplea en esta operación es también puramente figurado o ideal. […] En su función de medida del valor, por consiguiente, el dinero sirve como dinero puramente figurado o ideal . Este “dinero ideal” es simplemente la unidad de cuenta que proporciona el lenguaje común en el cual los precios de las mercancías deben ser medidos para que sus valores puedan expresarse cuando ellas entran en el intercambio: Las mercancías se dicen así lo que valen, en sus nombres dinerarios, y el dinero sirve como dinero de cuenta toda vez que corresponde fijar una cosa como valor, y por tanto fijarla bajo un forma dineraria.


Para ser común, este lenguaje debe ser único, lo que excluye la coexistencia de dos unidades de cuenta: la duplicación de la medida del valor contradice la función de la misma (p.118). Observamos que la función de unidad de cuenta hace parte en Marx de la definición de dinero; esto contrasta con su ausencia en la economía política tanto clásica como marginalista, donde la medida de los valores de cambio es no monetaria (habrá que esperar a Keynes, 1930, y por supuesto, a Keynes, 1936, para reencontrar un análisis monetario fundado en la unidad de cuenta). EL “DINERO REAL” (EL MEDIO DE PAGO) Esta expresión del valor de las mercancías “anunciado” por su vendedor es meramente “ideal”. Por un lado, la mercancía tiene una forma completamente real (“la rudeza de su cuerpo” se entiende en la cita de mistress Quickly), pero no social puesto que está desprovista de una medida común. Por otro lado, tiene una forma social (su precio en dinero), pero meramente “ideal” hasta tanto la venta no haya concluido. La mercancía es realmente valor de uso; su carácter de ser valor se pone de manifiesto sólo de manera ideal en el precio, que la refiere al término opuesto, al oro, como su figura real de valor. En efecto no es sino porque su vendedor la estima en un cierto precio en dinero que los compradores están dispuestos a pagarla. La prueba es pues que el precio “ideal” propuesto por el vendedor se convierte en “real”, debido a que la venta se realiza efectivamente a este precio, contra la entrega de un dinero que ya no es unidad de cuenta (“dinero ideal”), sino medio de compra (“dinero real”): La realización del precio o de la forma de valor sólo ideal de la mercancía, es a la vez, y a la inversa, realización del valor de uso sólo ideal del dinero. […] Si el oro se transformó en dinero ideal o medida del valor, ello obedeció a que todas las mercancías midieron en oro sus valores, convirtiéndolo así en contraparte figurada de la figura de unos de ellas, en la figura que reviste el valor de las mismas. El oro deviene dinero real porque las mercancías, a través de su enajenación generalizada, lo convierten en la figura de uso efectivamente enajenada o transformada de ellas mismas, y por tanto en su figura efectiva de valor. En su figura de valor, la mercancía hace desaparecer todas las huellas de su valor de uso natural y del trabajo útil particular al que debe su origen, para devenir esa crisálida que es solo concreción material social uniforme de trabajo humano diferenciado. El aspecto exterior del dinero, pues, no da margen para descubrir de qué tipo era la mercancía convertida en él. En su forma dineraria, la una tiene exactamente la misma apariencia que la otra. Por consiguiente, bien puede ser que el dinero sea una basura pero la basura no es dinero . ¿En qué condiciones se puede producir la “realización” del precio “ideal”? En otras palabras, ¿en qué condiciones el precio monetario efectivamente constatado en el intercambio (la cantidad de dinero-medio de compra por unidad de mercancía intercambiada) es igual al precio monetario esperado por el vendedor (la cantidad de dinero-unidad de cuenta por unidad de mercancía ofrecida a la venta)? Claramente, la presencia de un poder de compra monetario en las manos de los compradores es una condición necesaria pero no suficiente; es necesario que este poder de compra sea precisamente aquel que asegura esta igualdad. En los términos


usuales de los economistas, es necesario que la confrontación de la oferta y de la demanda conduzca a la formación de un precio monetario de la mercancía igual al precio esperado por el oferente. Así que necesitamos en este momento de una teoría de la formación de los precios monetarios de las mercancías. ¿Cuál es la que Marx propone? Sorprendentemente, no hay respuesta a esta pregunta en el capítulo 3, mientras que se percibe que la teoría del dinero (unidad de cuenta y medio de compra) se confunde ahora con la teoría del precio (“ideal” y “realizado”). En otras palabras, ya no se trata, como lo ha intentado vanamente hacerlo Marx en su análisis de las “formas del valor”, de integrar la teoría del dinero en la teoría del valor sino de elaborar una teoría del dinero que sea al mismo tiempo una teoría del precio. ¿Por qué pues Marx no afronta esta cuestión en este punto de El Capital? Es de suponer que está deseoso de pasar del análisis de la mercancía al del capital (lo que él hace a partir del capítulo 4), y estima que es más importante el resto Capítulo 3 para analizar otras funciones del dinero: el “medio de circulación” a nivel macroeconómico (con la determinación del nivel general de precios y de la velocidad de circulación del dinero) ; el “medio de atesoramiento” (reserva de valor) ; el “medio de pago” (en el comercio a crédito) y el “dinero universal” (medio de ajuste de cuentas internacionales). Al hacerlo, Marx se encierra en un análisis funcional del dinero que lo aleja de la teoría de los precios. EL “SALTO MORTAL DE LA MERCANCÍA” (LA POSIBILIDAD DE CRISIS) Poniendo en un mismo escenario la cuestión de la relación entre el dinero “ideal” (unidad de cuenta) y dinero “real” (medio de pago) y aquella de la relación entre precio “ideal”(esperado por el vendedor) y precio “realizado” (efectivo), Marx se da cuenta de que el precio “realizado” puede ser menor que el precio “ideal”. En sus propias palabras, dos factores pueden explicarlo, incluso si la mercancía es un valor de uso para sus compradores potenciales: o el trabajo privado estimado como trabajo social por su productor es menor que el trabajo social efectivo; o la cantidad de mercancía llevada al mercado solo puede ser plenamente vendida a un precio inferior: Si el estómago del mercado no puede absorber la cantidad total de lienzo al precio normal de 2 sh. Por vara, ello demuestra que se consumió, bajo la forma de la fabricación de lienzo, una parte excesivamente grande del tiempo de trabajo social en su conjunto. El resultado es el mismo que si cada uno de los tejedores hubiera empleado en su producto individual más tiempo de trabajo que el socialmente necesario. Aquí se lo aplica lo de que pagan justos por pecadores. Todo el lienzo puesto en el mercado cuenta como un artículo único; cada pieza, solo como una parte alícuota . La transformación del precio “ideal” en precio “realizado” no está garantizada, todo lo contrario, se trata de un “salto peligroso” que debe ejecutar la mercancía: El salto que el valor mercantil da desde el cuerpo de la mercancía al del oro, es el salto mortal de la mercancía. Si fracasa, la que se verá chasqueada no será precisamente la mercancía sino su poseedor (p.129). Esta “frustración” no tiene nada de psicológico: se mide precisamente por la diferencia entre el precio “ideal” (esperado por el vendedor) y el precio “realizado” (que eso que se embolsa al fin


de cuentas). Cada entrada de un poseedor de mercancías al escenario en que tiene lugar el proceso de intercambio, al mercado (p.128), lo expone así a un riesgo de fracaso, lo que Marx llamó en los manuscritos preparatorios a El Capital “la posibilidad de crisis”: He aquí cómo se presenta la posibilidad de crisis en la metamorfosis de la mercancía. En primer lugar, se necesita que la mercancía, como valor de uso, exista realmente, y, como valor de cambio, en el precio, exista idealmente, transformada en dinero. […] La posibilidad de crisis, siempre que aparece en la forma simple de la metamorfosis, resulta pues únicamente de esto: las diversas formas – fases – que la mercancía recorre en su movimiento, son por un lado, formas y fases que necesariamente se complementan, pero por otro lado, a pesar de esta coherencia interna necesaria, son partes y formas del proceso independientes, que pueden estar y están separadas, que no coinciden en el tiempo ni en el espacio. La posibilidad de crisis reside, por lo tanto, únicamente en la separación de la venta y de la compra. […] La venta y la compra se pueden separar. Ellas son, pues, crisis en potencia y su conjunción es siempre un momento crítico para la mercancía (Marx, 1861-1863, tomo II. Marx señala que esta posibilidad de crisis no existe en el trueque, donde la única “dificultad” posible (para hablar como Smith) ocurre cuando el bien no es un valor de uso para el comprador; por lo que no hay intercambio en absoluto. Aquí, el “momento crítico” no sucede porque la mercancía carezca de valor de uso sino porque la cantidad de dinero que compra la mercancía es inferior a lo que esperaba el vendedor. Esto pasa porque en el intercambio monetario una venta no es ipso facto una compra. Pero Marx no ve que esta “posibilidad de crisis” sólo puede ser verdaderamente analizada si se dispone de una teoría explicativa del nivel de la brecha entre el precio “ideal” y el precio “realizado”, como preludio a un análisis del proceso de ajuste que explique la evolución de esta brecha. Marx centra su atención en el libro II de El Capital sobre la “transformación de la posibilidad de crisis en su realidad”, es decir, el problema de la crisis general ligada a la circulación del valor en una economía capitalista. Su teoría del dinero sigue incompleta, lo que no le impide ser específica.

UNA TEORÍA INCOMPLETA PERO ESPECÍFICA En ausencia de una teoría completa de la formación de los precios monetarios en el libro I de El Capital, podríamos preguntarnos si las condiciones que establece Marx en su elaboración lo distinguen significativamente de las principales autoridades en la materia, antes y después de él. Una respuesta positiva conduce a sugerir prolongaciones posibles en las nociones de amonedación y de régimen monetario. LA FORMACIÓN DE LOS PRECIOS: MARX FRENTE A WALRAS, MARSHALL Y SMITH En una primera dirección, debemos constatar un elemento común a todos estos autores así como también a la gran mayoría de economistas que se interrogan sobre la teoría de los precios: en Marx, el agente económico individual no tiene la facultad de fijar el precio


efectivo (“realizado”) al cual se llevan a cabo los intercambios. Reencontramos aquí lo que designan algunos economistas como la “competencia perfecta” pero, diferente a éstos, no se trata de una hipótesis particular sobre el tipo de mercado sino la idea según la cual el precio es un hecho social que escapa al control de los agentes particulares. Desde este punto de vista común, pueden aparecer las diferencias con Léon Walras. En éste autor, la ausencia de control de los agentes individuales sobre los precios es interpretada de una manera radical: los precios son anunciados por un “subastador” que no es ni un vendedor ni un comprador, es decir, que no es un agente (ver Walras, 1874, 1900). La diferencia con Marx radica en la ausencia de precio “ideal” anunciado por el vendedor. Esta representación del mercado ha adoptado una forma exacerbada en la moderna teoría del equilibrio general walrasiano (el “modelo a la Arrow-Debreu”), donde la figura molesta del “subastador” va acompañada de una separación completa entre tres problemas reunidos en Marx: la formación de los precios, la realización de los intercambios y la circulación del dinero. La proximidad de Marx con Alfred Marshall parece más grande. El lado oferta se manifiesta por un “precio de oferta” que es el precio exigido por los proveedores para producir una cantidad determinada de una mercancía, y el lado demanda, se manifiesta por un “precio de demanda” que es el precio que los demandantes están dispuestos a pagar por una determinada cantidad de mercancía (ver Marshall, 1890). Aunque el “precio de oferta” de Marshall se parece al precio “ideal” de Marx, hay una diferencia esencial: cuando el precio de la oferta y el precio de demanda no son iguales (en desequilibrio), el “precio de mercado” (es decir, el precio al que el intercambio tiene lugar, y que corresponde al precio “realizado” de Marx) es el “precio de demanda”. Desde la perspectiva de Marx, esto sería arbitrario porque supondría que la sociabilidad se encarna en el comportamiento de los demandantes. Ahora, lo que confiere a la demanda su carácter social -la detención de “dinero real”, es decir, de un poder de compra general- está ausente en el comportamiento de los demandantes en Marshall pues éstos se encuentran en una posición rigurosamente simétrica respecto a los oferentes. La consecuencia es que el dinero no es necesario en la teoría marshalliana de los precios. El dinero está integrado, no a través de un análisis de la realización de los intercambios en cada uno de los mercados de bienes, sino a través del equilibrio de un mercado particular: el mercado de dinero, en el cual se manifiesta la demanda global de saldos. La proximidad con Smith parece más grande aún si se sigue a Benetti y Cartelier (1998). Según ellos, podemos complementar la teoría de Marx aplicando la “regla de Cantillon-Smith”, según la cual el precio de mercado de un bien i se forma como la relación entre la cantidad total de dinero asignado por los compradores al gasto en este mercado y la cantidad de i llevada al mercado por sus proveedores. Esta interpretación tiene la ventaja de proporcionar una determinación del precio de mercado susceptible de ser relacionada con la tradición clásica (y significativamente diferentes de aquella del precio de equilibrio en la tradición marginalista, en su expresión walrasiana o marshalliana) y, además, una determinación monetaria, es decir, de acuerdo a la definición de Marx del modo de sociabilidad del precio.


Pero este parecido plantea complejas cuestiones relativas a la determinación del gasto monetario y al proceso de ajuste. Dos direcciones parecen poder tomarse. La primera consiste en no sólo adoptar de Smith el papel de la “demanda efectiva” en la determinación del precio de mercado, sino también la fijación de esta demanda efectiva a partir de un precio natural, determinado por fuera del intercambio. Se tiene entonces el modelo de la “gravitación” del precio de mercado en torno al precio natural, que Marx retoma en el capítulo 10 del libro III de El Capital (ver Deleplace, 1981, y para una interpretación diferente, Maurisson, 1981). Marx sustituye el precio natural por el concepto de “valor de mercado” que representa la cantidad de trabajo social contenido en la mercancía, la cual constituye el eje de gravitación en torno al cual gira su precio y respecto al cual se alinean sus aumentos y disminuciones perpetuos. El “valor de mercado” se define en una industria como el resultado de la adición de todos los valores de las mercancías producidas en condiciones diferentes, es decir, un promedio de los “valores individuales” de las diversas unidades de la mercancía considerada. Así, Marx a diferencia de Smith, se esfuerza por conciliar el análisis de la competencia intra-industria entre los diferentes productores de una mercancía y la competencia inter-industrias entre los distintos capitales por la obtención de la tasa general de beneficio. Sin embargo, el concepto de “valor de mercado” es difícil de conciliar con la idea de un precio “ideal” porque: – o bien el “valor individual” se confunde con el “precio ideal” y el promedio de los “precios ideales” de los distintos vendedores de la mercancía ya no es un precio “realizado” como no lo es ninguno de ellos: el “valor de mercado” no es una cantidad de trabajo social, – o bien se sustituye en el análisis al precio “ideal” y la especificidad del intercambio monetario desaparece tras el estudio del costo de producción: se regresa a la teoría real de la gravitación de los autores clásicos. Hay que orientarse en otra dirección. AMONEDACIÓN Y RÉGIMEN MONETARIO En una segunda dirección, seguida por Benetti y Cartelier (1998), se establece una relación entre los gastos monetarios efectuados por los individuos cuando compran (y, por lo tanto, el gasto total de dinero en un mercado que entra en la formación del precio de mercado) y los ingresos esperados por los individuos cuando venden. En los términos utilizados anteriormente, se trata de establecer un vínculo entre el precio “ideal” y el precio “realizado”. Este enfoque, más cercano al “principio de la demanda efectiva” de Keynes que a la “gravitación” smithiana, es inteligible sólo si la fijación de un precio “ideal” para la mercancía por parte del vendedor no es solamente una evaluación subjetiva en la unidad de cuenta, sino que le permite obtener un medio de pago (que él podrá gastar) cuando todavía no ha vendido nada. Por lo tanto, es necesario que el comprador, para hablar como Marx, tenga “en el bolsillo” el medio de pago, y que lo obtenga como vendedor potencial. Este acceso al dinero “real” es la “acción social” que él evocaba a propósito de la creación de dinero, o, para usar un término antiguo reutilizado en Benettiy Cartelier (1980), un “principio de amonedación”, es decir, una organización de la emisión de dinero que permite una compra sin venta previa. Según las conclusiones del propio Marx en el capítulo 2 de El Capital, la amonedación no es un intercambio sino la condición previa para el intercambio. El vendedor potencial obtiene el medio de pago sin vender, lo que implica que el emisor de dinero no es un agente sino una institución. Por ejemplo, en la amonedación del oro, es la Casa de la Moneda la que acuña bajo la forma de monedas de oro el lingote llevado por su propietario, quien resulta entonces con


dinero “en el bolsillo”. El agente puede luego utilizar este dinero para comprar, permitiendo a otros agentes privados “realizar” más o menos el precio “ideal” de sus bienes. Al no ser un intercambio, la relación entre el agente privado (en este caso el propietario del oro en lingote) y la institución emisora de dinero (la Casa de la Moneda) escapa al proceso ordinario de la formación del precio: la cantidad de dinero que agente recibe (en este caso el número de monedas de un determinado tipo que obtiene por su lingote) está fijada por reglas no mercantiles (en este caso son legales). La amonedación es a la vez la definición de la unidad de cuenta (el “dinero ideal” es aquí un determinado peso de oro), el procedimiento de acceso al medio de pago (el “dinero real” es aquí la moneda metálica). El desarrollo efectivo de los intercambios (incluidos allí las condiciones de “posibilidad de crisis”) es diferente según el régimen monetario considerado (en este caso, metálico). El sistema monetario debe pues ser especificado para la elaboración de una teoría de la formación de los precios (5). Ahí radica la principal lección de la teoría monetaria de Marx: el dinero no es neutral. NOTAS Para un análisis detallado correspondiente a este enfoque, ver De Brunhoff (1967) y (1979). Ver la sección II del capítulo 1 de Principios donde Ricardo cita ampliamente La riqueza de las naciones para justificar que “los trabajos cualitativamente distintos son diferentemente remunerados”, respecto a “la relación entre las diferentes tasas de salario […] en los diferentes empleos del trabajo” (Ricardo, 1817-1821, p.60-1). Sobre esta concepción “clásica” de la homogeneización de los trabajos por los salarios, ver Klimovsky (1996) y sobre las consecuencias de su aplicación a la teoría del valor de Marx, Ver Klimovsky (1998). Esta separación se encuentra también en Walras y en la teoría moderna del equilibrio general walrasiano, aunque la teoría de los precios relativos sea muy diferente de aquella de los clásicos. Para una crítica detallada de la teoría de las “formas del valor”, ver Benetti y Cartelier (1980), Benetti (1985) y Cartelier (1991b). Sobre estas nociones de “amonedación” y de “régimen monetario”, ver Benetti y Cartelier (1980) y (1998), Cartelier (1994 a) y (1996), Boyer-Xambeu, Deleplace, Gillard (1990) y Deleplace (1996). LA HISTORIA DEL DINERO DE LA PIEDRA ARENISCA AL CIBERESPACIO LA REINVINDICACION DEL DINERO El dinero es una de las nociones más asombrosamente simplificadoras de todos los tiempos … ha engendrado su propia revolución PAUL J. BOHANNAN. El Dolar Agoniza y otro tanto le ocurre al Yen Chino. al Marco Alemán y a otras divisas del mundo contemporáneo. Un virus mortal ha infectado nuestro sistema monetario de carácter global, ya seriamente debilitado y su deceso es solo cuestión de tiempo . El Dolar, El Marco y el Yen terminarían por sumarse al gran cajón de desperdicios de la historia. donde ya se hallan el ducado, las conchitas de cauri y la guinea, y se transformaran en objetos del exclusivo interés de los anticuarios y los espíritus excéntricos. En el preciso momento de la historia en que el dinero ejerce su poder sobre la totalidad de la sociedad, se enfrenta a ciertos desafíos extraños y amenazantes en las últimas décadas del siglo


Veinte , el sistema monetario global comenzó a toser y expectorar , a sufrir espasmos y tambalearse , las divisas de varias de las naciones más débiles enfermaron y murieron de manera inesperada en un paroxismo de inflación, a la par que los tipos de cambio de las divisas más fuertes y sanas oscilaban y se disparaban de manera incontrolada en un sentido y luego en otro . Tras reinar desde el Renacimiento como las principales instituciones financieras, los Bancos comenzaron a mostrarse vacilantes y sufrieron pérdidas de varios miles de millones de dólares que parecieron ocurrir de la noche a la mañana . En Estados Unidos siguió creciendo la deuda nacional , aumentando los desequilibrios comerciales , los brotes inflacionarios y la caída a largo plazo en el valor del dólar , pese a las intervenciones más bien inoportunas pero de amplio alcance en múltiples niveles, ningún gobierno parece hoy capaz de controlar su divisa, y nuevas instituciones financieras extienden su actividad a lo largo y ancho del globo en una red de negocios interconectados , con un poder nunca antes visto en la historia . Algunos organismos pretendidamente globales, como el Fondo Monetario Internacional. Las Naciones Unidas y El Banco Mundial se han vuelto irrelevantes para las finanzas de cualquiera a excepción de los actores más débiles, que están desde ya entre los desahuciados de la escena internacional. A pesar de la alarmante situación monetaria, el fallecimiento del actual orden monetario no implicara el fin del comercio o la muerte del dinero en si . Y en el preciso momento en que el viejo sistema comienza a dar extertores en su tumba, es posible intuir el nuevo sistema aflojando en el horizonte. Podemos apreciar una imagen parpadeante de ese nuevo sistema en el suave resplandor de las pantallas computacionales , y podemos oler su acre fragancia en el cableado eléctrico al ras del piso en cualquier entidad del cambio de divisas . Podemos oírlo en el zumbido electrónico de los microprocesadores codificados en tarjetas de plástico cuando pasan a través de los lectores electrónicos que están sustituyendo a las antiguas cajas registradoras .En los dominios del ciberespacio, hoy el dinero se reinventa en la forma de una fuerza autónoma y flotante que puede aparecer instantáneamente en cualquier parte del mundo y en cualquier momento. Y a no esta atado por su extremo a la fortuna de un gobierno o de un país determinado y surge en una gran variedad de formas nuevas. El nuevo dinero es el poder a secas , el poder en bruto . La nueva tecnología esta modificando la forma en que obtenemos y empleamos ese dinero, y generara un sistema de clases enteramente nuevo, de ricos y pobres diversos a los precedentes. E nuevo sistema monetario transformara la forma en que se distribuyen los bienes y el financiamiento de la vida cívica. Reacomodaran el mapa político del mundo actual y engendrara nuevas entidades locales y globales difíciles de imaginar hoy en día . mas aun trastocara el significado mismo del dinero. El cambio revolucionario que hoy se verifica en la naturaleza y los usos del dinero constituye su tercera gran mutación. La primera se inicio con la invención de la moneda en Lidia cerca de tres mil años atrás, y redundo en el primer sistema de mercados libres y abiertos. La invención y difusión de las monedas y el mercado asociado a ellas creo un nuevo sistema cultural : el de las civilizaciones clásicas del mediterráneo . El nuevo sistema monetario y de mercado se difundió a todo el mundo conocido y poco a poco arraso con los grandes imperios tributarios de la historia. La segunda generación del dinero domino desde los albores del renacimiento y a través de la revolución industrial, y redundo en la creación del sistema capitalista identificado con el mundo moderno. se originó en los bancos de Italia y termino por crear el sistema de los Bancos


nacionales y el papel moneda que estos emitían para que se lo utilizara diariamente en e4l comercio . La invención de la Banca y el sistema del papel moneda acabo con el feudalismo, altero las bases de la organización social , haciéndolas orbitar desde los títulos hereditarios a la posesión del dinero, e hizo derivar la base del poder económico desde la propiedad de tierras a la de acciones. Valores bursátiles y corporaciones. Cada uno de los dos tipos iniciales de dinero engendro su propia cultura , de carácter único , que difería significativamente de las precedentes. Y ahora en los albores del siglo 21 , el mundo está ingresando en la tercera fase de su historia monetaria,: la era del dinero electrónico y de la economía virtual. E l auge del dinero electrónico producirá cambios en tan radicales y en tal largo alcance en la sociedad como los que las dos revoluciones monetarias precedentes provocaron. El nuevo dinero engendrara cambios profundos en los sistemas políticos en la configuración de empresas comerciales y la estructura de clases. El dinero virtual promete brindarnos su propia versión de la civilización, la que será tan distinta del mundo moderno como lo es de ese otro mundo en que habitaban los aztecas y los vikingos. ¿FIN DEL DINERO EN EFECTIVO? LOS TIPOS DE INTERÉS VUELVEN A DAR VIDA A MONEDAS Y BILLETES

Se han publicado multitud estudios y artículos pronosticando el fin del dinero efectivo. Sin embargo, en los últimos años este tipo de dinero podría estar recuperando terreno, a lo mejor no como forma de pago, pero sí como forma de ahorro, como una especie de activo refugio ante la incertidumbre financiera. Clemens Jobst, economista jefe en el Banco Nacional de Austria, y Helmut Stix, investigador en la misma institución, destacan en un trabajo titulado Assessing recent increases in cash demand (Evaluando el reciente incremento en la demanda de efectivo), que "al contrario de las


predicciones sobre la caída de la demanda de efectivo ante el incremento de las posibilidades de pago, la demanda de divisa física se ha incrementado en la Eurozona y en EEUU". Entre 2007 y 2014, el dinero físico como porcentaje del PIB se ha incrementado del 13,3% hasta el 16,1% en Reino Unido, mientras que en EEUU y la Eurozona los datos recopilados muestran una tendencia similar. En la Eurozona, el efectivo per cápita es de 3.400 euros, mientras que en EEUU la cifra alcanza los 4.200 dólares, pero más interesante que estos datos absolutos es "ver como el cash se ha incrementado respecto al peso de la producción nacional en los últimos años". DESDE 2007 Esta tendencia se ha acentuado a partir de 2007. Todo hace indicar que los bajos tipos de interés, a una menor confianza en los bancos y una mayor incertidumbre, que están reforzando el papel del efectivo como un activo seguro. La fuerte bajada de los tipos de interés tras la crisis de 2007/08 pueden representar una parte importante del aumento en la demanda de efectivo. El coste de oportunidad entre tener el dinero debajo del colchón o en un depósito es escaso, dada la baja remuneración de los productos bancarios más conservadores. Por último, la Gran Recesión puede ser otro de los propulsores que han llevado a los agentes a demandar más dinero físico: "Encontramos que en las economías que no han sufrido crisis bancarias sistémicas en los últimos años, la demanda de efectivo no se ha incrementado". "Esta experiencia contratas con la demanda de efectivo en las economías que han sufrido crisis sistémicas de su sistema financiero en 2007 y 2008". No obstante, estos expertos reconocen que estos hechos sólo podrían explicar parte de esta tendencia, por lo que "no es una buena idea pensar en la eliminación del dinero físico por medios de pago electrónico hasta que se haya dedicado más tiempo a esto".

LA 'REINVENCIÓN' DEL DINERO


Ismail Akuji con el billete de Bowie. | Foto: C. F. En Brixton han creado su propia 'divisa', que se admite en 200 comercios Carlos Fresneda (Corresponsal) | Londres Actualizado sábado 21/04/2012 10:50 horas Comentarios Ismail Akuji acepta de muy buena gana los billetes de David Bowie. El comerciante indio fue de los primeros en admitir el pago con la Libra de Brixton, la peculiar 'divisa' con la que se puede hacer transacciones en 200 comercios del barrio más multicultural de Londres, que rinde de homenaje a sus héroes locales estampándolos en su propio dinero. Los billetes de 10 libras se los reparten entre Bowie y el ídolo del baloncesto Luol Deng. Los de una libra son para Lenford 'Kwesi' Garrison, activista por los derechos de la minoría negra. Y los de 20 libras llevan la imagen de Violette Szabo, agente secreta durante la Segunda Guerra Mundial. Todos ellos representan el 'orgullo' de Brixton y dan un color y un calor especial a esta forma de pago creada hace tres años y cada vez más popular. "Entre 10 y 15 clientes me pagan todos los días con libras de Brixton", reconoce Akuji, frente al increíble surtido de frutas y verduras del Faiz Food Store. "Los billetes han creado una conexión especial en el mercado: es una manera de garantizar que al menos una parte del dinero se quedará entre nostros, aquí en el barrio".

EL SÁBADO, EL DÍA GRANDE Los sábados son el gran día en el Mercado de Brixton, cuando las calles palpitan de pura energía, con ese roce humano y esa inabarcable variedad que nunca veremos en un aséptico centro comercial. Stuart Horwood, más conocido como el 'Doctor Reloj', se queja porque el mercado está perdiendo autenticidad con tanto café y tanto turista, pero admite sentirse en su salsa entre jamaicanos, nigerianos y latinos, frotándose las manos ante el concierto de los Van Van... "En el futuro todos pagaremos así; en Brixton nos estamos adelantando" "El mundo entero está representando en Brixton", asegura el relojero. "Y aunque el barrio ha pasado por malos momentos, estamos saliendo adelante a pesar de la crisis. Entre otras razones, porque tenemos un sentimiento muy arraigado del comercio local".


El simpático 'Doctor Reloj', por cierto, no sólo admite los billetes de David Bowie, sino que también acepta el pago por el más novedoso método de la Libra Electrónica de Brixton... "Los clientes me pueden pagar ordenando una transferencia con un mensaje de texto. Los dos estamos conectados con una clave secreta y, cuando el pago se ha efectuado, recibo un aviso instantáneo. En el futuro todos pagaremos así; en Brixton nos estamos adelantando". Llegados a este punto conviene aclarar que las libras locales –o el dinero complementarioson producto de la 'revolución' silenciosa que lleva fraguándose en el barrio desde la creación de Transition Brixton, uno de los más de 30 grupos de "transición" que funcionan ya en Londres, buscando soluciones ante la crisis económica, la crisis energética y el cambio climático. RELOCALIZAR EL DINERO "Estamos intentando crear comunidades más 'resilentes', que puedan capear mejor la situación en momentos difíciles como los que estamos viviendo", explica Rahima Fitzwilliam Hall, una de las impulsoras de libra de Brixton. "Y estamos convencidos de que una de las herramientas más básicas para la relocalización económica es el dinero. Las divisas complementarias son una forma de 'democratizar' el dinero, para que las comunidades puedan recuperar al menos una parte del control de su actividad económica".

En su forma original en billetes, hay un total de 65.000 libras de Brixton en circulación, respaldadas por una cantidad equivalente de libras esterlinas. El London Mutual Credit Union y la concejalía de distrito de Lambeth actúan como 'socios' respaldando la iniciativa, junto con Transition Town Brixton y la New Economics Foundation. La versión electrónica tiene apenas un año, ha sido ya aceptada por 50 comercios y genera de momento una acitividad equivalente a 4.000 libras. Otras localidades británicas –Totnes, Lewes y Stroud- cuentan con su propia divisa, impulsada por los grupos en transición, y siguiendo modelos como los que funcionan también en Estados Unidos (Horas de Itaca) o incluso en Grecia (el TEM de Volos). Aunque el gran salto cualitativo en Gran Bretaña llegará, cuando se lance la Libra de Bristol, al servicio de su medio millón de habitantes y con el respaldo del ayuntamiento local. "Hasta ahora, las divisas complementarias y otros sistemas de intercambio local han jugado un papel marginal", admite Rahima. "Pero la crisis está empujando a mucha gente a abrir los ojos ante los problemas de fondo de nuestro sistema económico. Y la tecnología se va a convertir ahora en nuestra gran aliada: el sistema de Pago por Texto se va a implantar en los próximos años a todos los niveles, y podemos presumir de haber llevado la delantera". Raima nos invita generosamente al zumo de naranja en el Café Phoenix usando su teléfono móvil y enviando un mensaje con la cantidad exacta en libras de Brixton y el destinatario de la


transacción. El propietario del local, Sonar, esboza una sonrisa de agradecimiento en cuanto escucha el doble y gratificante pitido: "Pago efectuado".

 

¿QUÉ ES LA TECNOLOGÍA DE CONTABILIDAD DISTRIBUIDA O BLOCKCHAIN? Blockchain, o Contabilidad Distribuida, es una tecnología que permite la realización confiable y segura de cualquier tipo de transacción entre dos o más personas sin la necesidad de intermediarios, a través de Internet. Su introducción al mundo se dio a través de la criptomoneda Bitcoin, la primera plataforma blockchain. Originalmente, Bitcoin se creo como un sistema electrónico de pago entre pares (A Peer-to-Peer Electronic Cash System), por lo que se le conoce como “dinero digital”. Blockchain es una articulación de tecnologías estructuradas en un sistema naturalmente encriptado, lo que proporciona a los usuarios involucrados protección de sus identidades y de los datos de sus transacciones. Un libro de contabilidad digital donde se anotan todas las transacciones que suceden en la red, agrupadas en bloques que continuamente son enlazados linealmente entre sí, esto es: el primer bloque con el segundo, el segundo con el tercero, y así sucesivamente (de allí el nombre de ‘cadena de bloques‘). Las carteras digitales, interfaces gráficas para interactuar con la red blockchain que permiten a los usuarios realizar transacciones y manejar sus identidades digitales. Los mineros, computadoras que se encargan de autorizar la adición de los bloques de transacciones que realizan las carteras digitales a la cadena de bloques, al resolver el acertijo matemático del protocolo de consenso, recibiendo a cambio recompensas en la moneda digital propia de la red blockchain. Los nodos, guardianes de la red, son computadoras que se encargan de almacenar una copia exacta del libro contable y de hacer cumplir las reglas de la red. Algunos, conocidos como mining pools o grupos de minería, se encargan además de escuchar nuevas transacciones y agruparlas en bloques para proponerlos como trabajos a los mineros, que luego de ser confirmados son propagados a la red y añadidos a la cadena. Una transacción común en blockchain comienza con el envío de un activo digital de una cartera digital a otra. Esta transacción es escuchada por diversos nodos (dependiendo de su latencia respecto a la cartera emisora) y agrupada con otras transacciones que dichos nodos hayan escuchado. Este grupo de transacciones es luego enviado a los mineros como un trabajo a resolver. Los mineros toman el trabajo, que puede ser distinto para cada grupo de mineros dependiendo del nodo que haya propuesto el trabajo, y compiten entre si por conseguir un valor (nonce) que resuelve un acertijo matemático que autoriza al minero que lo encuentra a proponer su bloque, con las transacciones en él, a ser agregado a la cadena. El bloque propuesto, además de contener las transacciones, también contiene la identificación del bloque anterior y un valor de emisión de monedas por parte de la red (la recompensa), las cuales se direccionan a la cartera del minero ganador. Todo este proceso, al que se le conoce como minería, sucede ‘tras cámaras’ en una transacción en blockchain. Para los usuarios, lo único visible son la cantidad de confirmaciones que sus transacciones reciben y el tiempo que estas toman en realizarse. La tecnología blockchain garantiza que los registros de las transacciones realizadas sean válidos e inalterables. Podemos ver cada bloque como cada una de las páginas de un mismo libro contable prácticamente infinito, sólo que aquí lo que ha sido escrito no puede borrarse ni


repetirse: cada transacción o dato se resguarda con una huella digital única. Esto se conoce como inmutabilidad. Sin embargo, existen iniciativas para crear blockchains que puedan ser alterables por un administrador, Accenture es la responsable de la más conocida. Las primeras y más conocidas blockchains, hasta los momentos, son mantenidas por muchos nodos y mineros alrededor de todo el mundo y ninguno tiene realmente el poder para controlarla y aprobar o desaprobar transacciones según su propio criterio, a lo que se le llama descentralización: el poder no está centrado en una sola parte, sino distribuido entre muchas partes que deben llegar a un acuerdo. La característica de descentralización es opcional según quien desarrolle su propia plataforma con tecnología blockchain. Diversas compañías privadas, como los bancos, están creando sus propias contabilidades distribuidas, las cuales reparten sus copias entre distintas partes, pero todas son controladas por la misma institución, por lo que esta característica se pierde. De este modo, la blockchain siempre será distribuida, evitando que pueda ser hackeada, pero no siempre será descentralizada. TIPOS DE BLOCKCHAIN Aunque en principio la blockchain fue creada para ser un gran libro de contabilidad público y accesible para cualquiera, el desarrollo de esta tecnología por parte de distintas entidades y empresas alrededor del mundo le ha dado un matiz privado que la ha dividido esencialmente en dos categorías y cuatro tipos. Basándose en el acceso a los datos almacenados, podemos encontrarla pública o privada. En la primera, no hay ninguna restricción para la lectura de datos ni la realización de las operaciones por parte de los usuarios; en cambio, en la segunda, tanto la lectura como las operaciones se limitan a participantes determinados. Por otro lado, basándose en la capacidad para generar bloques, se divide en aquellas sin permisos (permisionless) y con permisos (permissioned). En la primera no hay restricciones para poder realizar transacciones y crear nuevos bloques, de modo que se ofrecen monedas o activos digitales nativos de la red como recompensa a los usuarios que quieran mantener la red. Es descentralización, tal como Bitcoin. Las segundas son desarrolladas por entidades generalmente privadas, en muchos casos para uso interno, y los usuarios de estas necesitan permisos por parte de los administradores de la red para interactuar con el protocolo. Este es el tipo de blockchain que están probando los bancos: son centralizadas, es decir, controladas por la entidad y no por los usuarios. PARECIDOS, PERO NO IGUALES Los términos que aluden a esta tecnología en su conjunto como una base de datos organizada en bloques, cifrada y distribuida entre muchos usuarios, suelen ser tres: Tecnología Blockchain, Tecnología de Contabilidad Distribuida y Tecnología Bitcoin. Sin embargo, a pesar de que todos significan esencialmente lo mismo, son utilizados también para mencionar ciertos tipos específicos de blockchain. Es decir, adquieren su definición más puntual según su contexto, pues sucede, por ejemplo, como el nombre de ‘Salvador’: este puede tanto aludir a todo el país como sólo a su capital. De ese mismo modo, decir simplemente Blockchain puede aludir tanto a la tecnología en su conjunto como a la plataforma original de Bitcoin. Acompañar la palabra con Tecnología suele ser lo adecuado para un contexto amplio, y este, a su vez, es un término que suele usarse en las


cadenas públicas, pues existe cierta polémica en si se debería o no llamar ‘blockchain’ a las plataformas privadas. No obstante, este uso no es limitativo, pues muchos bancos lo utilizan para referirse a sus pruebas y, en general, es el más utilizado por todos los desarrolladores y usuarios. Tecnología de Contabilidad Distribuida o DLT (Distributed Ledger Technology) también es la misma Tecnología Blockchain. Suele usarse, sin embargo, en el ámbito del desarrollo privado y más bien alejada de Bitcoin como criptomoneda. A diferencia de ‘Blockchain’ no posee doble significado, pues sólo es capaz de aludir a la tecnología de forma completa. Por último, Tecnología Bitcoin es el término más ambiguo de los tres. Puede hacer referencia a tres conceptos: la tecnología de contabilidad distribuida en su conjunto, la blockchain de Bitcoin en particular o incluso los protocolos que han permitido el desarrollo de todas las criptomonedas. Debido a esto, no suele utilizarse demasiado. APLICACIONES Siendo esta una tecnología joven, seguramente aún no se han descubierto o desarrollado lo suficiente todas sus aplicaciones posibles. Sin embargo, hay un cierto número de usos que son bastante recurrentes. – Criptomonedas: su función principal en este campo es, esencialmente, transferir valor, evitando que una unidad de moneda digital o criptomoneda se pueda gastar dos veces, dado que registra cada transacción una única vez y de forma inalterable. Muchas criptomonedas han desarrollado su propia blockchain, como SolarCoin y Zcash, pero otras prefieren confiar en la ya madura estructura de Bitcoin y se construyen en base a su plataforma, tal como los activos digitales deCounterparty. – Transacciones y sistemas de pago: cualidades intrínsecas de la blockchain son la velocidad, la seguridad y la privacidad que permite a los usuarios a la hora de realizar transacciones. Por ello muchas empresas, en su mayoría bancos e instituciones financieras, han tomado la DLT para construir sus propias plataformas que permitan, por ejemplo, acelerar la velocidad y reducir los costos de los pagos internacionales e interbancarios. Buen ejemplo de ello es Ripple, que incluso ofrece sus servicios a distintas empresas. – Registro de documentos: la blockchain es un gran registro al que muchas partes pueden acceder desde cualquier lugar del mundo. Y no sólo registra activos, sino virtualmente cualquier cosa. Por esto ya está siendo usada para registrar y verificar la autenticidad de toda clase de documentos, desde títulos universitarios y actas matrimoniales hasta historiales médicos, área que por cierto ha tenido mucha atención, pues permitiría unir en una sola plataforma a hospitales, aseguradoras y prestamistas, lo que aceleraría exponencialmente el proceso sanitario. Toda una conferenciasobre la blockchain en la salud ya fue llevada a cabo, mientras que la plataforma Stampery ya permite este tipo de registro. – Cadena de suministro: saber exactamente de dónde provienen las cosas es siempre un problema, pero la blockchain es capaz de resolverlo. Con esta tecnología es posible marcar casi cualquier objeto con una huella digital única que seguirá todo su ciclo de vida desde el principio. Gracias a esta cualidad, resulta perfecta para su uso en la compleja cadena de


suministro, algo que ya ha probado Provenance al implementar esta estructura para evitar la pesca ilegal, o Walmart, que se encuentra en pruebas para asegurar la inocuidad de los alimentos. En la misma línea también está la gigante IBM, que está trabajando para resolver el problema de la última milla. – Contratos inteligentes y aplicaciones descentralizadas (Dapps): la blockchain también es capaz de crear la infraestructura adecuada para crear contratos inteligentes, es decir, acuerdos digitales automatizados en los que nuevamente se elimina la necesidad de confiar en terceras partes para su cumplimiento. Los términos quedan establecidos en principio a conveniencia de las partes, y más tarde son cumplidos gracias al código, como una tarea programada. A su vez, estos abren una casi infinita gama de posibilidades que pueden traducirse en las aplicaciones descentralizadas: funcionalidades informáticas de todo tipo que no son controladas por una sola parte, sino distribuidas sobre la blockchain. El ejemplo más famoso de ello es, sin duda, la plataforma descentralizada Ethereum. – Entretenimiento: varios videojuegos y juegos de azar se han construido sobre una cadena de bloques o bien apoyándose en algún activo digital propio de ella. La velocidad, transparencia y, sobre todo, las recompensas, están aseguradas. En este ámbito tenemos a Spell of Genesis, un juego de cartas, Takara, una aplicación de realidad aumentada, y vDice, una plataforma de apuestas descentralizada. Por otro lado, también se encuentran las redes sociales que ofrecen micropagos en criptomonedas a sus usuarios a cambio del contenido que proporcionen y que es almacenado de forma transparente, inalterable y pública en una blockchain. Tal es el caso de Steemit. – Comercio: la transparencia y seguridad son certezas del código, así que su uso en el comercio era inevitable. Sobre sus propias cadenas de bloques se han construido plataformas de compra y venta electrónica como OpenBazaar yLBRY; donde esta última incluso permite a los autores poner el precio que deseen a su trabajo creativo y cobrar todas las ganancias, sin intermediarios. Pero seguramente este es sólo el comienzo. La blockchain también se ha utilizado para autenticar fondos de caridad, relacionado a procesos energéticos e incluso se usa para mejorar el sistema de publicidad online. A este ritmo, muy pronto cambiará toda nuestra vida cotidiana. COMPAÑÍA DE DIAMANTES ‘DE BEERS’ INVIERTE EN PROYECTO BLOCKCHAIN PARA SU CADENA DE SUMINISTRO Por Jorge Quijije


De Beers, una de las empresas de diamantes más conocidas del mundo está incursionando en el sector Blockchain a través de una plataforma de seguimiento de activos. La compañía anunció hoy a través de su director general que planea utilizar esta tecnología en un intento por aumentar la transparencia en toda la cadena de suministro de diamantes. La firma es el mayor minero de diamantes en el mundo, y afirma que desea utilizar la plataforma de rastreo en el proceso de distribución de diamantes, así como para aliviar las preocupaciones sobre el lavado de dinero y el tráfico de diamantes que actualmente representan un conflicto para la industria. El CEO de la empresa, Bruce Cleaver, dio a conocer la iniciativa en una publicación del blog de la empresa publicada el día de hoy, escribiendo: Esta plataforma de trazabilidad de diamantes está respaldada por la tecnología Blockchain, que permite un registro digital altamente seguro que crea un registro de interacciones permanente y a prueba de manipulación, en este caso, un camino de diamantes a través de la cadena de valor. Cleaver describió una serie de características que tendrá la plataforma, incluidos los controles de privacidad para los participantes y un amplio acceso a los usuarios potenciales. Tal como está, el sistema no tiene fecha de lanzamiento, aunque el ejecutivo indicó que el proceso de desarrollo se ejecutará en los próximos meses e involucrará la participación de los interesados. Asimismo, Cleaver dijo que seguirían trabajando con líderes de toda la industria y compartirán su progreso con todos. El hecho de que De Beers esté realizando estos movimientos no sorprende, dado el trabajo en esta área por parte de nuevas empresas de la industria y los organismos internacionales como las Naciones Unidas, que también se ha visto involucrada en el estudio de Blockchain. En septiembre de 2016, el grupo detrás del Proceso de Kimberly, una iniciativa que busca alejar a los diamantes en conflicto del mercado global, dijo que estaba aplicando la cadena de bloques como parte de una forma de rastrear las estadísticas de comercio de diamantes. RESCATE EN BITCOINS, GARANTÍA DE ANONIMATO PARA CIBERATAQUE U OTROS DELITOS .Ataque constituyó una demostración de fuerza, afirma experto La página web del Servicio Nacional de Salud (NHS) del Reino Unido advertía el viernes sobre el trastorno originado por un virus que infectó su sistema informático. París Los autores del ciberataque mundial lanzado el viernes exigen el pago de un rescate en bitcoins, una moneda digital que permite el anonimato pero, en este caso, ante la movilización internacional, quizás no sea suficiente para ocultar sus rastros, aseguran expertos. El bitcoin, que nació de un programa subido a Internet en febrero de 2009 creado por uno o varios informáticos utilizando el nombre de Satoshi Nakamoto, es una moneda virtual autorregulada, que preserva el anonimato de sus propietarios.


En la pantalla que aparece en centenares de miles de computadoras infectadas por el virus "WannaCry" en los últimos días en 150 países, aparece un vínculo para permitir a las víctimas comprar bitcoins y luego una dirección para enviar el rescate, a cambio de la promesa de los piratas de liberar los documentos criptados por el virus. "El bitcoin es el dinero en efectivo digital", explicó Nicolás Debock, inversor de Balderton Capital, especialista en monedas virtuales. "Las transacciones son totalmente anónimas, no recusables. En cambio, es posible rastrearlas", continuó. "Todas las transacciones están inscritas en las cadenas de bloques, llamadas blockchains. Es anónimo, pero todo el mundo puede vigilar una dirección bitcoin y ver cómo se mueve el dinero", agregó. "Nadie podrá tomar ese dinero, pero será posible seguir el rastro de la actividad de esa cuenta", aseguró. Para Pierre-Antoine Gailly, relator en 2015 de un informe sobre el bitcoin y las monedas virtuales para el Consejo Económico, Social y Medio ambiental francés (CESE), esto plantea "un problema mayor". "El bitcoin no necesita de ningún banco, por lo tanto esta circulación 'monetaria' escapa a toda supervisión, a todo control", dijo a la AFP. "Las cuentas no tienen una dirección física, no hay dirección bancaria, no hay un emisor central", explicó subrayando que se destaca el anonimato. La importancia de los daños a las computadoras del mundo entero, la cantidad de víctimas y de países concernidos por este pirateo de una gravedad inédita, obligará seguramente a los servicios internacionales de investigación y de inteligencia a vigilar de cerca la dirección bitcoin indicada para el pago de los rescates, estiman los expertos. Existen servicios, llamados "tumblers", que prometen a los poseedores de bitcoin hacer totalmente anónimas sus cuentas en moneda virtual. "El tumbler va a dividir las sumas en bitcoin en millares de pequeñas partes, repartirlas en millares de direcciones diferentes y hacer múltiples transacciones", explicó Manuel Valente, director en París de la casa del Bitcoin. "Al cabo de una semana se vuelve a poner todos estos bitcoin en una nueva dirección, cubriendo los rastros. Son sistemas de lavado de bitcoin. En la 'darkweb' hay gente que propone ese tipo de servicio", indicó. La importancia de los daños de este ciberataque hará que la policía y los servicios de inteligencia del mundo entero vigilen de cerca la cuenta bitcoin de los piratas. Para Clément Francome, director general de Utocat, empresa de programas informáticos especializada en la tecnología blockchain, los piratas lo saben tan bien que la colecta de dinero a través de rescates no es quizás el verdadero objetivo de este ciberataque. "La idea era quizás mostrar al resto del mundo que dieron un golpe muy, muy importante. Con un ataque similar, van a hacerse conocidos entre los piratas internacionales. Este equipo hizo una demostración de fuerza y supongo que en no mucho tiempo hará otra", dijo. Represión de Bitcoin en el Reino Unido por lavado de dinero, evasión de impuestos


El Tesoro del Reino Unido ha anunciado planes para regular fuertemente la transferencia de criptomonedas con el fin de tomar medidas enérgicas contra el lavado de dinero y la evasión de impuestos. Las regulaciones no han sido estipuladas con especificidad, pero ciertamente incluirán detalles contra el lavado de dinero (AML) y conocer a su cliente (KYC). El reglamento está previsto que entre en vigor antes de finales del 2017, o solo a principios del 2018. El aumento de las regulaciones, en línea con las directivas de la UE, tiene como objetivo limitar la cantidad de anonimato posible para los comerciantes de criptomonedas. De acuerdo con John Mann, uno de los miembros del comité del Tesoro: "Estas nuevas formas de intercambio se están expandiendo rápidamente y tenemos que asegurarnos de que no nos dejen atrás, eso es particularmente importante en términos de lavado de dinero, terrorismo o robo puro. No estoy convencido de que las autoridades reguladoras estén manteniéndose al día. Me sorprendería que el comité no tenga una consulta el año próximo. Sería oportuno tener una visión adecuada de lo que esto significa. Puede ser que deseemos acelerar nuestro uso de este tipo de en este país, pero eso hace que sea aún más importante que no tengamos un retraso regulatorio." Otras regulaciones Otras regulaciones se han visto amenazadas en todo el mundo, ya que el precio de Bitcoin se dispara. Con la explosión de la adopción y la afluencia masiva de capital institucional a través de futuros y otros contratos, Bitcoin se está convirtiendo en una realidad financiera mucho más grande que nunca antes. China, Rusia y otros países han dejado en claro que la moneda digital estará fuera de los límites, mientras que otros países como Suiza y Malta son aparentemente mucho más abiertos. CÓMO UNO DE LOS PRIMEROS CIBERATAQUES DE ORIGEN RUSO DE LA HISTORIA TRANSFORMÓ A UN PAÍS


Damien McGuinnessBBC

on más experiencia en temas de seguridad cibernética. Ciberataques, guerras de información, noticias falsas… hace 10 años Estonia fue uno de los primeros países en ser víctima de esta nueva forma de contienda híbrida, un evento que aún marca al país hoy. Con la cabeza gacha, un puño cerrado y usando el uniforme del Ejército Rojo de la Segunda Guerra Mundial, la ahora célebre escultura del Soldado de Bronce se encuentra en una esquina silenciosa de un cementerio en las afueras de la capital de Estonia, Tallin. A sus pies alguien dejó recientemente un ramo de flores. La imagen que transmite es de paz y dignidad. Pero en abril de 2007 una pelea por esta misma estatua desató lo que terminaría siendo el primer ciberataque conocido contra todo un país. La agresión mostró cuán fácil es para un país hostil aprovecharse de potenciales tensiones dentro de una sociedad para causar daño. Pero también ayudó a convertir a Estonia en una potencia de la ciberseguridad.  Estonia, la diminuta república báltica que pasó de ser un satélite soviético a convertirse en la meca tecnológica de Europa  Del chispazo al apagón El Soldado de Bronce, que fue instalado por las autoridades soviéticas en 1947, originalmente se llamó “Monumento para los Libertadores de Tallin”. Para los estonios de habla rusa representa la victoria de la Unión Soviética sobre los Nazis. Pero para quienes son de etnia estonia, el Ejército Ruso no fue libertador sino invasor y el Soldado de Bronce es un doloroso recuerdo del medio siglo de ocupación y opresión soviética. En 2007 el gobierno estonio decidió mudar el Soldado de Bronce del centro de Tallin a un cementerio militar en los suburbios de la capital. Protestas La decisión generó mucho enojo en los medios de lengua rusa y muchos ruso parlantes salieron a las calles para protestar. Las manifestaciones se caldearon debido a noticias falsas en medios rusos que aseguraban que la estatua y cercanas tumbas militares soviéticas estaban siendo destruidas.


n de mudar la estatua y luego comenzaron los ciberataques. El 26 de abril de 2007 Tallin hizo erupción con dos noches de disturbios y saqueos. Una persona murió, 156 resultaron heridas y hubo 1.000 detenidos. Una guerra distinta A partir del 27 de abril Estonia también fue blanco de enormes ciberataquesque en algunos casos duraron semanas. Las páginas web de bancos, medios de prensa y organismos gubernamentales colapsaron debido a niveles sin precedente de tráfico en internet. Redes de robots informáticos -conocidos como botnets- enviaron cantidades masivas de mensajes basura (spam) y pedidos automáticos online para saturar los servidores. El resultado fue que los estonios se quedaron sin poder usar cajeros automáticos y servicios de bancos online. Los empleados estatales no pudieron comunicarse por correo electrónico.

Ciberagresión Y los diarios y medios de comunicación se encontraron de golpe con que no podían transmitir las noticias.


Liisa Past era la editora de la página de opinión de un diario estonio en ese momento y recuerda cómo de pronto los periodistas no podían subir sus artículos al sistema de edición para mandarlos a imprimir. Hoy Past es una experta en ciberdefensa en la empresa estatal Autoridad de Sistemas de Información. “La ciberagresión es muy diferente que la guerra cinética (desde el espacio)”, explica. “Te permite crear confusión sin tener que llegar a los niveles de un ataque armado”. “No son ataques que ocurren exclusivamente entre Occidente y Rusia. Todas las sociedades modernas son vulnerables”, señala. Sin ayuda Los ciberataques permiten que un país hostil genere disturbios e inestabilidad en una nación perteneciente a la Organización del Tratado del Atlántico Norte (OTAN), como Estonia, sin temor de una represalia militar de los aliados de la OTAN.

El Artículo Cinco de esa alianza garantiza que los miembros de la OTAN se defenderán entre ellos, incluso ante un ataque ciberespacial. Sin embargo, ese artículo solo se implementaría si un ciberataque causara una masiva pérdida de vidas, similar a la que generaría una acción militar tradicional. También es difícil la represalia cuando cuesta identificar al responsable del ataque. Los atentados de 2007 se hicieron desde direcciones de IP rusas, las instrucciones online estaban en ruso y Moscú ignoró los pedidos de ayuda de Estonia. Sin embargo, no hay evidencias concretas de que estos ataques los realizó el gobierno ruso. Tras la evidencia Un representante del gobierno estonio le dijo a la BBC bajo condición de anonimato que las pruebas sugieren que el ataque “fue orquestado por el Kremlin pero luego pandillas maliciosas aprovecharon la oportunidad para sumarse al ataque contra Estonia”. Los países hostiles suelen contar con que hackers copiones, grupos criminales y actores políticos freelance se sumen a ellos.


Qué dice el informe de inteligencia desclasificado que culpa a Rusia y a Putin de ordenar ciberataques para influir en las elecciones de Estados Unidos 2007 fue un llamado de alerta que ayudó a los estonios a convertirse en expertos en ciberdefensa. "Fue una gran prueba de seguridad. No sabemos a quién enviarle el cheque”, dice Tanel Sepp, un experto en ciberseguridad del Ministerio de Defensa de Estonia. Los ciberataques del Soldado de Bronce fueron los primeros sospechados de haber sido lanzados por una nación contra otra. Práctica extendida Pero desde entonces la guerra cibernética ha sido usada en todo el mundo, incluyendo en la guerra de Rusia contra Georgia en 2008 y en Ucrania. “Lo ciber se ha convertido en una herramienta muy seria para perturbar a la sociedad con fines militares”, afirma Sepp.


Es por eso que el gobierno estonio ha implementado una Unidad de Ciberdefensa formada por voluntarios. Se trata de una fuerza mucho menos conocida que la Liga de Defensa Estonia, que cada fin de semana reúne a 25.000 voluntarios que van al bosque para aprender a disparar. El Ministerio de Defensa entrena a los principales expertos en Tecnología Informática del país. Estrategia Allí obtienen pases de seguridad y se mantienen anónimos. Ellos donan su tiempo libre para defender a su país practicando qué hacer si un servicio público o de primera necesidad es derribado por un ciberataque.

mas online de varias instituciones estonias. Se trata de un talento proveniente del sector privado que normalmente los estados no pueden contratar porque son demasiado caros. Pero el recuerdo de 2007 ha servido para atraerlos. Los ataques quedaron grabados en el inconsciente colectivo y sirvieron para probar la importancia de la ciberseguridad. Diez años después de los ataques, el Soldado de Bronce sigue siendo un recordatorio de cómo el complicado pasado de Estonia aún puede afectar su presente.


REINO UNIDO PREPARA REGULACIÓN CONTRA BLANQUEO DE DINERO Y EVASIÓN TRIBUTARIA EN CRIPTOMONEDAS Desde las instituciones financieras buscan obtener información sobre las transacciones de los usuarios. Las criptomonedas continúan estando en la mira de las instituciones económicas internacionales. Ahora, Reino Unido y otros países de la Unión Europea, se preparan para regular el bitcoin y otras criptomonedas famosas, tras sospechar que entre sus intercambios, se esconden usuarios que blanquean dinero o evaden impuestos. Aunque el debate sigue estando polarizado, y hay quienes señalan que las criptomonedas aún son demasiado menores como para desestabilizar la economía, hay otro sector que propone regular su intercambio antes de que la tendencia siga creciendo. Sin ir más lejos, recientemente el Servicio de Impuestos Internos de EE.UU emplazó al criptomercado Coinbase a revelar la identidad de 14.000 usuarios, por sospechas de evasión tributaria. En tanto, en una declaración del departamento gubernamental encargado de la economía británica HM Treasury, se expresó que existían planes para regular las transacciones con criptomonedas, a modo de que no quedasen exentas de la legislación financiera del país, y evitar el “lavado de dinero, financiamiento terrorista y evasión de impuestos.” Aunque ciertamente los fines de los usuarios pueden ser muchos, con esta medida podría quedar al descubierto la identidad de varios de ellos. Estamos trabajando para abordar las preocupaciones sobre el uso de las criptomonedas y pretendemos que las plataformas para llevar a cabo intercambio de divisas virtuslae estén dentro de la regulación. La forma de llevar a cabo esto, será emplazando a las plataformas que prestan los servicios a que analicen los movimientos en busca de transacciones sospechosas. En este marco, el secretario económico de HM Treasury, declaró al medio británico The Guardian que buscan tener una legislación actualizada que se adecue a los nuevos cambios de la economía: Actualmente, el Gobierno de Reino Unido está negociando enmiendas a la directiva de la anti money laundering (prevención del blanqueo de capitales) que traerá a las plataformas virtuales (donde se intercambian criptodivisas) para la aplicación de la regulación contra el lavado de


dinero y el financiamiento terrorista. Esto permitirá que las autoridades competentes puedan supervisar mejor las actividades de las empresas de estas áreas. La noticia viene de la mano del reciente anuncio del Petro, la primera criptomoneda estatal venezolana, fundada para fortalecer la economía local y evitar el bloqueo económico. Así mismo, Rusia ya había anunciado hace unos meses la creación del Criptorublo. MONEDAS DIGITALES RUSIA ACEPTA EL BITCOIN PARA LUCHAR CONTRA EL LAVADO DEL DINERO Las autoridades preven reconocer el bitcoin y otras criptomonedas para 2018 y acotar más la fuga de capitales, como medidas de seguridad.

En 2016 el Ministerio de Economía ruso amenazaba con mandar a la cárcel a cualquier persona que usara monedas digitales, como el bitcoin. Girando 180 grados, ahora viene a aceptarlas como instrumento financiero legal para abrir una nueva línea de ataque contra el lavado de dinero. Las autoridades preven reconocer el bitcoin y otras criptomonedas en 2018 ya que tratan de hacer cumplir las normas contra las transferencias ilegales, explicó el viceministro de Economía Alexey Moiseev en una entrevista. El banco central está adoptando una posición conjunta con el gobierno respecto de las monedas digitales, según su servicio de prensa.


"El estado necesita saber a cada momento quién está a ambos lados de la cadena financiera”, dijo Moiseev. "Si hay una transacción, las personas que la facilitan deben saber a quién le compraron y a quién le venden, tal como ocurre en las operaciones bancarias”. Si bien bitcoin no está regulada por ningún gobierno, en algunos países se la sometióa un creciente control por ser una forma de proteger los activos de las autoridades o de blanquear ganancias mal habidas. En China, que tuvo un papel central en la negociación y la minería de bitcoin en los últimos años, las tres mayores bolsas impusieron un moratoria a todas las extracciones de monedas en marzo mientras el banco central emitía nuevas directrices sobre su uso CIBERATAQUE, MONEDAS VIRTUALES Y LAVADO DE ACTIVOS Por Martina Cirimele

viernes 12 de mayo, el mundo quedó consternado frente a lo que muchos han denominado el ciberataque más grande la historia. Ciento cincuenta países se vieron afectados por el avance del virus WannaCry. Este ingresaba a los sistemas operativos de Windows y bloqueaba las principales funciones del sistema operativo, impidiendo el acceso a los programas de uso cotidiano tales como Word, Excel, entre otros. El ataque se cobró 200.000 víctimas y tomó como objetivos principales a instituciones estatales y empresas multinacionales. Lo particular del ataque fue que los ciberdelincuentes pidieron que se abonara una especie de rescate para que habilitaran nuevamente las máquinas infectadas con todos sus programas, a través de la moneda virtual BITCOIN. Esto es el punto más interesante del caso, ¿por qué eligieron que el pago se realice a través de BITCOIN?


En siete puntos vamos a desarrollar qué son las monedas virtuales y cuáles son las características que poseen los bitcoins basándonos en el informe “Directrices para un enfoque basado en riesgo para monedas virtuales”, publicado en el año 2015 por el GAFI. ¿QUÉ ES UNA MONEDA VIRTUAL? Una moneda virtual es una representación digital de valor que puede ser comerciada de manera digital y funciona como (1) un medio de intercambio; y/o (2) una unidad de cuenta; y/o (3) un depósito de valor, pero no tiene estatus de moneda de curso legal en cualquier jurisdicción. No es emitida ni garantizada por ninguna jurisdicción y cumple con las funciones anteriores sólo por acuerdo dentro de la comunidad de usuarios de la moneda virtual. ¿QUÉ SON LOS BITCOINS? CARACTERÍSTICAS Los bitcoins son:  Una clase de moneda virtual, basada en cálculos matemáticos y algoritmos.  Abiertas: tienen un valor equivalente en moneda real y se puede intercambiar de acá para allá por moneda real.  Descentralizadas: estas monedas no cuentan con un autoridad central de administración y ningún monitoreo o supervisión central, es decir no dependen de ningún banco central, de ningún país.  Una cripto-moneda: esto significa que los bitcoins son una moneda virtual, convertible o abierta, descentralizada, basada en la matemática y que, además, está protegida por criptografía. La seguridad, integridad y el balance de los libros de cripto-moneda está garantizada por una red de partes mutuamente desconocidas quienes protegen toda esta red a cambio de honorarios.  Las personas que usan los bitcoin como medio de pago lo hacen mayormente porque esta moneda virtual protege la privacidad de aquel que opera con ella. Además, promueve la libertad económica, basada en el anonimato y una seguridad de alta tecnología a través de Blockchain, que es una base de datos compartida que funciona como un libro para el registro de operaciones de compra-venta o cualquier otra transacción. Aquí nos encontramos con una paradoja: a través de Blockchain, se hacen públicos los historiales financieros. Si bien, a primera vista, pareciera que todos los movimientos financieros que se realicen con bitcoin quedan registrados y son pasibles de ser rastreados, se ha visto que no es tan así con el ciberataque del 12 de mayo. Si la persona hace mezclas o acuerda hacer una transacción conjunta, el origen de los bitcoins podría ser muy difícil de localizar, sobre todo porque trazar el vínculo entre las direcciones virtuales y las compañías o las personas reales detrás de las cuentas virtuales resulta lo más complicado de este sistema de intercambio.


UBS, SOBRE EL BITCOIN: "ADVERTIMOS CONTRA ESTE PRODUCTO, NO ES NI VALIOSO NI SOSTENIBLE"

El banco suizo UBS, considerado el mayor gestor de activos del mundo, ha decidido no recomendar a sus clientes inversiones en bitcoin por su inestabilidad y otros tipos de desventajas, según ha comentado el presidente de la entidad, Axel Weber. El bitcoin registra en la sesión presente leves caídas, que se suman a las que sufrió en la parte final de la jornada de ayer. Así y tras haber estado cerca de tocar los 20.000 dólares, hoy el bitcoin cae por debajo de los 19.000 dólares la unidad. "Hemos decidido que no recomendamos bitcoins como una inversión para nuestros clientes. Como banco, advertimos contra este producto porque no lo consideramos valioso ni sostenible", indicó el ejecutivo en una entrevista que publica hoy el diario helvético NZZ am Sonntag. NINGUNA REGULACIÓN La falta de regulación de la criptomoneda es un problema fundamental que observa Weber, al recordar que los inversores minoristas son advertidos, por ejemplo por un fondo de cobertura, del riesgo de perder sus activos, lo que no sucede cuando se compran bitcoins. Si tal regulación existiese, considera el responsable de UBS, contribuiría a poner orden en los incontrolados aumentos de precio de la moneda virtual. En su opinión, agregó, el bitcoin no es dinero porque no reúne sus cualidades y una desventaja adicional es que el número de monedas emitidas es limitado.


Sin embargo, Weber reconoció que en lo que sí ve es "un gran potencial" es en la tecnología en la que se basa el bitcoin, que es la llamada cadena de bloques o blockchain. En comentarios sobre la política monetaria, Weber consideró probable que el Banco Central Europeo (BCE) empiece a subir muy lentamente los tipos de interés a partir de finales de 2018, quizás ?elevando las tasas de interés del -0,45 % al 0 % o ligeramente por encima del 0 %?. Agregó que en todo caso espera que el presidente del BCE, Mario Draghi, ?vuelva a colocar las tasas de interés en terreno positivo? antes de que expire su actual mandato, en octubre de 2019. Sobre las consecuencias para Europa y Suiza, en particular, de la reforma fiscal que rebaja de forma importante los impuestos de las corporaciones en Estados Unidos, el presidente del UBS dijo que esto diluye uno de los mayores incentivos que había llevado a algunas compañías de este país a declarar sus beneficios fuera de él. Reconoció que el recorte de impuestos impulsado por la Administración de Donald Trump "genera presión para que los demás encuentren maneras de seguir siendo atractivos". "Tanto Suiza como Europa tendrán que preocuparse si quieren mantener sus ingresos fiscales", reconoció.

10 claves para conocer la criptomoneda

Como alternativa a las sanciones económicas impuestas por Estados Unidos contraPetróleos de Venezuela (Pdvsa), la República y funcionarios del Gobierno nacional, elpresidente Nicolás Maduro anunció la creación de una nueva criptomoneda denominada “Petro” para combatir el “bloqueo financiero”. El anuncio ocurrió en medio de una crisis económica agravada por el desmantelamiento del aparato productivo del país, la escasez de bienes y servicios generada por la caída en las importaciones, y el ingreso en un proceso de hiperinflación que acaba con el poder adquisitivo del venezolano, según indicaron los expertos. A continuación las claves para entender las criptomonedas


1-. Las criptomonedas, conocidas también como monedas digitales, se utilizan como instrumentos financieros que permiten realizar transacciones virtuales en todo el mundo. Sin embargo, contrario al sistema financiero monetario, las garantías de seguridad en las plataformas digitales carecen de reglas preestablecidas.  2-. Para ser reconocida como criptomoneda, ésta debe contar con vendedores y compradores a través de los sistemas de pagos virtuales. Por lo cual, sin excepción, todas las monedas digitales existen y son sostenidas por el nivel de confianza que tenga el público sobre ellas.  3-. A través de estas transacciones puede adquirirse cualquier tipo de producto, desde computadoras hasta muebles, y permite el fortalecimiento de la moneda virtual, que es guiada por la oferta y la demanda en el mercado.  4-. Entre las criptomonedas más reconocidas se encuentran el Litecoin, Namecoin, PPcoin, Ethereum y el Bitcoin, la cual actualmente posee el mayor valor: equivale a más de 11.000 dólares.  5-. Cada criptomoneda cuenta con un sistema Blockchain, o cadena de bloques, que contiene una base de datos que permite el buen funcionamiento del sistema de transacciones. Un sistema de base de datos encriptados que brindan la seguridad de la moneda electrónica.  6-. Ninguna criptomoneda es emitida por Gobiernos y tampoco cuenta con un respaldo jurídico único. Vienen siendo únicamente plataformas electrónicas que permiten hacer negocios, con altos riesgos, y sin ni siquiera poder conocer a los participantes de las transacciones.  7-. Cada transacción hecha por este sistema no requiere de intermediarios; es decir, es únicamente de persona a persona. Según Satoshi Nakamoto, creador del Bitcoin, cada transacción hecha por criptomoneda puede realizarse de manera segura y sin posibilidad alguna de fraude.  8-. Mientras algunos alegan que estos sistemas digitales facilitan los pagos de bienes y servicios, sus detractores lo consideran como una plataforma que permite negocios turbios, en los cuales abundan casos de corrupción como el tráfico de personas e, incluso, el lavado de dinero.  9-. Joseph Stiglitz, premio Nobel de Economía en 2001, entrevistado en el programa Business Daily de la BBC, afirmó que “la verdadera razón por la cual la gente quiere una moneda alternativa es para participar en actividades viles: lavado de dinero, evasión fiscal”. Y agregó que debe exigirse transparencia en las transacciones financieras con criptomonedas lo cual, cree, “simplemente colapsaría” el valor de las monedas digitales.  10-. Debido a la inflación, la constante devaluación del bolívar y el control de cambio poco transparente que impera en el país desde hace 15 años, el Ejecutivo nacional y los venezolanos ven en las criptomonedas una nueva forma de palear la crisis económica. NARRATIVAS POPULARES SOBRE ESTA MONEDA 1. La primera que podría considerarse como positiva es que las monedas virtuales son la ola del futuro para los sistemas de pago.


2. En línea con el primer punto, diferentes países del mundo han avanzado en este camino y han reconocido los bitcoin como medio de pago. 3. La tercera narrativa sobre esta moneda, es que pueden ser consideradas una nueva herramienta poderosa para los delincuentes financieros y terroristas para mover y almacenar fondos ilícitos, fuera del alcance de los organismos de control y supervisión (aunque, las monedas de curso legal también se utilizan en la comisión de estos delitos). 4. Como cuarto punto, es que a medida que avanza la aceptación de Bitcoin como medio de pago en los distintos lugares, también se adoptan regulaciones para controlar su uso. EL LADO BUENO DE LAS MONEDAS VIRTUALES Las monedas virtuales tienen sus beneficios, sirven para mejorar la eficiencia de pagos y reducir los costos de las transacciones. Los bitcoins, por ejemplo, funcionan como una moneda mundial que puede evitar las tasas de cambio, sus costos o cargos son más bajos que los de las tarjetas de crédito o débito y hasta puede facilitar las transacciones en sistemas existentes de pago en línea, tales como Paypal. 5. RIESGOS POTENCIALES Las monedas virtuales convertibles que se pueden cambiar por moneda real u otras monedas virtuales son potencialmente vulnerables al abuso de lavado de activos y la financiación terrorista por las siguientes razones:  Proporcionan un mayor nivel de anonimato respecto de los métodos tradicionales de pago sin efectivo  Se caracterizan por relaciones de clientes que no se conocen, no se ven las caras y esto permite la financiación anónima.  Puede permitir transferencias anónimas, si el remitente y el destinatario no están adecuadamente identificados.  Los sistemas descentralizados son particularmente vulnerables a los riesgos del anonimato. Por ejemplo, por diseño, direcciones de Bitcoin, que funcionan como cuentas, no tienen ningún nombre u otra identificación de cliente conectado, y el sistema no tiene ningún servidor central o proveedor de servicios.  El protocolo de Bitcoin no requiere o proporciona la identificación y verificación de los participantes o genera registros históricos de las transacciones que están necesariamente asociadas con la identidad del mundo real.  No hay ningún órgano de supervisión central para monitorear e identificar patrones de transacciones sospechosas. ALGUNOS CAMBIOS EN LAS REGULACIONES A NIVEL MUNDIAL El informe del Banco Central de la República Argentina, “BITCOIN: Un desafío para la ejecución de políticas de la Banca Central” explica que “pese a que Bitcoin nació con la intención de funcionar por fuera de toda regulación, ésta resulta inevitable”. Además, agrega que “Su avance con propósitos de alternativa o de reemplazo de la moneda de curso legal se desarrolla en algunos países al margen de todo alcance regulatorio, y en otros bajo un status jurídico difuso, lo cual se debe a que en gran medida no se ha advertido aún su


presencia o su significancia, y a que BTC no se ajusta exactamente a ninguno de los conceptos jurídicos clásicos sobre los cuales se han dictado distintas normas financieras, cambiarias y de banca central, lo cual conduce a pensar a qué leyes o normas y de qué manera sujetarlo”. A su vez, reconocen que aunque no existe un régimen legislativo especial sobre Bitcoin, los países se han ido expidiendo de manera directa o indirecta sobre la naturaleza de esta moneda virtual. Algunos “lo hicieron a partir de diversas disposiciones, tales como las de lavado de dinero (v.gr. US), impositivas al tratarlo como un activo (v.gr. Alemania), y también aquellas de competencia de la banca central, como la de índole monetaria al desconocerle el carácter de moneda y por ende prohibirlo (Tailandia) o la financiera (al prohibirle a las entidades su uso (China) o establecerles límites (el caso de Francia)”. Por otra parte, a medida que los operadores financieros observaron que muchos de los aspectos negativos (presentes o potenciales) de Bitcoin eran los mismos que estaban presentes en la moneda de curso legal, fueron cambiando su mirada respecto de los mismos, porque entendieron que no es necesario boicotear los sistemas regulatorios vigentes, sino que se presenta el desafío de implementar un marco regulatorio y de supervisión que no choque con los sistemas actuales sino que puedan complementarse. Esto, es lo que se va dando en los distintos países en donde se utiliza Bitcoin. LA MASACRE QUE SE PREPARA EN EL MERCADO DE LAS CRIPTOMONEDAS

MATTHEW LYNN


Podría pasarse a valores blue chip, poner todo el dinero posible en inmobiliaria y convertir el efectivo en francos suizos y lingotes de oro. Son los destinos para su dinero más alejados de las Bitcoin, Litecoin, Ethereum y demás criptomonedas que están subiendo como la espuma. Pero hay un problema: cuando llegue la crisis (y ya parece inevitable), no le protegerá del todo contra los daños. Los inversores pueden tomar decisiones inteligentes, como desligarse de las finanzas e incrementar el capital tecnológico sobrevalorado, pero la historia nos enseña una lección incómoda: las burbujas, cuando estallan, afectan a todos y esta no va a ser distinta. Todo mercado alcista tiene al menos un activo que se vuelve loco. La última vez fue la vivienda y antes las acciones punto com. Ahora son las Bitcoin y demás monedas digitales lanzadas tras su estela. Como la mayoría de los frenesís inversores, detrás de tanto revuelo hay una buena idea, ya que en una economía global, cada vez más digital, tiene sentido tener dinero digital global con el que comerciar. Sin embargo, eso no significa que valga una fortuna. Al contrario, una de las características de las monedas en funcionamiento es que su valor permanece bastante estable. El dinero digital ha pasado de ser un concepto con potencial a una burbuja. El fin de semana pasado, Bitcoin superó los 9.000 dólares y es muy probable que alcance las cinco cifras en el momento en que lea esto. Algunos rivales se han disparado todavía más deprisa. Los valores totales de las criptos, o como se diga en plural un conjunto de monedas digitales, ya están por encima de los 300.000 millones de dólares. No tiene mucho sentido debatir si están sobrevaloradas o no. Cualquier activo que se multiplique por diez en un año tiene claramente un toque de exuberancia irracional y el que piense lo contrario debe releerse la historia de las finanzas. Quien haya tenido la suerte de poseer Bitcoin habrá debido de venderlas casi todas a estas alturas. El resto evitamos la burbuja, manteniéndonos alejados e invertimos en activos seguros. Pero no creo que baste. La historia nos dice que las crisis afectan a todos, sin importar que hubieran tenido o no una hipoteca basura. El colapso financiero de 2008 y 2009 perjudicó a personas que no tenían nada más arriesgado que algo de efectivo en una sociedad de construcción. Todos sentimos las consecuencias de la crisis punto com, aunque no hubiéramos invertido en una empresa destartalada de Internet. De la misma manera, la criptocrisis expandirá sus efectos por todas partes.


¿Por qué? Hay tres razones. Primero, todo el dinero de capital riesgo que se ha vertido en las criptomonedas podría desaparecer de un plumazo. Algunas recaudaciones fueron enormes: en verano, el cambio monetario Coinbase recaudó 100 millones de dólares, con una valoración de todo el negocio de 1.600 millones de dólares. Esas pérdidas se observarán por todas partes. Después, todas las criptomonedas son una forma de dinero y en 2008 aprendimos lo que ocurre cuando parte del sistema financiero se empieza a tambalear. Las pérdidas se reproducen en los lugares más inesperados. No hay manera de saber qué clase de canjes y contratos de derivados pueden haberse suscrito en una criptomoneda, aunque con un valor combinado de 300.000 millones de dólares, alguno que otro habrá. Ese dinero podría perderse también... y eso hará daño. Por último, podría desencadenar fácilmente una oleada más amplia de ventas. Cuando un puñado de punto com ridículamente sobrevaloradas empezó a caer en el año 2000, no era más que el comienzo de un mercado bajista más amplio. El criptocolapso podría ser el principio del hundimiento de los índices de capital y después la derrota del mercado de bonos cuando se evapore la confianza. Las pérdidas de un par de monedas Bit o Lite tal vez no importen mucho, pero la liquidación generalizada dañará a todo el mundo. Cuando suceda, seguramente será espantosa y repentina. ¿Qué puede hacer el inversor? Hay varias precauciones obvias. Lo más lógico es alejarse de las propias criptos, aunque no será suficiente si el hundimiento del dinero digital es solo el comienzo de una desaceleración más amplia. También deben alejarse de los sectores más propensos a verse afectados por la crisis, como por ejemplo las finanzas. Los grandes bancos serán seguramente contrapartes de cualquier contrato firmado en Bitcoin o sus rivales. Podrían tener préstamos pendientes que desaparecerán. Después de todo, si un fondo de cobertura pide dinero prestado, ¿quién sabe en qué va a especular? Además, los gigantes financieros han invertido en muchas empresas nuevas de moneda digital. Ese dinero tendrá que amortizarse enseguida, aunque no son solo los bancos. Muchas empresas tecnológicas se han visto atrapadas en el delirio. También sufrirán y, como muchas parten de valoraciones astronómicas, las caídas podrían ser aparatosas. Si todo el mercado se hunde, esos sectores serán los más afectados. Sin embargo, algunos activos rendirán bien. El metálico analógico a la vieja usanza será uno de los grandes ganadores. No subirá en valor (no funciona así) pero lo conservará. El oro será el


gran triunfador. No sólo siempre sobresale en las crisis, sino que además se ha hablado mucho de que Bitcoin lo sustituirá como almacén de valor. Cuando las criptos se hundan, todo el mundo correrá hacia la alternativa metálica. Esperen que algunas monedas de refugio seguro salgan bien paradas también. El franco suizo, por ejemplo, será más fuerte que nunca. Hay argumentos convincentes a favor de las criptos. Acabarán convirtiéndose en parte provechosa del sistema financiero, pero se han convertido en una burbuja salvaje. La única respuesta racional para los inversores es empezar a pensar en cómo sobrevivirán a la crisis, porque no tiene sentido perder dinero con una locura tan obvia. REGULACIÓN EN ARGENTINA Argentina, no ha adoptado hasta el momento una posición conceptual sobre el Bitcoin. En el año 2014, la Unidad de Información Financiera dictó la resolución nº 300/2014 en la que establecía que “se entenderá por “Monedas Virtuales” a la representación digital de valor que puede ser objeto de comercio digital y cuyas funciones son la de constituir un medio de intercambio, y/o una unidad de cuenta, y/o una reserva de valor, pero que no tienen curso legal, ni se emiten, ni se encuentran garantizadas por ningún país o jurisdicción”. Como primera cuestión debemos destacar que las monedas virtuales, por sí solas, no son ni malas ni buenas. Pero su mal uso puede ocasionar graves daños en cada uno de los países en los que se comenzó a utilizar con más frecuencia este medio de pago. Específicamente, nos referimos al mal uso cuando se la utiliza como un medio para cometer un delito, en este caso, el ciberataque en donde se utilizaron estas monedas como medio de pago para abonar el rescate de las computadoras infectadas. Como ya vimos, también es una herramienta que puede llegar a ser utilizada para lavar dinero o para financiar el terrorismo, ya que otorga un anonimato muy particular a quienes operan con esta moneda. Estas transacciones de persona a persona de manera anónima parecen existir en un universo digital totalmente fuera del alcance de cualquier país en particular y esto es muy peligroso. Muy pocos Estados ejercen un control o supervisión sobre las mismas. Ésta es la línea que tienen que seguir la mayor cantidad de países posibles. Si bien esta moneda otorga un cúmulo de ventajas, como hemos visto, es necesario que los Estados estén a la altura de las innovaciones tecnológicas y cuenten con los instrumentos adecuados para realizar investigaciones y persecuciones penales que sean necesarias.


El auge que han tomado las inversiones en activos virtuales como Bitcoin, Litecoin, Ethereum ha permitido que los ciberataques y los fraudes a través del internet incrementen, poniendo entre la espada y la pared a las autoridades competentes. Respecto al tema, el gobernador del Banco Central de República Dominicana, Héctor Valdez Albizu advirtió que “los activos virtuales como Bitcoin, Litecoin, Ethereum, entre otros, no cuentan con el respaldo del BCRD y, por lo tanto, no gozan de la protección legal que otorga el marco jurídico de la República Dominicana”. Destacó que recientemente, se han visto en el país esquemas fraudulentos tipo pirámide que han llegado a motivar a potenciales clientes para que inviertan en la moneda virtual denominada Bitcoin. Durante las palabras de bienvenidas del foro “Modernas amenazas a la seguridad: ciberseguridad, comercio ilícito y falsificación de medicamentos”, organizado por la Cámara Británica de Comercio de República Dominicana (Britcham), Valdez Albizu aseguró que este mismo esquema ha sido utilizado también en otros países, con lo que el uso de esa criptomoneda, o activo virtual, entra dentro del ámbito del delito y la ilegalidad en el país. “Este tipo de delincuente debe ser tratado con la severidad que el caso amerita, independientemente de que actúe motivado por razones financieras, ideológicas o por diversión”, dijo. Manifestó que es indispensable tomar medidas legales contundentes frente a los cibercriminales que rondan las entidades y sistemas financieros, ya que a su juicio aumentaría la confianza del público en estos servicios, que, a corto plazo, son una solución para la inclusión financiera y para el crecimiento económico equitativo de los distintos sectores de la sociedad. FORO ORGANIZADO POR LA CÁMARA BRITÁNICA La Cámara Británica de Comercio de la República Dominicana (Britcham), realizó ayer el foro empresarial “Modernas Amenazas a la Seguridad” donde abordó los factores que afectan actualmente la seguridad financiera y ciberseguridad, así como a la reputación y marcas de las empresas a través del comercio ilícito de productos y la falsificación de medicamentos. A través de este foro, se logró aprender más sobre la importancia de las modernas amenazas en los sectores puntualizados, y cómo enfrentar y adaptarse a los nuevos cambios que atentan contra la seguridad.


LAS MONEDAS VIRTUALES PODRÍAN UTILIZARSE PARA EL BLANQUEO DE DINERO Y OTRAS ILEGALIDADES El crecimiento de las monedas virtuales podría facilitar las actividades criminales y llevar al público a culpar a los bancos centrales por no prevenirlo, según ha afirmado una investigación del Banco Central Europeo. Las monedas virtuales como Bitcoin son pagos digitales por bienes que suelen ser utilizados en juegos en Internet y frecuentemente son controladas por desarrolladores del sector privado. "Dada la incertidumbre legal que rodea a estos planes (...) ellos pueden ser utilizados por el lavado de dinero, criminales y estafadores en el desarrollo de sus actividades ilegales", dice la investigación, que fue divulgada el lunes. Dado que las monedas virtuales no son reguladas ni supervisadas por ninguna autoridad pública, los investigadores pensaron que podrían tener un impacto negativo en la reputación de los bancos centrales. "Asumiendo que el uso de tales sistemas crezca considerablemente y en el evento de que un incidente atraiga la cobertura de la prensa (...) el público podría percibir que el incidente fue causado, en parte, por un banco central que no hizo su trabajo de manera adecuada", señala el estudio. La investigación fue publicada por el BCE, pero no refleja necesariamente la postura del banco. Un estudio citado en la investigación estimó que el tamaño del mercado de los pagos virtuales superaría los 5.000 millones de dólares (3.871 millones de euros) en Estados Unidos en el 2014, mientras que esa cantidad ya se habría alcanzado en Asia. Las Bitcoins, moneda con un valor de 10,21 dólares (7,9 euros) cada una en los mercados de divisas en Internet, pueden ser compradas y vendidas con unas 15 monedas del mundo. Los menores costes de las transacciones, comparados con los sistemas de pago tradicionales, también vuelven atractivas a tales monedas, ya que son aprobadas rápidamente y su uso es aceptado por una cantidad de comunidades en línea cada vez mayor. Facebook también opera un sistema de moneda llamado Facebook credits, que puede ser utilizado para comprar bienes como regalos de cumpleaños, animales digitales y acceder a nuevos niveles en juegos en Internet. SECUESTROS VIRTUALES diario clarin Un fiscal pidió la declaración indagatoria por lavado de dinero de ocho integrantes de una banda de secuestradores virtuales. Mientras los investigaban, se fueron de viaje a Punta Cana. El dinero es el objetivo. El dinero es el botín. El dinero es el ahorro perdido por la víctima de un engaño. Sin embargo, paradójicamente, el dinero pocas veces termina siendo el blanco central de la Justicia. Uno de los “negocios” ilegales más lucrativos de los últimos años para las bandas, el de los secuestros virtuales, derivó en decenas de causas penales y decomisos de todo tipo. Pero ningún proceso por lavado de activos logró salir adelante. Al menos, hasta ahora. De acuerdo a dos dictámenes a los que accedió Clarín, esto podría cambiar en las próximas semanas: basándose en un estudio patrimonial realizado por la Procuraduría de Criminalidad Económica y Lavado de Activos (Procelac), hace pocos días el fiscal federal Juan Pedro Zoni le


pidió al juez Marcelo Martinez de Giorgi que cite a declaración indagatoria por lavado de dinero a ocho integrantes de una banda de secuestradores vituales, integrada por miembros de al menos tres clanes gitanos emparentados entre sí. Los acusados fueron procesados en su momento por las estafas por la Justicia de Instrucción, luego de que el fiscal Joaquín Rovira lograra vincularlos con una serie de casos ocurridos en Capital Federal. Los investigadores aún recuerdan a la banda porque sus integrantes habían hecho un viaje a Punta Cana (República Dominicana) en plena investigación y con el dinero obtenido por los secuestros virtuales. “Viajaron unos 12 miembros de la misma familia”, sintetizaron los voceros. “Abuelo, tengo un problema grave. Me tenés que dar una mano, ya te van a explicar”, le dijo por teléfono una chica llorando a un jubilado, vecino del barrio porteño de Barracas, que al escucharla se convenció de que hablaba con su nieta. El hombre entregó 10.000 dólares (en dos tandas) y dos mil pesos antes de poder chequear que lo habían engañado con el método de “la llorona”: una voz femenina que, entre sollozos, le hace creer a quien atienda que es familiar suyo y que la tienen secuestrada. Aquello ocurrió en la madrugada del 5 de octubre de 2014. Pocos días después, el 12 de octubre, otra vecina de Barracas atendió su teléfono a las 5.52 de la mañana. “Má, estoy en peligro, ayudame por favor”, fue el ruego que escuchó la mujer y que terminó con el pago de un “rescate” de 800 dólares y 10.000 pesos. Esta causa está actualmente en manos del Tribunal Oral en lo Criminal N° 17. Fue caratulada como “estafa”, un delito excarcelable, con una pena máxima de seis años de cárcel. En los Tribunales se suele usar esta figura penal, o la de “extorsión” (con una pena mayor: de 5 a 10 años de prisión) para encuadrar los secuestros virtuales, ya que no pueden considerarse secuestros extorsivos propiamente dichos porque nadie es privado de su libertad. En el caso de esta investigación del fiscal Rovira, los bienes obtenidos por la banda (principalmente, autos de media y alta gama) y los reportes de operaciones sospechosas generaron que se extrajeran testimonios y se enviaran al fuero federal para seguir indagando en el patrimonio de los involucrados. Tal vez se convierta en el primer antecedente de una investigación por lavado contra secuestradores virtuales. Un primer intento para ahondar sobre los bienes de estas bandas lo había hecho el fiscal federal Federico Delgado, quien llevó adelante una investigación contra una de las bandas más importantes de la modalidad, también integrada por clanes gitanos, y con un personaje de altísimo perfil dentro de esta comunidad, conocido como “Milanco”. La causa de Delgado comenzó en el fuero federal porque se pensó que se trataba de un secuestro extorsivo clásico. El 29 de junio de 2014 a las 5 de la mañana llamaron a una joven y le dijeron que habían secuestrado a su hermano y que sabían que tenía 80.000 dólares en su casa. Finalmente a las 9.40 apareció el hermano. Estaba bien, no le había pasado nada. Los investigadores siguieron la pista de las comunicaciones y consiguieron determinar que otras personas habían recibido llamadas de “lloronas” en la misma zona. La causa llevó a realizar una decena de allanamientos en los que se secuestraron 54 vehículos de alta gama, muchos de los cuales eran exhibidos por los miembros de la banda -principalmente, por “Milanco”- en las redes sociales. Originalmente la causa estaba a cargo del juez federal Luis Rodríguez, pero a fines de 2015 éste se la pasó al juzgado federal N° 5, que entonces estaba a cargo de Norberto Oyarbide. Lo hizo


por “compensación”, un sistema por el cual un juzgado le pasa a otro varias causas chicas a cambio de una grande. Rodríguez le pasó ésta y cinco más a su colega. Tras este movimiento interno, las indagatorias por lavado de activos contra 38 personas (12 de ellas, mujeres) pedidas por Delgado primero se estancaron y, muy recientemente, el pasado 17 de mayo, quedaron al borde de la nada: la causa fue enviada desde el juzgado federal 5 al fuero de Instrucción “por incompetencia”. Así la investigación abierta a “Milanco” y compañía quedó en coma. No ocurrió lo mismo con una causa “espejo” en contra de “Milanco” iniciada en 2015 por el fiscal de San Fernando Alejandro Musso. En este expediente, él y otras cuatro personas quedaron procesadas por asociación ilícita y 50 secuestros virtuales. Todos están esperando el juicio oral. Todos siguen presos. Durante los allanamientos en los que cayeron, el 16 de julio de 2015 se les secuestraron 40 autos de alta gama valuados en más de 25 millones de pesos. Apenas la fortuna visible de un negocio millonario.w. THE WALL STREET JOURNAL LA BANCA TRADICIONAL HUYE DE LOS BITCOIN Una de las noticias con las que abre el diario económico su edición digital es que la banca tradicional es escéptica ante empresas que operan con monedas virtuales debido a temores de que sus dueños incumplan las leyes contra el lavado de dinero o estén involucrados en actividades ilegales, señalan ejecutivos del sector. Reguladores y presidentes de bancos centrales en todo el mundo también han expresado inquietudes similares en los últimos meses. NUEVAS AMENAZAS VIRTUALES ALD.COM La utilización de la Internet y los teléfonos móviles para lavar dinero son algunas de las modalidades más recientes y peligrosas para perpetrar el delito de lavado de dinero, pero considero que la educación continua es la clave para librar con éxito esta batalla. Una modalidad reciente que ha comenzado a causar estragos es el lavado de dinero “virtual”. En este sentido, los delincuentes abusan de la red mundial del Internet para estratificar, creando varias identidades en línea. El dinero real que se obtiene ilegalmente, se cambia por dinero virtual, se traslada de una a otra identidad, y por último se canjea nuevamente por dinero real. En este momento, la cantidad de dinero que se puede mover en el espacio virtual es relativamente baja, pero definitivamente se trata de una modalidad amenazante. Otra tendencia de lavado relacionada a esquemas de fraude que se está utilizando con frecuencia, a una menor escala, son los teléfonos móviles. La tecnología de los teléfonos móviles permite transferir dinero digital a través de nuestros teléfonos celulares. En Abril del 2010, un individuo fue acusado y sentenciado por lavado de dinero en las Islas de Gran Caimán, por utilizar información robada de tarjetas de crédito con las que compro créditos para llamadas móvil y luego los vendió mediante el sistema de pagos de Persona-a-Persona (P2P). El sistema de pagos P2P permite también transferencias de fondos entre fronteras. Por ejemplo, una persona puede ir a un centro telefónico (o casa de cambio) en la ciudad de los Ángeles, California y poner dinero real. El dinero se transforma a un formato digital igual que en una transferencia bancaria. El emisor le informa al beneficiario mediante mensaje de texto que


los fondos se enviaron y le da un código para retirarlos. El beneficiario se presenta en un centro de canje telefónico (o casa de cambio) en Ciudad México, indica el código que recibió (puede ser un número o una palabra secreta) y el centro le entrega la cantidad de dinero en efectivo. En la actualidad, esta modalidad no se utiliza para mover grandes cantidades de dinero ni se está haciendo masivamente, pero esta es una nueva metodología que indudablemente aumentará, especialmente en lo que concierne el lavado de dinero por fraude. Si bien las casas de cambio tienen un alto riesgo de ser utilizadas por los blanqueadores de dinero, los bancos de la región siguen siendo los que más sufren el ataque de estos delincuentes. Generalmente, en América Latina los bancos son los principales medios para lavar dinero. Es decir, aun si los clientes de las empresas que prestan los servicios de pagos y ofrecen servicios de pagos mediante sistemas P2P son los que lavan el dinero, estas empresas mantienen cuentas en bancos. Esto significa que en el combate contra el lavado de dinero, mientras más estrictos sean los bancos en sus sistemas de control y los supervisores bancarios en sus sistemas de supervisión, más difícil será para los lavadores de dinero cometer sus delitos. La capacitación de cara a la prevención, es la principal arma en esta lucha y uno de los controles internos mas valiosos que puede implementar una institución financiera. Los lavadores de dinero continúan utilizando el sistema de blanqueo que les funciona hasta que los bancos crean los controles suficientes para hacerlo inservible. En ese momento no lo usarán más, pero crearán un nuevo sistema. Es por este motivo principalmente que los ejecutivos de una institución financiera deben estar en un proceso de educación continua que los mantenga actualizados. Los controles que se aplican hoy pueden o no ser útiles mañana. Además de la capacitación continua, hoy por hoy, la certificación en materia de prevención de lavado de activos es casi un requisito para el personal de cumplimiento y todo el personal que tenga responsabilidades de control en una institución financiera. Los cursos certificación como el AMLCA y el CPAML son una excelente herramienta para desarrollar un buen entendimiento en el proceso de identificación y mitigación de riesgos. En estos cursos se aprovecha la experiencia estadounidense para combatir con éxito el lavado de dinero. Estados Unidos es uno de los países con mayor interés en la lucha contra el blanqueo de capitales y sus leyes son muy estrictas, especialmente en relación a instituciones financieras extranjeras que suelen representar un mayor riesgo. HONG KONG USARÁ RECONOCIMIENTO FACIAL EN CAJEROS AUTOMÁTICOS KPMG Hong Kong comenzará a emplear la técnica de reconocimiento facial a fin de evitar los crímenes financieros como lavado de dinero o financiamiento al terrorismo. La medida fue anunciada por Norman... Notimex. 29.05.2017 - 04:41h Hong Kong comenzará a emplear la técnica de reconocimiento facial a fin de evitar los crímenes financieros como lavado de dinero o financiamiento al terrorismo. La medida fue anunciada por Norman Chan Tak-lam, presidente de la Autoridad Monetaria hongkonesa, e inclusive podría recurrir también a la identificación de las huellas dactilares. El reconocimiento facial ya es usado por Macao, región administrativa especial de China al igual que Hong Kong. La adopción de la medida significará el reemplazo de los tres mil 250 cajeros automáticos que operan en Hong Kong, y obedece al incremento detectado en ese tipo de ilícitos en los pasados cinco años. La medida no es ajena al interés de Beijing, que busca elevar la seguridad financiera a nivel nacional, revelaron las autoridades de


Macao el pasado viernes, citó el South China Morning Post. En particular China pretende mantener a salvo las operaciones financieras que se realicen bajo la iniciativa de la Ruta y la Franja. Esta iniciativa pretende unir Asia Pacífico con Europa, cubriendo más de sesenta países con el 60 por ciento de la población mundial y 30 por ciento de la economía mundial. El dictamen de los fiscales sobre Cristina es un manual de lavado de dinero OJO CON AUGE DEL BITCOIN O MONEDA VIRTUAL, PUEDE TERMINAR EN UN LÍO DE LAVADO DE ACTIVOS caracol.com Está en furor porque su valor digital sube como espuma, pero es usada por bandas criminales del mundo para convertir a inversionistas en cibermulas. Hace 6 meses esta moneda tenía un valor de 700 dólares y en la actualidad por cada bitcoin cibernautas pagan hasta 1.700 dólares, explicó Andrés Galindo, director de negocios de Digiware. Nadie la controla, no se imprime y es producida por particulares y un creciente número de empresas. Esto ha hecho que sea atrayente para personas que quieren multiplicar su dinero y para ello, incluso, hipotecan su vivienda para acceder a la moneda virtual. Delincuentes aprovechan esta figura, según Galindo, porque actúan de forma anónima “y van a quedar sin forma de ser rastreados de si es dinero que están lavando (…) entonces, sin querer, la persona puede estar haciendo parte de una cadena y no sabe que lo está haciendo” El DARPA junto con la Universidad de Michigan, trabajan en el desarrollo de un sistema de seguridad basado en el hardware y no en el software, porque este ofrece demasiados agujeros. Uno de los principales problemas tecnológicos, es la seguridad de los dispositivos, los cuales tienen muchos y diversos agujeros de seguridad, ya sean por hardware o por software. La Agencia de Proyectos de Investigación Avanzada de Defensa o DARPA por sus siglas en inglés, ha dado una subvención de 3.6 millones de dólares a la Universidad de Michigan. Esta subvención sirve para financiar a un grupo de científicos informáticos e ingenieros de la mencionada universidad que están desarrollando el proyecto Morpheus, que se basa en un nuevo enfoque de hardware para crear un ordenador invencible.

Esta subvención Morpheus, es una de las muchas subvenciones que da DARPA, con el objetivo de encontrar soluciones a la seguridad técnica del hardware que parte de abril de 2017. La subvención forma parte de la iniciativa DARPA System Security Integrated Hardware and Firmware (SSITH). Este proyecto o iniciativa de nombre tan Star Wars, es un proyecto muy serio y de mucha importancia y es que se busca una solución de seguridad basada en el hardware, ya que la seguridad en software no funciona.


“Hasta ahora, la seguridad de los sistemas electrónicos ha quedado en manos del software, pero la confianza general en este enfoque se resume en la descripción sardónica de esta práctica estándar como ‘parche y rezar'”, dijo Linton Salmon, gerente del programa SSITH de Microsystems de DARPA. Oficina de Tecnología. Todd Austin, líder de este proyecto, afirma que será una prueba de futuro. Los conceptos de diseño de hardware de este sistema se centran en el movimiento constante de los datos. La información se mueve y destruye de manera aleatoria y a una alta velocidad. Si un atacante encuentra un error o una vulnerabilidad en el diseño, cuando el intruso encuentra el modo de atacar y lograr hacerse con el sistema, los datos ya no están en la ubicación original, se han desplazado. “Estamos convirtiendo la computadora en un enigma sin solución”, dijo Austin. “Es como si estuvieras resolviendo un cubo de Rubik y cada vez que pestañeas, lo reorganizo”. Según Austin, si los hackers no pueden recuperar la información necesaria para armar un ataque, el resultado es una protección tanto para el hardware como para el software. DARPA quiere protección contra siete clases principales de debilidad de hardware dentro de cinco años. Las clases son permisos y privilegios, errores de búfer, administración de recursos, pérdida de información, errores numéricos, errores de cifrado e inyección de código. Sincrotrón

ESQUEMA DE UN SINCROTRÓN El sincrotrón es un tipo de acelerador de partículas. Se diferencia de otros aceleradores en que las partículas se mantienen en una órbita cerrada. Los primeros sincrotrones se derivaron del ciclotrón, que usa un campo magnético constante para curvar la trayectoria de las partículas, aceleradas mediante un campo eléctrico también constante, mientras que en el sincrotrón ambos campos varían. La velocidad máxima a la que las partículas se pueden acelerar está dada por el punto en que la radiación sincrotrón emitida por las partículas al girar es igual a la energía suministrada. Los sincrotrones también se utilizan para mantener las partículas circulando a una energía fija; en este caso reciben el nombre de «anillos de almacenamiento». Los sincrotrones pueden usarse como colisionadores de partículas. En este tipo de sincrotrones, dos haces de partículas diferentes se aceleran en direcciones opuestas para estudiar los productos de su colisión. En otros sincrotrones se mantiene un haz de partículas de un solo tipo circulando indefinidamente a una energía fija, usándose como fuentes de luz sincrotrón para estudiar materiales a resolución del orden del radio atómico, en medicina y en procesos de


manufactura y caracterización de materiales. Un tercer uso de los sincrotrones es como preacelerador de las partículas antes de su inyección en un anillo de almacenamiento. Estos sincrotrones se conocen como boosters («aceleradores»).

Desarrollo

Esquema de funcionamiento de un ciclotrón, el precursor del sincrotrón. El campo magnético es uniforme y se aplica en la dirección perpendicular a la órbita de las partículas. Las partículas se aceleran desde cero cada vez que atraviesan el campo magnético y describen una espiral cuyo radio aumenta hasta que emergen del acelerador. El ciclotrón, concebido por el físico austro-húngaro Leó Szilárd en 1929, se puede considerar el precursor del sincrotrón. El ciclotrón usa un campo magnético estático para curvar la trayectoria de las partículas y un campo eléctrico oscilante de frecuencia fija para acelerarlas en un punto de su trayectoria. A medida de que las partículas aumentan su velocidad, el radio de su órbita aumenta, por lo cual describen una espiral. 1 Ernest Lawrence diseñó y construyó el primer ciclotrón,2 puesto en marcha por vez primera a finales de 1931. Esta máquina no era adecuada para la aceleración de partículas relativistas, cuya masa aumenta al aproximarse su velocidad a la de la luz, lo que causa un desfasaje con respecto a la oscilación del voltaje acelerador.3 En 1934, Szilárd describió el principio de estabilidad de fase,1 fundamental en el diseño del sincrotrón. En 1945, el estadounidense Edwin McMillan y el soviético Vladimir Veksler propusieron, independientemente, un acelerador basado en este principio, variando la frecuencia del campo eléctrico a medida que la partícula incrementa su energía. 4 De este modo, las partículas reciben una cantidad de energía inversamente proporcional a su velocidad, lo que resulta en un haz estable donde las partículas viajan, en promedio, a la velocidad apropiada. 5 Usando este principio, Lawrence, McMillan y otros miembros de su grupo transformaron el cyclotrón de Berkeley en un sincrociclotrón en 1946. Este aparato llegó a a acelerar protones hasta 740 MeV e iones de Helio a 920 MeV.6 El Phasotron, un sincrociclotrón para electrones construido por Veksler en Dubnáalcanzó los 10 GeV.


Ilustración del principio de estabilidad de fase en el sincrotrón: la función periódica U(t) representa el campo eléctrico oscilatorio. Los tres puntos sobre la gráfica representan tres partículas viajando a velocidades ligeramente distintas. La partícula del centro alcanza el campo con la fase «óptima» W0, entre 90 y 180°. La partícula que llega ligeramente por delante recibe menos energía del campo, y la que llega por detrás, más, de tal modo que las fases permanecen concentradas alrededor de W0. La máxima energía de los sincrociclotrones está dictada por el radio máximo de la órbita de las partículas, que no podían acelerarse más una vez alcanzado este punto. En 1949, MacMillan construyó el primer sincrotrón de electrones, incrementando la magnitud del campo magnético en sincronía con la velocidad de los electrones y consiguiendo así mantener a estos en una órbita fija cerrada y acelerarlos hasta una energía de 300 MeV.4 El primer sincrotón de protones fue el Cosmotrón, diseñado en 1948 y construido en el Laboratorio Nacional de Brookhaven. El Cosmotrón comenzó a funcionar a la energía de 3.3 GeV a principios de 1953.7 En 1952, varios de los colaboradores en el diseño y construcción del Cosmotrón publicaron una idea para aumentar la eficiencia de los sincrotrones alternando lentes magnéticas convergentes y divergentes —campo magnético de gradiente alternado— para focalizar el haz de partículas a lo largo de toda su trayectoria, 89 idea patentada ya en 1950 por Nicholas Christofilos.10 Esta idea fue inmediatamente incorporada al diseño del sincrotrón de protones del CERN, donde hasta entonces se planeaba alcanzar una energía de 10 GeV.4 Gracias al uso de gradiente alternado entró en funcionamiento en 1959 a 30 GeV.11 En 1960, entró en funcionamiento el AGS («Alternating Gradient Synchrotron» de 33 GeV en Brookhaven.12 Bob Wilson, un antiguo colaborador de Lawrence, propuso separar los imanes focalizadores del haz de los imanes usados para curvar la trayectoria del haz de partículas en el sincrotrón de Fermilab, finalizado en 1972, donde se alcanzaron 400 GeV.4 En las décadas siguientes se siguieron construyendo sincrotrones de mayor tamaño y energía, como el Tevatron en Fermilab o el LHC en CERN, dedicados al estudio de partículas subatómicas. Aunque la radiación sincrotrón emitida por las partículas aceleradas constituye una limitación a la máxima energía alcanzable en un sincrotrón, los científicos pronto se percataron de las posibilidades que ofrecían los haces intensos de radiación ultravioleta y rayos Xgenerados en los sincrotrones de altas energías,y en los 80, aparecieron los primeros anillos de almacenamiento diseñados exclusivamente como fuentes de radiación sincrotrón. 5 Algunos colisionadores de partículas obsoletos, como el sincrotrón de Stanford en los Estados Unidos, o DORIS y PETRA en el laboratorio Deutsches Elektronen-Synchrotron, Alemania, han sido reconfigurados para este propósito,131415 mientras que unos pocos, como CHESS, en la Universidad de Cornell, se utilizan a la vez para estudios de física de partículas y como fuentes de luz sincrotrón.16


Componentes

Booster de 900 MeV del colisionador de partículas VEPP 2000, en Novosibirsk Fuente de partículas Para la producción de electrones se suelen utilizar cátodos termoiónicos o cátodos fríos o fotocátodos.171819 Los positrones se producen haciendo incidir un haz de electrones acelerados sobre un material metálico.19 Las fuentes de protones son muy diversas; se suelen extraer de un plasma, generado, por ejemplo, a partir de una descarga o radiación de microondas aplicados a un gas.2021 Los antiprotones se producen de manera parecida a los positrones, haciendo chocar un haz de protones con un metal pesado. 19 Aceleradores auxiliares: LINACS y boosters Al contrario que los ciclotrones, los sincrotrones no son capaces de acelerar las partículas a partir de baja energía, por lo cual la aceleración se realiza por etapas. El haz de partículas se acelera inicialmente usando una fuente de alto voltaje oscilando a radio frecuencias. Las partículas se inyectan en un acelerador linear o LINAC, y de ahí pasan a un sincrotrón llamado preacelerador o booster donde adquieren su energía final; las partículas así aceleradas se inyectan al sincrotrón principal o anillo de almacenamiento, donde circulan a una energía fija. En un sincrotrón típico, el LINAC imparte a los electrones una energía entre 0.1 y 1 GeV, y el booster los acelera hasta la energía final de unos pocos GeV. 222324 El Gran Colisionador de Hadrones, que opera con protones de 7 TeV, requiere tres sincrotrones auxiliares.25 Cavidades de radiofrecuencia Las cavidades de radiofrecuencia o RF son una serie de estructuras huecas donde se aplica el voltaje oscilante longitudinal, suministrado por klistrones, que acelera las partículas. En un acelerador propiamente dicho, como el booster, la energía de las partículas aumenta cada vez que atraviesan la cavidad. En los anillos de almacenamiento, por contra, solo se suministra la energía necesaria para compensar las pérdidas por radiación sincrotrón. 2627 Las cavidades RF también mantienen a las partículas agrupadas en paquetes que circulan a aproximadamente la misma velocidad, manteniendo la sincronía entre la fase del voltaje acelerador y la frecuencia de circulación del haz.26 ELEMENTOS MAGNÉTICOS


Imanes del anillo de almacenamiento del Sincrotrón Australiano. En primer plano, un sextupolo (en verde), seguido por un dipolo (en amarillo) y, parcialmente oculto detrás de este, un cuadrupolo (en rojo). Los sincrotrones modernos utilizan dipolos, llamados imanes curvadores —bending magnets— para curvar la trayectoria del haz de partículas y cuadrupolos y sextupolos para mantener el haz enfocado. La separación de las funciones de deflección y focalización permite alcanzar una energía mayor y optimizar las propiedades ópticas del sincrotrón. 28 Los imanes tienen los polos orientados perpendicularmente a la órbita. Los cuadrupolos pueden orientarse de tal manera que las componentes verticales y horizontales de las fuerzas magnéticas que ejercen sobre las partículas son independientes y se suele alternar su polaridad a lo largo de la cavidad del sincrotrón, es decir, se have converger y divergir el haz sucesivamente. Esta disposición, conocida como «celda FODO»n. 1 mantiene el haz colimado, importante tanto para maximizar el número de colisiones de partículas, como para producir luz sincrotrón coherente y concentrada. Los imanes sextupolos se utilizan para corregir las aberraciones de los cuadrupolos.28 En los sincrotrones modernos utilizados para la producción de luz sincrotrón, los imanes se suelen disponer en diversas configuraciones, con el objetivo de lograr un haz de radiación lo más brillante posible. Una configuración muy utilizada es la «celda DBA» (Double Bend Achromatic) o «celda Chasman-Green», que en su versión más simple consiste en un par de imanes curvadores con una lente cuadrupolar en el centro. 29 Este tipo de instalaciones cuenta además con dispositivos magnéticos compuestos de una secuencia de varios dipolos alternantes. Según la fuerza del campo magnético, estos aparatos se dividen en wigglers u onduladores. Ambos hacen seguir a los electrones una trayectoria oscilante, con un radio de curvatura menor que en los dipolos principales. Esto permite obtener radiación sincrotrón con propiedades diversas y mejor adaptadas a distintos tipos de experimentos. 30 LÍNEAS DE LUZ SINCROTRÓN Al atravesar los imanes curvadores, wigglers y onduladores, las partículas emiten radiación en un amplio rango de longitudes de onda. La radiación ultravioleta y de rayos X emitida por los sincrotrones puede ser utilizada para varios experimentos. Las líneas de luz consisten en una cavidad en vacío para transportar esta radiación hasta las muestras que se pretende estudiar y varios instrumentos para modificar y adaptar las propiedades de la radiación, como espejos, para enfocar el haz de radiación y monocromadores para seleccionar determinadas longitudes de onda.31La configuración específica de una línea de luz depende del tipo de experimento al que esté destinada y a las características del sincrotrón. Aplicaciones[editar]

Detector de partículas en el LHC


Durante varias décadas la aplicación principal de los sincrotrones y otros aceleradores circulares fue el estudio de los constituyentes fundamentales de la materia. En las primeras máquinas de este tipo, se hacían chocar las partículas aceleradas contra un blanco metálico estacionario, donde interactuaban con los núcleos atómicos, produciendo partículas y antipartículas. En cambio, en los sincrotrones de alta energía posteriores, como el SPS, el LEP y el LHC, de la Organización Europea para la Investigación Nuclear (CERN) y el Tevatron de Fermilab, fueron diseñados para producir colisiones entre dos haces de antipartículas circulando a la misma velocidad en direcciones opuestas. En este caso, el momento total de los dos haces es cero, por lo cual la energía total del haz puede ser consumida en la producción de nuevas partículas, al contrario que en el caso de un blanco estacionario, donde la ley de conservación del momento implica que parte de la energía es conservada por el haz.32 El haz en los colisionadores debe contener un gran número de partículas concentradas en un volumen muy reducido para maximizar el número de colisiones en cada ciclo, que es muy pequeño comparado con las colisiones obtenidas con un blanco fijo. 33 Los colisionadores pueden ser de dos tipos: de hadrones — habitualmente protones y antiprotones— o de leptones —por ejemplo, electrones y positrones.— Los colisionadores de hadrones tienen la ventaja de limitar las pérdidas por radiación,34 y son la herramienta principal para el descubrimiento de nuevas partículas. Los colisionadores de leptones, por otro lado, son útiles para la caracterización precisa de las partículas ya descubiertas.32 ESTUDIO DE MATERIALES

Línea de luz sincrotrón para el estudio de moléculas biológicas (proteínas y ácidos nucleicos) por la técnica de difracción de cristales La radiación sincrotrón emitida por los electrones al atravesar los imanes curvadores, wigglers y onduladores está compuesta por un espectro continuo de longitudes de onda desde los rayos X de alta energía hasta el infrarrojo. Esta radiación es muy intensa, concentrada y coherente espacialmente, propiedades idóneas para poder realizar una amplia gama de experimentos para explorar las propiedades de todo tipo de materiales orgánicos e inorgánicos, utilizando técnicas como la espectroscopía, dispersión, difracción y microscopía. Los primeros experimentos con luz sincrotrón se llevaban a cabo de modo «parasitario» en colisionadores de partículas, pero la mayoría de los sincrotrones en funcionamiento actualmente se utilizan solo para este propósito. Los sincrotrones diseñados para la producción de radiación sincrotrón se conocen como «sincrotrones de segunda generación» o «de tercera generación», dependiendo de la emitancia del haz de partículas,5 definida como el producto del área transversal del haz y su divergencia angular: en las fuentes de segunda generación la emitancia es del orden de 100 nm-mrad y en las de tercera generación es de 10 nm-mrad,36 lo


que resulta en un haz de radiación más concentrado. La mayoría de estos sincrotrones tienen un diámetro del orden de los 100 m y funcionan a energías de unos pocos GeV. El de mayor tamaño PETRA, un antiguo colisionador reconvertido a fuente de luz sincrotrón, cuenta con más de dos kilómetros de circunferencia.37 En la primera década del S XXI se ha logrado construir un sincrotrón compacto que cabe en una habitación.38 Estas fuentes compactas utilizan luz láser para estimular la emisión de luz sincrotrón por los electrones. SE LLAMA ONDULADOR a un dispositivo magnético utilizado en aceleradores de partículas. Los onduladores están formados por una hilera de imanes con los polos dispuestos alternadamente, creando un campo magnéticooscilatorio periódico. Cuando un haz de partículas con carga eléctrica (generalmente electrones) atraviesan el campo magnético generado por el ondulador son desviadas de su trayectoria, emitiendo durante este proceso radiación electromagética sincrotrón. La radiación emitida por los electrones en diversos puntos de su trayectoria a través de ondulador interfiere constructivamente, dando lugar a picos de radiación muy intensos a ciertas longitudes de onda.1 Esta radiación es muy útil para el estudio de la estructura de materiales y sus propiedades físico-químicas y para ciertas aplicaciones médicas ONDULADOR

Onduladores del láser de electrones libres del Laboratorio Nacional de Aceleradores SLAC Historia[editar]

Diagrama del ondulador diseñado por Halbach. Las flechas sobre los bloques de imanes indican la dirección de la magnetización. La teoría del funcionamiento de los onduladores fue desarrollada por el soviético Vitalii Ginzburg en 1947. En 1953 Hans Motz y sus colaboradores construyeron el primer ondulador y obtuvieron luz hasta el espectro visible con un haz de electrones de 100 MeV generado por


el acelerador lineal de partículas de Stanford. En los años siguientes se construyeron onduladores en el Instituto Lebedev en Moscú y el Instituto Politécnico de Tomsk. Gracias a estos primeros onduladores se logró caracterizar completamente las propiedades de la radiación emitida por estos aparatos, como su intensidad, ancho del espectro, polarización y distribución angular. En 1980 Klaus Halbach construyó un ondulador usando imanes permanentes en lugar de electroimanes o imanes superconductores; su diseño permitió disminuir la distancia entre los dipolos y resulta en un campo magnético sinusoidal de período corto, ideal para la producción de radiación de longitudes de onda cortas. Instalado en el sincrotrón de Stanford este ondulador llegó a producir rayos-X con energías entre 3 y 7 keV. Onduladores como el diseñado por Halbach emiten luz polarizada en el plano de oscilación de los electrones. Para el estudio de materiales magnéticos es preferible utilizar luz polarizada elípticamente. Esto requiere que los electrones atraviesen un campo magnético helicoidal en vez del campo transversal generado por un ondulador Halbach. La construcción de onduladores apropiados para estudios de magnetismo encontró varios obstáculos prácticos hasta la construcción de sincrotrones de tercera generación a partir de finales del siglo XX, en los que el haz de electrones posee un tamaño y divergencia mucho menores en la dirección horizontal. La menor diferencia de las caracteríscas del haz en las dos dimensiones fomentó el uso de onduladores de varios diseños que emiten radiación con las propiedades de polarización deseadas. PRINCIPIOS Y PROPIEDADES Ciertas propiedades de la radiación sincrotrón, tales como la intensidad y la longitud de onda crítica dependen del radio de curvatura R de la trayectoria seguida por los electrones al penetrar en un campo magnético; la utilización estructuras magnéticas como wigglers u onduladores en sincrotrones modifica estas propiedades al forzar a los electrones a oscilar con un radio diferente al que siguen cuando circulan en el anillo de almacenamiento. Los wigglers y onduladores se diferencian por la magnitud de la desviación trayectoria del haz de electrones comparada con la distribución angular emitida, dada por siendo y

la energía del haz de electrones,

la velocidad de la luz. En un ondulador, las magnitudues de

decir, su producto

de la

de la radiación

la masa del electrón y

son similares, es

se aproxima a la unidad. En un wiggler, el ángulo de desviación es

mayor y es mucho mayor que la unidad. Como el ángulo depende de la magnitud del campo magnético B, en ciertas condiciones es posible utilizar el mismo dispositivo como un wiggler (aumentando B) o un ondulador (disminuyendo B).7 Debido a la menor desviación experimentada por los electrones en el ondulador, se produce interferencia entre la radiación emitida por estos en dos puntos separados por el período del campo magnético generado por el ondulador. La longitud de onda fundamental

para la que se cumple la condición de interferencia viene dada por:


Donde es el período del ondulador. Esta condición también se cumple para los armónicos de la longitud de onda fundamental: ONDULADORES EN SINCROTRONES La intensidad de la luz emitida por un ondulador se puede caracterizar en términos de la brillantez (la intensidad de la luz emitida por segundo en un ancho de banda de 0.1% por unidad de ángulo sólido) o flujo (el producto de la brillantez y ángulo sólido total de la radiación). En el caso de un ondulador con 50 períodos, un parámetro igual a la unidad en un sincrotrón operando a la energía de 1.5 GeV el ondulador produce un flujo y brillantez 120 y 8200 veces mayores respectivamente a los de la radiación de un dipolo convencional en el mismo sincrotrón. LÁSERES DE ELECTRONES LIBRES Artículo principal: Láser de electrones libres La intensidad de la luz emitida por el ondulador puede incrementarse si los electrones que lo atraviesan se agrupan en paquetes muy concentrados separados por una longitud de onda de la radiación emitida. Este proceso recibe el nombre de microbunching y se puede conseguir inyectando un haz de luz láser junto a los electrones o diseñando un ondulador de tal forma que los electrones se puedan agrupar espontáneamente, mediante la interacción con la propia luz sincrotrón emitida durante su oscilación en el campo magnético. Los electrones así agrupados emiten en fase, con lo cual las amplitudes de radiación emitida por cada electrón se suman y su intensidad total es el cuadrado de la que se obtendría en un ondulador convencional.9 La radiación emitida por un ondulador de estas características se asemeja a la de un láser por su coherencia, por lo cual estos dispositivos reciben el nombre de láseres de electrones libres. APLICACIONES Las altas intensidades alcanzadas con los onduladores facilitan el estudio de materiales, tanto inorgánicos como biológicos, en bajas concentraciones o presentes en muestras de tamaño microscópico así como la investigación de reacciones químicas en tiempo real. LÁSER DE ELECTRONES LIBRES

Láser de electrones libres FELIX (Nieuwegein) El láser de electrones libres o FEL (acrónimo de free-electron laser en inglés) es un láser que comparte las propiedades ópticas de láseres convencionales, es decir, la emisión de un haz


coherente de radiación electromagnética que puede alcanzar una alta potencia, pero que se basa un principio físico totalmente diferente para generar el haz: En lugar de excitar electrones a diferentes niveles de energía atómicos o moleculares, un FEL usa un haz de electrones acelerados a velocidades relativistas como medio activo para generar el láser; estos electrones no están ligados a átomos, sino que se mueven libremente en un campo magnético, de ahí el término «electrón libre».1 John Madey construyó el primer láser de electrones libres en 1976. Actualmente existen más de una docena en funcionamiento o en construcción. Los láseres de electrones libres tienen el rango de frecuencias más amplio de todos los tipos de láser y son fácilmente sintonizables: 2 actualmente se pueden obtener longitudes de onda en una amplia parte del espectro electromagnético, desde las microondas, pasando por la radiación infrarroja, 3 lavisible, ultravioleta y hasta rayos X. Estos instrumentos son útiles para la investigación científica en física, química, biología, el desarrollo de nuevos materiales y tecnologías y tienen aplicaciones prácticas en medicina y la industria militar. HISTORIA

Diagrama de operación del FEL El láser de electrones libres fue inventado por John Madey; 4 el primer prototipo fue construido en la universidad de Stanford en 1976.5 La inspiración para el invento surgió de la investigación realizada por Hans Motz sobre los campos magnéticos periódicos conocidos como wigglers u onduladores, cruciales para generar el medio activo del láser de electrones. Madey utilizó un haz de electrones con una energía de 24 MeV y un wiggler de 5 m de longitud para amplificar la radiación. Al poco tiempo otros laboratorios empezaron a construir más láseres de este tipo. En 1992 se empezó a considerar la posibilidad de construir un FEL de rayos X. En 2009 empezó a funcionar el primero, LCLS (LINAC Coherent Light Source) en el Laboratorio Nacional de Aceleradores SLAC (California).6 En 2011, se puso en marcha SACLA(SPring-8 Angstrom Compact Free Electron Laser) en Japón,7 mientras que un tercero, el XFEL Europeo, se encuentra en construcción en Alemania. CREACIÓN DEL HAZ LÁSER

Ondulador de FELIX Para generar la luz láser, se acelera un haz de electrones hasta que alcanza una velocidad cercana a la de la luz. Los electrones atraviesan un campo magnético periódico transversal, producido por dos hileras de imanes con orientación alternante de los polos. Esta configuración


magnética se conoce con el nombre de ondulador, porque los electrones que lo atraviesan describen una trayectoria sinusoidal. La aceleración que los electrones experimentan al seguir esta trayectoria resulta en emisión de luz o radiación sincrotrón. Esta radiación interactúa a su vez con el haz de electrones y causa que estos se separen en grupos muy concentrados separados por una longitud de onda de la radiación (microbunching). Los electrones así agrupados emiten en fase, con lo cual las amplitudes de radiación emitida por cada electrón se suman y su intensidad total es el cuadrado de la que se obtendría en un ondulador convencional. Además la intensidad se amplificada exponencialmente a lo largo del ondulador hasta que se alcanza un régimen de saturación, en el que los electrones empiezan a absorber tanta energía de la radiación como la que suministran; los FEL están normalmente diseñados para que la longitud del ondulador coincida con la longitud en la que se llega a la saturación. El proceso en el que el campo electromagnético causante de la separación espacial de los grupos de electrones es debido a la oscilación de los electrones mismos, se conoce como SASE —Self Amplified Spontaneous Emission o emisión espontánea auto-amplificada—. También se puede causar la separación del haz de electrones inyectando un haz de luz coherente junto con los electrones (seeding en inglés, o «sembrado»).9 Existen varios métodos alternativos para efectuar el sembrado, como la generación de armónicos de alta ganancia —High Gain Harmonic Generation o HGHG— , en el que el campo «semilla» y el haz de electrones interactúan durante un número de ciclos durante los cuales la frecuencia de la luz se incrementa a un armónico superior,10 o la generación de armónicos por eco —Echo-Enabled Harmonic Generation o EEHG—, que usa dos campos semilla. El FEL FERMI fue el primero en implementar un sistema de sembrado,13 seguido por LCLS. ACELERADORES Acelerador lineal

Cuadrupolo magnético en LCLS El láser de electrones libre precisa el uso de un acelerador de electrones blindado con un escudo anti-radiactivo, ya que los electrones acelerados y la radiación que emiten son peligrosos. Los aceleradores están alimentados por un klistrón, que requiere un voltaje muy alto. El haz de electrones tiene que estar en un vacío para que no sea dispersado por materia o átomos presentes en la cavidad del láser. El vacío se mantiene gracias a numerosas bombas a lo largo del recorrido del haz. Para evitar que los electrones acelerados se dispersen y preservar la forma y tamaño del haz se utilizan lentes electromagnéticas, como cuadrupolos y sextupolos. Propiedades Del Láser Longitud de onda La longitud de onda de la luz emitida se puede ajustar o sintonizar cambiando la energía del haz de electrones o el campo magnético del ondulador (por ejemplo, variando la distancia entre los imanes)


Coherencia La radiación SASE es coherente espacialmente, pero no temporalmente, debido a que inicialmente los electrones no irradian en fase. La coherencia temporal se puede conseguir mediante el sembrado del haz de electrones. Radiación pulsada Una propiedad interesante de estos instrumentos es que la radiación no es continua, sino que está separada en pulsos de una duración entre nano y femtosegundos. Esto los hace apropiados para investigar procesos físicos o químicos que tienen lugar en escalas de tiempo muy rápidas. RAYOS-X

Imagen de la sección del haz de rayos X generado por el láser de electrones libres LCLS La construcción de un FEL de rayos-X es particularmente complicada, debido a que el haz de electrones debe de estar muy colimado y concentrado para que el proceso de microbunching tenga lugar. En la práctica, longitudes de onda cerca de un Ångström solo se pueden lograr utilizando aceleratores lineales de alta energía, como en SLAC (California) o DESY (Hamburgo) En Spring-8, el FEL SACLA utiliza un acelerador lineal de alto gradiente combinado con onduladores de periodo corto.17Los instrumentos en funcionamiento se basan en la emisión espontánea (SASE). En 2012, se demostró experimentalmente la posibilidad de usar la propia emisión del FEL para iniciar el proceso de multibunching, un proceso llamado selfseeding o «autosembrado», que permite generar luz totalmente coherente de longitud de onda corta. USOS Y APLICACIONES Medicina El doctor Glenn Edwards y sus colegas del centro FEL de la universidad de Vanderbilt descubrieron en 1994 que los tejidos blandos como la piel, córnea y el tejido cerebral se pueden seccionar usando un FEl de longitudes de onda infrarrojas de unos 6,45 micrómetros, sin apenas infligir daños en el tejido circundante. En 1999, un equipo médico de Vanderbilt realizó la primera operación en un ser humano para extirpar un tumor cerebral usando un láser de electrones libres.18 Desde entonces ha habido varios proyectos de construcción de láseres pulsados de pequeño tamaño sintonizables entre longitudes de onda de 6 y 7 micrómetros para operar en tejido blandos sin dañar las zonas circundantes. En 2006, el doctor Rox Anderson, del Laboratorio Wellman de Fotomedicina de la Escuela Médica de Harvard y del Hospital General de Massachusetts presentó los primeros resultados del uso del láser de electrones libres para destruir el tejido graso subcutáneo sin dañar la piel.19 Mientras que las radiaciones infrarrojas calientan el agua, con longitudes de onda de 915, 1210 y 1720 nanometros, los lípidos se calientan más que el agua. Esta sensibilidad a la fototermólisis


(termólisis por luz) de los tejidos adiposos a determinadas longitudes de onda se puede utilizar para tratar el acné, destruir los lípidos causantes de la celulitis y el exceso de grasa corporal, así como las placas arteriales que pueden dar lugar a la ateroesclerosis y enfermedades cardiovasculares. USOS MILITARES La Armada de los Estados Unidos está evaluando la tecnología de láseres de electrones libres como misiles y armamento anti-aéreo. Se ha hecho mucho progreso en elevar la potencia del láser, hasta llegar por encima de los 14kW. 22 Se cree posible poder construir láseres compactos de una potencia de multi-megavatios para fines militares.23 En 2009 la Oficina de Investigación Naval anunció que había concedido a Raytheon un contrato para el desarrollo de un FEL experimental de 100 kW.24 En marzo de 2010, la compañía Boeing concluyó un diseño inicial para la Armada de los Estados Unidos;25 La finalización del prototipo capaz de operar a plena potencia está prevista para 2018.26 Ciencia de MATERIALES Y BIOLOGÍA

Reconstrucción de la estructura tridimensional de una molécula en un FEL de rayos X (simulación). Con un pulso de unas poca decenas de femtosegundos es posible generar un patrón de difracción antes de la total destrucción de la molécula por el haz. A longitudes de onda largas, los láseres de electrones libres se utilizan para explorar la propiedades dinámicas de materiales lejos de estados de equilibrio. Se han obtenido resultados importantes en electroóptica, —disciplina que estudia el cambio de las propiedades ópticas de los materiales sometidos a un campo eléctrico intenso—, control de estados cuánticos coherentes de los electrones, de importancia para el desarrollo de la computación cuántica, y física de materiales. En el régimen del espectro ultravioleta destacan las aplicaciones en el campo de la microscopía electrónica de emisión, en las que el haz láser se utiliza para excitar fotoelectrones de la superficie de diversos materiales; el análisis de estos electrones resulta en importante información sobre las propiedades de la superficie, que resultan importantes para aplicaciones nanotecnológicas. Los haces ultravioletas y de rayos-X de femto y picosegundos de duración se utilizan para investigar en detalle reacciones químicas y transiciones entre estados atómicos y moleculares que tienen lugar en una escala temporal similar a la duración del pulso del láser. En 2011 se reconstruyeron las primeras imágenes de la estructura tridimensional de macromoléculas biológicas a partir de los patrones de difracción de partículas víricas y nanocristales de proteínas en el FEL de rayos X de Stanford. Estos experimentos son


difíciles o imposibles de realizar en otras fuentes de rayos-X, como los sincrotrones, demasiado débiles para producir diffracción a partir de muestras de tan pequeño tamaño. LÁSERES DE RAYOS X ATÓMICOS Los láseres de electrones de rayos X posibilitan la obtención de luz láser de alta energía mediante el proceso de inversión de población generado por la ionización de los electrones del orbital atómico de mayor energía. Este proceso, descrito teóricamente en 1967 se demostró por primera vez disparando a una cápsula de neón con un haz de rayos X del LCLS. El resultado es un haz muy monocromático, con una longitud de onda de 1,46 nm con coherencia espacial y temporal. Este tipo de láseres atómicos pueden ser muy útiles para experimentos espectroscópicos de alta resolución y estudios de efectos ópticos no lineales LÁSER DE CRISTAL LÍQUIDO

Figura 1. Ejemplo de LCL, el láser es filtrado por un cristal líquido de campo gradiente. Los láseres de cristal líquido, también conocidos como LCL (Liquid Crystal Laser), son un nuevo tipo de láseres pensados para la reproducción de colores o representación de imágenes. El conjunto que forma el LCL consta de un flujo láser de entrada, una matriz de lentes y un celda de cristal líquido. La retroalimentación distribuida utilizando la reflexión de Bragg de una estructura periódica en lugar de espejos externos se propuso por primera vez en 1971, se predijo teóricamente con cristales líquidos colestéricos en 1978, se logró experimentalmente en 1980,3 y se explicó en términos de una banda prohibida fotónica en 1998.456 Una patente de los Estados Unidos expedida en 1973 describió un láser de cristal líquido que usa «un medio láser líquido que tiene retroalimentación distribuida interna en virtud de la estructura molecular de un material de cristal líquido colestérico». FUNCIONAMIENTO El funcionamiento del LCL se basa principalmente en la matriz de lentes y el cristal líquido. Su funcionamiento es relativamente sencillo: 1. Se inyecta un láser de 430 nm de longitud de onda en la matriz de lentes. 2. Cada lente enfoca el láser y lo convierte en un haz láser extremadamente delgado, obteniendo así 100 flujos láser enfocados. 3. Cada haz resultante pasa por la celda de cristal líquido, al pasar por el cristal líquido este cambia su longitud de onda, de manera que su color variará en función de la orientación del cristal líquido en el punto en que es atravesado por cada flujo láser.


LCL es capaz de proyectar diferentes colores con un mismo flujo láser gracias a que cristal líquido se excita con un campo de gradiente, de manera que puede haber variaciones dentro de una misma celda al contrario que en LCD, donde cada celda de cristal líquido actúa como llave de paso de la luz. Gracias a la flexibilidad del cristal líquido y la purezadel láser es capaz de alcanzar un gran rango de colores (longitudes de onda) y contrastes superiores a 30.000:1 en televisores.

Figura 2. Ejemplo del funcionamiento del LCL. Características

Figura 3. Comparativa entre el rango alcanzado por LCL contra los monitores CRT. Los LCL ofrecen muchas ventajas en relación a las tecnologías láser convencionales.  Rango de colores muy amplio, casi tres veces mayor que las pantallas convencionales (Figura 3).  Mayor resolución de pantalla y una relación de contraste y saturación de color excelente. La coherencia de los sistemas de visualización basados en láser también facilitan las oportunidades de proyección de vídeo holográfico.


Proyección en nonplane (la superficie es trivial), LCL no necesita una superficie determinada para reproducir una imagen ya que los rayos de luz son paralelos entre si, de manera que observaremos la misma imagen independientemente de la distancia a la que es proyectada.  Luz pura y estable gracias a que no hay variaciones en su modo de emisión.  Tamaño reducido, el tamaño del láser no supera el ancho de un cabello, esto permite mayores resoluciones en pantallas más pequeñas.  Soluciona los problemas de speckle de los láseres comunes mediante la matriz de lentes y el uso de pulsos de corta duración en la emisión.  Bajo coste de fabricación, esto es debido a que en los actuales sistemas de representación láser de imágenes RGB (Mitsubishi LaserVue) se utiliza un láser para cada componente, en cambio en LCL solo utiliza un láser para representar una matriz de 10x10 “pixeles” con una amplia gama de colores. LCL VS LÁSERES SEMICONDUCTORES Los LCL tienen muchas ventajas respecto a los láseres semiconductores. En primer lugar, podemos la longitud de onda a la salida del láser con un simple ajuste a la banda fotónica del cristal líquido. Además, el speckle puede reducirse mediante el uso de una fuente láser de longitud de onda corta o mediante el ajuste del material de cristal líquido para crear una mayor anchura de línea para la iluminación de salida. Por último, sólo una fuente láser es necesaria para LCL, reduciendo los costes del sistema y su complejidad. Ventajas — A diferencia de proyectores, la profundidad de foco es ilimitada. Estos beneficios son el resultado del hecho de que los rayos láser son colineales, una característica que no está presente en los proyectores de la lámpara. — Para acceder a todos los los valores de cromaticidad presentes en el diagrama CIE1931 (Commission Internationale de l'Eclairage) que están permitidas, dentro de los límites establecidos por las longitudes de onda de los láseres, se utilizan moduladores electro-ópticos para variar el brillo de cada láser. — Es una tecnología muy reciente y aún se está mejorando. Uno de los aspectos donde hay campo de mejora es en la proyección de láseres verdes, actualmente se está intentando proyectar verdes de 520nm, por lo que se ampliaría notablemente el rango de colores que puede representar. Inconvenientes — Debido a la distribución gaussiana del láser inicial (a 430 nm) los flujos láser del alrededor de la matriz poseen menos intensidad (casi nula). — Se trata de una tecnología que aún se encuentra en fase experimental. Aplicaciones Este tipo de láser podrán aplicarse a campos como la medicina debido a su diminuto tamaño, su flexibilidad y su bajo precio. Junto a la fibra óptica podrían ser utilizados en campos como la dermatología o la detección de el cáncer o la diabetes, así como la posibilidad de usarlos en la tecnología denominada lab on a chip. Pero para el consumidor común el destino de esta tecnología seguramente se encontrara en los televisores o


sistemas de representación de imagen, suponiendo así la evolución de los actuales televisores láser y cogiendo el relevo de la pantalla de plasma.

Figura 4. Comparativa entre televisores láser y plasma. PANTALLA LÁSER Pantalla láser se refiere tanto a la tecnología de fabricación de pantallas,1 como a la tecnología de visualización y proyección de video basada en optoelectrónica que utiliza luz láser. Está siendo desarrollada por varias compañías de electrónica para el hogar. Visión general El avance de los píxeles en pantalla viene de los tres láseres que emiten un rayo de cada uno de los tres colores primarios rojo, verde y azul (RGB). Funcionamiento El láser de color rojo se viene utilizando en aplicaciones informáticas y electrónicas desde hace tiempo, por lo que es una tecnología suficientemente probada e implementada. Sin embargo, no ocurre lo mismo en el caso de los láseres que emiten en las longitudes de onda azul y verde. La radiación de estos colores presenta una menor longitud de onda, y se sigue trabajando en el desarrollo de dispositivos semiconductores para conseguir buenos resultados en el campo de la imagen, ya que es importante que la potencia del rayo emitido sea la correcta.

La imagen muestra el tamaño relativo de un diodo láser encapsulado con respecto a un centavo. El desarrollo de otras tecnologías, que usan láseres como el Blu-ray o el HD DVD ha contribuido enormemente en la fabricación de buenos emisores de otros colores distintos al rojo. Por ejemplo, se ha avanzado mucho en la investigación del láser azul, si bien las aplicaciones en este campo (lectura/escritura de datos en soporte magnético) son bastante diferentes. Con estos haces de luz se pueden construir pantallas más ligeras y de menor consumo. La profundidad de la pantalla también es menor, ya que todo el sistema de proyección está


"condensado" en la base de la pantalla, algo que le otorga una seria ventaja respecto a otras tecnologías competidoras. GLV El componente principal en el que se basa todo el funcionamiento de este sistema de visualización recibe el nombre de Grating Light Valve. Se trata de una válvula conformada por seis rejillas recubiertas de un material reflectante, tres de ellas fijas y las otras restantes, móviles. Las tres rejillas móviles se mueven según el voltaje de entrada. Si a estas se les aplica el máximo voltaje, se alinearan perfectamente con las tres rejillas fijas, difractando la máxima cantidad de la luz láser incidente (lo que correspondería al valor 255). En cambio, si el voltaje de entrada es el mínimo, no difractaremos (se reflejará completamente) ese color. En el interior de una pantalla láser hay una GLV para cada componente de color de los 1080 píxeles que se dibujan, simultáneamente, en pantalla (3240 en total). FILTRO DE FOURIER Y COMBINACIÓN DE COLORES La luz láser de cada componente RGB difractada por la válvula GLV llega hasta una lente encargada de recogerla y de descartar la luz reflejada. Esta separación se consigue mediante un filtro de Fourier. Una vez que la luz difractada ha sido recolectada por la lente, se realiza la combinación final de los tres colores primarios RGB para formar el haz de luz definitivo que corresponderá al color del píxel. Antes de llegar al espejo de escaneado, la luz láser pasa por una lente de proyección, para darle la suficiente potencia y evitar problemas de visualización en pantalla que podrían ocurrir si la intensidad del haz fuera demasiado baja. ESPEJO DE ESCANEADO Cada uno de los haces de luz láser de los que hablamos en los anteriores apartados (1080 en total) inciden sobre el espejo de escaneado. Este espejo gira sobre un eje vertical de forma que puede recorrer la pantalla de izquierda a derecha para ir dibujando las distintas líneas horizontales sobre la pantalla. En el primer paso del barrido, el espejo dibujará en pantalla una línea horizontal hasta lograr 1080 de ellas y así obtener la imagen en pantalla. Diferencias respecto a otros sistemas La principal diferencia del sistema respecto a los ya implantados es que, en lugar de realizar un barrido por líneas horizontales, se dibuja toda una línea vertical a la vez. Con respecto a la frecuencia de actualización de la pantalla es de 50 o 60 Hz (imágenes por segundo) y cada píxel cambia a una frecuencia de 115 kHz (frecuencia a la que conmuta cada válvula GLV). Como resultado obtenemos una imagen final con más brillo y más claridad. Además, por la propia electrónica implementada en el sistema, las pantallas son ligeras y muy delgadas (mucho más que las pantallas LCD o de Plasma). Comparación con los sistemas actuales Se espera que las nuevas pantallas basadas en luz láser puedan competir en precio con los sistemas ya implantados. Como ventaja, presenta la ligereza y delgadez de las pantallas y, según sus creadores, con una mayor calidad de imagen. En contra tienen que tanto las pantallas LCD, como las pantallas de


plasma, llevan ya un tiempo en el mercado y, a ojos del gran público, se ven como sistemas más maduros. Conclusión En definitiva, el sistema de pantalla láser basado en GLV parece un avance importante ya que está implementado en un espacio menor del necesario en sistemas anteriores y, al parecer, con una calidad como mínimo igual, si no superior. Lo único que falta por ver es la aceptación que el mercado ofrece a esta nueva tecnología, y en esa fase influyen muchos factores más que los meramente tecnológicos. Juegan a su favor la proliferación de los sistemas home cinema y una mayor demanda de calidad por parte de los usuarios, a la hora de ver televisión en el hogar, además de la progresiva implantación del sistema HDTV (con el que la pantalla láser es compatible). MindSmack Corporation será la primera empresa en implementar las pantallas láser en los ordenadores portátiles. TECNOLOGÍA NECSEL Novalux es una empresa ubicada en el Silicon Valley que creó la tecnología de láser "Necsel"; un tipo de semiconductor láser que presenta las características ópticas y físicas necesarias a un coste ideal para aplicaciones de visualización de imágenes de uso masivo. Según Novalux, sus nuevas pantallas de tecnología láser presentan las siguientes especificaciones:  Proporcionan una paleta de colores más rica e intensa que las pantallas convencionales de plasma, LCD y CRT  Tienen la mitad de peso y costo que las pantallas de plasma o LCD  Presentan un consumo aproximadamente un 75% menor que las pantallas de plasma o LCD  Son tan delgadas como las pantallas de plasma o LCD actuales  Son capaces de mostrar un muy amplio gamut2 de color  Tienen una vida útil de unas 50.000 horas Ya que este tipo de tecnología láser es compacta, luminosa y de bajo costo, puede ser utilizada en pantallas de teléfonos celulares y PDAs. El dispositivo también puede proyectar las imágenes sobre cualquier pared conservando la misma calidad de color y brillo. Algunos fabricantes importantes de TV han indicado que ellos no tienen planes para incorporar la tecnología láser a su línea de productos. LED Un diodo emisor de luz (LED por sus siglas en inglés, light-emitting diode, o led, de acuerdo con el Diccionario de la lengua española)5 es una fuente de luz constituida por un material semiconductor dotado de dos terminales. Se trata de un diodo de unión p-n, que emite luz cuando está activado.6 Si se aplica una tensión adecuada a los terminales, los electrones se recombinan con los huecos en la región de la unión p-n del dispositivo, liberando energía en forma de fotones. Este efecto se denomina electroluminiscencia, y el color de la luz generada (que depende de la energía de los fotones emitidos) viene determinado por la anchura de la banda prohibida del semiconductor. Los ledes son normalmente pequeños (menos de 1 mm2) y se les asocian algunas componentes ópticas para configurar un patrón de radiación.7 Los primeros ledes fueron fabricados como componentes electrónicos para su uso práctico en 1962 y emitían luz infrarroja de baja intensidad. Estos ledes infrarrojos se siguen empleando como elementos transmisores en circuitos de control remoto, como son los mandos a distancia


utilizados dentro de una amplia variedad de productos de electrónica de consumo. Los primeros ledes de luz visible también eran de baja intensidad y se limitaban al espectro rojo. Los ledes modernos pueden abarcar longitudes de onda dentro de los espectros visible, ultravioleta e infrarrojo, y alcanzar luminosidades muy elevadas. Los primeros ledes se emplearon en los equipos electrónicos como lámparas indicadoras en sustitución de las bombillas incandescentes. Pronto se asociaron para las presentaciones numéricas en forma de indicadores alfanuméricos de siete segmentos, al mismo tiempo que se incorporaron en los relojes digitales. Los recientes desarrollos ya permiten emplear los ledes para la iluminación ambiental en sus diferentes aplicaciones. Los ledes han permitido el desarrollo de nuevas pantallas de visualización y sensores, y sus altas velocidades de conmutación permiten utilizarlos también para tecnologías avanzadas de comunicaciones. Hoy en día, los ledes ofrecen muchas ventajas sobre las fuentes convencionales de luces incandescentes o fluorescentes, destacando un menor consumo de energía, una vida útil más larga, una robustez física mejorada, un tamaño más pequeño así como la posibilidad de fabricarlos en muy diversos colores del espectro visible de manera mucho más definida y controlada; en el caso de ledes multicolores, con una frecuencia de conmutación rápida. Estos diodos se utilizan ahora en aplicaciones tan variadas que abarcan todas las áreas tecnológicas actuales, desde la Bioingeniería, la Medicina y la Sanidad, 8 pasando por la nanotecnología y la computación cuántica,9 los dispositivos electrónicos o la iluminación en la ingeniería de Minas; entre los más populares están las pantallas QLed de los televisores y dispositivos móviles,1011 la luz de navegación de los aviones, los faros delanteros de los vehículos, los anuncios publicitarios, la iluminación en general, los semáforos, las lámparas de destellos y los papeles luminosos de pared. Desde el comienzo de 2017, las lámparas led para la iluminación de las viviendas son tan baratas o más que las lámparas fluorescentes compacta de comportamiento similar al de los ledes.12 También son más eficientes energéticamente y, posiblemente, su eliminación como desecho provoque menos problemas ambientales DESCUBRIMIENTO Y PRIMEROS DISPOSITIVOS El fenómeno de la electroluminiscencia fue descubierto en 1907 por el experimentador británico Henry Joseph Round, de los laboratorios Marconi, usando un cristal de carburo de silicio y un detector de bigotes de gato.1516 El inventor soviético Oleg Lósev informó de la construcción del primer led en 1927. Su investigación apareció en revistas científicas soviéticas, alemanas y británicas, pero el descubrimiento no se llevó a la práctica hasta varias décadas más tarde. Kurt Lehovec, Carl Accardo y Edward Jamgochian interpretaron el mecanismo de estos primeros diodos led en 1951, utilizando un aparato que empleaba cristales de carburo de silicio, con un generador de impulsos y con una fuente de alimentación de corriente, y en 1953 con una variante pura del cristal. Rubin Braunstein, de la RCA, informó en 1955 sobre la emisión infrarroja del arseniuro de galio (GaAs) y de otras aleaciones de semiconductores. Braunstein observó que esta emisión se generaba en diodos construidos a partir de aleaciones de antimoniuro de galio (GaSb), arseniuro de galio (GaAs), fosfuro de indio (InP) y silicio-germanio (SiGe) a temperatura ambiente y a 77 kelvin.


Transistor led SNX-100 de GaAs (Arseniuro de Galio) con encapsulamiento de tipo TO18fabricado por Texas Instruments. En 1957, Braunstein también demostró que estos dispositivos rudimentarios podían utilizarse para establecer una comunicación no radiofónica a corta distancia. Como señala Kroemer, Braunstein estableció una línea de comunicaciones ópticas muy simple: 17 tomó la música procedente de un tocadiscos y la elaboró mediante la adecuada electrónica para modular la corriente directa producida por un diodo de GaAs Arseniuro de Galio. La luz emitida por el diodo de GaAS fue capaz de sensibilizar un diodo de PbS Sulfuro de Plomo situado a una cierta distancia. La señal así generada por el diodo de PbS fue introducida en un amplificador de audio y se trasmitió por un altavoz. Cuando se interceptaba el rayo luminoso entre los dos ledes, cesaba la música. Este montaje ya presagiaba el empleo de los ledes para las comunicaciones ópticas.

La electroluminiscencia verde de un punto de contacto en un cristal de SiCreproduce el experimento original que realizó Round en 1907. En septiembre de 1961, James R. Biard y Gary Pittman, que trabajaban en Texas Instruments (TI) de Dallas (Texas), descubrieron una radiación infrarroja (de 900 nm) procedente de un diodo túnel que habían construido empleando un sustrato de arseniuro de galio (GaAs).18 En octubre de 1961 demostraron la existencia de emisiones de luz eficientes y el acoplamiento de las señales entre la unión p-n de arseniuro de galio emisora de luz y un fotodetector aislado eléctricamente y construido con un material semiconductor. 19 En base a sus descubrimientos, el 8 de agosto de 1962 Biard y Pittman produjeron una patente de título “Semiconductor Radiant Diode” (Diodo radiante semiconductor) que describía cómo una aleación de zinc difundida durante el crecimiento del cristal que forma el sustrato de una unión p-n led con un contacto del cátodo lo suficientemente separado, permitía la emisión de luz infrarroja de manera eficiente en polarización directa.


A la vista de la importancia de sus investigaciones, tal como figuraban en sus cuadernos de notas de ingeniería y antes incluso de comunicar sus resultados procedentes de los laboratorios de General Electric, Radio Corporation of America, IBM, Laboratorios Bell o las del Laboratorio Lincoln del Instituto Tecnológico de Massachusetts, la Oficina de Patentes y Marcas de Estados Unidos les concedió una patente por la invención de los diodos emisores de luz infrarroja de arseniuro de galio (Patente US3293513A 20), que son considerados como los primeros ledes de uso práctico. Inmediatamente después de la presentación de la patente, la TI inició un proyecto para la fabricación de los diodos infrarrojos. En octubre de 1962, Texas Instruments desarrolló el primer led comercial (el SNX-100), que empleaba un cristal puro de arseniuro de galio para la emisión de luz de 890 nm. En octubre de 1963, TI sacó al mercado el primer led semiesférico comercial, el SNX-110. El primer led con emisión en el espectro visible (rojo) fue desarrollado en 1962 por Nick Holonyak.Jr cuando trabajaba en la General Electric. Holonyak presentó un informe en la revista Applied Physics Letters el 1 de diciembre de 1962.22 En 1972 M Jorge Craford, un estudiante de grado de Holonyak, inventó el primer led amarillo y mejoró la luminosidad de los ledes rojo y rojo-naranja en un factor de diez. En 1976, T. P. Pearsall construyó los primeros ledes de alto brillo y alta eficiencia para las telecomunicaciones a través de fibras ópticas. Para ello descubrió nuevos materiales semiconductores expresamente adaptados a las longitudes de onda propias de la citada transmisión por fibras ÓPTICAS. DESARROLLO COMERCIAL INICIAL Los primeros ledes comerciales fueron generalmente usados para sustituir a las lámparas incandescentes y las lámparas indicadoras de neón así como en los visualizadores de siete segmentos.25 Primero en equipos costosos tales como equipos electrónicos y de ensayo de laboratorio, y más tarde en otros dispositivos eléctricos como televisores, radios, teléfonos, calculadoras, así como relojes de pulsera. Hasta 1968, los ledes visibles e infrarrojos eran extremadamente costosos, del orden de 200 dólares por unidad, por lo que tuvieron poca utilidad práctica.26 La empresa Monsanto Company fue la primera que produjo de manera masiva ledes visibles, utilizando fosfuro de arseniuro de galio (GaAsP) en 1968 para producir ledes rojos destinados a los indicadores.26 Hewlett-Packard (HP) introdujo los ledes en 1968, inicialmente utilizando GaAsP suministrado por Monsanto. Estos ledes rojos eran lo suficientemente brillantes como para ser utilizados como indicadores, puesto que la luz emitida no era suficiente para iluminar una zona. Las lecturas en las calculadoras eran tan débiles que sobre cada dígito se depositaron lentes de plástico para que resultaran legibles. Más tarde, aparecieron otros colores que se usaron ampliamente en aparatos y equipos. En la década de los 70 Fairchild Optoelectrónics fabricó con éxito comercial dispositivos led a menos de cinco centavos cada uno. Estos dispositivos emplearon chips de semiconductores compuestos fabricados mediante el proceso planar inventado por Jean Hoerni de Fairchild Semiconductor.2728 El procesado planar para la fabricación de chips combinado con los métodos innovadores de encapsulamiento permitió al


equipo dirigido por el pionero en optoelectrónica, Thomas Brandt, lograr las reducciones de coste necesarias en Fairchild. Estos métodos siguen siendo utilizados por los fabricantes de los ledes.

Pantalla led de una calculadora científica TI-30 (aprox. 1978) que utiliza lentes de plástico para aumentar el tamaño visible de los dígitos La mayoría de los ledes se fabricaron en los encapsulamientos típicos T1¾ de 5 mm y T1 de 3 mm, pero con el aumento de la potencia de salida, se ha vuelto cada vez más necesario eliminar el exceso de calor para mantener la fiabilidad. 31 Por tanto ha sido necesario diseñar encapsulamientos más complejos ideados para conseguir una eficiente disipación de calor. Los encapsulamientos empleados actualmente para los ledes de alta potencia tienen poca semejanza con los de los primeros ledes. LED AZUL Los ledes azules fueron desarrollados por primera vez por Henry Paul Maruska de RCA en 1972 utilizando nitruro de Galio (GaN) sobre un substrato de zafiro. Se empezaron a comercializar los de tipo SiC (fabricados con carburo de silicio) por la casa Cree, Inc., Estados Unidos en 1989. Sin embargo, ninguno de estos ledes azules era muy brillante. El primer led azul de alto brillo fue presentado por Shuji Nakamura de la Nichia Corp. en 1994 partiendo del material Nitruro de Galio-Indio (InGaN).3536 Isamu Akasaki y Hiroshi Amano en Nagoya trabajaban en paralelo, en la nucleación cristalina del Nitruro de Galio sobre substratos de zafiro, obteniendo así el dopaje tipo-p con dicho material. Como consecuencia de sus investigaciones, Nakamura, Akasaki y Amano fueron galardonados con el Premio Nobel de Física. En 1995, Alberto Barbieri del laboratorio de la Universidad de Cardiff (RU) investigaba la eficiencia y fiabilidad de los ledes de alto brillo y como consecuencia de la investigación obtuvo un led con el electrodo de contacto transparente utilizando óxido de indio y estaño (ITO) sobre fosfuro de aluminio-galio-indio y arseniuro de galio. En 2001y 2002se llevaron a cabo procesos para hacer crecer ledes de nitruro de galio en silicio. Como consecuencia de estas investigaciones, en enero de 2012 osramlanzó al mercado ledes de alta potencia de nitruro de galio-indio crecidos sobre sustrato de silicio. LED BLANCO Y EVOLUCIÓN


Ilustración de la Ley de Haitz donde se muestra la mejoría de la a lo largo del tiempo, empleando para ello una escala logarítmica en el eje vertical. El logro de una alta eficiencia en los ledes azules fue rápidamente seguido por el desarrollo del primer led blanco. En tal dispositivo un “fósforo” (material fluorescente) de recubrimiento Y 3 Al 5 O 12 :Ce (conocido como YAG) absorbe algo de la emisión azul y genera luz amarilla por fluorescencia. De forma similar es posible introducir otros “fósforos” que generen luz verde o roja por fluorescencia. La mezcla resultante de rojo, verde y azul se percibe por el ojo humano como blanco; por otro lado, no sería posible apreciar los objetos de color rojo o verde iluminándolos con el fósforo YAG puesto que genera solo luz amarilla junto con un remanente de luz azul. Los primeros ledes blancos eran caros e ineficientes. Sin embargo, la intensidad de la luz producida por los ledes se ha incrementado exponencialmente, con un tiempo de duplicación que ocurre aproximadamente cada 36 meses desde la década de los 1960 (de acuerdo con la ley de Moore). Esta tendencia se atribuye generalmente a un desarrollo paralelo de otras tecnologías de semiconductores y a los avances de la óptica y de la ciencia de los materiales, y se ha convenido en llamar la ley de Haitz en honor a Roland Haitz. La emisión luminosa y la eficiencia de los ledes azul y ultravioleta cercano aumentaron a la vez que bajó el coste de los dispositivos de iluminación con ellos fabricados, lo que condujo a la utilización de los ledes de luz blanca para iluminación. El hecho es que están sustituyendo a la iluminación incandescente y la fluorescente. Los ledes blancos pueden producir 300 lúmenes por vatio eléctrico a la vez que pueden durar hasta 100 000 horas. Comparado con las bombillas de incandescencia esto supone no solo un incremento enorme de la eficiencia eléctrica sino también un gasto similar o más bajo por cada bombilla.45 Principio de funcionamiento Una unión P-N puede proporcionar una corriente eléctrica al ser iluminada. Análogamente una unión P-N recorrida por una corriente directa puede emitir fotones luminosos. Son dos formas de considerar el fenómeno de la electroluminiscencia. En el segundo caso esta podría definirse como la emisión de luz por un semiconductor cuando está sometido a un campo eléctrico. Los portadores de carga se recombinan en una unión P-N dispuesta en polarización directa. En concreto, los electrones de la región N cruzan la barrera de potencial y se recombinan con los huecos de la región P. Los electrones libres se encuentran en la banda de conducción mientras que los huecos están en la banda de valencia. De esta forma, el nivel de energía de los huecos es inferior al de los electrones. Al recombinarse los electrones y los huecos una fracción de la energía se emite en forma de calor y otra fracción en forma de luz.


Polarización directa de la unión P-N en un diodo led. Producción de fotones como consecuencia de la recombinación entre electrones y huecos (parte superior). El fenómeno de la recombinación observado en un diagrama de bandas de energía (parte inferior). El fenómeno físico que tiene lugar en una unión PN al paso de la corriente en polarización directa, por tanto, consiste en una sucesión de recombinaciones electrón-hueco. El fenómeno de la recombinación viene acompañado de la emisión de energía. En los diodos ordinarios de Germanio o de Silicio se producen fonones o vibraciones de la estructura cristalina del semiconductor que contribuyen, simplemente, a su calentamiento. En el caso de los diodos led, los materiales semiconductores son diferentes de los anteriores tratándose, por ejemplo, de aleaciones varias del tipo III-V como son el arseniuro de galio ( AsGa ), el fosfuro de galio (PGa) o el fosfoarseniuro de galio (PAsGa ). En estos semiconductores, las recombinaciones que se desarrollan en las uniones PN eliminan el exceso de energía emitiendo fotones luminosos. El color de la luz emitida depende directamente de su longitud de onda y es característico de cada aleación concreta. En la actualidad se fabrican aleaciones que producen fotones luminosos con longitudes de onda en un amplio rango del espectro electromagnético dentro del visible, infrarrojo cercano y ultravioleta cercano. Lo que se consigue con estos materiales es modificar la anchura en energías de la banda prohibida, modificando así la longitud de onda del fotón emitido. Si el diodo led se polariza inversamente no se producirá el fenómeno de la recombinación por lo que no emitirá luz. La polarización inversa puede llegar a dañar al diodo. El comportamiento eléctrico del diodo led en polarización directa es como sigue. Si se va incrementando la tensión de polarización, a partir de un cierto valor (que depende del tipo de material semiconductor), el led comienza a emitir fotones, se ha alcanzado la tensión de encendido. Los electrones se pueden desplazar a través de la unión al aplicar a los electrodos diferentes tensiones; se inicia así la emisión de fotones y conforme se va incrementando la tensión de polarización, aumenta la intensidad de luz emitida. Este aumento de intensidad luminosa viene emparejado al aumento de la intensidad de la corriente y puede verse disminuida por la recombinación Auger. Durante el proceso de recombinación, el electrón salta de la banda de conducción a la de valencia emitiendo un fotón y accediendo, por conservación de la energía y momento, a un nivel más bajo de energía, por debajo del nivel de Fermi del material. El proceso de emisión se llama recombinación radiativa, que corresponde al


fenómeno de la emisión espontánea. Así, en cada recombinación radiativa electrón-hueco se emite un fotón de energía igual a la anchura en energías de la banda prohibida:

Esquema del circuito led alimentado con tensión continua incrementada gradualmente hasta que el led comienza a lucir.

siendo c la velocidad de la luz y f y λ la frecuencia y la longitud de onda, respectivamente, de la luz que emite. Esta descripción del fundamento de la emisión de radiación electromagnética por el diodo led se puede apreciar en la figura donde se hace una representación esquemática de la unión PN del material semiconductor junto con el diagrama de energías, implicado en el proceso de recombinación y emisión de luz, en la parte baja del dibujo. La longitud de onda de la luz emitida, y por lo tanto su color, depende de la anchura de la banda prohibida de energía. Los substratos más importantes disponibles para su aplicación en emisión de luz son el GaAs y el InP. Los diodos led pueden disminuir su eficiencia si sus picos de absorción y emisión espectral en función de su longitud de onda están muy próximos, como ocurre con los ledes de GaAs:Zn (arseniuro de galio dopado con zinc) ya que parte de la luz que emiten la absorben internamente. Los materiales utilizados para los ledes tienen una banda prohibida en polarización directa cuya anchura en energías varía desde la luz infrarroja, al visible o incluso al ultravioleta próximo. La evolución de los ledes comenzó con dispositivos infrarrojos y rojos de arseniuro de galio. Los avances de la ciencia de materiales han permitido fabricar dispositivos con longitudes de onda cada vez más cortas, emitiendo luz en una amplia gama de colores. Los ledes se fabrican generalmente sobre un sustrato de tipo N, con un electrodo conectado a la capa de tipo P depositada en su superficie. Los sustratos de tipo P, aunque son menos comunes, también se fabrican. Tecnología Fundamento físico


Un led comienza a emitir cuando se le aplica una tensión de 2-3 voltios. En polarización inversa se utiliza un eje vertical diferente al de la polarización directa para mostrar que la corriente absorbida es prácticamente constante con la tensión hasta que se produce la ruptura. El led es un diodo formado por unchip semiconductor dopado con impurezas que crean una unión PN. Como en otros diodos, la corriente fluye fácilmente del lado p, o ánodo, al n, o cátodo, pero no en el sentido opuesto. Losportadores de carga (electrones yhuecos) fluyen a la unión desde doselectrodos puestos a distintosvoltajes. Cuando un electrón se recombina con un hueco, desciende su nivel de energía y el exceso de energía se desprende en forma de unfotón. Lalongitud de onda de la luz emitida, y por tanto el color del led, depende de la anchura en energía de la banda prohibida correspondiente a los materiales que constituyen la unión pn. En los diodos de silicio o de germanio los electrones y los huecos se recombinan generando unatransición no radiativa, la cual no produce ninguna emisión luminosa ya que son materiales semiconductores con unabanda prohibida indirecta. Los materiales empleados en los ledes presentan una banda prohibida directa con una anchura en energía que corresponde al espectro luminoso del infrarrojo-cercano (800 nm - 2500 nm), el visible y el ultravioleta-cercano (200-400 nm). El desarrollo de los ledes dio comienzo con dispositivos de luz roja e infrarroja, fabricados conarseniuro de galio (GaAs). Los avances en la ciencia de materiales han permitido construir dispositivos con longitudes de onda cada vez más pequeñas, emitiendo luz dentro de una amplia gama de colores. Los ledes se suelen fabricar a partir de un sustrato de tipo n, con uno de los electrodos unido a la capa de tipo p depositada sobre su superficie. Los sustratos de tipo p también se utilizan, aunque son menos comunes. Muchos ledes comerciales, en especial los de GaN/InGaN, utilizan también el zafiro (óxido de aluminio) como sustrato. La mayoría de los materiales semiconductores usados en la fabricación de los ledes presentan un índice de refracción muy alto. Esto implica que la mayoría de la luz emitida en el interior del semiconductor se refleja al llegar a la superficie exterior que se encuentra en contacto con el aire por un fenómeno dereflexión total interna. La extracción de la luz constituye, por tanto, un aspecto muy importante y en constante investigación y desarrollo a tomar en consideración en la producción de ledes. ÍNDICE DE REFRACCIÓN

Ejemplo idealizado de los conos de luz producidos en una pieza de material semiconductor para una emisión procedente de un solo punto. La luz emitida por fuera de estos conos no puede salir fuera de la pieza. La ilustración de la izquierda representa una pieza formada por dos capas completamente traslúcidas mientras que la de la derecha muestra los “medios conos”


formados cuando la capa superior es traslúcida y la capa del fondo es completamente opaca. Realmente, la luz se emite de igual forma en todas las direcciones del espacio desde la fuente, por lo que los espacios existentes entre los conos muestran que gran parte de la energía luminosa emitida por la fuente es atrapada dentro de la muestra y se pierde en forma de calor. La mayoría de los materiales semiconductores usados en la fabricación de los ledes presentan uníndice de refracción muy elevado con respecto al aire. Esto implica que la mayoría de la luz emitida en el interior del semiconductor se va a reflejar al llegar a la superficie exterior que se encuentra en contacto con el aire por un fenómeno dereflexión total interna. Este fenómeno afecta tanto a la eficiencia en la emisión luminosa de los ledes como a la eficiencia en la absorción de la luz de lascélulas fotovoltaicas. El índice de refracción del silicio es 3.96 (a 590 nm),46 mientras que el del aire es 1,0002926.46 La extracción de la luz constituye, por tanto, un aspecto muy importante y en constante investigación y desarrollo a tomar en consideración en la producción de ledes. En general, un chip semiconductor led de superficie plana sin revestir emitirá luz solamente en la dirección perpendicular a la superficie del semiconductor y en unas direcciones muy próximas, formando un cono llamado cono de luz 47 o cono de escape.48 El máximoángulo de incidencia que permite escapar a los fotones del semiconductor se conoce comoángulo crítico. Cuando se sobrepasa este ángulo, los fotones ya no se escapan del semiconductor pero en cambio son reflejados dentro del cristal del semiconductor como si existiese un espejo en la superficie exterior.48 Debido a la reflexión interna, la luz que ha sido reflejada internamente en una cara puede escaparse a través de otras caras cristalinas si el ángulo de incidencia llega a ser ahora suficientemente bajo y el cristal es suficientemente transparente para no reflejar nuevamente la emisión de fotones hacia el interior. Sin embargo, en un simple led cúbico con superficies externas a 90 grados, todas las caras actúan como espejos angulares iguales. En este caso, la mayor parte de la luz no puede escapar y se pierde en forma de calor dentro del cristal semiconductor.48 Un chip que presente en su superficie facetas anguladas similares a las de una joya tallada o a unalente fresnel puede aumentar la salida de la luz al permitir su emisión en las orientaciones que sean perpendiculares a las facetas exteriores del chip, normalmente más numerosas que las seis únicas de una muestra cúbica.49 La forma ideal de un semiconductor para obtener la máxima salida de luz sería la de unamicroesfera con la emisión de los fotones situada exactamente en el centro de la misma, y dotada de electrodos que penetraran hasta el centro para conectar con el punto de emisión. Todos los rayos de luz que partieran del centro serían perpendiculares a la superficie de la esfera, lo que daría lugar a que no hubiera reflexiones internas. Un semiconductor semiesférico también funcionaría correctamente puesto que la parte plana actuaría como un espejo para reflejar los fotones de forma que toda la luz se podría emitir completamente a través de la semiesfera.


Revestimientos de transición

La mayoría de los materiales empleados en la producción de los led presentan índices de refracción muy elevados. Esto significa que mucha de la luz emitida es reflejada hacia el interior en la superficie externa del material en contacto con el aire. Por lo tanto, el aspecto de la extracción de la luz de los ledes es motivo de una gran dedicación en cuanto a investigación y desarrollo. Los conos de emisión de luz para las muestras reales de ledes son bastante más complejos que los producidos a partir de una sola fuente puntual. La zona de emisión de la luz es normalmente un plano bidimensional definido entre las dos capas de semiconductor. Cada átomo situado en este plano presenta un conjunto de conos de emisión análogos a los de la figura anterior. La figura es un esquema simplificado que muestra el efecto combinado de algunos conos de emisión. Los grandes conos laterales han sido cortados para mostrar las características del interior y reducir la complejidad de la imagen; en realidad, estos conos se deberían extender hasta los bordes opuestos dentro del plano bidimensional de emisión. Después de construir una oblea de material semiconductor, se corta en pequeños fragmentos. Cada fragmento se denomina chip y pasa a constituir la pequeña parte activa de un diodo led emisor de luz. Muchos chips semiconductores led se encapsulan o se incorporan en el interior en carcasas de plástico moldeado. La carcasa de plástico pretende conseguir tres propósitos: 1. Facilitar el montaje del chip semiconductor en los dispositivos de iluminación. 2. Proteger de daños físicos al frágil cableado eléctrico asociado al diodo. 3. Actuar de elemento intermediario a efecto de la refracción entre el elevado índice del semiconductor y el del aire. La tercera característica contribuye a aumentar la emisión de luz desde el semiconductor actuando como una lente difusora, permitiendo que la luz sea emitida al exterior con un ángulo de incidencia sobre la pared exterior mucho mayor que la del estrecho cono de luz procedente del chip sin recubrir. LA EFICIENCIA Y LOS PARÁMETROS OPERACIONALES Los ledes están diseñados para funcionar con una potencia eléctrica no superior a 3060milivatios (mW). En torno a 1999, Philips Lumiledsintrodujo ledes más potentes capaces de trabajar de forma continua a una potencia de un vatio. Estos ledes


utilizaban semiconductores de troquelados mucho más grandes con el fin de aceptar potencias de alimentación mayores. Además, se montaban sobre varillas de metal para facilitar la eliminación de calor. Una de las principales ventajas de las fuentes de iluminación a base de ledes es la altaeficiencia luminosa. Los ledes blancos igualaron enseguida e incluso superaron la eficiencia de los sistemas de iluminación incandescentes estándar. En 2002, Lumileds fabricó ledes de cinco vatios, con una eficiencia luminosa de 18-22 lúmenes por vatio (lm/W). A modo de comparación, unabombilla incandescente convencional de 60-100 vatios emite alrededor de 15 lm/W, y las lámparas fluorescentes estándar emiten hasta 100 lm/W. A partir de 2012, Future Lighting Solutions había alcanzado las siguientes eficiencias para algunos colores.51 Los valores de la eficiencia muestran la potencia luminosa de salida por cada vatio de potencia eléctrica de entrada. Los valores de la eficiencia luminosa incluyen las características del ojo humano y se han deducido a partir de la función de luminosidad. Color

Longitud onda (nm)

de Coeficiente eficiencia

de Eficiencia (Lm/W)

Rojo

620 < λ < 645

0.39

72

Rojo anaranjado

610 < λ < 620

0.29

98

Verde

520 < λ < 550

0.15

93

Cian

490 < λ < 520

0.26

75

Azul

460 < λ < 490

0.35

37

Luminosa η

En septiembre de 2003, Cree Inc. fabricó un nuevo tipo de led azul que consumía 24 milivatios (mW) a 20 miliamperios (mA). Esto permitió un nuevo encapsulamiento de luz blanca que producía 65 lm/W a 20 miliamperios, convirtiéndose en el led blanco más brillante disponible en el mercado; además resultaba ser más de cuatro veces más eficiente que las bombillas incandescentes estándar. En 2006 presentaron un prototipo de led blanco con una eficiencia luminosa récord de 131 lm/W para una corriente de 20 miliamperios. Nichia Corporation ha desarrollado un led blanco con una eficiencia luminosa de 150 lm/W y una corriente directa de 20 mA.52 Los ledes de la empresa Cree Inc. denominados xlamp xm-L, salieron al mercado en 2011, produciendo 100 lm/W a la potencia máxima de 10 W, y hasta 160 lm/W con una potencia eléctrica de entrada de unos 2 W. En 2012, Cree Inc. presentó un led blanco capaz de producir 254 lm/W,53 y 303 lm/W en marzo de 2014.54 Las necesidades de iluminación general en la práctica requieren ledes de alta potencia, de un vatio o más. Funcionan con corrientes superiores a 350 miliamperios. Estas eficiencias se refieren a la luz emitida por el diodo mantenido a baja temperatura en el laboratorio. Dado que los ledes, una vez instalados, operan a altas temperaturas y con pérdidas deconducción, la eficiencia en realidad es mucho menor. ElDepartamento de Energía de los


Estados Unidos (DOE) ha realizado pruebas para sustituir las lámparas incandescentes o los LFC por las lámparas led, mostrando que la eficiencia media conseguida es de unos 46 lm/W en 2009 (el comportamiento durante las pruebas se mantuvo en un margen de 17 lm/W a 79 lm/W). Pérdida de eficiencia Cuando la corriente eléctrica suministrada a un led sobrepasa unas decenas de miliamperios, disminuye la eficiencia luminosa a causa de un efecto denominado pérdida de eficiencia. Al principio, se buscó una explicación atribuyéndolo a las altas temperaturas. Sin embargo, los científicos pudieron demostrar lo contrario, que si bien la vida del led puede acortarse, la caída de laeficiencia es menos severa a temperaturas elevadas.56 En 2007, la causa del descenso en la eficiencia se atribuyó a la recombinación Auger la cual da origen a una reacción mixta. 57 Finalmente, un estudio de 2013 confirmó definitivamente esta teoría para justificar la perdida de eficiencia. Además de disminuir la eficiencia, los ledes que trabajan con corrientes eléctricas más altas generan más calor lo que compromete el tiempo de vida del led. A causa de este incremento de calor a corrientes altas, los ledes de alta luminosidad presentan un valor patrón industrial de tan solo 350 mA, corriente para la que existe un equilibrio entre luminosidad, eficiencia y durabilidad.57596061 Posibles soluciones[editar] Ante la necesidad de aumentar la luminosidad de los ledes, esta no se consigue a base de incrementar los niveles de corriente sino mediante el empleo de varios ledes en una sola lámpara. Por ello, resolver el problema de la pérdida de eficiencia de las lámparas led domésticas consiste en el empleo del menor número posible de ledes en cada lámpara, lo que contribuye a reducir significativamente los costes. Miembros del Laboratorio de Investigación Naval de los Estados Unidos han encontrado una forma de disminuir la caída de la eficiencia. Descubrieron que dicha caída proviene de la recombinación Auger no radiativa producida con los portadores inyectados. Para resolverlo, crearon unospozos cuánticos con un potencial de confinamiento suave para disminuir los procesos Auger no radiativos.62 Investigadores de laUniversidad Central Nacional de Taiwán y de Epistar Corp están desarrollando un método para disminuir la pérdida de eficiencia mediante el uso de sustratos de cerámica denitruro de aluminio, que presentan una conductividad térmica más alta que la del zafiro usado comercialmente. Los efectos de calentamiento se ven reducidos debido a la elevada conductividad térmica de los nuevos sustratos. Vida media y análisis de fallos Los dispositivos de estado sólido tales como los ledes presentan una obsolescencia muy limitada si se opera a bajas corrientes y a bajas temperaturas. Los tiempos de vida son de 25 000 a 100 000 horas, pero la influencia del calor y de la corriente pueden aumentar o disminuir este tiempo de manera significativa.64


El fallo más común de los ledes (y de los diodos láser) es la reducción gradual de la emisión de luz y la pérdida de eficiencia. Los primeros ledes rojos destacaron por su corta vida. Con el desarrollo de los ledes de alta potencia, los dispositivos están sometidos a temperaturas de unión más altas y adensidades de corriente más elevadas que los dispositivos tradicionales. Esto provoca estrés en el material y puede causar una degradación temprana de la emisión de luz. Para clasificar cuantitativamente la vida útil de una manera estandarizada, se ha sugerido utilizar los parámetros L70 o L50, que representan los tiempos de vida (expresados en miles de horas) en los que un led determinado alcanza el 70 % y el 50 % de la emisión de luz inicial, respectivamente. Así como en la mayoría de las fuentes de luz anteriores (lámparas incandescentes, lámparas de descarga, y aquellas que queman un combustible, por ejemplo las velas y las lámparas de aceite) la luz se generaba por un procedimiento térmico, los ledes solo funcionan correctamente si se mantienen suficientemente fríos. El fabricante específica normalmente una temperatura máxima de la unión entre 125 y 150 °C, y las temperaturas inferiores son recomendables en interés de alcanzar una larga vida para los ledes. A estas temperaturas, se pierde relativamente poco calor por radiación, lo que significa que el haz de luz generado por un led se considera frío. El calor residual en un led de alta potencia (que a partir de 2015 puede considerarse inferior a la mitad de la potencia eléctrica que consume) es transportado por conducción a través del sustrato y el encapsulamiento hasta undisipador de calor, que elimina el calor en el ambiente por convección. Es por tanto esencial realizar un diseño térmico cuidadoso, teniendo en cuenta lasresistencias térmicas del encapsulamiento del led, el disipador de calor y la interfaz entre ambos. Los ledes de potencia media están diseñados normalmente para ser soldados directamente a una placa de circuito impreso que dispone de una capa de metal térmicamente conductora. Los ledes de alta potencia se encapsulan en paquetes cerámicos de gran superficie diseñados para ser conectados a un disipador de calor metálico, siendo la interfaz un material de una alta conductividad térmica (pasta térmica, material de cambio de fase, almohadilla térmica conductora o pegamento termofusible). Si se instala una lámpara de ledes en un aparato luminoso sin ventilación, o el ambiente carece de una circulación de aire fresco, es probable que los ledes se sobrecalienten, lo que reduce su vida útil o, incluso, produzca el deterioro anticipado del aparato luminoso. El diseño térmico se suele proyectar para una temperatura ambiente de 25 °C (77 °F). Los ledes utilizados en las aplicaciones al aire libre, como las señales de tráfico o las luces de señalización en el pavimento, y en climas donde la temperatura dentro del aparato de iluminación es muy alta, pueden experimentar desde una reducción de la emisión luminosa hasta un fallo completo. 66 Puesto que la eficiencia de los ledes es más alta a temperaturas bajas, esta tecnología es idónea para la iluminación de los congeladores de supermercado. Debido a que los ledes producen menos calor residual que las lámparas incandescentes, su uso en congeladores también puede ahorrar costes de refrigeración. Sin embargo, pueden ser más susceptibles a la helada y a la


acumulación de escarcha que las lámparas incandescentes, por lo que algunos sistemas de iluminación led han sido dotados de un circuito de calefacción. Además, se han desarrollado las técnicas de los disipadores de calor de manera que pueden transferir el calor producido en la unión a las partes de los equipos de iluminación que puedan interesar. COLORES Y MATERIALES Los ledes convencionales están fabricados a partir de una gran variedad de materiales semiconductores inorgánicos. En la siguiene tabla se muestran los colores disponibles con su margen de longitudes de onda, diferencias de potencial de trabajo y materiales empleados. Color Radiación infrarroja

Rojo

Naranja

Amarillo

Verde

Longitud Onda [nm] λ > 760

610 < λ < 760

590 < λ < 610

570 < λ < 590

500 < λ < 570

de Diferencia de Material semiconductor potencial [ΔV] ΔV < 1.63

Arseniuro de Galio (GaAs) Arseniuro de galioaluminio (AlGaAs)

1.63 < ΔV < 2.03

Arseniuro de galioaluminio (AlGaAs) Fosfuro de galio y arsénico (GaAsP) Fosfuro de aluminio-galioindio (AlGaInP) Fosfato de galio (GaP)

2.03 < ΔV < 2.10

Fosfuro de galio y arsénico (GaAsP) Fosfuro de aluminio-galioindio (AlGaInP) Fosfato de galio (GaP)

2.10 < ΔV < 2.18

Fosfuro de galio y arsénico (GaAsP) Fosfuro de aluminio-galioindio (AlGaInP) Fosfato de galio (GaP)

1.971 < ΔV < 4.0

Verde clásico: Fosfato de galio (GaP) Fosfuro de aluminio-galioindio (AlGaInP) Fosfuro de galio-aluminio (AlGaP) Verde puro: Nitruro de galio-indio (InGaN)


/ Nitruro de galio (GaN)

Azul

450 < λ < 500

2.48 < ΔV < 3.7

Seleniuro de zinc (ZnSe) Nitruro de galio-indio (InGaN) Carburo de silicio (SiC) como sustrato Silicio (Si) como sustrato (en desarrollo)72

Violeta

400 < λ < 450

2.76 < ΔV < 4.0

Nitruro de galio-indio (InGaN)

Púrpura

Combinación distintos tipos

2.48 < ΔV < 3.7

Ledes duales azul/rojo, azul con fósforo rojo, o blanco con plástico púrpura.

3 < ΔV < 4.1

Nitruro de galio-indio (InGaN) (385-400 nm) Diamante (C) (235 nm)73 Nitruro de boro (BN) (215 nm)7475 Nitruro de aluminio (AlN) 76 (210 nm) Nitruro de galio-aluminio (AlGaN) Nitruro de aluminio-galioindio (AlGaInN) hasta 210 nm77

ΔV ~ 3.378

Azul con una o dos capas de fósforo, amarillo con fósforo rojo, naranja o rosa, blanco con plástico rosa, o fósforo blanco con tinte rosa por encima.79

2.8 < ΔV < 4.2

Blanco puro: Led azul o UV con fósforo amarillo Blanco cálido: Led azul con fósforo naranja.

Ultravioleta

Rosa

Blanco

de

λ < 400

Combinación distintos tipos

Espectro amplio

de

AZUL Y ULTRAVIOLETA El primer led azul-violeta utilizaba nitruro de galio dopado con magnesio y lo desarrollaron Herb Maruska y Wally Rhines en la Universidad de Standford en 1972, estudiantes de doctorado en ciencia de materiales e ingeniería.8081 En aquel entonces Maruska estaba trabajando en los laboratorios de RCA, donde colaboraba con Jacques Pankove. En 1971, un año después de que Maruska se fuera a Standford, sus compañeros de RCA Pankove y Ed Miller demostraron la


primera electroluminiscencia azul procedente del zinc dopado con nitruro de galio; sin embargo el dispositivo que construyeron Pankove y Miller, el primer diodo emisor de luz de nitruro de galio real, emitía luz verde.82 En 1974 la Oficina de Patentes Estadounidense concedió a Maruska, Rhines y al profesor de Stanford David Stevenson una patente (U.S. Patent US3819974 A) de su trabajo de 1972 sobre el dopaje de nitruro de galio con magnesio que hoy sigue siendo la base de todos los ledes azules comerciales y de los diodos láser. Estos dispositivos construidos en los 70 no tenían suficiente rendimiento luminoso para su uso práctico, por lo que la investigación de los diodos de nitruro de galio se ralentizó. En agosto de 1989 Cree introdujo el primer led azul comercial con una transición indirecta a través de la banda prohibida en un semiconductor de carburo de silicio (SiC). 8384 Los ledes de SiC tienen una eficiencia luminosa muy baja, no superior al 0,03%, pero emiten en la región del azul visible. A finales de los 80, los grandes avances en crecimiento epitaxial y en dopaje tipo-p85 en GaN marcaron el comienzo de la era moderna de los dispositivos opto-electrónicos de GaN. Basado en lo anterior, Theodore Moustakas patentó un método de producción de ledes azules en la Universidad de Boston utilizando un novedoso proceso de dos pasos. 86 Dos años más tarde, en 1993, los ledes azules de alta intensidad fueron retomados por Shuji Nakamura de la Nichia Corporation utilizando procesos de síntesis de GaN similares al de Moustakas. 87 A Moustakas y a Nakamura se les asignaron patentes separadas, lo que generó conflictos legales entre Nichia y la Universidad de Boston (sobre todo porque, pese a que Moustakas inventó su proceso primero, Nakamura registró el suyo antes).88 Este nuevo desarrollo revolucionó la iluminación con ledes, rentabilizando la fabricación de las fuentes de luz azul de alta-potencia, conduciendo al desarrollo de tecnologías como el Blu-ray, y propiciando las pantallas brillantes de alta resolución de las tabletas y teléfonos modernos. Nakamura fue laureado con el Premio de Tecnología del Milenio por su contribución a la tecnología de los ledes de alta potencia y su alto rendimiento. 89 Además se le concedió, junto a Hiroshi Amano y Isamu Akasaki, el Premio Nobel de Física en 2014 por su decisiva contribución a los ledes de alto rendimiento y al led azul. 90919293 En 2015 un juzgado estadounidense dictaminó que tres empresas (o sea las mismas compañías demandantes que no habían resuelto sus disputas previamente) y que disponían de las patentes de Nakamura para la producción en EE.UU., habían vulnerado la patente previa de Moustakas y les ordenó pagar unos derechos de licencia por un valor de 13 millones de dólares. 94 A finales de los 90 ya se disponía de los ledes azules. Estos presentan una región activa que consta de uno o más pozos cuánticos de InGaN intercalados entre láminas más gruesas de GaN, llamadas vainas. Variando la fracción de In/Ga en los pozos cuánticos de InGaN, la emisión de luz puede, en teoría, modificarse desde el violeta hasta el ámbar. El nitruro de aluminio y galio AlGaN con un contenido variable de la fracción de Al/Ga se puede usar para fabricar la vaina y las láminas de los pozos cuánticos para los diodos ultravioletas, pero estos dispositivos aún no han alcanzado el nivel de eficiencia ni la madurez tecnológica de los dispositivos de InGaN/GaN


azul/verde. Si el GaN se usa sin dopar, para formar las capas activas de los pozos cuánticos el dispositivo emite luz próxima al ultravioleta con un pico centrado en una longitud de onda alrededor de los 365 nm. Los ledes verdes fabricados en la modalidad InGaN/GaN son mucho más eficientes y brillantes que los ledes producidos con sistemas sin nitruro, pero estos dispositivos todavía presentan una eficiencia demasiado baja para las aplicaciones de alto brillo. Utilizando nitruros de aluminio, como AlGaN y AlGaInN, se consiguen longitudes de ondas aún más cortas. Una gama de ledes ultravioletas para diferentes longitudes de onda están empezando a encontrarse disponibles en el mercado. Los ledes emisores próximos al UV con longitudes de onda en torno a 375-395 nm ya resultan suficientemente baratos y se pueden encontrar con facilidad, por ejemplo para sustituir las lámparas de luz negra en la inspección de las marcas de agua anti-falsificación UV en algunos documentos y en papel moneda. Los diodos de longitudes de onda más cortas (hasta 240 nm), 95 están actualmente en el mercado, aunque son notablemente más caros. Como la fotosensibilidad de los microorganismos coincide aproximadamente con el espectro de absorción del ADN (con un pico en torno a los 260 nm) se espera utilizar los ledes UV con emisión en la región de 250-270 nm en los equipos de desinfección y esterilización. Investigaciones recientes han demostrado que los ledes UV disponibles en el mercado (365 nm) son eficaces en los dispositivos de desinfección y esterilización. 96 Las longitudes de onda UV-C se obtuvieron en los laboratorios utilizando nitruro de aluminio (210 nm), nitruro de boro (215 nm) y diamante (235 nm). RGB

RGB-SMD-LED. Led RGB montado en superficie (surface mounted device). Este dispositivo muestra los tres colores complementarios rojo, verde y azul. Existen otros tipos de dispositivos como el Led COB (montado en placa) o el microled que por su geometría y distribución en la placa de montaje, son mas eficientes energéticamente. Los ledes RGB consisten en un led rojo, uno azul y otro verde. Ajustando independientemente cada uno de ellos, los ledes RGB son capaces de producir una amplia gama de colores. A diferencia de los ledes dedicados a un solo color, los ledes RGB no producen longitudes de


ondas puras. Además, los módulos disponibles comercialmente no suelen estar optimizados para hacer mezclas suaves de color. Sistemas RGB Los sistemas RGB

Espectro resultante de la combinación de los ledes semiconductores de estado sólido azul, amarillo-verde y rojo de alto brillo. El ancho de banda espectral es de aproximadamente 24-27 nm para los tres colores.

Led RGB para generar luz blanca Existen dos formas básicas para producir luz blanca. Una consiste en utilizar ledes individuales que emitan los tres colores primarios (rojo, verde y azul) y luego mezclar los colores para formar la luz blanca. La otra forma consiste en utilizar un fósforo para convertir la luz monocromática de un led azul o UV en un amplio espectro de luz blanca. Es importante tener en cuenta que la blancura de la luz producida se diseña esencialmente para satisfacer al ojo humano y dependiendo de cada caso que no siempre puede ser apropiado pensar que se trata de luz estrictamente blanca. Sirva como punto de referencia la gran variedad de blancos que se consiguen con los tubos fluorescentes. Hay tres métodos principales para producir luz blanca con los ledes.  Led azul + led verde + led rojo (mezcla de colores; si bien se puede utilizar como luz de fondo para las pantallas) para iluminación resultan muy pobres debido a los intervalos vacíos en el espectro de frecuencias).  Led UV cercano o UV + fósforo RGB (una luz led que genera una longitud de onda más corta que el azul se utiliza para excitar un fósforo RGB).  Led azul + fósforo amarilllo (dos colores complementarios se combinan para producir la luz blanca; es más eficiente que los primeros dos métodos y, por tanto está más utilizado en la práctica).


Debido al metamerismo, es posible disponer de diferentes espectros que parezcan blancos. Sin embargo, la apariencia de los objetos iluminados por esa luz puede modificarse a medida que el espectro varía. Este fenómeno óptico se conoce como ejecución del color, es diferente a la temperatura del color, y que hace que un objeto realmente naranja o cian pueda parecer de otro color y mucho más oscuro como el led o el fósforo asociado no emiten esas longitudes de onda. La mejor reproducción de color con CFL y led se consigue utilizando una mezcla de fósforos, lo que proporciona una menor eficiencia pero una mejor calidad de luz. Aunque el halógeno con mayor temperatura de color es el naranja, sigue siendo la mejor fuente de luz artificial disponible en términos de ejecución de color. La luz blanca se puede producir mediante la adición de luces de diferentes colores; el método más común es el uso de rojo, verde y azul (RGB). De ahí que el método se denomine ledes de blanco multicolor (a veces conocido como ledes RGB). Debido a que necesitan circuitos electrónicos para controlar la mezcla y la difusión de los diferentes colores, y porque los ledes de color individuales presentan patrones de emisión ligeramente diferentes (lo que conduce a la variación del color en función de la dirección de observación), incluso si se fabrican en una sola unidad, rara vez se utilizan para producir luz blanca. Sin embargo, este método tiene muchas aplicaciones por la flexibilidad que presenta para producir la mezcla de coloresy, en principio, por ofrecer una mayor eficiencia cuántica en la producción de luz blanca. Hay varios tipos de ledes blancos multicolor: ledes blancos di- , tri- y tetracromático. Varios factores clave influyen en estas diferentes realizaciones, como son la estabilidad del color, el índice de reproducción del color natural y la eficiencia luminosa. Con frecuencia, una mayor eficiencia luminosa implicará una menor naturalidad del color, surgiendo así una compensación entre la eficiencia luminosa y la naturalidad de los colores. Por ejemplo, los ledes blancos dicromáticos presentan la mejor eficiencia luminosa (120 lm / W), pero la capacidad de representación cromática más baja. Por otro lado, los ledes blancos tetracromáticos ofrecen una excelente capacidad de representación de color pero a menudo se acompañan de una pobre eficiencia luminosa. Los ledes blancos tricromáticos se encuentran en una posición intermedia, poseen una buena eficiencia luminosa (> 70 lm / W) y una razonable capacidad para la reproducción de color. Uno de los desafíos pendientes de resolver consiste en el desarrollo de ledes verdes más eficientes. El máximo teórico para los ledes verdes es de 683 lúmenes por vatio, pero a partir de 2010 tan solo unos pocos ledes verdes superaron los 100 lúmenes por vatio. Los ledes azul y rojo, sin embargo, se están acercando a sus límites teóricos. Los ledes multicolores ofrecen la posibilidad no solo de producir luz blanca sino también de de generar luces de diferentes colores. La mayoría de los colores perceptibles se pueden formar mezclando diferentes proporciones de los tres colores primarios. Esto permite un control dinámico preciso del color. A medida que se dedica más esfuerzo en investigación el método de los ledes multicolor presenta una mayor influencia como método fundamental utilizado para producir y controlar el color de la luz.


Si bien este tipo de ledes puede jugar un buen papel en el mercado, antes hay que resolver algunos problemas técnicos. Por ejemplo, la potencia de emisión de estos ledes disminuye exponencialmente al aumentar la temperatura, produciendo un cambio sustancial de la estabilidad del color. Estos problemas pueden imposibilitar su empleo en la industria. Por ello, se han efectuado muchos diseños nuevos de encapsulamientos y sus resultados se encuentran en fase de estudio por los investigadores. Evidentemente, los ledes multicolores sin fósforos nunca pueden proporcionar una buena iluminación debido a que cada uno de ellos emite una banda muy estrecha de color. Así como los ledes sin fósforos constituyen una solución muy pobre para iluminación, ofrecen la mejor solución para pantallas de iluminación de fondo para LCD o de iluminación directa con pixeles de ledes. En la tecnología Led, la disminución de la temperatura de color correlacionada (CCT) es una realidad difícil de evitar debido a que, junto con la vida útil y los efectos de la variación de la temperatura de los ledes, se acaba modificando el color real definitivo de los mismos. Para corregirlo, se utilizan sistemas con bucle de realimentación provistos, por ejemplo, de sensores de color y así supervisar, controlar y mantener el color resultante de la superposición de los ledes monocolor.98 LEDES BASADOS EN FÓSFORO

Espectro de un led blanco que muestra la luz emitida por el led de GaN (aproximadamente 465 nm) superpuesto al ancho de banda de la luz emitida por el fósforo de Ce ^ 3+.. Este método implica el recubrimiento de los ledes de un color (principalmente ledes azules de InGaN) con fósforos de diferentes colores para producir luz blanca; los ledes resultantes de la combinación se llaman ledes blancos basados en fósforos o ledes blancos con un convertidor de fósforo (PCLEDs). Una fracción de la luz azul experimenta el desplazamiento de Stokes que transforma las longitudes de onda más cortas en longitudes de onda más largas. Dependiendo del color del led original, se pueden emplear fósforos de diversos colores. Si se aplican varias capas de fósforos de colores distintos se ensancha el espectro de emisión, incrementándose efectivamente el valor del índice de reproducción cromática (IRC) de un led dado. Las pérdidas de eficiencia de los ledes basados en fósforos (con sustancias fluorescentes) se deben a las pérdidas de calor generadas por el desplazamiento de Stokes y también a otros problemas de degradación relacionados con dichas sustancias fluorescentes. En comparación con los ledes normales sus eficiencias luminosas dependen de la distribución espectral de la salida de luz resultante y de la longitud de onda original del propio led. Por ejemplo, la


eficiencia luminosa de un fósforo amarillo YAG típico de un led blanco de 3 a 5 veces la eficiencia luminosa del led azul original, debido a la mayor sensibilidad del ojo humano para el color amarillo que para el color azul (según el modelo de la función de luminosidad). Debido a la simplicidad de su fabricación, el método de fósforo (material fluorescente) sigue siendo el más popular para conseguir una alta intensidad en los ledes blancos. El diseño y la producción de una fuente de luz o lámpara utilizando un emisor monocromático con la conversión de fósforo fluorescente es más simple y más barato que un sistema complejo RGB, y la mayoría de los ledes blancos de alta intensidad existentes actualmente en el mercado se fabrican utilizando la conversión de la luz mediante fluorescencia. Entre los retos que surgen para mejorar la eficiencia de las fuentes de luz blanca a base de ledes se encuentra el desarrollo de sustancias fluorescentes (fósforos) más eficientes. A partir de 2010, el fósforo amarillo más eficiente continúa siendo el fósforo YAG, que presenta una pérdida por el desplazamiento de Stokes inferior al 10%. Las pérdidas ópticas internas debidas a la reabsorción en el propio chip del led y en el encapsulamiento del led constituyen del 10% al 30% de la pérdida de eficiencia. Actualmente, en el ámbito del desarrollo con fósforo, se dedica un gran esfuerzo en su optimización con el fin de conseguir una mayor producción de luz y unas temperaturas de operación más elevadas. Por ejemplo, la eficiencia se puede aumentar con un mejor diseño del encapsulamiento o mediante el uso de un del tipo más adecuado de fósforo. El proceso de revestimiento de ajuste se suele utilizar con el fin de poder regular el espesor variable del fósforo. Algunos ledes blancos dotados de fósforos consisten en ledes azules de InGaN encapsulados en una resina epoxi recubierta por un fósforo. Otra opción consiste en asociar el led con un fósforo separado, una pieza prefabricada de policarbonato preformado y revestida con el material del fósforo. Los fósforos separados proporcionan una luz más difusa, lo cual es favorable para muchas aplicaciones. Los diseños con fósforos separados son también más tolerantes con las variaciones del espectro de emisión del led. Un material de fósforo amarillo muy común es el aluminio granate de itrio y aluminio dopado con cerio (Ce 3+ :YAG). Los ledes blancos también se pueden fabricar con ledes del ultravioleta próximo (NUV) recubiertos con una mezcla de fósforos de europio de alta eficiencia que emiten rojo y azul, más sulfuro de zinc dopado con cobre y aluminio ( ZnS:Cu, Al ) que emite verde. Este procedimiento es análogo al de funcionamiento de las lámparas fluorescentes. El procedimiento es menos eficiente que el de los ledes de color azul con fósforo YAG:Ce, puesto que el desplazamiento de Stokes es más importante, por lo que una mayor fracción de la energía se convierte en calor, aun así se genera una luz con mejores características espectrales y, por tanto, con una mejor reproducción de color. Dado que los ledes ultravioleta presentan una mayor radiación de salida que los azules, ambos métodos ofrecen, en definitiva, un brillo similar. Un inconveniente de los últimos es que una posible fuga de la luz UV procedente de una fuente luminosa que funcione incorrectamente puede causar daño a los ojos o a la piel humana.


OTROS LEDES BLANCOS Otro método utilizado para producir ledes experimentales de luz blanca sin el empleo de fósforos se basa en la epitaxia de crecimiento del seleniuro de zinc (ZnSe) sobre un substrato de ZnSe que de forma simultánea emite luz azul procedente de su región activa y luz amarilla procedente del sustrato. Una nueva forma para producir ledes blancos consiste en utilizar obleas compuestas de nitruro de galio sobre silicio a partir de obleas de silicio de 200 mm. Esto evita la costosa fabricación de sustratos de zafiro a partir de obleas de tamaños relativamente pequeños, o sea de 100 o 150 mm. El aparato de zafiro debe estar acoplado a un colector similar a un espejo para reflejar la luz, que de otro modo se perdería. Se predice que para 2020 el 40 % de todos los ledes de GaN se fabricarán sobre silicio. La fabricación de zafiro de gran tamaño es difícil, mientras que el material de silicio grande es barato y más abundante. por otro lado, los fabricantes de ledes que cambien del zafiro al silicio deben de hacer una inversión mínima. LEDES ORGÁNICOS (OLEDS) En un diodo emisor de luz orgánico (OLED), el material electroluminiscente que constituye la capa emisora del diodo es un compuesto orgánico. El material orgánico es conductor debido a deslocalización electrónica de los enlaces pi causados por el sistema conjugado en toda o en parte de la molécula; en consecuencia el material funciona como un semiconductor orgánico. Los materiales orgánicos pueden ser pequeñas moléculas orgánicas en fase cristalina, o polímeros. Una de las ventajas que posibilitan los OLED son las pantallas delgadas y de bajo costo con una tensión de alimentación baja, un amplio ángulo de visión, un alto contraste y una extensa gama de colores. Los ledes de polímero presentan la ventaja añadida de propiciar las pantallas imprimibles y flexibles. Los OLED se han utilizado en la fabricación de pantallas visuales para las dispositivos electrónicos portátiles, como son los teléfonos móviles, las cámaras digitales y los reproductores de MP3, y se considera que los posibles usos futuros también inlcuirán la iluminación y la televisión. LEDES DE PUNTOS CUÁNTICOS A inicio de los años 60 comenzó una década de revolución tecnológica con el nacimiento de Internet y el descubrimiento del led en el espectro visible. En 1959 el premio nobel de física Richard P. Feynman, en su célebre conferencia dada en la reunión anual de la Asociación Física de los Estados Unidos titulada: “Hay mucho espacio en el fondo: una invitación para entrar en un nuevo campo de la física”, ya preconizaba la revolución tecnológica y los importantes descubrimientos que podían suponer la manipulación de los materiales hasta reducirlos a tamaños o escalas atómicas o moleculares.99 Pero no es hasta la década siguiente de 1970 que el conocimiento de numerosas aplicaciones de la mecánica cuántica (a unos 70 años de su invención) unido al avance de las técnicas de crecimiento y síntesis de materiales, llegan a suponer un cambio importante en las líneas de investigación de numerosos grupos. 100


Ya en esta década se unía la capacidad de diseñar estructuras teniendo nuevas propiedades ópticas y electrónicas a la búsqueda de nuevas aplicaciones tecnológicas a los materiales ya existentes en la naturaleza. De hecho, en 1969, L. Esaki et al. propusieron la implementación de heterostructuras formadas por capas muy delgadas de distintos materiales, dando lugar a lo que se conoce como ingeniería y diseño de bandas de energía en materiales semiconductores.101 La heteroestructura de pequeñas dimensiones más básica es el pozo cuántico (Quantum Well, QW). Consiste en una capa delgada de un determinado semiconductor, del orden de 100 Å, confinada entre dos capas de otro material semiconductor caracterizado por una mayor anchura de la banda de energía prohibida (bandgap, BG). Debido a las pequeñas dimensiones del pozo de potencial asociado a esta estructura, los portadores ven restringido su movimiento a un plano perpendicular a la dirección de crecimiento. Los diodos laser con QWs en la zona activa suponían grandes ventajas, como por ejemplo la capacidad de seleccionar la longitud de onda de emisión en función de la anchura del pozo o la disminución de la corriente umbral, esto último relacionado con la densidad de estados resultado del confinamiento en un plano.102 A todos estos avances se fueron sucediendo de manera natural otros como el estudio de los sistemas con confinamiento en tres dimensiones, es decir los puntos cuánticos (QDs). Así, los QDs se pueden definir como sistemas artificiales de tamaño muy pequeño, desde algunas decenas de nanómetros a algunas micras en los que los portadores se encuentran confinados en las tres direcciones del espacio tridimensional (por eso se llama cero-dimensional), en una región del espacio más pequeña que su longitud de onda de de Broglie. Cuando el tamaño del material semiconductor que constituye el punto cuántico se encuentra dentro de la escala nanométrica, este material presenta un comportamiento que difiere del observado para el mismo a escala macroscópica o para los átomos individuales que los conforman. Los electrones en el nanomaterial se encuentran restringidos a moverse en una región muy pequeña del espacio y se dice que están confinados. Cuando esta región es tan pequeña que es comparable a la longitud de onda asociada al electrón (la longitud de De Broglie), entonces comienza a observarse lo que se denomina comportamiento cuántico. En estos sistemas, sus propiedades físicas no se explican con conceptos clásicos sino que se explican mediante los conceptos de la mecánica cuántica. 103 Por ejemplo, la energía potencial mínima de un electrón confinado dentro de una nanoparticula es mayor que la esperada en física clásica y los niveles de energía de sus diferentes estados electrónicos son discretos. Debido al confinamiento cuántico, el tamaño de la partícula tiene un efecto fundamental sobre la densidad de estados electrónicos y por ello, sobre su respuesta óptica. El confinamiento cuántico se produce cuando el tamaño de las partículas se ha reducido hasta aproximarse al radio del excitón de Bohr (generándose en el material semiconductor un par electrón-hueco o excitón) quedando confinado en un espacio muy reducido. Como consecuencia, la estructura de los niveles energéticos y las propiedades ópticas y eléctricas del material se modifican


considerablemente. Los niveles de energía pasan a ser discretos y finitos, y dependen fuertemente del tamaño de la nanopartícula. Usualmente están fabricados con material semiconductor y pueden albergar desde ninguno a varios miles de electrones. Los electrones que están dentro del punto cuántico se repelen, cuesta energía introducir electrones adicionales, y obedecen el principio de exclusión de Pauli, que prohíbe que dos electrones ocupen el mismo estado cuántico simultáneamente. En consecuencia, los electrones en un punto cuántico forman órbitas de una manera muy similar a las de los átomos y en algunos casos se los denomina átomos artificiales. También presentan comportamientos electrónicos y ópticos similares a los átomos. Su aplicación puede resultar muy diversa, además de en optoelectrónica y óptica, en la computación cuántica, en el almacenamiento de información para computadoras tradicionales, en biología y en medicina. Las propiedades ópticas y de confinamiento cuántico del punto cuántico permiten que su color de emisión se pueda ajustar desde el visible al infrarrojo. 104105 Los ledes de puntos cuánticos pueden producir casi todos los colores del diagramaCIE. Además, proporcionan más opciones de color y una mejor representación del mismo que los ledes blancos comentados en las secciones anteriores, ya que el espectro de emisión es mucho más estrecho, lo que es característico de los estados cuánticos confinados. Existen dos procedimientos para la excitación de los QD. Uno utiliza la fotoexcitación con una fuente de luz primaria de led (para ello se utilizan habitualmente los ledes azules o UV). El otro procedimiento utiliza la excitación eléctrica directa demostrada por primera vez por Alivisatos et al.106 Un ejemplo del procedimiento de fotoexcitación es el desarrollado por Michael Bowers, en la Universidad Vanderbilt de Nashville, realizando un prototipo que consistía en el recubrimiento de un led azul con puntos cuánticos que emitían luz blanca en respuesta a la azul del led. El led modificado emitía una luz cálida de color blanco amarillento similar a la de las lámparas incandescentes.107 En 2009 se iniciaron investigaciones con los diodos emisores de luz utilizando QD en aplicaciones a los televisores con pantalla de cristal líquido (LCD). 108109 En febrero de 2011 científicos del PlasmaChem GmbH fueron capaces de sintetizar puntos cuánticos para las aplicaciones de los ledes realizando un convertidor de luz que conseguía transformar eficazmente la luz azul en luz de cualquier otro color durante muchos cientos de horas Estos puntos cuánticos pueden también ser utilizados para emitir luz visible o cercana al infrarrojo al excitarlos con luz de una longitud de onda menor. La estructura de los ledes de puntos cuánticos (QD-LED) utilizados para la excitación eléctrica del material, poseen un diseño básico similar al de los OLEDES. Una capa de puntos cuánticos se encuentra situada entre dos capas de un material capaz de transportar electrones y huecos. Al aplicar un campo eléctrico, los electrones y los huecos se mueven hacia la capa de puntos cuánticos y se recombinan formando excitones; cada excitón produce un par electrón-hueco, emitiendo luz. Este esquema es el habitualmente considerado para las pantallas de puntos


cuánticos. La gran diferencia con los Oledes reside en su tamaño de dimensiones muy pequeñas y como consecuencia, generan los efectos y propiedades ópticas del confinamiento cuántico. Los QD resultan también muy útiles como fuentes de excitación para producir imágenes por fluorescencia debido al estrecho margen de longitudes de onda emitidas por el QD que se manifiesta en el estrecho ancho de banda del pico en el espectro de emisión (propiedad debida al confinamiento cuántico). Por ello se ha mostrado eficiente el uso de ledes de puntos cuánticos (QD-LED) en la técnica de microscopía óptica de campo cercano. En cuanto a la eficiencia energética, en febrero de 2008 se consiguió una emisión de luz cálida con una eficiencia luminosa de 300 lúmenes de luz visible por cada vatio de radiación (no por vatio eléctrico) mediante el uso de nanocristales. Tipos[editar] Los ledes se fabrican en una gran variedad de formas y tamaños. El color de la lente de plástico suele coincidir con el de la luz emitida por el led aunque no siempre es así. Por ejemplo, el plástico de color púrpura se emplea para los ledes infrarrojos y la mayoría de los ledes azules presentan encapsulamientos incoloros. Los ledes modernos de alta potencia como los empleados para iluminación directa o para retroiluminación aparecen normalmente en montajes de tecnología de superficie (SMT). Miniatura

Foto de un montaje superficial con ledes de los tamaños más corrientes. Pueden ser bastante más pequeños que el típico led de lámpara de 5mm que aparece en la esquina superior izquierda.

Conjunto miniatura de ledes de color rojo, verde y azul en un montaje superficial diminuto (1.6x1.6x0.35mm) con detalles de las soldaduras de oro.


Los ledes miniatura se suelen usar como indicadores. En la tecnología de agujeros pasantes y en losmontajes superficiales su tamaño varía desde 2 mm a 8 mm. Normalmente no disponen de un disipador de calor independiente. 113 La corriente máxima se sitúa entre 1mA y 20mA. Su pequeño tamaño constituye una limitación a efectos de la potencia consumida debido a su alta densidad de potencia y a la ausencia de un disipador. A menudo se conectan encadena margarita para formar tiras de luz led. Las formas de la cubierta de plástico más típicas son redonda, plana, triangular y cuadrada con la parte de arriba plana. El encapsulamiento también puede ser transparente o coloreado para poder mejorar el contraste y los ángulos de visión. Investigadores de laUniversidad de Washington han inventado el led más delgado. Está formado por materiales de dos dimensiones (2-D). Su anchura son 3 átomos, o sea entre 10 y 20 veces más fino que los ledes tridimensionales (3-D) y 10 000 veces más delgado que un pelo humano. Estos ledes 2-D permitirán lascomunicaciones ópticas y los nano láseres más pequeños y más eficientes en energía. Hay tres categorías principales de ledes miniatura de un único color: Baja Intensidad de Corriente Preparados para una corriente de 2mA con unos 2V (consumo de más o menos 4 mW). Rango Intermedio o Comunes Ledes de 20mA (entre 40mW y 90mW) entorno a:  1,9 -2,1 V para rojo, naranja amarillo y el verde tradicional.  3.0-3.4 V para verde puro y azul.  2.9-4.2 V para violeta, rosa, morado y blanco. Alta Intensidad de Corriente Para una corriente de 20mA y con 2 o 4-5 V, diseñadas para poder ver con luz solar directa. Los ledes de 5 V y 12 V son ledes miniatura normales que incorporan un resistencia en serie para la conexión directa a una alimentación de 5 o 12 V. Alta Potencia[editar]

Diodos emisores de luz de alta potencia conectados a una base en estrella para led (Luxeon, Lumileds) Ver también: Iluminación de estado sólido, Lámpara led, ledes de Alta Potencia o HP-LEDs Los ledes de alta potencia HP-LEDs (High-power LEDs) o de alta emisión HO-LEDs (del inglés High-Output LEDs) pueden controlarse con corrientes desde cientos de mA hasta de más de 1


Amperio, mientras que otros ledes solo llegan a las decenas de miliAmperios. Algunos pueden emitir más de mil lúmenes.116 También se han alcanzadodensidades de potencia de hasta 300 W/(cm2).118 Como el sobrecalentamiento de los ledes puede destruirlos, se tienen que montar sobre un disipador. Si el calor de un HP-LED no se transfiriera al medio, el aparato fallaría en unos pocos segundos. Un HP-LED puede sustituir a una bombilla incandescente en una linterna o varios de ellos pueden asociarse para constituir una lámpara led de potencia. Algunos HP-LEDS bien conocidos en esta categoría son los de la serie Nichia 19, Lumileds Rebel Led, Osram Opto Semiconductors Golden Dragon y Cree X-Lamp. Desde septiembre de 2009, existen ledes manufacturados por Cree que superan los 105 lm/W.119 Ejemplos de laley de Haitz, que predice un aumento exponencial con el tiempo de la emisión luminosa y de la eficiencia de un led, son los de la serie CREE XP-GE que alcanzó en 2009119 los 105 lm/W y la serie Nichia 19 con una eficiencia media de 140 lm/W que fue lanzado en 2010.120 Accionados por corriente alterna Semiconductor Seúl ha desarrollado ledes que puede funcionar con corriente alterna sin necesidad de un conversor DC. En un semiciclo, una parte del led emite luz y la otra parte es oscura, y esto sucede al contrario durante el siguiente semiciclo. La eficiencia normal de este tipo de HP-LED es 40 lm/W.121 Un gran número de elementos led en serie pueden funcionar directamente con la tensión de la red. En 2009, Semiconductor Seúl lanzó un led de alto voltaje, llamado 'Acrich MJT', capaz de ser gobernado por AC mediante un simple circuito de control. La baja potencia disipada por estos ledes les proporciona una mayor flexibilidad que a otros diseños originales de ledes AC.122 Aplicaciones. Variantes De destellos intermitentes Los ledes intermitentes se utilizan como indicadores de atención sin necesidad de ningún tipo de electrónica externa. Los ledes intermitentes se parecen a los ledes estándar, pero contienen uncircuito multivibrador integrado que hace que los ledes parpadeen con un período característico de un segundo. En los ledes provistos de lente de difusión, este circuito es visible (un pequeño punto negro). La mayoría de los ledes intermitentes emiten luz de un solo color, pero los dispositivos más sofisticados pueden parpadear con varios colores e incluso desvanecerse mediante una secuencia de colores a partir de la mezcla de colores RGB. Bicolores Los ledes bicolor contienen dos ledes diferentes en un solo conjunto. Los hay de dos tipos; el primero consiste en dos troqueles conectados a dos conductores paralelos entre sí con la circulación de la corriente en sentidos opuestos. Con el flujo de corriente en un sentido se emite un color y con la corriente en el sentido opuesto se emite el otro color. En el segundo tipo, en cambio, los dos troqueles tienen los terminales separados y existe un terminal para cada cátodo o para cada ánodo, de modo que pueden ser controlados independientemente. La


combinación de colores más común es la de rojo / verde tradicional, sin embargo, existen otras combinaciones disponibles como el verde tradicional/ámbar, el rojo/verde puro, el rojo/azul o el azul/verde puro. Tricolores Los ledes tricolores contienen tres ledes emisores diferentes en un solo bastidor. Cada emisor está conectado a un terminal separado para que pueda ser controlado independientemente de los otros. Es muy característica una disposición en la que aparecen cuatro terminales, un terminal común (los tres ánodos o los tres cátodos unidos) más un terminal adicional para cada color. RGB Los ledes RGB son ledes tricolor con emisores rojo, verde y azul, que usan generalmente una conexión de cuatro hilos y un terminal común (ánodo o cátodo). Este tipo de ledes pueden presentar como común tanto el terminal positivo como el terminal negativo. Otros modelos, sin embargo, solo tienen dos terminales (positivo y negativo) y una pequeña unidad de control electrónico incorporada. Multicolores decorativos Este tipo de ledes posee emisores de diferentes colores y están dotados de dos únicos terminales de salida. Los colores se conmutan internamente variando la tensión de alimentación. Alfanuméricos Los ledes alfanuméricos están disponibles comovisualizadores de siete segmentos, como visualizadores de catorce segmentos o comopantallas de matrices de puntos. Los visualizadores (displays) de siete segmentos pueden representar todos los números y un conjunto limitado de letras mientras que los de catorce segmentos pueden visualizar todas las letras. Las pantallas de matrices de puntos usan habitualmente 5x7 píxeles por carácter. El uso de los ledes de siete segmentos se generalizó en la década de 1970 y 1980 pero el uso creciente de laspantallas cristal líquido ha reducido la popularidad de los ledes numéricos y alfanuméricos por su menor requerimiento de potencia y mayor flexibilidad para la visualización. RGB Digitales Son ledes RGB que contienen su propia electrónica de control "inteligente". Además de la alimentación y la conexión a tierra, disponen de conexiones para la entrada y la salida de datos y, a veces, para señales de reloj o estroboscópicas. Se encuentran conectados en unacadena margarita, con la entrada de datos al primer led dotada de un microprocesador que puede controlar el brillo y el color de cada uno de ellos, independientemente de los demás. Se usan donde sea necesaria una combinación que proporcione un control máximo y una vista mínima de la electrónica, como sucede en las cadenas luminosas navideñas o en las matrices de led. Algunos incluso presentantasas de refresco en el margen de los kHz, lo que los hace aptos para aplicaciones básicas de vídeo. Filamentos


Unfilamento led consta de varios chips led conectados en serie sobre un sustrato longitudinal formando una barra delgada que recuerda al filamento incandescente de una bombilla tradicional.123 Los filamentos se están utilizando como una alternativa decorativa de bajo coste a las bombillas tradicionales que están siendo eliminadas en muchos países. Los filamentos requieren una tensión de alimentación bastante alta para iluminar con un brillo normal, pudiendo trabajar de manera eficiente y sencilla a las tensiones de la red. Con frecuencia un simple rectificador y un limitador capacitivo de corriente se emplean como una sustitución de bajo coste de la bombilla incandescente tradicional sin el inconveniente de tener que construir un convertidor de baja tensión y corriente elevada, tal como lo requieren los diodos led individuales.124 Normalmente se montan en el interior de un recinto hermético al que se le da una forma similar a la de las lámparas que sustituyen (en forma de bombilla, por ejemplo) y se rellenan con un gas inerte como nitrógeno o dióxido de carbono para eliminar el calor de forma eficiente. Los principales tipos de ledes son: miniatura, dispositivos de alta potencia y diseños habituales como los alfanuméricos o los multicolor.125 Consideraciones de uso Fuentes de alimentación Artículo principal: Circuito con led

Circuito básico para el encendido de un Led. Se compone de un led, una resistencia limitadora de corriente y una fuente de alimentación de tensión continua.

Curva característica de un diodo led con sus zonas de polarización directa e inversa


La curva característica corriente-tensión de un led es similar a la de otros diodos, en los que la intensidad de corriente (o brevemente, corriente) crece exponencialmente con la tensión (ver la ecuación de Shockley). Esto significa que un pequeño cambio en la tensión puede provocar un gran cambio en la corrienteSi la tensión aplicada sobrepasa la caída de la tensión umbral en polarización directa del led, en una pequeña cantidad, el límite de corriente que el diodo puede soportar puede superarse ampliamente, pudiendo dañar o destruir el led. La solución que se puede adoptar para evitarlo consiste en utilizar fuentes de alimentación de intensidad de corriente constante(brevemente, fuente de corriente constante) capaces de mantener la corriente por debajo del valor máximo de la corriente que puede atravesar el led o, por lo menos, si se usa una fuente de tensión constante convencional o batería, añadir en el circuito de iluminación del Led una resistencia limitadora en serie con el Led. Dado que las fuentes normales de alimentación (baterías, red eléctrica) son normalmente fuentes de tensión constante, la mayoría de los aparatos led deben incluir un convertidor de potencia o, al menos, una resistencia limitadora de corriente. Sin embargo, la alta resistencia de las pilas de botón de tres voltios combinada con la alta resistencia diferencial de los ledes derivados de nitruros hace posible alimentar tales ledes con una pila de botón sin necesidad de incorporar una resistencia externa. Polaridad eléctrica Artículo principal: Polaridad eléctrica de los Ledes Al igual que sucede con todos los diodos, la corriente fluye fácilmente del material de tipo p al material de tipo n.128 Sin embargo, si se aplica un voltaje pequeño en el sentido inverso la corriente no fluye y no se emite luz. Si el voltaje inverso crece lo suficiente como para exceder la tensión de ruptura, fluye una corriente elevada y el led puede quedar dañado. Si la corriente inversa está lo suficientemente limitada como para evitar daños, el led de conducción inversa puede ser utilizado como un diodo avalancha. Salud y seguridad La inmensa mayoría de los dispositivos que contienen ledes son "seguros en condiciones de uso normal", y por lo tanto se clasifican como "Producto de riesgo 1 RG1 (riesgo bajo)" / "LED Class 1". En la actualidad, solo unos pocos ledes -los ledes extremadamente luminosos que presentan un ángulo de visión muy pequeño de una apertura de 8 ° o menos- podrían, en teoría, causar una ceguera temporal y, por lo tanto, se clasifican como de "Riesgo 2 RG2 (riesgo moderado)".129 La opinión de la Agencia Francesa de Seguridad Alimentaria, Medioambiental y de Salud y Seguridad Ocupacional (ANSES) al abordar en 2010 las cuestiones sanitarias relacionadas con los ledes, sugirió prohibir el uso público de las lámparas que se encontraban en el Grupo 2 o de Riesgo Moderado, especialmente aquellas con un alto componente azul, en los lugares frecuentados por los niños. En general, los reglamentos de seguridad en la utilización de la luz laser y los dispositivos de "Riesgo 1", "Riesgo 2", etc...- son también aplicables a los ledes.


Así como los ledes presentan la ventaja, sobre las lámparas fluorescentes, de que no contienen mercurio, sin embargo, pueden contener otros metales peligrosos tales como plomoy arsénico. En cuanto a la toxicidad de los ledes cuando se tratan como residuos, un estudio publicado en 2011 declaró: "De acuerdo con las normas federales, los ledes no son peligrosos, excepto los ledes rojos de baja intensidad, ya que al principio de su comercialización contenían Pb (plomo) en concentraciones superiores a los límites reglamentarios (186 mg/L; límite reglamentario: 5). Sin embargo, de acuerdo con las reglamentaciones de California, los niveles excesivos de cobre (hasta 3892 mg/kg; límite: 2500), plomo (hasta 8103 mg/kg, límite: 1000), níquel (hasta 4797 mg/kg, límite: 2000), o plata (hasta 721 mg/kg, límite: 500) ocasionan que todos los ledes, excepto los amarillos de baja intensidad, sean peligrosos ". Ventajas  Eficiencia: los ledes emiten más lúmenes por vatio que las bombillas incandescentes. 135 La eficiencia de los aparatos de iluminación led no se ve afectada por la forma y el tamaño de estos a diferencia de las bombillas o tubos fluorescentes.  Color: los ledes pueden emitir luz de cualquier color, sin usar ningún filtro de color como los que se necesitan en los métodos de iluminación tradicional. Esta propiedad les proporciona una mayor eficiencia y permite reducir los costes.  Tamaño: los ledes pueden ser muy pequeños (menos de 2 mm2136) y por ello pueden conectarse fácilmente a las placas de los circuitos impresos.  Tiempo de calentamiento: los ledes se encienden muy rápidamente. Un indicador led rojo típico alcanzará el brillo máximo en menos de un microsegundo.137 Los ledes utilizados en los dispositivos de comunicaciones pueden presentar tiempos de respuesta aun más cortos.  Ciclos: los ledes son ideales en las aplicaciones sujetas a frecuentes ciclos de encendido y apagados, a diferencia de las lámparas incandescentes y fluorescentes que fallan cuando se usan en esta opción, o como las lámparas de alta intensidad de descarga (lámparas HID) que requieren mucho tiempo de espera antes de reiniciarse el encendido.  Oscurecimiento: los ledes pueden oscurecerse fácilmente por modulación por ancho de pulsos o por disminución de la corriente directa. 138 La modulación del ancho de los pulsos es la razón por la cual las luces led, en particular los faros de los automóviles parecen estar parpadeando cuando son vistos a través de una cámara o por algunas personas. Es un caso de efecto estroboscópico.  Luz fría: a diferencia de la mayoría de fuentes de luz, los ledes irradian muy poco calor en forma de radiación infrarroja la cual puede dañar objetos o tejidos sensibles. La energía perdida desaparece en forma de calor en la base del led.  Desgaste lento: la mayoría de los ledes se van dañando lentamente con el tiempo, a diferencia de las bombillas incandescentes que se deterioran de forma abrupta.  Vida útil: los ledes pueden tener una vida útil relativamente larga. Un informe estima que entre 35.000 y 50.000 horas de vida útil, aunque el tiempo normalmente transcurrido hasta que el producto deja de funcionar completamente suele ser


mayor.139 Los tubos fluorescentes tienen una vida útil estimada de 10.000 a 15.000 horas, dependiendo en parte de las condiciones de uso, y las bombillas incandescentes de 1.000 a 2.000 horas. Varias manifestaciones delDOE han demostrado que más que el ahorro de energía, la reducción de los costes de mantenimiento durante esta vida útil tan extendida, constituye el factor principal para la determinación del periodo de recuperación de la inversión para un producto led.140  Resistencia a los golpes: los ledes son componentes de estado sólido y, por tanto, son difíciles de dañar con golpes externos, a diferencia de las lámparas fluorescentes e incandescentes, que son frágiles.  Enfoque: un sistema de ledes se puede diseñar para poder enfocar la luz. Las fuentes incandescentes y fluorescentes requieren, a menudo, un reflector externo para recoger la luz y dirigirla de una forma apropiada. En los sistemas de ledes más grandes, las lentes de reflexión interna total (TIR) se suelen usar para conseguir el mismo efecto. Sin embargo cuando se necesitan grandes cantidades de luz, se suelen desplegar muchas fuentes de luz, que son difíciles de enfocar o colimar hacia el mismo lugar. Inconvenientes  Precio inicial: los ledes son actualmente un poco más caros (precio por lúmen) que otras tecnologías de iluminación. En marzo de 2014 un fabricante afirmó haber alcanzado ya el precio de un dólar por kilolumen.141 El gasto adicional proviene en parte de una emisión de luz relativamente baja, de los circuitos de accionamiento y de las fuentes de alimentación que se requieren.  Dependencia de la temperatura: el rendimiento del led depende en gran medida de la temperatura ambiente del entorno, o de los procedimientos utilizados para la gestión térmica. La sobrecarga de un led en un ambiente de temperatura elevada puede dar lugar a un sobrecalentamiento del conjunto de los ledes, y a un fallo del dispositivo de iluminación. Es necesario utilizar un disipador de calor adecuado para asegurar una vida útil larga. Esto es especialmente importante en las aplicaciones automotoras, médicas y militares donde los dispositivos deben operar dentro de una amplia gama de temperaturas, y con unos bajos índices de error. Toshiba ha fabricado ledes con un margen de temperatura de operación de -40 a 100 ºC, que se adapta tanto para facilitar su uso en interiores como en exteriores y en aplicaciones tales como lámparas, luces de techo, luces de calle y focos.  Sensibilidad con la tensión: los ledes deben ser suministrados para trabajar con una tensión superior a su voltaje umbral y con una corriente por debajo de su valor nominal. Tanto la corriente como la vida útil cambian de manera importante con un pequeño cambio en la tensión aplicada. Por lo tanto, requieren una corriente de suministro regulada (por lo general basta con una resistencia en serie para los indicadores con ledes).142  Reproducción del color: la mayoría de los ledes de color blanco frío presentan espectros que difieren significativamente del espectro de irradiación del cuerpo negro como son el Sol o una lámpara incandescente. El pico a 460nm y la depresión a 500nm pueden hacer que el color de los objetos se perciba de forma diferente bajo la iluminación de un led


de color blanco frío que bajo la luz solar o las fuentes de luz incandescentes, debido al metamerismo.143 Los ledes de blanco frío basados en fósforos reproducen especialmente mal las superficies rojas. Área asociada a la fuente de luz: los ledes individuales no se aproximan a una fuente puntual de luz que proporciona una distribución de luz esférica, sino más bien una distribución lambertiana. Los ledes se aplican con dificultad a los casos donde son necesarios campos de luz esféricos, sin embargo, los campos luminosos pueden ser manipulados mediante la aplicación de diferentes procedimientos ópticos o de “lentes”. Los ledes no pueden proporcionar divergencias por debajo de unos pocos grados. Por el contrario, los láseres pueden emitir haces con divergencias de 0,2 grados o menos. Polaridad eléctrica: a diferencia de las bombillas incandescentes, que se iluminan independientemente de la polaridad eléctrica, los ledes solo se encenderán empleando la polaridad eléctrica correcta. Para ajustar automáticamente la polaridad de la fuente de alimentación delos dispositivos led, se pueden utilizar rectificadores. Peligro del azul: existe la preocupación de que los ledes azules y los ledes de color blanco frío sean capaces de superar los límites de seguridad establecidos mediante el llamado peligro de la luz azul según se define en las especificaciones de seguridad ocular como la norma IEC 62471. Contaminación lumínica en exteriores: los ledes blancos, especialmente los que presentan una elevada temperatura de color, emiten luz de longitud de onda mucho más corta que las fuentes de luz convencionales al aire libre, como laslámparas de vapor de sodio de alta presión. Por otro lado, hay que tener en cuenta además la mayor sensibilidad de nuestra visión al azul y al verde en visión escotópica y, por tanto, desplazada en el espectro visible hacia colores 'fríos' falseando , por tanto, la apreciación de los colores 'cálidos' (hacia el naranja y el rojo) . Como consecuencia, los ledes blancos utilizados en las iluminaciones de exteriores provocan, en visión escotópica, más resplandor nocturno del cielo y con ello generan más contaminación lumínica La Asociación Médica Americana advirtió sobre el uso de ledes blancos de alto contenido de azul en la iluminación pública, debido a su mayor impacto en la salud humana y el medio ambiente, en comparación con las fuentes de luz de bajo contenido azul (por ejemplo, las de Sodio de Alta Presión, los ledes ambar de los ordenadores y los ledes de baja temperatura de color. Disminución de la eficiencia: la eficiencia de los ledes disminuye a medida que aumenta la corriente eléctrica. El calentamiento también aumenta con las corrientes más elevadas, lo que compromete la vida útil de los ledes. Estos efectos imponen límites prácticos a los valores de la corriente de los ledes en las aplicaciones de alta potencia. 155 Impacto en los insectos: los ledes son mucho más atractivos para los insectos que las luces de vapor de sodio, lo que ha creado una preocupación por la posibilidad de provocar una perturbación de sus redes alimenticias. 156157 Uso en condiciones invernales: dado que los ledes no emiten mucho calor en comparación con las lámparas incandescentes, las luces led utilizadas para el control de


tráfico pueden permanecer cubiertas de nieve lo que las oscurece, y puede llegar a provocar accidentes. Aplicaciones Indicadores y lámparas de señales

Ilustración de un semáforo con ledes rojo, amarillo y verde El bajo consumo de energía, la poca necesidad de mantenimiento y el tamaño pequeño de los ledes ha propiciado su uso como indicadores de estado y visualización en una gran variedad de equipos e instalaciones. Las pantallas led de gran superficie se utilizan para retransmitir el juego en los estadios, como pantallas decorativas dinámicas y como señales de mensajes dinámicos en las autopistas. Las pantallas ligeras y delgadas con mensajes se utilizan en los aeropuertos y estaciones de ferrocarril y como paneles de información de destinos en los trenes, autobuses, tranvías y transbordadores. Las luces de un solo color son adecuadas para los semáforos, las señales de tráfico, los letreros de salida, la iluminación de emergencia de los vehículos, las luces de navegación, los faros (los índices estándar de cromaticidad y de luminancia fueron establecidos en el Convenio Internacional de Prevención de Colisiones en el Mar de 1972 Anexo 1 y por la Comisión Internacional de Iluminación o CIE) y las luces de Navidad compuestas de ledes. En regiones de climas fríos, los semáforos led pueden permanecer cubiertos de nieve. Se usan ledes rojos o amarillos en indicadores y pantallas alfanuméricas, en ambientes donde se debe mantener una visión nocturna: cabinas de aviones, puentes submarinos y de buques, observatorios astronómicos y en el campo por ejemplo para la observación de animales durante la noche y aplicaciones militares del campo. Dada su larga vida útil, sus tiempos de conmutación rápidos y su capacidad para ser vistos a plena luz del día debido a su alta intensidad y concentración, desde hace algún tiempo se vienen utilizado ledes para las luces de freno de automóviles, camiones y autobuses, y en las señales de cambio de dirección; muchos vehículos usan actualmente los ledes en sus conjuntos de luminosas traseras. El uso en los frenos mejora la seguridad debido a la gran reducción en el tiempo requerido para un encendido completo, es decir por el hecho de presentar un tiempo de subida más corto, hasta 0.5 segundos más rápido que una bombilla incandescente. Esto proporciona más tiempo de reacción para los conductores de atrás. En un circuito de dos intensidades (luces de posición traseras y frenos) si los ledes no son accionados con una


frecuencia suficientemente rápida, pueden crear una matriz fantasma, donde las imágenes fantasma del led aparecerán si los ojos se desplazan rápidamente por la disposición de luces. Los faros provistos de ledes blancos están empezando a utilizarse. El uso de los ledes tiene ventajas de estilo porque pueden formar haces de luz mucho más delgados que las lámparas incandescentes provistas de reflectores parabólicos. Los ledes de baja potencia resultan relativamente muy económicos y permiten su utilización en objetos luminosos de vida corta como son los autoadhesivos luminosos, los objetos de usar y tirar y el tejido fotónico Lumalive. Los artistas también usan los ledes para el llamado arte led. Los receptores de radio meteorológicos y de socorro con mensajes de área codificados (SAME) disponen de tres ledes: rojo para alarmas, naranja para atención y amarillo para avisos, indicaciones e informes. Iluminación Para alentar el cambio a las lámparas de ledes, el Departamento de Energía de los Estados Unidos ha creado el premio L. La bombilla led Philips Lighting North America ganó el primer premio el 3 de agosto de 2011 después de completar con éxito 18 meses de pruebas intensivas de campo, laboratorio y producto.161 Los ledes se utilizan como luces de la calle y en iluminación arquitectónica. La robustez mecánica y la vida útil larga se utilizan en la iluminación automotriz en los coches, las motocicletas y las luces de la bicicleta. La emisión de luz led puede controlarse eficazmente mediante el uso de principios ópticos de no-imagen. En 2007, el pueblo italiano de Torraca fue el primer lugar en convertir todo su sistema de iluminación en led.162 Los ledes se utilizan también en la aviación, Airbus ha utilizado la iluminación led en su Airbus A320 desde 2007, y Boeing utiliza la iluminación led en el 787. Los ledes también se utilizan ahora en el aeropuerto y la iluminación del helipuerto. Los aparatos de aeropuerto de ledes incluyen actualmente luces de pista de media intensidad, luces en la línea central de la pista, en la línea central de la calle de rodaje y luces en el borde. Los ledes también se utilizan como fuente de luz para proyectores DLP y para iluminar los televisores LCD (conocidos como televisores led) y las pantallas para ordenadores portátiles. Los ledes RGB elevan la gama de colores hasta en un 45%. Las pantallas para TV y pantallas de ordenador pueden ser más delgadas usando ledes para retroiluminación . La falta de radiación infrarroja o térmica hace que los ledes sean ideales para luces de escenario con bancos de ledes RGB que pueden cambiar fácilmente de color y disminuir el calentamiento de la iluminación, así como la iluminación médica donde la radiación IR puede ser dañina. En la conservación de la energía, hay una menor producción de calor al utilizar ledes. Además son pequeños, duraderos y necesitan poca potencia, por lo que se utilizan en dispositivos portátiles como linternas. Las luces estroboscópicas led o los flashes de la cámara funcionan a una tensión segura y baja, en lugar de los 250+ voltios que se encuentran comúnmente en la iluminación basada en flash de xenón. Esto es especialmente útil en las cámaras de teléfonos móviles. Los ledes se utilizan para la iluminación infrarroja en los usos de


la visión nocturna incluyendo cámaras de seguridad. Un anillo de ledes alrededor de una cámara de vídeo dirigido hacia adelante en un fondo retrorreflectante, permite la codificación de croma en producciones de video. Los ledes se utilizan en las operaciones mineras, como lámparas de tapa para proporcionar luz a los mineros. Se han realizado investigaciones para mejorar los ledes de la minería, reducir el deslumbramiento y aumentar la iluminación, reduciendo el riesgo de lesiones a los mineros. Los ledes se usan ahora comúnmente en todas las áreas de mercado, desde el uso comercial hasta el uso doméstico: iluminación estándar, teatral, arquitectónico , instalaciones públicas, y donde se utilice luz artificial. Los ledes están encontrando cada vez más usos en aplicaciones médicas y educativas, por ejemplo como mejora del estado de ánimo, y nuevas tecnologías tales como AmBX, explotando la versatilidad del led. La NASA ha patrocinado incluso la investigación para el uso de ledes para promover salud para los astronautas. Comunicaciones ópticas. Transferencia de datos y otras La luz puede utilizarse para transmitir datos y señales analógicas. Por ejemplo, los ledes blancos pueden ser utilizados en sistemas para ayudar a la gente a orientarse en espacios cerrados con el objetivo de localizar disposiciones u objetos. Los dispositivos de audición asistida de muchos teatros y espacios similares utilizan matrices de ledes infrarrojos para enviar el sonido a los receptores de los espectadores. Los ledes (y también los láseres de semiconductor) se utilizan para enviar datos a través de muchos tipos de cable de fibra óptica. Desde los cables TOSLINK para la transmisión de audio digital hasta a los enlaces de fibra de ancho de banda muy elevado que constituyen la espina dorsal de Internet. Durante algún tiempo los ordenadores estuvieron equipados con interfaces IrDA, que les permitían enviar y recibir datos de los equipos próximos mediante radiación infrarroja. Debido a que los ledes pueden encenderse y apagarse millones de veces por segundo, requieren disponer de un ancho de banda muy alto para la transmisión de datos. ILUMINACIÓN SOSTENIBLE La eficiencia en la iluminación es algo necesario para la arquitectura sostenible. En 2009, las pruebas realizadas con bombillas led por el Departamento de Energía de los Estados Unidos mostraban una eficiencia media desde 35 lm/W, por debajo, por tanto, de la eficiencia de las LFC, hasta valores tan bajos como 9 lm/W, peores que las bombillas incandescentes. Una bombilla led típica de 13 vatios emitía de 450 a 650 lúmenes, que equivalía a una bombilla incandescente estándar de 40 vatios. En cualquier caso, en 2011 existían bombillas led con una eficiencia de 150 lm/W, e incluso los modelos de gama baja llegaban a exceder los 50 lm/W, por lo que un led de 6 vatios podía alcanzar los mismos resultados que una bombilla incandescente estándar de 40 vatios. Estas últimas tienen una durabilidad de 1000 horas mientras que un led puede seguir operando a una menor eficiencia durante más de 50.000 horas. Tabla comparativa de led-LFC-bombilla incandescente:


CONSUMO DE ENERGÍA La reducción en el consumo de energía eléctrica que se consigue con una iluminación basada en led es importante cuando se compara con la iluminación por incandescencia. Además, esta reducción también se manifiesta como una notable disminución de daño al medio ambiente. Cada país presenta un panorama energético diferente y, por tanto, aunque la repercusión en el consumo energético sea el mismo, la producción de gases nocivos para el medio ambiente puede fluctuar algo de unos a otros. En lo que respecta al consumo se puede tomar como muestra una bombilla incandescente convencional de 40 vatios. Una producción luminosa equivalente se puede obtener con un sistema de ledes de 6 vatios de potencia. Utilizando, pues, el sistema de ledes en lugar de bombillas incandescentes, se puede reducir el consumo energético en más de un 85%. En cuanto al ahorro en el impacto ambiental es posible cuantificarlo para cualquier país si se conoce la producción de CO 2 por cada kW-hora. En el caso concreto de España se sabe que el mix energético de la red eléctrica española ha producido unos 308 g de CO2/kWh en 2016. Se supone para el cálculo que tanto la bombilla como el conjunto led han funcionado durante 10 horas al día a lo largo de todo el año 2016. 170 Las energías consumidas han sido de 146 kW-hora por parte de la bombilla incandescente y de 21.6 kW-hora por parte del conjunto led. La energía eléctrica consumida se puede traducir a kg de CO2 producidos al año. En el primer caso se ha llevado a cabo la generación de unos 45 kg de CO2 mientras que en el segundo caso la producción de CO 2 ha quedado reducida a 6.75 kg. FUENTES DE LUZ PARA SISTEMAS DE VISIÓN ARTIFICIAL Los sistemas de visión industriales suelen requerir una iluminación homogénea para poder enfocar sobre rasgos de la imagen de interés. Este es uno de los usos más frecuentes de las luces led, y seguramente se mantenga así haciendo bajar los precios de los sistemas basados en la señalización lumínica. Los escáneres de código de barras son el ejemplo más común de sistemas de visión, muchos de estos productos de bajo coste utilizan ledes en vez de láseres.171 Los ratones de ordenador ópticos también utilizan ledes para su sistema de visión, ya que proporcionan una fuente de luz uniforme sobre la superficie para la cámara en miniatura dentro del ratón. De hecho, los ledes constituyen una fuente de luz casi ideal para los sistemas de visión por los siguientes motivos:  El tamaño del campo iluminado suele ser comparativamente pequeño y los sistemas de visión artificial a menudo son bastante caros, por lo que el coste de la fuente de luz suele ser una preocupación menor. Sin embargo, puede no ser fácil reemplazar una fuente de luz rota dentro de una maquinaria compleja; en este caso la larga vida útil de los ledes es un beneficio.  Los componentes de los ledes tienden a ser pequeños y pueden colocarse con alta densidad sobre sustratos de superficies planas o uniformes (PCB, etc.) de modo que se puedan diseñar fuentes luminosas y homogéneas que dirigen luz desde direcciones controladas de forma estricta en partes inspeccionadas. Esto a menudo se puede obtener con lentes pequeñas y de bajo coste y con difusores, ayudando a lograr altas densidades de luz con control sobre los niveles de iluminación y homogeneidad. Las


fuentes led pueden configurarse de varias formas (focos para iluminación reflectante, luces de anillo para iluminación coaxial, luces de fondo para iluminación de contorno, montajes lineales, paneles planos de gran formato, fuentes de domo para iluminación omnidireccional difusa).  Los ledes pueden ser fácilmente estroboscópicos (en el rango de microsegundos y por debajo) y sincronizados con imágenes. Los ledes de alta potencia están disponibles para permitir imágenes bien iluminadas, incluso con pulsos de luz muy cortos. Esto se utiliza con frecuencia para obtener imágenes nítidas y nítidas de las partes que se mueven rápidamente.  Los ledes vienen en varios colores y longitudes de onda, permitiendo el uso fácil del mejor color para cada necesidad, donde el color diferente puede proporcionar una mejor visibilidad de características del interés. Tener un espectro precisamente conocido permite utilizar filtros estrechamente emparejados para separar el ancho de banda informativo o para reducir los efectos perturbadores de la luz ambiente. Los ledes usualmente operan a temperaturas de trabajo comparativamente bajas, simplificando el manejo del calor y la disipación. Esto permite el uso de lentes de plástico, filtros y difusores. Las unidades impermeables también se pueden diseñar fácilmente, permitiendo el uso en ambientes ásperos o húmedos (alimento, bebida, industrias del aceite). Medicina y biología La sanidad se ha hecho eco de las ventajas de los ledes frente a otros tipos de iluminación y los ha incorporado en su equipamiento de última generación. Las ventajas ofrecidas por los ledes en su estado de desarrollo actual han propiciado su rápida difusión en el mundo del instrumental para el diagnóstico y apoyo en los procedimientos médicos y quirúrgicos. Las ventajas apreciadas por los profesionales de la medicina son las siguientes:  El tamaño pequeño de las fuentes de luz que, en general, pueden venir asociadas a guías de luz muy delgadas y flexibles lo que les permite su desplazamiento por el interior decatéteres también delgados.  La inexistencia de radiación infrarroja acompañante, lo que permite que se les asocie el calificativo de “luz fría”. El calor desprendido por otro tipo de fuentes luminosas dificultaba a impedía su uso en determinadas observaciones de diagnóstico o intervenciones quirúrgicas.  La tonalidad blanca que suele ser la predilecta para las observaciones médicas. Debe tratarse de un color blanco natural capaz de presentar todos los colores sin problemas de metamerismo. El color natural de los tejidos así iluminados así favorece el diagnóstico correcto del campo observado.  La intensidad luminosa elevada alcanzable por estas fuentes de luz. Diagnóstico y visión En base a las ideas anteriores, los endoscopios actuales están dotados de iluminación led. La técnica endoscópica abarca muchas especialidades médicas, por ejemplo gastroscopia, colonoscopia, laringoscopia, otoscopia o artroscopia. Todas estas


técnicas permiten la observación de órganos y sistemas del cuerpo humano mediante el uso de cámaras miniatura de video. Se pueden también emplear en las intervenciones quirúrgicas o para efectuar diagnósticos. Los equipos también se conocen como videoscopios o videoendoscopios. Los hay rígidos o flexibles según las necesidades. La fibra la óptica se adapta a cada caso en particular. Por otro lado las luminarias de los quirófanos y clínicasodontológicas son actualmente de ledes. Satisfacen a la perfección todos los requerimientos técnicos y sanitarios para su utilización. Se aprecia especialmente la obtención de una iluminación blanca, natural, brillante (más de ciento cincuenta mil candelas a un metro de distancia del campo de la operación), sin sombras y sin emisiones infrarrojas o ultravioleta que podían afectar tanto al paciente como al personal médico que participa en la intervención. Otro tanto sucede con las lámparas frontales de los cirujanos y odontólogos dotadas de ledes, con las lámparas para exámenes médicos, para exploraciones e intervenciones oftalmológicas o par acirugía menor con lo que se puede afirmar que los ledes han llegado a abarcar todas las especialidades médicas. Las empresas ópticas dedicadas a la medicina han incorporado los ledes en sus equipos de observación, por ejemplo en los microscopios, obteniendo con ello muchas ventajas para el estudio de imágenes empleando las distintas técnicas (campo claro, contraste, fluorescencia), lo que pone de manifiesto en los campos publicitario y comercial. Los ledes se utilizan con éxito como sensores en pulsímetros o tensiómetros de oxígeno para medir la saturación de oxígeno. Terapia La luz led se emplea en una técnica de tratamiento de la piel denominada fototerapia. Recordemos que la luz emitida por las diferentes aleaciones de semiconductores es muy monocromática. A cada uno de los colores (azul, amarillo, rojo, etc.) se le atribuye actividad prioritaria en un determinado proceso terapéutico, por ejemplo, favorecer la cicatrización (luz azul), atacar a determinada cepa de bacterias (varios colores), aclarar las manchas dérmicas (luz roja), etc. Muchos materiales y sistemas biológicos son sensibles o dependientes de la luz. Las luces de crecimiento emplean ledes para aumentar la fotosíntesis en las plantas. Las bacterias y los virus pueden eliminarse del agua y de otras sustancias mediante una esterilización con ledes UV. Industria La industria ha adaptado los modelos de observación empleados en medicina para sus propias necesidades y los equipos reciben el nombre de endoscopios industriales o también boroscopios, flexoscopios o videoendoscopios. Puede observarse con ellos el interior de máquinas, motores, conductos, cavidades o armas sin necesidad de desmontarlos. Otras aplicaciones La luz de los ledes puede ser modulada muy rápidamente por lo que se utilizan mucho en la fibra óptica y la comunicación óptica por el espacio libre. Esto incluye los controles remotos utilizados en televisiones, videograbadoras y ordenadores led. Los aisladores ópticos utilizan un led combinado con un fotodiodo o fototransistor para proporcionar una vía de señal con


aislamiento eléctrico entre dos circuitos. Esto es especialmente útil en equipos médicos donde las señales de un circuito de sensores de baja tensión (normalmente alimentados por baterías) en contacto con un organismo vivo deben estar aisladas eléctricamente de cualquier posible fallo eléctrico en un dispositivo de monitorización que funcione a voltajes potencialmente peligrosos. Un optoisolador también permite que la información se transfiera entre circuitos que no comparten un potencial de tierra común. Muchos sistemas de sensores dependen de la luz como fuente de señal. Los ledes suelen ser ideales como una fuente de luz debido a los requisitos de los sensores. Los ledes se utilizan como sensores de movimiento, por ejemplo en ratones ópticos de ordenadores. La barra de sensores de la Nintendo Wii utiliza ledes infrarrojos. Los oxímetros de pulso los utilizan para medir la saturación de oxígeno. Algunos escáneres de mesa utilizan matrices de led RGB en lugar de la típica lámpara fluorescente de cátodo frío como fuente de luz. Tener el control de forma independiente de tres colores iluminados permite que el escáner se calibre para un balance de color más preciso y no hay necesidad de calentamiento. Además, sus sensores solo necesitan ser monocromáticos, ya que en cualquier momento la página escaneada solo se ilumina con un color de luz. Dado que los LED también pueden utilizarse como fotodiodos, se pueden usar también para la emisión de fotografías o para la detección. Esto podría ser utilizado, por ejemplo, en una pantalla táctil que registra la luz reflejada desde un dedo o un estilete.172 Muchos materiales y sistemas biológicos son sensibles o dependen de la luz. Las luces para cultivo usan led para estimular la fotosíntesis en las plantas,173 y las bacterias y los virus pueden ser eliminados del agua y otras sustancias que usan ledes UV para la esterilización. Los ledes también se han utilizado como referencia de voltaje de calidad en circuitos electrónicos. En lugar de un diodo Zener en reguladores de baja tensión, se puede usar la caída de tensión directa (por ejemplo, aproximadamente 1,7 V para un led rojo normal). Los ledes rojos tienen la curva I / V más plana. Aunque la tensión directa del led es mucho más dependiente de la corriente que un diodo Zener, los diodos Zener con tensiones de ruptura por debajo de 3 V no están ampliamente disponibles. La miniaturización progresiva de la tecnología de iluminación de bajo voltaje, como los ledes y los OLEDs, adecuados para incorporarse a materiales de bajo espesor, ha fomentado la experimentación en la combinación de fuentes de luz y superficies de revestimiento de paredes interiores.174 Las nuevas posibilidades ofrecidas por estos desarrollos han llevado a algunos diseñadores y compañías, como Meystyle,175 Ingo Maurer,176 Lomox177 y Philips178 a investigar y desarrollar tecnologías propietarias de papel tapiz led, algunas de las cuales están actualmente disponibles para la compra comercial. Otras soluciones existen principalmente como prototipos o están en proceso de ser refinadas. AMOLED


AMOLED se utiliza en los Samsung Galaxy AMOLED ( en español «Matriz activa de diodos orgánicos emisores de luz``,) es una tecnología de fabricación de pantallas basada en OLED. Tiene una importancia al alza debido a su utilización en dispositivos móviles, como los teléfonos móviles. Visión general AMOLED permite dirigirnos a un píxel concreto. El progreso que permite esta tecnología, se refleja en modelos superiores, más caros y que consumen menos energía, por ejemplo, televisores.1 Explicación técnica Un dispositivo OLED de matriz activa (AMOLED), consiste en un conjunto de píxeles OLED que se depositan o integran en una serie de transistores de película fina (TFT) para formar una matriz de píxeles, que se iluminan cuando han sido activados eléctricamente, controlados por los interruptores que regulan el flujo de corriente que se dirige a cada uno de los píxeles. El TFT continuamente regula la corriente que fluye por cada uno de los píxeles, para así caracterizar el píxel con el nivel de brillo que mostrará. Generalmente esa corriente se controla mediante dos TFT por píxel, uno para empezar y parar de cargar el condensador, y el otro para proveer el nivel necesario de tensión al píxel para así crear una corriente de valor constante y poder evitar los picos de alta corriente que requiere un OLED pasivo para las operaciones en la matriz de píxeles. Las pantallas de AMOLED se caracterizan en cuatro capas para el control de la imagen que muestra:

Representación de cómo se construye una pantalla AMOLED  Capa del ánodo  Capa intermedia orgánica  Capa del cátodo  Capa que contiene toda la circuitería Elemento de matriz activa La tecnología TFT backplane del TFT es un elemento crucial para la fabricación de dispositivos AMOLED flexibles. El proceso que se utiliza en los sustratos convencionales en los que se basan los TFT no se pueden utilizar con los sustratos de plástico flexibles necesarios, porque este proceso implicaría el no trabajar a temperaturas bajas, siendo este un límite ineludible.


Para solucionar este problema, hoy en día existen principalmente dos tecnologías de fabricación del backplane del TFT utilizadas en los AMOLED: poly-Silicon (poly-Si) o amorphousSilicon (a-Si). Estas tecnologías ofrecen la posibilidad de fabricación de los backplanes de matriz activa a una baja temperatura (<150 °C), insertándolos directamente en el sustrato de plástico flexible posibilitando la producción de pantallas AMOLED flexibles. Características

Ejemplo de línea fallida. Los OLED de matriz activa y los de matriz pasiva tienen las mismas posibilidades para mostrar una frecuencia de cuadro concreta, sin embargo el AMOLED consume menos potencia de forma significativa. Los OLED de matriz activa son especialmente útiles para dispositivos electrónicos donde el consumo de energía de la batería puede ser crítico y para pantallas con una diagonal que van desde 2 a 3 pulgadas. Cuando se fuerza la pantalla doblándola con un ángulo mayor que el ángulo crítico que permite el dispositivo, se provoca una rotura en el sustrato de plástico, rotura que se propagará a través de todo el bus de la línea correspondiente. Esta rotura provoca en la pantalla que la línea o líneas afectadas muestren un parpadeo, falle toda la línea, falle una región entera o incluso el dispositivo entero. Ventajas y desventajas Ventajas  Son muy delgadas y muy ligeras  Un contraste más alto que los LCD/TFT, incluso llegando a sobresaturar colores si no está bien calibrada. Además un pixel negro es un pixel apagado a diferencia de los LCD(siempre está toda la pantalla retroiluminada.  Reforzados sistemas de protección de las roturas en el dispositivo  Consumo muy bajo de potencia, alta robustez con una calidad de imagen superior y un bajo coste en comparación con las actuales pantallas LCD.  Su robustez característica confiere a este dispositivo una enorme flexibilidad y posibilidad de incluso “enrollarlo”, aún estando activo, que se traduce en facilidad para su transporte o almacenamiento. Desventajas  Alto precio actual: Esto no es ninguna contradicción. Que algo sea barato de producir no quiere decir que su precio sea bajo de momento. Este abaratamiento se basa en los costes de producción, y realmente se notará cuando las tecnologías basadas en OLED adquieran mayor difusión y venta. Es algo que pasa con todas las tecnologías que precisan de un gran desarrollo e investigación (ha pasado exactamente lo mismo con las pantallas TFT, con los módulos de memoria, con los microprocesadores...). Solo hay que recordar que no hace mucho (apenas unos años), los monitores TFT tenían un coste superior a los 600 euros


(para un tamaño de 14), mientras que actualmente podemos encontrar monitores TFT de 19 por poco más de 120 euros.  Sensibilidad al agua: El agua puede estropear permanentemente un OLED, lo que hace que este tipo de tecnología requiera unos sistemas especiales de protección.  Degradación y periodos cortos de vida: El periodo de vida de las capas OLED es bastante menor que el de LCD. Además, no es igual para todos los colores. Para el rojo y el verde la duración es bastante alta, pero para el azul es bastante más corta. En general se estima una duración aproximada (dependiendo, claro está, de la tecnología empleada) de 14000 horas, frente a las 60000 estimadas para LCD. Como verán, no es que se hable de hoy para mañana (14000 horas son 5 años a 8 horas diarias), pero aun así es algo menos de un cuarto de lo que dura una pantalla LCD. Por lo apuntado en el punto anterior, esta degradación es mayor en ambientes con un alto grado de humedad. En este tema se trabaja con soluciones que, reduciendo el brillo, mantienen la misma calidad de imagen y aumentan considerablemente su duración, superando incluso por un amplio margen a las pantallas LCD. En pruebas experimentales se han conseguido tiempos para OLEDS verdes de más de 198000 horas y de más de 62000 para los azules.  Alto impacto medioambiental: Esto puede suponer un gran problema para el futuro, ya que los componentes orgánicos (tanto las moléculas como los polímeros) son muy difíciles de reciclar, precisándose para ello unas técnicas bastante complejas y con un alto costo.  Variaciones  Super AMOLED  Artículo principal: Super AMOLED  Recientemente se han presentado una variación de estas pantallas, denominadas HD Super Amoled, que incluyen una pantalla de 1280x800 pixeles, y una densidad de 285 puntos por pulgada. El primer dispositivo en portar estas pantallas se denominó Samsung Galaxy Note.  Electrónica flexible  La electrónica flexible, también conocida como circuitos flexibles , es una tecnología para el montaje de circuitos electrónicos mediante el montaje de los dispositivos electrónicos en sustratos de plástico flexibles, tales como poliimida, PEEK o película conductora de poliéster transparente. Además, los circuitos flexibles pueden ser circuitos de plata serigrafiados en poliéster.  Los conjuntos electrónicos flexibles pueden ser fabricados usando componentes idénticos a los utilizados para los rígidos en placas de circuito impreso, permitiendo que la placa se ajuste a una forma deseada o se flexione durante su uso. Estos circuitos impresos flexibles (CIF) se hacen con una tecnología de fotolitografía. Una forma alternativa de hacer circuitos de lámina flexible o cables planos flexibles (FFC) consiste en laminar tiras de cobre muy delgadas (0,07 mm) en medio de dos capas de PET. Estas capas de PET, típicamente de 0,05 mm de espesor, están recubiertas con un adhesivo que es termoestable y que se activa durante el proceso de laminación.  Mediante la electrónica impresa también se pueden fabricar electrónica flexible, dando la posibilidad de que la electrónica pueda ser colocada en superficies curvas, que los dispositivos se puedan doblar de forma repetida e inclusive que se puedan enrollar. La tecnología Ultra Flexible Printed Circuits (UFPC) permite que los componentes


 

 

electrónicos tradicionales de silicio sean soldados directamente sobre el plástico, siendo aplicada al desarrollo de productos electrónicos flexibles para uso masivo en sectores de mercado tales como la automoción, el transporte, dispositivos médicos, wearables, sensores, etc Electrónica de estado sólido La electrónica de estado sólido se ocupa de aquellos circuitos o dispositivos construidos totalmente de materiales sólidos y en los que los electrones, u otros portadores de carga, están confinados enteramente dentro del material sólido. El término se utiliza a menudo para contrastar con las tecnologías anteriores de vacío y dispositivos de tubo de descarga de gas y también se ha convenido en excluir del término estado sólido a los dispositivos electromecánicos (relés, interruptores, discos duros y otros dispositivos con partes móviles). Aunque estado sólido puede incluir sólidos monocristalinos , policristalinos y amorfos referidos a conductores eléctricos, aislantes y semiconductores , el material de construcción más a menudo utilizado es un semiconductor cristalino. Los dispositivos de estado sólido comunes incluyen transistores , microprocesadores y chips de memoria RAM. Un tipo especializado de RAM llamada memoria flash utilizada en las memorias USB y, más recientemente, en las unidades de estado sólido para sustituir a los discos duros magnéticos de rotación mecánica. Dentro del dispositivo tiene lugar una cantidad considerable de acción electromagnética y de mecánica cuántica. La denominación se impuso en la década de 1950 y en la de 1960, durante la transición desde la tecnología del tubo de vacío hacia los diodos y transistores semiconductores. Más recientemente, el circuito integrado (IC), el diodo emisor de luz (LED) y la pantalla de cristal líquido (LCD) han evolucionado como otros ejemplos de dispositivos de estado sólido. En un componente de estado sólido, la corriente está confinada a elementos sólidos y compuestos diseñados específicamente para conmutarla y amplificarla. El flujo de corriente se puede entender de dos formas: como carga negativa de electrones y como deficiencias de electrones cargadas positivamente, denominadas huecos. El primer dispositivo de estado sólido fue el "detector de bigotes de gato", utilizado por primera vez en 1930 en los receptores de radio. Se coloca un alambre similar a un bigote ligeramente en contacto con un cristal sólido (como el cristal de germanio) con el fin de detectar una señal de radio por efecto de la unión de contacto. El dispositivo de estado sólido hizo propiamente su entrada con la invención del transistor en 1947. Célula fotoeléctrica (Redirigido desde «Célula solar»)


 

  

 

Célula solar monocristalina durante su fabricación

Símbolo de la célula fotovoltaica Una célula fotoeléctrica, también llamada celda, fotocélula o célula fotovoltaica, es un dispositivo electrónico que permite transformar la energía lumínica (fotones) en energía eléctrica (flujo de electrones libres) mediante el efecto fotoeléctrico, generando energía solar fotovoltaica. Compuesto de un material que presenta efecto fotoeléctrico: absorben fotones de luz y emiten electrones. Cuando estos electrones libres son capturados, el resultado es una corriente eléctrica que puede ser utilizada como electricidad. La eficiencia de conversión media obtenida por las células disponibles comercialmente (producidas a partir de silicio monocristalino) está alrededor del 16 %, pero según la tecnología utilizada varía desde el 6% de las células de silicio amorfo hasta el 22 % de las células de silicio monocristalino. También existen las células multicapa, normalmente de arseniuro de galio, que alcanzan eficiencias del 30 %. En laboratorio se ha superado el 46 % con células experimentales. La vida útil media a máximo rendimiento se sitúa en torno a los 25 años, período a partir del cual la potencia entregada disminuye por debajo de un valor considerable. Al grupo de células fotoeléctricas para energía solar se le conoce como panel fotovoltaico. Los paneles fotovoltaicos consisten en una red de células solares


conectadas como circuito en serie para aumentar la tensión de salida hasta el valor deseado (usualmente se utilizan 12 V o 24 V) a la vez que se conectan varias redes como circuito paralelo para aumentar la corriente eléctrica que es capaz de proporcionar el dispositivo.  El tipo de corriente eléctrica que proporcionan es corriente continua, por lo que si necesitamos corriente alterna o aumentar su tensión, tendremos que añadir un inversor y/o un convertidor de potencia El efecto fotovoltaico fue experimentalmente demostrado por primera vez por el físico francés Edmond Becquerel. En 1839, a los 19 años, construyó la primera célula fotovoltaica del mundo en el laboratorio de su padre. Willoughby Smith describió por primera vez el «Effect of Light on Selenium during the passage of an Electric Current» [Efecto de la luz sobre el selenio durante el paso de una corriente eléctrica] el 20 de febrero de 1873 en la revista Nature. En 1883 Charles Fritts construyó la primera célula fotovoltaica de estado sólido mediante el recubrimiento del selenio semiconductor con una capa delgada de oro para formar las uniones; el dispositivo tuvo solo alrededor del 1% de eficiencia. En 1888 el físico ruso Aleksandr Stoletov construyó la primera célula basada en el efecto fotoeléctrico externo descubierto por Heinrich Hertz en 1887. En 1905 Albert Einstein propuso una nueva teoría cuántica de la luz y explicó el efecto fotoeléctrico en un artículo de referencia, por el que recibió el Premio Nobel de Física en 1921. Vadim Lashkaryov descubrió uniones p-n en CuO y protocélulas de sulfuro de plata en 1941. Russell Ohl patentó la moderna célula solar en unión semiconductora en 1946 6 mientras trabajaba en la serie de avances que conducirían al transistor. La primera célula fotovoltaica práctica se mostró públicamente el 25 de abril de 1954 en los Laboratorios Bell. Los inventores fueron Daryl Chapin, Calvin Souther Fuller y Gerald Pearson. Las células solares adquirieron notoriedad con su incorporación en el satélite artificial Vanguard I en 1958, y su subsiguiente utilización en satélites más avanzados, durante la década de 1960. Las mejoras fueron graduales durante las siguientes dos décadas. Sin embargo, este éxito fue también la razón de que los costos se mantuvieran altos, porque los usuarios de aplicaciones espaciales estaban dispuestos a pagar las mejores células posibles, sin tener ninguna razón para invertir en las de menor costo, en soluciones menos eficientes. El precio estaba determinado en gran parte por la industria de los semiconductores; su traslado a los circuitos integrados en la década de 1960 llevó a la disponibilidad de lingotes más grandes a precios relativamente más bajos. Al caer su precio, el precio de las células resultantes también lo hizo. Estos efectos bajaron los costos en 1971 a unos $ 100 por vatio. 10 Principio de funcionamiento


Esquema del campo eléctrico creado en una célula fotovoltaica mediante la unión pn entre dos capas de semiconductores dopados. En un semiconductor expuesto a la luz, un fotón de energía arranca un electrón, creando a la vez un «hueco» en el átomo excitado. Normalmente, el electrón encuentra rápidamente otro hueco para volver a llenarlo, y la energía proporcionada por el fotón, por tanto, se disipa en forma de calor. El principio de una célula fotovoltaica es obligar a los electrones y a los «huecos» a avanzar hacia el lado opuesto del material en lugar de simplemente recombinarse en él: así, se producirá una diferencia de potencial y por lo tanto tensión entre las dos partes del material, como ocurre en una pila. Para ello, se crea un campo eléctrico permanente, a través de una unión pn, entre dos capas dopadas respectivamente, p y n. En las células de silicio, que son mayoritariamente utilizadas, se encuentran por tanto:  La capa superior de la celda, que se compone de silicio dopado de tipo n. En esta capa, hay un número de electrones libres mayor que en una capa de silicio puro, de ahí el nombre del dopaje n, negativo. El material permanece eléctricamente neutro, ya que tanto los átomos de silicio como los del material dopante son neutros: pero la red cristalina tiene globalmente una mayor presencia de electrones que en una red de silicio puro.  La capa inferior de la celda, que se compone de silicio dopado de tipo p.Esta capa tiene por lo tanto una cantidad media de electrones libres menor que una capa de silicio puro. Los electrones están ligados a la red cristalina que, en consecuencia, es eléctricamente neutra pero presenta huecos, positivos (p). La conducción eléctrica está asegurada por estos portadores de carga, que se desplazan por todo el material. En el momento de la creación de la unión pn, los electrones libres de la capa n entran instantáneamente en la capa p y se recombinan con los huecos en la región p. Existirá así durante toda la vida de la unión, una carga positiva en la región n a lo largo de la unión (porque faltan electrones) y una carga negativa en la región en p a lo largo de la unión (porque


los huecos han desaparecido); el conjunto forma la «Zona de Carga de Espacio» (ZCE) o "zona de barrera" y existe un campo eléctrico entre las dos, de n hacia p. Este campo eléctrico hace de la ZCE un diodo, que solo permite el flujo de portadores en una dirección: En ausencia de una fuente de corriente exterior y bajo la sola influencia del campo generado en la ZCE los electrones solo pueden moverse de la región p a la n, pero no en la dirección opuesta y por el contrario los huecos no pasan más que de n hacia p. En funcionamiento, cuando un fotón arranca un electrón a la matriz, creando un electrón libre y un hueco, bajo el efecto de este campo eléctrico cada uno va en dirección opuesta: los electrones se acumulan en la región n (para convertirse en polo negativo), mientras que los huecos se acumulan en la región dopada p (que se convierte en el polo positivo). Este fenómeno es más eficaz en la ZCE, donde casi no hay portadores de carga (electrones o huecos), ya que son anulados, o en la cercanía inmediata a la ZCE: cuando un fotón crea un par electrón-hueco, se separaron y es improbable que encuentren a su opuesto, pero si la creación tiene lugar en un sitio más alejado de la unión, el electrón (convertido en hueco) mantiene una gran oportunidad para recombinarse antes de llegar a la zona n. Pero la ZCE es necesariamente muy delgada, así que no es útil dar un gran espesor a la célula. Efectivamente, el grosor de la capa n es muy pequeño, ya que esta capa solo se necesita básicamente para crear la ZCE que hace funcionar la célula. En cambio, el grosor de la capa p es mayor: depende de un compromiso entre la necesidad de minimizar las recombinaciones electrón-hueco, y por el contrario permitir la captación del mayor número de fotones posible, para lo que se requiere cierto mínimo espesor. En resumen, una célula fotovoltaica es el equivalente de un generador de energía a la que se ha añadido un diodo. Para lograr una célula solar práctica, además es preciso añadir contactos eléctricos (que permitan extraer la energía generada), una capa que proteja la célula pero deje pasar la luz, una capa antireflectante para garantizar la correcta absorción de los fotones, y otros elementos que aumenten la eficiencia del misma. Técnica de fabricación[editar]

Obleas utilizadas para su posterior conversión en células fotovoltaicas, en la cinta transportadora durante su proceso de fabricación.


CÉLULAS FOTOVOLTAICAS LISTAS PARA SU USO. El silicio es actualmente el material más comúnmente usado para la fabricación de células fotovoltaicas. Se obtiene por reducción de la sílice, compuesto más abundante en la corteza de la Tierra, en particular en la arena o el cuarzo. El primer paso es la producción de silicio metalúrgico, puro al 98%, obtenido de piedras de cuarzo provenientes de un filón mineral (la técnica de producción industrial no parte de la arena). El silicio se purifica mediante procedimientos químicos (Lavado + Decapado) empleando con frecuencia destilaciones de compuestos clorados de silicio, hasta que la concentración de impurezas es inferior al 0.2 partes por millón. Así se obtiene el silicio semiconductor con un grado de pureza superior al requerido para la generación de energía solar fotovoltaica. Este ha constituido la base del abastecimiento de materia prima para aplicaciones solares hasta la fecha, representando en la actualidad casi las tres cuartas partes del aprovisionamiento de las industrias. Sin embargo, para usos específicamente solares, son suficientes (dependiendo del tipo de impureza y de la técnica de cristalización), concentraciones de impurezas del orden de una parte por millón. Al material de esta concentración se le suele denominar silicio de grado solar. Con el silicio fundido, se realiza un proceso de crecimiento cristalino que consiste en formar capas monomoleculares alrededor de un germen de cristalización o de un cristalito inicial. Nuevas moléculas se adhieren preferentemente en la cara donde su adhesión libera más energía. Las diferencias energéticas suelen ser pequeñas y pueden ser modificadas por la presencia de dichas impurezas o cambiando las condiciones de cristalización. La semilla o germen de cristalización que provoca este fenómeno es extraída del silicio fundido, que va solidificando de forma cristalina, resultando, si el tiempo es suficiente, un monocristal y si es menor, un policristal. La temperatura a la que se realiza este proceso es superior a los 1500 °C. El procedimiento más empleado en la actualidad es el Proceso Czochralski, pudiéndose emplear también técnicas de colado. El silicio cristalino así obtenido tiene forma de lingotes. Estos lingotes son luego cortados en láminas delgadas cuadradas (si es necesario) de 200 micrómetros de espesor, que se llaman «obleas». Después del tratamiento para la inyección del enriquecido con dopante (P, As, Sb o B) y obtener así los semiconductores de silicio tipo P o N. Después del corte de las obleas, las mismas presentan irregularidades superficiales y defectos de corte, además de la posibilidad de que estén sucias de polvo o virutas del proceso de fabricación. Esta situación puede disminuir considerablemente el rendimiento del panel fotovoltaico así que se realizan un conjunto de procesos para mejorar las condiciones superficiales de las obleas tales como un lavado preliminar, la eliminación de defectos por ultrasonidos, el decapado, el pulido o la limpieza con productos químicos. Para las celdas con más calidad (monocristal) se realiza un tratado de texturizado para hacer que la oblea absorba con más eficiencia la radiación solar incidente. Posteriormente, las obleas son «metalizadas», un proceso que consiste en la colocación de unas cintas de metal incrustadas en la superficie conectadas a contactos eléctricos que son las que absorben la energía eléctrica que generan las uniones P/N a causa de la irradiación solar y la transmiten. La producción de células fotovoltaicas requiere energía, y se estima que un módulo fotovoltaico debe trabajar alrededor de 2 a 3 años según su tecnología para producir la energía que fue necesaria para su producción (módulo de retorno de energía).


Las técnicas de fabricación y características de los principales tipos de células se describen en los siguientes 3 párrafos. Existen otros tipos de células que están en estudio, pero su uso es casi insignificante. Los materiales y procesos de fabricación son objeto de programas de investigación ambiciosos para reducir el costo y el reciclado de las células fotovoltaicas. Las tecnologías de película delgada sobre sustratos sin marcar recibió la aceptación de la industria más moderna. En 2006 y 2007, el crecimiento de la producción mundial de paneles solares se ha visto obstaculizado por la falta de células de silicio y los precios no han caído tanto como se esperaba. La industria busca reducir la cantidad de silicio utilizado. Las células monocristalinas han pasado de 300 micras de espesor a 200 y se piensa que llegarán rápidamente a las 180 y 150 micras, reduciendo la cantidad de silicio y la energía requerida, así como también el precio. CÉLULAS DE SILICIO AMORFO El silicio durante su transformación, produce un gas que se proyecta sobre una lámina de vidrio. La celda es gris muy oscuro. Es la célula de las calculadoras y relojes llamados «solares». Estás células fueron las primeras en ser manufacturadas, ya que se podían emplear los mismos métodos de fabricación de diodos.  Ventajas:  Funciona con una luz difusa baja (incluso en días nublados),  Un poco menos costosa que otras tecnologías,  Integración sobre soporte flexible o rígido.  Inconvenientes:  Rendimiento a pleno sol bajo, del 5 % al 7 %,12  Rendimiento decreciente con el tiempo (~7 %). Célula de silicio monocristalino[editar]

Célula de silicio monocristalino Al enfriarse, el silicio fundido se solidifica formando un único cristal de grandes dimensiones. Luego se corta el cristal en delgadas capas que dan lugar a las células. Estas células generalmente son de un azul uniforme.  Ventajas:  Buen rendimiento de 14 % al 16 %12  Buena relación potencia-superficie (~150 Wp/m², lo que ahorra espacio en caso necesario)  Número de fabricantes elevado.  Inconvenientes:  Coste más elevado Células de silicio policristalino[editar]


Una célula fotovoltaica basada en silicio multicristalino. Durante el enfriamiento del silicio en un molde, se forman varios cristales. La fotocélula es de aspecto azulado, pero no es uniforme, se distinguen diferentes colores creados por los diferentes cristales.  Ventajas:  Células cuadradas (con bordes redondeados en el caso de Si monocristalino) que permite un mejor funcionamiento en un módulo,  Eficiencia de conversión óptima, alrededor de 100 Wp/m², pero un poco menor que en el monocristalino  Lingote más barato de producir que el monocristalino.  Inconveniente  Bajo rendimiento en condiciones de iluminación baja. ¿Policristalino o multicristalino? Hablamos aquí de silicio multicristalino (ref. IEC TS 61836, vocabulario fotovoltaico internacional ). El término policristalino se utiliza para las capas depositadas sobre un sustrato (granos pequeños). Célula tándem[editar] Apilamiento monolítico de dos células individuales. Mediante la combinación de dos células (capa delgada de silicio amorfo sobre silicio cristalino, por ejemplo) que absorben en el espectro al mismo tiempo se solapan, mejorando el rendimiento en comparación con las células individuales separadas, sean amorfas, cristalinas o microcristalinas.  Ventajas  Alta sensibilidad en un amplio rango de longitudes de onda. Excelente rendimiento.  Desventaja  El costo es alto debido a la superposición de dos células. Célula multiunión[editar] Artículo principal: Célula fotovoltaica multiunión Estas células tienen una alta eficiencia y han sido desarrolladas para aplicaciones espaciales. Las células multiunión están compuestas de varias capas delgadas usando la epitaxiapor haz molecular. Un células de triple unión, por ejemplo, se compone de semiconductores GaAs, Ge y GaInP2. Cada tipo de semiconductores se caracteriza por un máximo de longitud de onda más allá del cual no es capaz de convertir los fotones en energía eléctrica (ver banda prohibida). Por otro lado, por debajo de esta longitud de onda, el exceso de energía transportada por el fotón se pierde. De ahí el valor de la selección de materiales con longitudes de onda tan cerca el uno al otro como sea posible, de forma que absorban la mayoría del espectro solar, generando un


máximo de electricidad a partir del flujo solar. El uso de materiales compuestos de cajas cuánticas permitirá llegar al 65 % en el futuro (con un máximo teórico de 87 %). Los dispositivos de células de uniones múltiples GaAs son más eficaces. Spectrolab ha logrado el 40,7 % de eficiencia (diciembre de 2006) y un consorcio (liderado por investigadores de la Universidad de Delaware) ha obtenido un rendimiento de 42,8 %13(septiembre de 2007). El coste de estas células es de aproximadamente 40 $/cm². EL SEMICONDUCTOR FBI La técnica consiste en depositar un material semiconductor que contiene cobre, galio, indio y selenio sobre un soporte. Una preocupación, sin embargo: los recursos de materias primas. Estas nuevas técnicas utilizan metales raros, como indio, cuya producción mundial es de 25 toneladas por año y el precio a fecha de abril de 2007 es de 1000 dólares por kg; el teluro, cuya producción mundial es de 250 toneladas al año; el galio con una producción de 55 toneladas al año y el germanio con una producción de 90 toneladas al año. Aunque las cantidades de estas materias primas necesarias para la fabricación de células solares son infinitesimales, un desarrollo masivo de paneles fotovoltaicos solares debería tener en cuenta esta disponibilidad limitada. Uso[editar] Las células fotovoltaicas se utilizan a veces solas (iluminación de jardín, calculadoras, etc.) o agrupadas en paneles solares fotovoltaicos. Se utilizan para reemplazar a las baterías (cuya energía es por mucho la más cara para el usuario), las células han invadido las calculadoras, relojes, aparatos, etc. Es posible aumentar su rango de utilización almacenándola mediante un condensador o pilas. Cuando se utiliza con un dispositivo para almacenar energía, es necesario colocar un diodo en serie para evitar la descarga del sistema durante la noche. Se utilizan para producir electricidad para muchas aplicaciones (satélites, parquímetros, etc.) y para la alimentación de los hogares o en una red pública en el caso de una central solar fotovoltaica. INVESTIGACIÓN Y DESARROLLO

Parque fotovoltaico de 19 MW en Alemania. La técnica no ha alcanzado aún la madurez y están siendo exploradas muchas vías de investigación. Primero se debe reducir el costo de la electricidad producida, y también avanzar


en la resistencia de los materiales, flexibilidad de uso, facilidad de integración en los objetos, en la vida, etc.). Todas las etapas de los procesos de fabricación se pueden mejorar, por ejemplo:  La empresa «Evergreen Solar» ha conseguido realizar el depósito de silicio todavía líquido en una película donde se cristaliza directamente con el espesor preciso de la lámina.  La empresa "Nanosolar" ha industrializado la producción de células CGIS mediante una técnica de impresión en continuo, esperando un costo de 1 $/W en el año 2010.  Todas las compañías han anunciado sucesivos aumentos de la eficiencia de sus células.  El tamaño de las obleas está creciendo de manera constante, reduciendo el número de manipulaciones  Se trata de utilizar mejor todas las longitudes de onda del espectro solar (incluyendo el infrarrojo, lo que abre perspectivas interesantes: la conversión directa de la luz de una llama en electricidad, refrigeración).  Concentradores ya utilizados en los satélites se están probando en la tierra. A través de espejos y lentes incrustados en el panel, focalizan la radiación en la célula fotovoltaica. A finales de 2007, Sharp ha anunciado la disponibilidad de un sistema de enfoque hasta 1100 veces la radiación solar (contra 700 veces para la marca previa de 2005); a principios de 2008, Sunrgi ha alcanzado 1600 veces. La concentración permite disminuir la proporción de los grupos de paneles dedicados a la producción de electricidad, y por lo tanto su coste. Por otra parte, estos nuevos materiales soportan muy bien la elevada temperatura debida a la concentración del flujo solar.14  Se está estudiando también la posibilidad de unir el silicio amorfo y el cristalino por heterounión en una célula solar más simple de más del 20 % de eficiencia. Proyecto de 2 años anunciado a principios de 2008, con la participación del Laboratorio de Innovación para Nuevas Tecnologías Energéticas y Nanomaterials del CEA-Liten y la empresa coreana JUSUNG (proveedor de equipamiento para los fabricantes de semiconductores), con el INES (Savoya) donde la CEA-Liten ha concentrado sus actividades en la energía solar.  Otros semiconductores (selenio;asociación cobre-indio-selenio (CIS) de película fina) se están estudiando por ejemplo en Francia por el instituto de investigación y desarrollo en energía fotovoltaica (IRDEP).15 El CIS parece ofrecer un modesto rendimiento del 12 %, pero con bajo costo de fabricación.  Los compuestos orgánicos de (materias plásticas) también pueden ser usadas para hacer células fotovoltaicas de polímeros, y podría llegar a hacerse paneles flexibles y ligeros, azulejos, tejidos o velas solares, es de esperar que de fabricación a bajo coste. En la actualidad los rendimientos son bajos (5 % como máximo), así como su vida, y aún quedan muchos problemas técnicos por resolver. A principios de 2008, el grupo japonés Fujikura anunciaba16haber puesto a prueba (1000 horas a 85 °C y con una humedaddel 85 %) unas células fotovoltaicas orgánicas de tipo Grätzel no solo más resistente, sino que su rendimiento mejoró del 50 al 70 % con una superficie rugosa que distribuye al azar la luz reflejada dentro de la célula donde se liberan de nuevo las cargas eléctricas mediante la activación de otros pigmentos fotosensibles.  Un equipo de EE.UU. de Boston College en Chestnut Hill (Massachusetts) ha desarrollado paneles solares capaces de recuperar el espectro infrarrojo y convertirlo en electricidad. Esto permitiría la producción de electricidad a partir de cualquier fuente de calor, incluso por la noche. Hasta ahora, solo una parte de la radiación de la luz visible,


predominantemente verde y azul, se transformaba en electricidad y la radiación infrarroja se utilizaba en los paneles térmicos para calentar el agua.  Asimismo, se pretende fabricar células transparentes; modelos impulsados por el Instituto alemán Fraunhofer para la Mecánica de Materiales (IWM; proyecto "METCO" 18sugieren que las células transparentes bicapa podrían algún día ser producidas industrialmente. los semiconductores de tipo p transparentes parecen más difíciles de producir (el fósforo podría ser un dopante-P del óxido de zinc, pero el nitrógeno parece ser más prometedor).  Por último, la escasez de productos dopantes (el precio del indio se ha multiplicado por diez desde 2002 hasta 2009 tras su rarefacción) aumenta aún más los incentivo para la innovación de un mercado en fuerte crecimiento que parece enorme, sobre todo si se puede reducir el costo de la electricidad y acercarlo al de los combustibles fósiles. LAS TRES GENERACIONES DE CÉLULAS FOTOELÉCTRICAS Las células fotoeléctricas se clasifican en tres generaciones que indican el orden de importancia y relevancia que han tenido históricamente. En el presente hay investigación en las tres generaciones mientras que las tecnologías de la primera generación son las que más están representadas en la producción comercial con el 89.6 % de producción en 2007. PRIMERA GENERACIÓN Las células de la primera generación tienen gran superficie, alta calidad y se pueden unir fácilmente. Las tecnologías de la primera generación no permiten ya avances significativos en la reducción de los costes de producción. Los dispositivos formados por la unión de células de silicio se están acercando al límite de eficacia teórica que es del 31 %20 y tienen un periodo de amortización de 5-7 AÑOS.21 SEGUNDA GENERACIÓN Los materiales de la segunda generación han sido desarrollados para satisfacer las necesidades de suministro de energía y el mantenimiento de los costes de producción de las células solares. Las técnicas de fabricación alternativas, como la deposición química de vapor, y la galvanoplastia tiene más ventajas, ya que reducen la temperatura del proceso de forma significativa. Uno de los materiales con más éxito en la segunda generación han sido las películas finas de teluro de cadmio (CdTe), CIGS, de silicio amorfo y de silicio microamorfo (estos últimos consistentes en una capa de silicio amorfo y microcristalino). Estos materiales se aplican en una película fina en un sustrato de apoyo tal como el vidrio o la cerámica, la reducción de material y por lo tanto de los costos es significativa. Estas tecnologías prometen hacer mayores las eficiencias de conversión, en particular, el CIGS-CIS, el DSC y el CdTe que son los que ofrecen los costes de producción significativamente más baratos. Estas tecnologías pueden tener eficiencias de conversión más altas combinadas con costos de producción mucho más baratos. Entre los fabricantes, existe una tendencia hacia las tecnologías de la segunda generación, pero la comercialización de estas tecnologías ha sido difícil. En 2007, First Solarprodujo 200 MW de células fotoeléctricas de CdTe, el quinto fabricante más grande de células en 2007. Wurth Solar comercializó su tecnología de CIGS en 2007 produciendo 15 MW. Nanosolar comercializó su tecnología de CIGS en 2007 y con una capacidad de producción de 430 MW para 2008 en los EEUU y Alemania.26 Honda Soltec también comenzó a comercializar su base de paneles solares CIGS en 2008.


En 2007, la producción de CdTe representó 4.7 % del mercado, el silicio de película fina el 5.2 %, y el CIGS 0.5 %.25 Tercera generación CÉLULA SOLAR DE TERCERA GENERACIÓN Se denominan células solares de tercera generación a aquellas que permiten eficiencias de conversión eléctrica teóricas mucho mayores que las actuales y a un precio de producción mucho menor. La investigación actual se dirige a la eficiencia de conversión del 30-60 %, manteniendo los materiales y técnicas de fabricación a un bajo costo. Se puede sobrepasar el límite teórico de eficiencia de conversión de energía solar para un solo material, que fue calculado en 1961 por Shockley y Queisser en el 31 %.Existen diversos métodos para lograr esta alta eficiencia incluido el uso de células fotovoltaicas con multi unión, la concentración del espectro incidente, el uso de la generación térmica por luz ultravioleta para aumentar la tensión, o el uso del espectro infrarrojo para la actividad nocturna. HOJA DE RUTA DE LA ENERGÍA FOTOVOLTAICA Estos son algunos de los objetivos que la industria japonesa se ha propuesto: Objetivo para el Objetivo para Objetivo para Tema 2010 2020 2030 Coste de producción

100 ¥/W

75 ¥/W

<50 ¥/W

Duración de vida

-

+30 años

-

Consumo de materia prima

-

-

1 g/W

Costo del conversor

-

-

15 000 ¥/kW

Costo de la batería

-

10 ¥/Wh

-

Eficiencia de la célula cristalina

20 %

25 %

25 %

Eficiencia de la célula de capa 15 % delgada

18 %

20 %

Eficiencia de la célula CIS

19 %

25 %

25 %

Eficiencia de la célula III-V

40 %

45 %

50 %

Eficiencia de la célula "Dye 10 % 15 % 18 % Sensitized" Fuente Nedo (Japón), 124 ¥ = 1 €, febrero de 2016 Eficiencia[editar] Véase también: Ley de Naam El récord de eficiencia, sin concentración solar, está actualmente establecido en el 45 %.28 En concentrada, el Massachusetts Institute of Technology están probando células solares que pueden superar la eficiencia del 80 % y que están compuestas de una capa de nanotubos de carbono con cristales fotónicos, para crear un “absorbedor-emisor Energía solar fotovoltaica


CĂŠlula solar monocristalina durante su fabricaciĂłn.

Viviendas sostenibles alimentadas mediante energĂ­a solar fotovoltaica en el barrio solar de Vauban (Friburgo, Alemania).


Mapamundi de radiación solar. Los pequeños puntos en el mapa muestran el área total de fotovoltaica necesaria para cubrir la demanda mundial de energía usando paneles solares con una eficiencia del 8 %. Artículo principal: Energía solar La energía solar fotovoltaica es una fuente de energía que produce electricidad de origen renovable,1 obtenida directamente a partir de la radiación solar mediante un dispositivo semiconductor denominado célula fotovoltaica, o bien mediante una deposición de metales sobre un sustrato denominada célula solar de película fina.3 Este tipo de energía se usa principalmente para producir electricidad a gran escala a través de redes de distribución, aunque también permite alimentar innumerables aplicaciones y aparatos autónomos, abastecer refugios de montaña o viviendas aisladas de la red eléctrica. Debido a la creciente demanda de energías renovables, la fabricación de células solares e instalaciones fotovoltaicas ha avanzado considerablemente en los últimos años, Comenzaron a producirse en masa a partir del año 2000, cuando medioambientalistas alemanes y la organización Euro solar obtuvo financiación para la creación de diez millones de tejados solares. Programas de incentivos económicos, primero, y posteriormente sistemas de autoconsumo fotovoltaico y balance neto sin subsidios, han apoyado la instalación de la fotovoltaica en un gran número de países. Gracias a ello la energía solar fotovoltaica se ha convertido en la tercera fuente de energía renovable más importante en términos de capacidad instalada a nivel global, después de las energías hidroeléctrica y eólica. A principios de 2017, se estima que hay instalados en todo el mundo cerca de 300 GW de potencia fotovoltaica. La energía fotovoltaica no emite ningún tipo de polución durante su funcionamiento, contribuyendo a evitar la emisión de gases de efecto invernadero. Su principal desventaja consiste en que su producción depende de la radiación solar, por lo que si la célula no se encuentra alineada perpendicularmente al Sol se pierde entre un 10-25 % de la energía incidente. Debido a ello, en las plantas de conexión a red se ha popularizado el uso de seguidores solares para maximizar la producción de energía. La producción se ve afectada asimismo por las condiciones meteorológicas adversas, como la falta de sol, nubes o la suciedad que se deposita sobre los paneles.1213 Esto implica que para garantizar el suministro eléctrico es necesario complementar esta energía con otras fuentes de energía gestionables como las centrales basadas en la quema de combustibles fósiles, la energía hidroeléctrica o la energía nuclear.


Gracias a los avances tecnológicos, la sofisticación y la economía de escala, el coste de la energía solar fotovoltaica se ha reducido de forma constante desde que se fabricaron las primeras células solares comerciales, aumentando a su vez la eficiencia, y logrando que su coste medio de generación eléctrica sea ya competitivo con las fuentes de energía convencionales en un creciente número de regiones geográficas, alcanzando la paridad de red. Actualmente el coste de la electricidad producida en instalaciones solares se sitúa entre 0,050,10 $/kWh en Europa, China, India, Sudáfrica y Estados Unidos. En 2015, se alcanzaron nuevos récords en proyectos de Emiratos Árabes Unidos (0,0584 $/kWh), Perú(0,048 $/kWh) y México (0,048 $/kWh). En mayo de 2016, una subasta solar en Dubái alcanzó un precio de 0,03 $/kWh.

El físico francés Alexandre-Edmond Becquerel fue el descubridor fotovoltaico en 1839, fundamental para el desarrollo de las células fotoeléctricas.

del efecto

Esquema del campo eléctrico creado en una célula fotovoltaica mediante la unión pn entre dos capas de semiconductores dopados.


Estructura básica de una célula solar basada en silicio, y su principio de funcionamiento. El término «fotovoltaico» se comenzó a usar en Reino Unido en el año 1849. Proviene del griego φώς: phos, que significa «luz», y de -voltaico, que proviene del ámbito de la electricidad, en honor al físico italiano Alejandro Volta. El efecto fotovoltaico fue reconocido por primera vez unos diez años antes, en 1839, por el físico francés Alexandre-Edmond Becquerel, pero la primera célula solar no se fabricó hasta 1883. Su creador fue Charles Fritts, quien recubrió una muestra de seleniosemiconductor con pan de oro para formar la unión. Este primitivo dispositivo presentaba una eficiencia menor del 1 %, pero demostró de forma práctica que, efectivamente, producir electricidad con luz era posible. Los estudios realizados en el siglo XIX por Michael Faraday, James Clerk Maxwell, Nikola Tesla y Heinrich Hertz sobre inducción electromagnética, fuerzas eléctricas y ondas electromagnéticas, y sobre todo los de Albert Einstein en 1905, proporcionaron la base teórica al efecto fotoeléctrico, que es el fundamento de la conversión de energía solar a electricidad. Principio de funcionamiento[editar] Artículo principal: Célula fotoeléctrica Cuando un semiconductor dopado se expone a radiación electromagnética, se desprende del mismo un fotón, que golpea a un electrón y lo arranca, creando un hueco en el átomo. Normalmente, el electrón encuentra rápidamente otro hueco para volver a llenarlo, y la energía proporcionada por el fotón, por tanto, se disipa en forma de calor. El principio de una célula fotovoltaica es obligar a los electrones y a los huecos a avanzar hacia el lado opuesto del material en lugar de simplemente recombinarse en él: así, se producirá una diferencia de potencial y por lo tanto tensión entre las dos partes del material, como ocurre en una pila. Para ello, se crea un campo eléctrico permanente, a través de una unión pn, entre dos capas dopadas respectivamente, p y n. En las células de silicio, que son mayoritariamente utilizadas, se encuentran por tanto:  La capa superior de la celda, que se compone de silicio dopado de tipo n.nota 2 En esta capa, hay un número de electrones libres mayor que en una capa de silicio puro, de ahí el nombre del dopaje n, negativo. El material permanece eléctricamente neutro, ya que tanto los átomos de silicio como los del material dopante son neutros: pero la red cristalina tiene globalmente una mayor presencia de electrones que en una red de silicio puro.  La capa inferior de la celda, que se compone de silicio dopado de tipo p.3Esta capa tiene por lo tanto una cantidad media de electrones libres menor que una capa de silicio puro. Los electrones están ligados a la red cristalina que, en consecuencia, es eléctricamente neutra pero presenta huecos, positivos (p). La conducción eléctrica está asegurada por estos portadores de carga, que se desplazan por todo el material.


En el momento de la creación de la unión pn, los electrones libres de la capa n entran instantáneamente en la capa p y se recombinan con los huecos en la región p. Existirá así durante toda la vida de la unión, una carga positiva en la región n a lo largo de la unión (porque faltan electrones) y una carga negativa en la región en p a lo largo de la unión (porque los huecos han desaparecido); el conjunto forma la «Zona de Carga de Espacio» (ZCE) y existe un campo eléctrico entre las dos, de n hacia p. Este campo eléctrico hace de la ZCE un diodo, que sólo permite el flujo de corriente en una dirección: los electrones pueden moverse de la región p a la n, pero no en la dirección opuesta y por el contrario los huecos no pasan más que de n hacia p. En funcionamiento, cuando un fotón arranca un electrón a la matriz, creando un electrón libre y un hueco, bajo el efecto de este campo eléctrico cada uno va en dirección opuesta: los electrones se acumulan en la región n (para convertirse en polo negativo), mientras que los huecos se acumulan en la región dopada p (que se convierte en el polo positivo). Este fenómeno es más eficaz en la ZCE, donde casi no hay portadores de carga (electrones o huecos), ya que son anulados, o en la cercanía inmediata a la ZCE: cuando un fotón crea un par electrón-hueco, se separaron y es improbable que encuentren a su opuesto, pero si la creación tiene lugar en un sitio más alejado de la unión, el electrón (convertido en hueco) mantiene una gran oportunidad para recombinarse antes de llegar a la zona n. Pero la ZCE es necesariamente muy delgada, así que no es útil dar un gran espesor a la célula. Efectivamente, el grosor de la capa n es muy pequeño, ya que esta capa sólo se necesita básicamente para crear la ZCE que hace funcionar la célula. En cambio, el grosor de la capa p es mayor: depende de un compromiso entre la necesidad de minimizar las recombinaciones electrón-hueco, y por el contrario permitir la captación del mayor número de fotones posible, para lo que se requiere cierto mínimo espesor. En resumen, una célula fotovoltaica es el equivalente de un generador de energía a la que se ha añadido un diodo. Para lograr una célula solar práctica, además es preciso añadir contactos eléctricos (que permitan extraer la energía generada), una capa que proteja la célula pero deje pasar la luz, una capa antireflectante para garantizar la correcta absorción de los fotones, y otros elementos que aumenten la eficiencia del misma. PRIMERA CÉLULA SOLAR MODERNA El ingeniero estadounidense Russell Ohl patentó la célula solar moderna en el año 1946, aunque otros investigadores habían avanzado en su desarrollado con anterioridad: el físico sueco Sven Ason Berglund había patentado en 1914 un método que trataba de incrementar la capacidad de las células fotosensibles, mientras que en 1931, el ingeniero alemán Bruno Lange había desarrollado una fotocélula usando seleniuro de plata en lugar de óxido de cobre. La era moderna de la tecnología solar no llegó hasta el año 1954, cuando los investigadores estadounidenses Gerald Pearson, Calvin S. Fuller y Daryl Chapin, de los Laboratorios Bell, descubrieron de manera accidental que los semiconductores de silicio dopado con ciertas impurezas eran muy sensibles a la luz. Estos avances contribuyeron a la fabricación de la primera célula solar comercial. Emplearon una unión difusa de silicio p–n, con una conversión de la energía solar de aproximadamente 6 %, un logro comparado con las células de selenio que difícilmente alcanzaban el 0,5 %. Posteriormente el estadounidense Les Hoffman, presidente de la compañía Hoffman Electronics, a través de su división de semiconductores fue uno de los pioneros en la fabricación


y producción a gran escala de células solares. Entre 1954 y 1960, Hoffman logró mejorar la eficiencia de las células fotovoltaicas hasta el 14 %, reduciendo los costes de fabricación para conseguir un producto que pudiera ser comercializado. 30

La Estación Espacial Internacional, que obtiene su energía a través de paneles fotovoltaicos, fotografiada contra la negrura del espacio y la delgada línea de la atmósfera de la Tierra. Detalle de los paneles solares fotovoltaicos de la Estación Espacial Internacional. Primeras aplicaciones: energía solar espacial ENERGÍA SOLAR ESPACIAL Al principio, las células fotovoltaicas se emplearon de forma minoritaria para alimentar eléctricamente juguetes y en otros usos menores, dado que el coste de producción de electricidad mediante estas células primitivas era demasiado elevado: en términos relativos, una célula que produjera un vatio de energía mediante luz solar podía costar 250 dólares, en comparación con los dos o tres dólares que costaba un vatio procedente de una central termoeléctrica de carbón. Las células fotovoltaicas fueron rescatadas del olvido gracias a la carrera espacial y a la sugerencia de utilizarlas en uno de los primeros satélites puestos en órbita alrededor de la Tierra. La Unión Soviética lanzó su primer satélite espacial en el año 1957, y Estados Unidos le seguiría un año después. La primera nave espacial que usó paneles solares fue el satélite norteamericano Vanguard 1, lanzado en marzo de 1958 (hoy en día el satélite más antiguo aún en órbita). En el diseño de éste se usaron células solares creadas por Peter Iles en un esfuerzo encabezado por la compañía Hoffman Electronics. El sistema fotovoltaico le permitió seguir transmitiendo durante siete años mientras que las baterías químicas se agotaron en sólo 20 días. En 1959, Estados Unidos lanzó el Explorer 6. Este satélite llevaba instalada una serie de módulos solares, soportados en unas estructuras externas similares a unas alas, formados por 9600 células solares de la empresa Hoffman. Este tipo de dispositivos se convirtió posteriormente en una característica común de muchos satélites. Había cierto escepticismo inicial sobre el funcionamiento del sistema, pero en la práctica las células solares demostraron ser un gran éxito, y pronto se incorporaron al diseño de nuevos satélites. Pocos años después, en 1962, el Telstar se convirtió en el primer satélite de comunicaciones equipado con células solares, capaces de proporcionar una potencia de 14 W. Este hito generó un gran interés en la producción y lanzamiento de satélites geoestacionarios para el desarrollo de las comunicaciones, en los que la energía provendría de un dispositivo de captación de la luz solar. Fue un desarrollo crucial que estimuló


la investigación por parte de algunos gobiernos y que impulsó la mejora de los paneles fotovoltaicos. Gradualmente, la industria espacial se decantó por el uso de células solares de arseniuro de galio(GaAs), debido a su mayor eficiencia frente a las células de silicio. En 1970 la primera célula solar con heteroestructura de arseniuro de galio y altamente eficiente se desarrolló en la Unión Soviética por Zhorés Alfiórov y su equipo de investigación. A partir de 1971, las estaciones espaciales soviéticas del programa Salyut fueron los primeros complejos orbitales tripulados en obtener su energía a partir de células solares, acopladas en estructuras a los laterales del módulo orbital, al igual que la estación norteamericana Skylab, pocos años después. En la década de 1970, tras la primera crisis del petróleo, el Departamento de Energía de los Estados Unidos y la agencia espacial NASA iniciaron el estudio del concepto de energía solar en el espacio, que ambicionaba el abastecimiento energético terrestre mediante satélites espaciales. En 1979 propusieron una flota de satélites en órbita geoestacionaria, cada uno de los cuales mediría 5 x 10 km y produciría entre 5 y 10 GW. La construcción implicaba la creación de una gran factoría espacial donde trabajarían continuamente cientos de astronautas. Este gigantismo era típico de una época en la que se proyectaba la creación de grandes ciudades espaciales. Dejando aparte las dificultades técnicas, la propuesta fue desechada en 1981 por implicar un coste disparatado. A mediados de la década de 1980, con el petróleo de nuevo en precios bajos, el programa fue cancelado. No obstante, las aplicaciones fotovoltaicas en los satélites espaciales continuaron su desarrollo. La producción de equipos de deposición química de metales por vapores orgánicoso MOCVD (Metal Organic Chemical Vapor Deposition)41 no se desarrolló hasta la década de 1980, limitando la capacidad de las compañías en la manufactura de células solares de arseniuro de galio. La primera compañía que manufacturó paneles solares en cantidades industriales, a partir de uniones simples de GaAs, con una eficiencia del 17 % en AM0 (Air Mass Zero), fue la norteamericana Applied Solar Energy Corporation (ASEC). Las células de doble unión comenzaron su producción en cantidades industriales por ASEC en 1989, de manera accidental, como consecuencia de un cambio del GaAs sobre los sustratos de GaAs, a GaAs sobre sustratos de germanio. La tecnología fotovoltaica, si bien no es la única que se utiliza, sigue predominando a principios del siglo XXI en los satélites de órbita terrestre. Por ejemplo, las sondas Magallanes, Mars Global Surveyor y Mars Observer, de la NASA, usaron paneles fotovoltaicos, así como el Telescopio espacial Hubble,46 en órbita alrededor de la Tierra. La Estación Espacial Internacional, también en órbita terrestre, está dotada de grandes sistemas fotovoltaicos que alimentan todo el complejo espacial,4748 al igual que en su día la estación espacial Mir.49 Otros vehículos espaciales que utilizan la energía fotovoltaica para abastecerse son la sonda Mars Reconnaissance Orbiter, Spirit y Opportunity, los robots de la NASA en Marte.


Ilustración de la sonda Mars Reconnaissance Orbiter, equipada con paneles solares, en la órbita de Marte.

Imagen artística de la sonda espacial Juno, equipada con módulos fotovoltaicos, orbitando el planeta Júpiter.


El telescopio espacial Hubble, equipado con paneles solares, es puesto en órbita desde la bodega del transbordador Discovery en 1990. La nave Rosetta, lanzada en 2004 en órbita hacia un cometa tan lejano del Sol como el planeta Júpiter (5,25 AU), dispone también de paneles solares; anteriormente, el uso más lejano de la energía solar espacial había sido el de la sonda Stardust, a 2 AU. La energía fotovoltaica se ha empleado también con éxito en la misión europea no tripulada a la Luna, SMART-1, proporcionando energía a su propulsor de efecto Hall. La sonda espacial Juno será la primera misión a Júpiter en usar paneles fotovoltaicos en lugar de un generador termoeléctrico de radioisótopos, tradicionalmente usados en las misiones espaciales al exterior del Sistema Solar.56 Actualmente se está estudiando el potencial de la fotovoltaica para equipar las naves espaciales que orbiten más allá de Júpiter. PRIMERAS APLICACIONES TERRESTRES

Las aplicaciones aisladas de la red eléctrica supusieron uno de los primeros usos terrestres de la energía solar fotovoltaica, contribuyendo en gran medida a su desarrollo. En la imagen, faro de Noup Head en Reino Unido. Desde su aparición en la industria aeroespacial, donde se ha convertido en el medio más fiable para suministrar energía eléctrica en los vehículos espaciales,58 la energía solar fotovoltaica ha desarrollado un gran número de aplicaciones terrestres. La primera instalación comercial de este tipo se realizó en 1966, en el faro de la isla Ogami (Japón), permitiendo sustituir el uso de gas de antorcha por una fuente eléctrica renovable y autosuficiente. Se trató del primer faro


del mundo alimentado mediante energía solar fotovoltaica, y fue crucial para demostrar la viabilidad y el potencial de esta fuente de energía. Las mejoras se produjeron de forma lenta durante las siguientes dos décadas, y el único uso generalizado se produjo en las aplicaciones espaciales, en las que su relación potencia a peso era mayor que la de cualquier otra tecnología competidora. Sin embargo, este éxito también fue la razón de su lento crecimiento: el mercado aeroespacial estaba dispuesto a pagar cualquier precio para obtener las mejores células posibles, por lo que no había ninguna razón para invertir en soluciones de menor costo si esto reducía la eficiencia. En su lugar, el precio de las células era determinado en gran medida por la industria de los semiconductores; su migración hacia la tecnología de circuitos integrados en la década de 1960 dio lugar a la disponibilidad de lingotes más grandes a precios relativamente inferiores. Al caer su precio, el precio de las células fotovoltaicas resultantes descendió en igual medida. Sin embargo, la reducción de costes asociada a esta creciente popularización de la energía fotovoltaica fue limitada, y en 1970 el coste de las células solares todavía se estimaba en 100 dólares por vatio ($/Wp). REDUCCIÓN DE PRECIOS A finales de la década de 1960, el químico industrial estadounidense Elliot Berman estaba investigando un nuevo método para la producción de la materia prima de silicio a partir de un proceso en cinta. Sin embargo, encontró escaso interés en su proyecto y no pudo obtener la financiación necesaria para su desarrollo. Más tarde, en un encuentro casual, fue presentado a un equipo de la compañía petrolera Exxon que estaban buscando proyectos estratégicos a 30 años vista. El grupo había llegado a la conclusión de que la energía eléctrica sería mucho más costosa en el año 2000, y consideraba que este aumento de precio haría más atractivas a las nuevas fuentes de energía alternativas, siendo la energía solar la más interesante entre estas. En 1969, Berman se unió al laboratorio de Exxon en Linden, Nueva Jersey, denominado Solar Power Corporation (SPC). Su esfuerzo fue dirigido en primer lugar a analizar el mercado potencial para identificar los posibles usos que existían para este nuevo producto, y rápidamente descubrió que si el coste por vatio se redujera desde los 100 $/Wp a cerca de 20 $/Wp surgiría una importante demanda. Consciente de que el concepto del «silicio en cinta» podría tardar años en desarrollarse, el equipo comenzó a buscar maneras de reducir el precio a 20 $/Wp usando materiales existentes. La constatación de que las células existentes se basaban en el proceso estándar de fabricación de semiconductores supuso un primer avance, incluso aunque no se tratara de un material ideal. El proceso comenzaba con la formación de un lingote de silicio, que se cortaba transversalmente en discos llamados obleas. Posteriormente se realizaba el pulido de las obleas y, a continuación, para su uso como células, se dotaba de un recubrimiento con una capa anti reflectante. Berman se dio cuenta de que las obleas de corte basto ya tenían de por sí una superficie frontal anti reflectante perfectamente válida, y mediante la impresión de los electrodos directamente sobre esta superficie, se eliminaron dos pasos importantes en el proceso de fabricación de células. Su equipo también exploró otras formas de mejorar el montaje de las células en matrices, eliminando los costosos materiales y el cableado manual utilizado hasta entonces en aplicaciones espaciales. Su solución consistió en utilizar circuitos impresos en la parte posterior, plástico acrílico en la parte frontal, y pegamento de silicona entre ambos, embutiendo las células. Berman se dio cuenta de que el silicio ya existente en el mercado ya era


«suficientemente bueno» para su uso en células solares. Las pequeñas imperfecciones que podían arruinar un lingote de silicio (o una oblea individual) para su uso en electrónica, tendrían poco efecto en aplicaciones solares. Las células fotovoltaicas podían fabricarse a partir del material desechado por el mercado de la electrónica, lo que traería como consecuencia una gran mejora de su precio. Poniendo en práctica todos estos cambios, la empresa comenzó a comprar a muy bajo coste silicio rechazado a fabricantes ya existentes. Mediante el uso de las obleas más grandes disponibles, lo que reducía la cantidad de cableado para un área de panel dado, y empaquetándolas en paneles con sus nuevos métodos, en 1973 SPC estaba produciendo paneles a 10 $/Wp y vendiéndolos a 20 $/Wp, disminuyendo el precio de los módulos fotovoltaicos a una quinta parte en sólo dos años. EL MERCADO DE LA NAVEGACIÓN MARÍTIMA

Boya marítima operada por la Administración Nacional Oceánica y Atmosférica (NOAA) de Estados Unidos. SPC comenzó a contactar con las compañías fabricantes de boyas de navegación ofreciéndoles el producto, pero se encontró con una situación curiosa. La principal empresa del sector era Automatic Power, un fabricante de baterías desechables. Al darse cuenta de que las células solares podían comerse parte del negocio y los beneficios que el sector de baterías le producía, Automatic Power compró un prototipo solar de Hoffman Electronics para terminar arrinconándolo. Al ver que no había interés por parte de Automatic Power, SPC se volvió entonces a Tideland Signal, otra compañía suministradora de baterías formada por ex-gerentes de Automatic Power. Tideland presentó en el mercado una boya alimentada mediante energía fotovoltaica y pronto estaba arruinando el negocio de Automatic Power. El momento no podía ser más adecuado, el rápido aumento en el número de plataformas petrolíferas en alta mar y demás instalaciones de carga produjo un enorme mercado entre las compañías petroleras. Como Tideland había tenido éxito, Automatic Power comenzó entonces a procurarse su propio suministro de paneles solares fotovoltaicos. Encontraron a Bill Yerkes, de Solar Power International (SPI) en California, que estaba buscando un mercado donde vender su producto. SPI pronto fue adquirida por uno de sus clientes más importantes, el gigante petrolero ARCO, formando ARCO Solar. La fábrica de ARCO Solar en Camarillo (California) fue la primera dedicada a la construcción de paneles solares, y estuvo


en funcionamiento continuo desde su compra por ARCO en 1977 hasta 2011 cuando fue cerrada por la empresa SolarWorld. Esta situación se combinó con la crisis del petróleo de 1973. Las compañías petroleras disponían ahora de ingentes fondos debido a sus enormes ingresos durante la crisis, pero también eran muy conscientes de que su éxito futuro dependería de alguna otra fuente de energía. En los años siguientes, las grandes compañías petroleras comenzaron la creación de una serie de empresas de energía solar, y fueron durante décadas los mayores productores de paneles solares. Las compañías ARCO, Exxon, Shell, Amoco (más tarde adquirida por BP) y Mobil mantuvieron grandes divisiones solares durante las décadas de 1970 y 1980. Las empresas de tecnología también realizaron importantes inversiones, Incluyendo General Electric, Motorola, IBM, Tyco y RCA. PERFECCIONANDO LA TECNOLOGÍA

Vehículo eléctrico propulsado mediante energía fotovoltaica, vencedor del South African Solar Challenge. En las décadas transcurridas desde los avances de Berman, las mejoras han reducido los costes de producción por debajo de 1 $/Wp, con precios menores de 2 $/Wp para todo el sistema fotovoltaico. El precio del resto de elementos de una instalación fotovoltaica supone ahora un mayor coste que los propios paneles. A medida que la industria de los semiconductores se desarrolló hacia lingotes cada vez más grandes, los equipos más antiguos quedaron disponibles a precios reducidos. Las células crecieron en tamaño cuando estos equipos antiguos se hicieron disponibles en el mercado excedentario. Los primeros paneles de ARCO Solar se equipaban con células de 2 a 4 pulgadas (51 a 100 mm) de diámetro. Los paneles en la década de 1990 y principios de 2000 incorporaban generalmente células de 5 pulgadas (125 mm), y desde el año 2008 casi todos los nuevos paneles utilizan células de 6 pulgadas (150 mm). También la introducción generalizada de los televisores de pantalla plana a finales de la década de 1990 y principios de 2000 llevó a una amplia disponibilidad de grandes láminas de vidrio de alta calidad, que se utilizan en la parte frontal de los paneles. En términos de las propias células, solo ha habido un cambio importante. Durante la década de 1990, las células de polisilicio se hicieron cada vez más populares. Estas células ofrecen menos eficiencia que aquellas de monosilicio, pero se cultivan en grandes cubas que reducen en gran medida el coste de producción.63 A mediados de la década de 2000, el polisilicio dominaba en el mercado de paneles de bajo coste. APLICACIONES DE LA ENERGÍA SOLAR FOTOVOLTAICA


Parquímetro abastecido mediante energía solar fotovoltaica, en Edimburgo, Reino Unido.

Calculadora solar básica Sharp.

Refugio de montaña alimentado mediante energía fotovoltaica, en el Parque nacional de Aigüestortes y Lago de San Mauricio (Pirineos, España). La producción industrial a gran escala de paneles fotovoltaicos despegó en la década de 1980, y entre sus múltiples usos se pueden destacar: TELECOMUNICACIONES Y SEÑALIZACIÓN La energía solar fotovoltaica es ideal para aplicaciones de telecomunicaciones, entre las que se encuentran por ejemplo las centrales locales de telefonía, antenas de radio y televisión, estaciones repetidoras de microondas y otros tipos de enlaces de comunicación electrónicos.


Esto es debido a que, en la mayoría de las aplicaciones de telecomunicaciones, se utilizan baterías de almacenamiento y la instalación eléctrica se realiza normalmente en corriente continua (DC). En terrenos accidentados y montañosos, las señales de radio y televisión pueden verse interferidas o reflejadas debido al terreno ondulado. En estos emplazamientos, se instalan transmisores de baja potencia (LPT) para recibir y retransmitir la señal entre la población local. Las células fotovoltaicas también se utilizan para alimentar sistemas de comunicaciones de emergencia, por ejemplo en los postes de SOS (Teléfonos de emergencia) en carreteras, señalización ferroviaria, balizamiento para protección aeronáutica, estaciones meteorológicas o sistemas de vigilancia de datos ambientales y de calidad del agua. Dispositivos aislados[editar] La reducción en el consumo energético de los circuitos integrados, hizo posible a finales de la década de 1970 el uso de células solares como fuente de electricidad en calculadoras, tales como la Royal Solar 1, Sharp EL-8026 o Teal Photon. También otros dispositivos fijos que utilizan la energía fotovoltaica han visto aumentar su uso en las últimas décadas, en lugares donde el coste de conexión a la red eléctrica o el uso de pilas desechables es prohibitivamente caro. Estas aplicaciones incluyen por ejemplo las lámparas solares, bombas de agua, parquímetros, teléfonos de emergencia, compactadores de basura, señales de tráfico temporales o permanentes, estaciones de carga o sistemas remotos de vigilancia. ELECTRIFICACIÓN RURAL En entornos aislados, donde se requiere poca potencia eléctrica y el acceso a la red es difícil, las placas fotovoltaicas se emplean como alternativa económicamente viable desde hace décadas. Para comprender la importancia de esta posibilidad, conviene tener en cuenta que aproximadamente una cuarta parte de la población mundial todavía no tiene acceso a la energía eléctrica. En los países en desarrollo, muchos pueblos se encuentran situados en áreas remotas, a varios kilómetros de la red eléctrica más próxima. Debido a ello, se está incorporando la energía fotovoltaica de forma creciente para proporcionar suministro eléctrico a viviendas o instalaciones médicas en áreas rurales. Por ejemplo, en lugares remotos de India un programa de iluminación rural ha provisto iluminación mediante lámparas LED alimentadas con energía solar para sustituir a las lámparas de queroseno. El precio de las lámparas solares era aproximadamente el mismo que el coste del suministro de queroseno durante unos pocos meses. Cuba y otros países de Latinoamérica están trabajando para proporcionar energía fotovoltaica en zonas alejadas del suministro de energía eléctrica convencional. Estas son áreas en las que los beneficios sociales y económicos para la población local ofrecen una excelente razón para instalar paneles fotovoltaicos, aunque normalmente este tipo de iniciativas se han visto relegadas a puntuales esfuerzos humanitarios SISTEMAS DE BOMBEO BOMBEO SOLAR


Los sistemas de bombeofotovoltaico pueden utilizarse para proporcionar agua en sistemas de riego, agua potable en comunidades aisladas o abrevaderos para el ganado. También se emplea la fotovoltaica para alimentar instalaciones de bombeo para sistemas de riego, agua potable en áreas rurales y abrevaderos para el ganado, o para sistemas de desalinización de agua. Los sistemas de bombeo fotovoltaico (al igual que los alimentados mediante energía eólica) son muy útiles allí donde no es posible acceder a la red general de electricidad o bien supone un precio prohibitivo. Su coste es generalmente más económico debido a sus menores costes de operación y mantenimiento, y presentan un menor impacto ambiental que los sistemas de bombeo alimentados mediante motores de combustión interna, que tienen además una menor fiabilidad. Las bombas utilizadas pueden ser tanto de corriente alterna (AC) como corriente continua (DC). Normalmente se emplean motores de corriente continua para pequeñas y medianas aplicaciones de hasta 3 kW de potencia, mientras que para aplicaciones más grandes se utilizan motores de corriente alterna acoplados a un inversor que transforma para su uso la corriente continua procedente de los paneles fotovoltaicos. Esto permite dimensionar sistemas desde 0,15 kW hasta más de 55 kW de potencia, que pueden ser empleados para abastecer complejos sistemas de irrigación o almacenamiento de agua. SISTEMAS HÍBRIDOS SOLAR-DIÉSEL Debido al descenso de costes de la energía solar fotovoltaica, se está extendiendo asimismo el uso de sistemas híbridos solar-diésel, que combinan esta energía con generadores diésel para producir electricidad de forma continua y estable. Este tipo de instalaciones están equipadas normalmente con equipos auxiliares, tales como baterías y sistemas especiales de control para lograr en todo momento la estabilidad del suministro eléctrico del sistema. Debido a su viabilidad económica (el transporte de diésel al punto de consumo suele ser costoso) en muchos casos se sustituyen antiguos generadores por fotovoltaica, mientras que las nuevas instalaciones híbridas se diseñan de tal manera que permiten utilizar el recurso solar siempre que está disponible, minimizando el uso de los generadores, disminuyendo así el impacto ambiental de la generación eléctrica en comunidades remotas y en instalaciones que no están conectadas a la red eléctrica. Un ejemplo de ello lo constituyen las empresas mineras,8385 cuyas explotaciones se encuentran normalmente en campo abierto, alejadas de los grandes núcleos de población. En estos casos, el uso combinado de la fotovoltaica permite disminuir en gran medida la dependencia del combustible diésel, permitiendo ahorros de hasta el 70 % en el coste de la energía. Este tipo de sistemas también puede utilizarse en combinación con otras fuentes de generación de energía renovable, tales como la energía eólica. TRANSPORTE Y NAVEGACIÓN MARÍTIMA


Equipo del Nuna 3, vehículo solar competidor en el World Solar Challenge. Aunque la fotovoltaica todavía no se utiliza de forma generalizada para proporcionar tracción en el transporte, se está utilizando cada vez en mayor medida para proporcionar energía auxiliar en barcos y automóviles. Algunos vehículos están equipados con aire acondicionado alimentado mediante paneles fotovoltaicos para limitar la temperatura interior en los días calurosos, mientras que otros prototipos híbridos los utilizan para recargar sus baterías sin necesidad de conectarse a la red eléctrica. Se ha demostrado sobradamente la posibilidad práctica de diseñar y fabricar vehículos propulsados mediante energía solar, así como barcos y aviones, siendo considerado el transporte rodado el más viable para la fotovoltaica. El Solar Impulse es un proyecto dedicado al desarrollo de un avión propulsado únicamente mediante energía solar fotovoltaica. El prototipo puede volar durante el día propulsado por las células solares que cubren sus alas, a la vez que carga las baterías que le permiten mantenerse en el aire durante la noche. La energía solar también se utiliza de forma habitual en faros, boyas y balizas de navegación marítima, vehículos de recreo, sistemas de carga para los acumuladores eléctricos de los barcos, y sistemas de protección catódica. La recarga de vehículos eléctricos está cobrando cada vez mayor importancia. FOTOVOLTAICA INTEGRADA EN EDIFICIOS

Marquesina solar situada en el aparcamiento de la Universidad Autónoma de Madrid (Madrid, España).


Proyecto BIPV ISSOL en la estación de ferrocarril Gare TGV de Perpiñán, Francia. FOTOVOLTAICA INTEGRADA EN EDIFICIOS Muchas instalaciones fotovoltaicas se encuentran a menudo situadas en los edificios: normalmente se sitúan sobre un tejado ya existente, o bien se integran en elementos de la propia estructura del edificio, como tragaluces, claraboyas o fachadas. Alternativamente, un sistema fotovoltaico también puede ser emplazado físicamente separado del edificio, pero conectado a la instalación eléctrica del mismo para suministrar energía. En 2010, más del 80 % de los 9000 MW de fotovoltaica que Alemania tenía en funcionamiento por entonces, se habían instalado sobre tejados. La fotovoltaica integrada en edificios (BIPV, en sus siglas en inglés) se está incorporando de forma cada vez más creciente como fuente de energía eléctrica principal o secundaria en los nuevos edificios domésticos e industriales, 99 e incluso en otros elementos arquitectónicos, como por ejemplo puentes.100 Las tejas con células fotovoltaicas integradas son también bastante comunes en este tipo de integración. Según un estudio publicado en 2011, el uso de imágenes térmicas ha demostrado que los paneles solares, siempre que exista una brecha abierta por la que el aire pueda circular entre los paneles y el techo, proporcionan un efecto de refrigeración pasiva en los edificios durante el día y además ayudan a mantener el calor acumulado durante la noche. FOTOVOLTAICA DE CONEXIÓN A RED Una de las principales aplicaciones de la energía solar fotovoltaica más desarrollada en los últimos años, consiste en las centrales conectadas a red para suministro eléctrico, 102 así como los sistemas de autoconsumo fotovoltaico, de potencia generalmente menor, pero igualmente conectados a la red eléctrica. COMPONENTES DE UNA PLANTA SOLAR FOTOVOLTAICA Una planta solar fotovoltaica cuenta con distintos elementos que permiten su funcionamiento, como son los paneles fotovoltaicos para la captación de la radiación solar, y los inversores para la transformación de la corriente continua en corriente alterna. existen otros, los más importantes se mencionan a continuación: PANELES SOLARES FOTOVOLTAICOS


Célula fotovoltaica Artículo principal: Panel fotovoltaico Generalmente, un módulo o panel fotovoltaico consiste en una asociación de células, encapsulada en dos capas de EVA (etileno-vinilo-acetato), entre una lámina frontal de vidrio y una capa posterior de un polímero termoplástico (frecuentemente se emplea el tedlar) u otra lámina de cristal cuando se desea obtener módulos con algún grado de transparencia. 104 Muy frecuentemente este conjunto es enmarcado en una estructura de aluminio anodizado con el objetivo de aumentar la resistencia mecánica del conjunto y facilitar el anclaje del módulo a las estructuras de soporte. Las células más comúnmente empleadas en los paneles fotovoltaicos son de silicio, y se puede dividir en tres subcategorías:  Las células de silicio monocristalino están constituidas por un único cristal de silicio, normalmente manufacturado mediante el proceso Czochralski.105 Este tipo de células presenta un color azul oscuro uniforme.  Las células de silicio policristalino (también llamado multicristalino) están constituidas por un conjunto de cristales de silicio, lo que explica que su rendimiento sea algo inferior al de las células monocristalinas.63 Se caracterizan por un color azul más intenso.  Las células de silicio amorfo. Son menos eficientes que las células de silicio cristalino pero también menos costosas. Este tipo de células es, por ejemplo, el que se emplea en aplicaciones solares como relojes o calculadoras. Inversores[editar]

Un inversor solar instalado en una planta de conexión a red en Speyer, Alemania. INVERSOR (ELECTRÓNICA)


La corriente eléctrica continua que proporcionan los módulos fotovoltaicos se puede transformar en corriente alterna mediante un aparato electrónico llamado inversor e inyectar en la red eléctrica (para venta de energía) o bien en la red interior (para autoconsumo). El proceso, simplificado, sería el siguiente:  Se genera la energía a bajas tensiones (380-800 V) y en corriente continua.  Se transforma con un inversor en corriente alterna.  En plantas de potencia inferior a 100 kW se inyecta la energía directamente a la red de distribución en baja tensión (400 V en trifásico o 230 V en monofásico).  Y para potencias superiores a los 100 kW se utiliza un transformador para elevar la energía a media tensión (15 ó 25 kV) y se inyecta en las redes de transporte para su posterior suministro. En las etapas iniciales del desarrollo de los inversores fotovoltaicos, los requisitos de los operadores de las redes eléctricas a la que se conectaban solicitaban únicamente el aporte de energía activa y la desconexión del inversor de la red si ésta excedía de unos ciertos límites de voltaje y frecuencia. Con el progresivo desarrollo de estos equipos y la cada vez mayor importancia de las redes eléctricas inteligentes, los inversores son ya capaces de proveer energía reactiva e incluso aportar estabilidad a la red eléctrica. SEGUIDORES SOLARES

Planta solar situada en la Base de la Fuerza Aérea Nellis (Nevada, Estados Unidos). Estos paneles siguen el recorrido del Sol sobre un eje. Artículo principal: Seguidor solar El uso de seguidores a uno o dos ejes permite aumentar considerablemente la producción solar, en torno al 30 % para los primeros y un 6 % adicional para los segundos, en lugares de elevada radiación directa. Los seguidores solares son bastante comunes en aplicaciones fotovoltaicas. Existen de varios tipos:  En dos ejes: la superficie se mantiene siempre perpendicular al Sol.  En un eje polar: la superficie gira sobre un eje orientado al sur e inclinado un ángulo igual a la latitud. El giro se ajusta para que la normal a la superficie coincida en todo momento con el meridiano terrestre que contiene al Sol.  En un eje azimutal: la superficie gira sobre un eje vertical, el ángulo de la superficie es constante e igual a la latitud. El giro se ajusta para que la normal a la superficie coincida en todo momento con el meridiano local que contiene al Sol.  En un eje horizontal: la superficie gira en un eje horizontal y orientado en dirección nortesur. El giro se ajusta para que la normal a la superficie coincida en todo momento con el meridiano terrestre que contiene al Sol.


CABLEADO

Conectores de un panel solar, utilizados para transportar la corriente continua generada por el mismo hasta el inversor, donde se transforma generalmente en corriente alterna para su posterior utilización. Artículo principal: Conductor eléctrico Es el elemento que transporta la energía eléctrica desde su generación, para su posterior distribución y transporte. Su dimensionamiento viene determinado por el criterio más restrictivo entre la máxima caída de tensión admisible y la intensidad máxima admisible. Aumentar las secciones de conductor que se obtienen como resultado de los cálculos teóricos aporta ventajas añadidas como:  Líneas más descargadas, lo que prolonga la vida útil de los cables.  Posibilidad de aumento de potencia de la planta sin cambiar el conductor.  Mejor respuesta a posibles cortocircuitos.  Mejora del performance ratio (PR) de la instalación. 

PLANTAS DE CONCENTRACIÓN FOTOVOLTAICA

Seguidor solar dotado con paneles de concentración fotovoltaica, capaz de producir 53 kW. A su lado se encuentra el vehículo eléctrico Tesla Roadster, permitiendo apreciar su escala. Artículo principal: Energía solar fotovoltaica de concentración Otro tipo de tecnología en las plantas fotovoltaicas son las que utilizan una tecnología de concentración llamada CPV por sus siglas en inglés (Concentrated Photovoltaics) para maximizar la energía solar recibida por la instalación, al igual que en una central térmica solar. Las instalaciones de concentración fotovoltaica se sitúan en emplazamientos de alta irradiación solar directa, como son los países a ambas riberas del Mediterráneo, Australia, Estados Unidos, China, Sudáfrica, México, etc. Hasta el año 2006 estas tecnologías formaban parte del ámbito de investigación, pero en los últimos años se han puesto en marcha


instalaciones de mayor tamaño como la de ISFOC (Instituto de Sistemas Solares Fotovoltaicos de Concentración) en Puerto llano (Castilla La Mancha) con 3 MW suministrando electricidad a la red eléctrica. La idea básica de la concentración fotovoltaica es la sustitución de material semiconductor por material reflectante o refractante (más barato). El grado de concentración puede alcanzar un factor de 1000, de tal modo que, dada la pequeña superficie de célula solar empleada, se puede utilizar la tecnología más eficiente (triple unión, por ejemplo). Por otro lado, el sistema óptico introduce un factor de pérdidas que hace recuperar menos radiación que la fotovoltaica plana. Esto, unido a la elevada precisión de los sistemas de seguimiento, constituye la principal barrera a resolver por la tecnología de concentración. Recientemente se ha anunciado el desarrollo de plantas de grandes dimensiones (por encima de 1 MW). Las plantas de concentración fotovoltaica utilizan un seguidor de doble eje para posibilitar un máximo aprovechamiento del recurso solar durante todo el día. EL DESARROLLO DE LA ENERGÍA SOLAR FOTOVOLTAICA EN EL MUNDO CRECIMIENTO DE LA ENERGÍA SOLAR FOTOVOLTAICA Entre los años 2001 y 2016 se ha producido un crecimiento exponencial de la producción fotovoltaica, duplicándose aproximadamente cada dos años. La potencia total fotovoltaica instalada en el mundo (conectada a red) ascendía a 16 gigavatios (GW) en 2008, 40 GW en 2010, 100 GW en 2012, 180 GW en 2014 y 300 GW en 2016. 100 200 300 400 2007 2009 2011 2013 2015 Potencia fotovoltaica mundial instalada hasta 2016, en gigavatios (GW), expresada por región.123124 Europa AsiaPacífico América del norte y sur China África y Oriente Medio Resto del mundo Históricamente, Estados Unidos lideró la instalación de energía fotovoltaica desde sus inicios hasta 1996, cuando su capacidad instalada alcanzaba los 77 MW, más que cualquier otro país hasta la fecha. En los años posteriores, fueron superados por Japón, que mantuvo el liderato hasta que a su vez Alemania la sobrepasó en 2005, manteniendo el liderato desde entonces. A comienzos de 2016, Alemania se aproximaba a los 40 GW instalados. Sin embargo, por esas fechas China, uno de los países donde la fotovoltaica está experimentando un crecimiento más vertiginoso superó a Alemania, convirtiéndose desde entonces en el mayor productor de


energía fotovoltaica del mundo. Se espera que multiplique su potencia instalada actual hasta los 150 GW en 2020. PRODUCCIÓN MUNDIAL La capacidad total instalada supone ya una fracción significativa del mix eléctrico en la Unión Europea, cubriendo de media el 3,5 % de la demanda de electricidad y alcanzando el 7 % en los períodos de mayor producción. En algunos países, como Alemania, Italia, Reino Unido133 o España, alcanza máximos superiores al 10 %, al igual que en Japón o en algunos estados soleados de Estados Unidos, como California. La producción anual de energía eléctrica generada mediante esta fuente de energía a nivel mundial equivalía en 2015 a cerca de 184 TWh, suficiente para abastecer las necesidades energéticas de millones de hogares y cubriendo aproximadamente un 1 % de la demanda mundial de electricidad. China

Capacidad fotovoltaica total instalada en China entre 2000 y 2016.


Cuota de mercado de los principales países productores de células fotovoltaicas entre 1995 y 2013. ENERGÍA SOLAR EN CHINA La energía fotovoltaica se ha convertido en una de las mayores industrias de la República Popular China. El país asiático es líder mundial por capacidad fotovoltaica, con una potencia instalada a principios de 2016 superior a los 43 GW. Cuenta además con unas 400 empresas fotovoltaicas, entre las que destacan Trina Solar y Yingli, gigantes mundiales en la fabricación de paneles solares. En 2014 producía aproximadamente la mitad de los productos fotovoltaicos que se fabrican en el mundo (China y Taiwán juntos suman más del 60 % de cuota). La producción de paneles y células fotovoltaicas en China se ha incrementado notablemente durante la última década: en 2001 mantenía una cuota inferior al 1 % del mercado mundial, mientras que por las mismas fechas, Japón y Estados Unidos sumaban más del 70 % de la producción mundial. Sin embargo, la tendencia se ha invertido y en la actualidad China supera ampliamente al resto de productores. La capacidad de producción de paneles solares chinos prácticamente se cuadruplicó entre los años 2009 y 2011, superando incluso la demanda mundial. Como resultado, la Unión Europea acusó a la industria china de estar realizando dumping, es decir vendiendo sus paneles a precios por debajo de coste, imponiendo aranceles a la importación de este material. La instalación de energía fotovoltaica se ha desarrollado espectacularmente en el país asiático en años recientes, superando incluso las previsiones iniciales. Debido a tan rápido crecimiento, las autoridades chinas se han visto obligadas a revaluar en varias ocasiones su objetivo de potencia fotovoltaica. La potencia total instalada en China creció hasta los 77 GW a finales de 2016, tras conectar 36 GW en el último año, de acuerdo a las estadísticas oficiales del país. 139 En 2017, China habría superado el objetivo marcado por el gobierno para 2020, una potencia fotovoltaica de 100 GW. Este crecimiento refleja el abrupto descenso de costes de la energía fotovoltaica, que actualmente comienza a ser una opción más barata que otras fuentes de energía, tanto a precios minoristas como comerciales. Fuentes del gobierno chino han afirmado que la fotovoltaica presentará precios más competitivos que el carbón y el gas (aportando además una mayor independencia energética) a finales de esta década. Japón Energía solar en Japón La energía fotovoltaica en Japón, se ha expandido rápidamente desde la década de 1990. El país es uno de los líderes en la fabricación de módulos fotovoltaicos y se encuentra entre los primeros puestos en términos de potencia instalada, con más de 23 GW a finales de 2014, la mayor parte conectada a red. La irradiación en Japón es óptima, situándose entre 4,3 y 4,8 kWh·m²·día, convirtiéndolo en un país idóneo para el desarrollo de este tipo de energía. La venta de módulos fotovoltaicos para proyectos comerciales ha crecido rápidamente tras la introducción por parte del Gobierno japonés en julio de 2012 de una tarifa para el incentivo de la fotovoltaica tras el accidente nuclear de Fukushima y la paralización de la mayoría de las centrales nucleares que tiene el país. La mayoría de módulos procede de fabricantes locales, entre los que destacan Kyocera, Sharp Corporation, Mitsubishi o Sanyo, mientras que una pequeña parte fueron son importados, según se desprende de los datos de la Asociación Japonesa de Energía Fotovoltaica (Japan Photovoltaic Energy Association, JPA). Tradicionalmente, el mercado fotovoltaico ha estado


muy desplazado al segmento residencial, copando hasta el 97 % de la capacidad instalada en todo el país hasta 2012.146 Aunque esta tendencia se está invirtiendo, todavía más del 75 % de las células y módulos vendidos en Japón a principios de 2012 tuvieron como destino proyectos residenciales, mientras que cerca del 9 % se emplearon en instalaciones fotovoltaicas comerciales. En 2014, la potencia total fotovoltaica instalada en el país se situaba en torno a los 23 GW, que contribuían aproximadamente en un 2,5 % a la demanda eléctrica del país. Durante el verano de 2015, se informó que la producción fotovoltaica en Japón había cubierto en determinados momentos el 10 % de la demanda total nacional.135 Dos años después, en 2016, se sitúa en torno a 42 GW,148 y la previsión apunta a que el mercado fotovoltaico japonés crecerá aún más en los próximos años. Estados Unidos ENERGÍA SOLAR EN LOS ESTADOS UNIDOS Barack Obama durante una visita a una instalación fotovoltaica en el tejado del Museo de Naturaleza y Ciencia de Denver, en febrero de 2009. Estados Unidos es desde 2010 uno de los países con mayor actividad en el mercado fotovoltaico, cuenta con grandes empresas del sector, como First Solar o SolarCity, así como numerosas plantas de conexión a red. A principios de 2017, Estados Unidos superaba los 40 GW de potencia fotovoltaica instalada,148 suficiente para proporcionar electricidad a más de 8 millones de hogares, tras duplicar su capacidad solar en menos de dos años. Aunque Estados Unidos no mantiene una política energética nacional uniforme en todo el país en lo referente a fotovoltaica, muchos estados han fijado individualmente objetivos en materia de energías renovables, incluyendo en esta planificación a la energía solar en diferentes proporciones. En este sentido, el gobernador de California Jerry Brown ha firmado una legislación requiriendo que el 33 % de la electricidad del estado se genere mediante energías renovables a finales de 2020. Estas medidas se han visto apoyadas desde el gobierno federal con la adopción del Investment Tax Credit (ITC), una exención fiscal establecida en 2006 para promover el desarrollo de proyectos fotovoltaicos, y que ha sido extendida recientemente hasta 2023. Un informe privado153 recoge que la energía solar fotovoltaica se ha expandido rápidamente durante los últimos 8 años, creciendo a una media del 40 % cada año. Gracias a esta tendencia, el coste del kWh producido mediante energía fotovoltaica se ha visto enormemente reducido, mientras que el coste de la electricidad generada mediante combustibles fósiles no ha dejado de incrementar. Como resultado, el informe concluye que la fotovoltaica alcanzará la paridad de red frente a las fuentes de energía convencionales en muchas regiones de Estados Unidos en 2015. Pero para alcanzar una cuota en el mercado energético del 10 %, prosigue el informe, las compañías fotovoltaicas necesitarán estilizar aún más las instalaciones, de forma que la energía solar se convierta en una tecnología directamente enchufable («plug-and-play»). Es decir, que sea sencillo adquirir los componentes de cada sistema y su interconexión sea simple, al igual que su conexión a la red. Actualmente la mayoría de las instalaciones son conectadas a red y utilizan sistemas de balance neto que permiten el consumo de electricidad nocturno de energía generada durante el día. Nueva Jersey lidera los Estados con la ley de balance neto menos restrictiva, 154 mientras California lidera el número total de hogares con energía solar. Muchos de ellos fueron instalados durante la iniciativa million solar roof (un millón de tejados solares).


La tendencia y el ritmo de crecimiento actuales indican que en los próximos años se construirán un gran número de plantas fotovoltaicas en el sur y suroeste del país, donde el terreno disponible es abundante, en los soleados desiertos de California, Nevada y Arizona. Las empresas están adquiriendo cada vez en mayor medida grandes superficies en estas zonas, con la intención de construir mayores plantas a gran escala. ALEMANIA ENERGÍA SOLAR FOTOVOLTAICA EN ALEMANIA Alemania dispone a principios de 2016 de una potencia instalada cercana a los 40 GW. Sólo en 2011, Alemania instaló cerca de 7,5 GW, y la fotovoltaica produjo 18 TW·h de electricidad, el 3 % del total consumido en el país. El mercado fotovoltaico en Alemania ha crecido considerablemente desde principios del siglo XXI gracias a la creación de una tarifa regulada para la producción de energía renovable, que fue introducida por la «German Renewable Energy Act», ley publicada el año 2000. Desde entonces, el coste de las instalaciones fotovoltaicas ha descendido más del 50 % en cinco años, desde 2006. Alemania se ha marcado el objetivo de producir el 35 % de la electricidad mediante energías renovables en 2020 y alcanzar el 100 % en 2050. En 2012, las tarifas introducidas costaban a Alemania unos 14 000 millones de euros por año, tanto para las instalaciones eólicas como solares. Este coste es repartido entre todos los contribuyentes mediante un sobrecoste de 3,6 céntimos de € por kWh (aproximadamente el 15 % del coste total de la electricidad para el consumidor doméstico). La considerable potencia instalada en Alemania ha protagonizado varios récords durante los últimos años. Durante dos días consecutivos de mayo de 2012, por ejemplo, las plantas solares fotovoltaicas instaladas en el país produjeron 22 000 MWh en la hora del mediodía, lo que equivale a la potencia de generación de veinte centrales nucleares trabajando a plena capacidad. Alemania pulverizó este récord el 21 de julio de 2013, con una potencia instantánea de 24 GW a mediodía. Debido al carácter altamente distribuido de la fotovoltaica alemana, aproximadamente 1,3-1,4 millones de pequeños sistemas fotovoltaicos contribuyeron a esta nueva marca. Aproximadamente el 90 % de los paneles solares instalados en Alemania se encuentran situados sobre tejado.

Paneles solares sobre el tejado de varios edificios, en el barrio solar de Vauban, en Friburgo (Alemania). En junio de 2014, la fotovoltaica alemana volvió a batir récords durante varios días, al producir hasta el 50,6 % de toda la demanda eléctrica durante un sólo día, y superar el anterior récord de potencia instantánea hasta los 24,24 GW. A comienzos de verano de 2011, el Gobierno alemán anunció que el esquema actual de tarifas reguladas concluiría cuando la potencia instalada alcanzase los 52 GW. Cuando esto suceda,


Alemania aplicará un nuevo esquema de tarifas de inyección cuyos detalles no se conocen todavía. No obstante, consciente de que el almacenamiento de energía mediante baterías es indispensable para el despliegue masivo de renovables como la energía eólica o la fotovoltaica, dada su intermitencia, el 1 de mayo de 2013 Alemania puso en marcha un nuevo programa de ayudas para incentivar sistemas fotovoltaicos con baterías de almacenamiento. De esta manera, se financia a las instalaciones fotovoltaicas menores de 30 kW que instalen baterías y acumulen electricidad, con 660 euros por cada kW de almacenamiento de batería. El programa está dotado con 25 millones de euros anuales repartidos en 2013 y 2014, y de esta forma se logra disponer de la energía cuando el recurso no esté disponible no haya viento o sea de noche además de facilitar la estabilidad del sistema eléctrico. Italia Italia se encuentra entre los primeros países productores de electricidad procedente de energía fotovoltaica, gracias al programa de incentivos llamado Conto Energia. El crecimiento ha sido exponencial en los últimos años: la potencia instalada se triplicó en 2010 y se cuadruplicó en 2011, llegando a producir en 2012 el 5,6 % de la energía total consumida en el país. Este programa contaba con un presupuesto total de 6700 millones de €, alcanzado dicho límite el Gobierno ha dejado de incentivar las nuevas instalaciones, al haberse alcanzado la paridad de red. Un informe publicado en 2013 por el Deutsche Bank concluía que efectivamente la paridad de red se había alcanzado en Italia y otros países del mundo. El sector ha llegado a proporcionar trabajo a unas 100 000 personas, especialmente en el sector del diseño e instalación de dichas plantas solares. Desde mediados de 2012 está vigente una nueva legislación que obliga a registrar todas las plantas superiores a 12 kW; las de potencia menor (fotovoltaica de tejado en residencias) están exentas de registro.176 A finales de 2016, la potencia total instalada se situaba por encima de 19 GW, suponiendo una producción energética tan importante que varias centrales de gas operaban a mitad de su potencial durante el día. INDIA

Objetivos del programa solar establecido por el gobierno en la India, hasta 2022. ENERGÍA SOLAR EN INDIA India está densamente poblada y tiene también una gran irradiación solar, lo que hace del país uno de los mejores candidatos para el desarrollo de la fotovoltaica. En 2009, India anunció un programa para acelerar el uso de instalaciones solares en los edificios gubernamentales, al igual que en hospitales y hoteles.


La caída en el precio de los paneles fotovoltaicos ha coincidido con un incremento del precio de la electricidad en la India. El apoyo del gobierno y la abundancia del recurso solar han ayudado a impulsar la adopción de esta tecnología. El parque solar Charanka, de 345 MW (uno de los mayores del mundo) fue puesto en servicio en abril de 2012 y ampliado en 2015, junto a un total de 605 MW en la región de Gujarat. La construcción de otros grandes parques solares ha sido anunciada en el estado de Rajasthan. También el parque solar de Dhirubhai Ambani, de 40 MW, fue inaugurado en 2012. En enero de 2015, el gobierno indio incrementó de forma significativa su planes de desarrollo solar, estableciendo un objetivo de inversiones por valor de 100 000 millones de dólares y 100 GW de capacidad solar para 2022. A comienzos de 2017, la potencia total instalada en India se situaba por encima de los 10 GW. India espera alcanzar rápidamente los 20 GW instalados, cumpliendo su objetivo de crear 1 millón de puestos de trabajo y alcanzar 100 GW en 2022. REINO UNIDO La energía solar en Reino Unido, aunque relativamente desconocida hasta hace poco, ha despegado muy rápidamente en años recientes, debido a la drástica caída del precio de los paneles fotovoltaicos y la introducción de tarifas reguladas a partir de abril de 2010. En 2014, había censadas ya unas 650 000 instalaciones solares en las islas británicas, con una capacidad total cercana a los 5 GW. La planta solar más grande del país se encuentra en Southwick Estate, cerca de Fareham, y cuenta con una potencia de 48 MW. Fue inaugurada en marzo de 2015. En 2012, el gobierno británico de David Cameron se comprometió a abastecer cuatro millones de hogares mediante energía solar en menos de ocho años, lo que equivale a instalar unos 22 GW de capacidad fotovoltaica antes de 2020. A principios de 2016, Reino Unido había instalado más de 10 GW de energía solar fotovoltaica. Entre los meses de abril y septiembre de 2016, la energía solar produjo en Reino Unido más electricidad (6964 GWh) que la producida mediante carbón (6342 GWh), ambas se sitúan en torno a un 5 % de la demanda. FRANCIA El mercado francés es el cuarto más importante dentro de la Unión Europea, tras los mercados de Alemania, Italia y Reino Unido. A finales de 2014 contaba con más de 5 GW instalados, y mantiene actualmente un crecimiento sostenido, estimándose que en 2015 conectará a la red eléctrica 1 GW adicional a la capacidad actual. Recientemente, el país galo incrementó el cupo de sus subastas para energía fotovoltaica de 400 a 800 MW, como consecuencia del reconocimiento gubernamental a la cada vez mayor competitividad de la energía solar. La planta fotovoltaica más grande de Europa, un proyecto de 300 MW llamado Cestas, se encuentra en territorio francés. Su entrada en funcionamiento tuvo lugar a finales de 2015, proporcionando al sector fotovoltaico un ejemplo a seguir por el resto de la industria europea. OTROS MERCADOS


Fachada fotovoltaica en el edificio MNACTEC (Tarrasa, España). ESPAÑA España es uno de los países de Europa con mayor irradiación anual. Esto hace que la energía solar sea en este país más rentable que en otros. Regiones como el norte de España, que generalmente se consideran poco adecuadas para la energía fotovoltaica, reciben más irradiación anual que la media en Alemania, país que mantiene desde hace años el liderazgo en la promoción de la energía solar fotovoltaica. Desde principios de la década de 2000, en concordancia con las medidas de apoyo a las energías renovables que se estaban llevando a cabo en el resto de Europa, se había venido aprobando la regulación que establece las condiciones técnicas y administrativas, y que supuso el inicio de un lento despegue de la fotovoltaica en España. En 2004, el gobierno español eliminó las barreras económicas para la conexión de las energías renovables a la red eléctrica. El Real Decreto 436/2004 igualó las condiciones para su producción a gran escala, y garantizó su venta mediante primas a la generación. Gracias a esta regulación, y el posterior RD 661/2007, España fue en el año 2008 uno de los países con más potencia fotovoltaica instalada del mundo, con 2708 MW instalados en un sólo año. Sin embargo, posteriores modificaciones en la legislación del sector ralentizaron la construcción de nuevas plantas fotovoltaicas, de tal forma que en 2009 se instalaron tan sólo 19 MW, en 2010, 420 MW, y en 2011 se instalaron 354 MW, correspondiendo al 2 % del total de la Unión Europea. En términos de producción energética, en 2010 la energía fotovoltaica cubrió en España aproximadamente el 2 % de la generación de electricidad, mientras que en 2011 y 2012 representó el 2,9 %, y en 2013 el 3,1 % de la generación eléctrica según datos del operador, Red Eléctrica. A principios de 2012, el Gobierno español aprobó un Real Decreto Ley por el que se paralizó la instalación de nuevas centrales fotovoltaicas y demás energías renovables.203 A finales de 2015 la potencia fotovoltaica instalada en España ascendía a 4667 MW. En 2017, España cayó por primera vez de la lista de los diez países con mayor capacidad fotovoltaica instalada, al ser superado por Australia y Corea del Sur. Sin embargo, en julio de 2017, el Gobierno organizó una subasta que adjudicó más de 3500 MW de nuevas plantas de energía fotovoltaica, 206 que permitirán a España alcanzar los objetivos de generación de energía renovable establecidos por la Unión Europea para 2020. Como novedad, ni la construcción de las plantas adjudicadas ni su operación supondrá algún coste para el sistema, excepto en el caso de que el precio de mercado baje de un suelo establecido en la subasta. La gran bajada de costes de la energía fotovoltaica ha permitido que grandes empresas hayan licitado a precio de mercado.


LATINOAMÉRICA En Latinoamérica, la fotovoltaica ha comenzado a despegar en los últimos años. Se ha propuesto la construcción de un buen número de plantas solares en diversos países, a lo largo de toda la región, con proyectos incluso por encima de 100 MW en Chile. Chile de hecho ya lidera la producción solar en Iberoamérica. Este país inauguró en junio de 2014 una central fotovoltaica de 100 MW, que se convirtió en la mayor realizada hasta la fecha en Iberoamérica. El elevado precio de la electricidad y los altos niveles de radiación que existen en el norte de Chile, han promovido la apertura de un importante mercado libre de subsidios. A julio de 2017, el país andino contaba con 1.873 MW fotovoltaicos en operación. Otros países sudamericanos han comenzado a instalar plantas fotovoltaicas a gran escala, entre ellos Perú. Brasil en cambio está experimentando un crecimiento más lento del sector, en parte debido a la elevada generación mediante energía hidráulica en el país,213 aunque el estado de Minas Gerais lidera el esfuerzo, tras la aprobación por parte del gobierno brasileño de una fábrica de células y paneles fotovoltaicos en dicha región. 214213 México también tiene un enorme potencial en lo que respecta a energía solar. Un 70 % de su territorio presenta una irradiación superior a 4,5 kWh/m²/día, lo que lo convierte en un país muy soleado, e implica que utilizando la tecnología fotovoltaica actual, una planta solar de 25 km² en cualquier lugar del estado de Chihuahua o el desierto de Sonora(que ocuparía el 0,01 % de la superficie de México) podría proporcionar toda la electricidad demandada por el país.217 México cuenta ya con más de 200 MW instalados. El proyecto Aura Solar, situado en La Paz (Baja California Sur), inaugurado a principios de 2014, tenía previsto generar 82 GWh al año, suficiente para abastecer el consumo de 164 000 habitantes (65 % de la población de La Paz), pero fue arrasado por el huracán Odile en septiembre del mismo año y la planta no opera desde entonces.218 La instalación cubría una superficie de 100 hectáreas con 131 800 módulos policristalinos sobre seguidores de un eje. Otra planta fotovoltaica de 47 MW se encuentra en fase de planificación en Puerto Libertad (Sonora).220La planta, originalmente diseñada para albergar 39 MW, se amplió para permitir la generación de 107 GWh/año. Se espera que México experimente un mayor crecimiento en los próximos años, con el fin de alcanzar el objetivo de cubrir el 35 % de su demanda energética a partir de energías renovables en 2024, según una ley aprobada por el gobierno mexicano en 2012. 222223 A comienzos de 2014, México tenía previstos proyectos fotovoltaicos por una potencia de 300 MW, de los cuales aproximadamente 100 MW comenzaron a desarrollarse durante el último trimestre de 2013. EVOLUCIÓN TEMPORAL En la siguiente tabla se muestra el detalle de la potencia mundial instalada, desglosada por cada país, desde el año 2002 hasta 2016: PREVISIÓN A LARGO PLAZO 100 200 300 400 500 600


2009 2011 2013 2015 2017 2019 Potencia fotovoltaica instalada en el mundo (en GW). Datos históricos hasta 2014 y previsión hasta 2019. Datos históricos Estimación para 2015 (+55 GW, 233 GW) Previsión moderada 396 GW en 2019 Previsión optimista 540 GW en 2019 Fuente: SPE, Global Market Outlook 2015,284:14 junto con las previsiones de la industria para 2015.nota 7 Se estima que la potencia fotovoltaica instalada ha crecido unos 75 GW en 2016,124 y China ha tomado el liderato frente a Alemania siendo ya el mayor productor de energía fotovoltaica. Para 2019, se estima que la potencia total alcanzará en todo el mundo 396 GW (escenario moderado) o incluso 540 GW (escenario optimista). La consultora Frost & Sullivan estima que la potencia fotovoltaica se incrementará hasta los 446 GW para 2020, siendo China, India y Estados Unidos los países con un mayor crecimiento, mientras Europa verá duplicada su capacidad respecto a los niveles actuales.285 La firma Grand View Research, consultora y analista de mercados radicada en San Francisco, publicó sus estimaciones para el sector en marzo de 2015. El potencial fotovoltaico de países como Brasil, Chiley Arabia Saudí todavía no se ha desarrollado conforme a lo esperado, y se espera que sea desarrollado durante los próximos años. Además de ello, el aumento de la capacidad de manufactura en China se prevé que siga ayudando a disminuir aún más los precios en descenso. La consultora estima que la capacidad fotovoltaica mundial alcance los 490 GW en 2020. La organización PV Market Alliance (PVMA), un consorcio formado por varias entidades de investigación, calcula que la capacidad global estará entre los 444-630 GW en 2020. En el escenario más pesimista, prevé que el ritmo de instalación anual se sitúe entre los 40 y 50 gigavatios al finalizar la década, mientras que en el escenario más optimista estima que se instalen entre 60 y 90 GW anuales durante los próximos cinco años. El escenario intermedio estima que se sitúen entre 50 y 70 GW, para alcanzar 536 GW en 2020. Las cifras de PVMA concuerdan con las publicadas anteriormente por Solar Power Europe. En junio de 2015, Greentech Media (GTM) publicó su informe Global PV Demand Outlook para 2020, que estima que las instalaciones anuales se incrementarán de 40 a 135 GW, alcanzando una capacidad total global de casi 700 GW en 2020. La estimación de GTM es la más optimista de todas las publicadas hasta la fecha, estimando que se instalarán 518 GW entre 2015 y 2020, lo que supone más del doble que otras estimaciones.


Por su parte, EPIA también calcula que la energía fotovoltaica cubrirá entre un 10 y un 15 % de la demanda de Europa en 2030. Un informe conjunto de esta organización y Greenpeace publicado en 2010 muestra que para el año 2030, un total de 1845 GW fotovoltaicos podrían generar aproximadamente 2646 TWh/año de electricidad en todo el mundo. Combinado con medidas de eficiencia energética, esta cifra representaría cubrir el consumo de casi un 10 % de la población mundial. Para el año 2050, se estima que más del 20 % de la electricidad mundial podría ser cubierto por la energía fotovoltaica. PLANTAS FOTOVOLTAICAS DE CONEXIÓN A RED Categoría principal: Centrales de energía solar fotovoltaica

Parque solar Lauingen Energy Park, de 25,7 MW en Suabia (Baviera, Alemania)

Parque solar en Waldpolenz, Alemania En Europa y en el resto del mundo se han construido un gran número de centrales fotovoltaicas a gran escala. A mediados de 2017, las plantas fotovoltaicas más grandes del mundo eran, de acuerdo a su capacidad de producción: Proyecto País Localización Potencia Año Tengger Park

Desert

Solar

Datong Solar Power Top

China

37°33′00″N 105°03′14″E

1547 MW

2016

China

40°04′25″N 113°08′12″E

1000 MW

2016


Proyecto

País

Localización

Potencia

Año

Runner Base Kurnool Solar

India

15.681522, 78.283749

1000 MW

2017

Yanchi Solar PV Station

China

38.1633714, 106.7611986

1000 MW

2016

Longyangxia Hydro-solar PV Station

China

36°10′54″N 100°34′41″E

850 MW

20132017

Kamuthi Project

India

9°21′16″N 78°23′4″E

648 MW

2016

Estados Unidos

34°49′50″N 118°23′53″O 579 MW

2015

Estados Unidos

33°49′33″N 115°24′08″O 550 MW

2015

Estados Unidos

35°23′N 120°4′O

550 MW

2014

Copper Mountain III Solar Estados Facility Unidos

35°47′N 114°59′O

350 MW

2015

Charanka Solar Park

India

23°54′N 71°12′E

345 MW

20122015

Cestas Solar Power Plant

Francia

44°43′32″N 0°49′1″O

300 MW

2015

Estados Unidos

32°57.2′N 113°29.4′O

290 MW

2012

272 MW

2016

258 MW

2016

250 MW

2016

250 MW

2013

Solar

Power

Solar Star Desert Farm

Sunlight

Solar

Topaz Solar Farm

Agua Caliente Project

Solar

Garland Solar

Estados Unidos

Tranquility Solar

Estados Unidos

Silver State South Solar

Estados Unidos

California Valley Solar Estados Ranch Unidos

36°37′2″N 120°23′16″O

35°20′N 119°55′O

El Romero

Chile

246 MW

2016

Astoria I, II

Estados Unidos

231 MW

2016

Estados 230 MW 2015 Unidos A mediados de 2017, las mayores plantas solares del mundo se encuentran situadas en China e India. Kurnool Solar, en el estado indio de Andhra Pradesh alberga 1 GW de capacidad, Antelope Valley Solar


equivalente en potencia a una central nuclear. La planta Yanchi Solar, en la provincia de Qinghai (China) cuenta asimismo con dicha capacidad. Entre los primeros puestos se encuentra también Longyangxia Hydro-Solar PV Station, situada junto a la presa de Longyangxia en China. Consiste en un macrocomplejo hidroeléctrico de 1280 MW, al que posteriormente se le añadió una central fotovoltaica de 320 MW, completada en 2013. A finales de 2015 se inauguró una segunda fase de 530 MW, lo que elevó la potencia total de la planta solar hasta los 850 MW. Otros proyectos de gran escala se encuentran situados en Estos Unidos. Solar Star, tiene una potencia de 579 MW y se encuentra en California. Las plantas Topaz Solar Farm y Desert Sunlight Solar Farm en Riverside County, también en California, tiene asimismo una potencia de 550 MW. El proyecto Blythe Solar Power consiste en una planta fotovoltaica de 500 MW, situada igualmente en Riverside County, cuya construcción está prevista próximamente. En Europa, el proyecto de mayor envergadura se llama Cestas Solar Power Plant, ubicado en la localidad de Cestas (Francia), que cuenta con una capacidad de 300 MW y entró en operación a finales de 2015. Hay otras muchas plantas de gran escala en construcción. El McCoy Solar Energy Project, en Estados Unidos, tendrá una potencia de 750 MW una vez completado. En los últimos años, se ha propuesto la construcción de varias plantas de potencias superiores a los 1000 MW en diferentes lugares del mundo. La planta Quaid-e-Azam Solar Park, situada en Pakistán y cuya primera fase ya se encuentra operativa con 100 MW, tiene previsto ampliar su capacidad hasta los 1500 MW. Los Emiratos Árabes Unidosplanean también la construcción de una planta de 1000 MW. El Ordos Solar Project, situado en China, alcanzará los 2000 MW. El proyecto Westlands Solar Park tiene una capacidad prevista de 2700 MW, a ser completado en varias fases. En lo que respecta a instalaciones fotovoltaicas sobre tejado, la mayor instalación se encuentra en las instalaciones de Renault Samsung Motors en Busan (Corea del Sur), y cuenta con 20 MW distribuidos sobre las diferentes cubiertas, parkings e infraestructuras del complejo. Inaugurada en 2013, proporciona energía a la fábrica y miles de hogares cercanos. Almacenamiento de energía fotovoltaica mediante baterías[editar] Véase también: Almacenamiento de energía El almacenamiento de energía se presenta como un reto importante para permitir contar con un suministro continuo de energía, dado que la energía solar no se puede generar por la noche. Las baterías recargables se han usado tradicionalmente para almacenar el exceso de electricidad en sistemas aislados. Con la aparición de los sistemas conectados a red, el exceso de electricidad puede transportarse mediante la red eléctrica a los puntos de consumo. Cuando la producción de energía renovable supone una pequeña fracción de la demanda, otras fuentes de energía pueden ajustar su producción de forma apropiada para prestar un respaldo a la variabilidad de las fuentes renovables, pero con el crecimiento de estas últimas, se hace necesario un control más adecuado para el equilibrio de la red. Con el declive de los precios, las centrales fotovoltaicas comienzan a disponer de baterías para controlar la potencia de salida o almacenar el exceso de energía para que pueda ser empleado durante las horas en que las centrales renovables no pueden generar directamente. Este tipo de baterías permite estabilizar la red eléctrica al suavizar los picos de demanda durante minutos u horas. Se prevé que en el futuro estas baterías jugarán un papel importante en la red


eléctrica, ya que pueden ser cargadas durante los períodos cuando la generación excede la demanda y verter dicha energía en la red cuando la demanda es mayor que la generación. Por ejemplo, en Puerto Rico un sistema con una capacidad de 20 megavatios durante 15 minutos (5 megavatios hora) se emplea para estabilizar la frecuencia de la red en la isla. Otro sistema de 27 megavatios durante 15 minutos (6,75 megavatios hora) con baterías de níquelcadmio fue instalado en Fairbanks (Alaska) en 2003 para estabilizar el voltaje de las líneas de transmisión. La mayoría de estos bancos de baterías se encuentran localizados junto a las propias plantas fotovoltaicas. Los mayores sistemas en Estados Unidos incluyen la batería de 31,5 MW en la planta Grand Ridge Power en Illinois, y la batería de 31,5 MW en Beech Ridge, Virginia. Entre los proyectos más destacados se sitúan el sistema de 400 MWh (100 MW durante cuatro horas) del proyecto Southern California Edison y un proyecto de 52 MWh en Kauai (Hawaii), que permite desplazar por completo la producción de una planta de 13MW para su uso tras la puesta del sol. Otros proyectos se sitúan en Fairbanks (40 MW para 7 minutos mediante baterías de níquel-cadmio)318 y en Notrees (Texas) (36 MW para 40 minutos usando baterías de plomoácido). En 2015, se instaló un total de 221 MW con almacenamiento de baterías en Estados Unidos, y se estima que la potencia total de este tipo de sistemas crezca hasta los 1,7 GW en 2020. La mayoría instalada por las propias compañías mayoristas del mercado estadounidense. AUTOCONSUMO Y BALANCE NETO

Instalación fotovoltaica sobre tejado en una residencia de Boston (Massachusetts, Estados Unidos).

Ejemplo de integración de la energía solar fotovoltaica sobre el tejado de una vivienda. Artículos principales: Autoconsumo fotovoltaico y Balance neto.


El autoconsumo fotovoltaico consiste en la producción individual a pequeña escala de electricidad para el propio consumo, a través de paneles fotovoltaicos. Ello se puede complementar con el balance neto. Este esquema de producción, que permite compensar el consumo eléctrico mediante lo generado por una instalación fotovoltaica en momentos de menor consumo, ya ha sido implantado con éxito en muchos países. Fue propuesto en España por la Asociación de la Industria Fotovoltaica (ASIF) para promover la electricidad renovable sin necesidad de apoyo económico adicional, y estuvo en fase de proyecto por el IDAE. Posteriormente se recogió en el Plan de Energías Renovables 2011-2020, pero todavía no ha sido regulado. Sin embargo, en los últimos años, debido al creciente auge de pequeñas instalaciones de energía renovable, el autoconsumo con balance neto ha comenzado a ser regulado en diversos países del mundo, siendo una realidad en países como Alemania, Italia, Dinamarca, Japón, Australia, Estados Unidos, Canadá y México, entre otros. Entre las ventajas del autoconsumo respecto al consumo de la red se encuentran las siguientes:  Con el abaratamiento de los sistemas de autoconsumo y el encarecimiento de las tarifas eléctricas, cada vez es más rentable que uno mismo produzca su propia electricidad.  Se reduce la dependencia de las compañías eléctricas.  Los sistemas de autoconsumo fotovoltaicos utilizan la energía solar, una fuente gratuita, inagotable, limpia y respetuosa con el medioambiente.  Se genera un sistema distribuido de generación eléctrica que reduce la necesidad de invertir en nuevas redes y reduce las pérdidas de energía por el transporte de la electricidad a través de la red.324  Se reduce la dependencia energética del país con el exterior.  Se evitan problemas para abastecer toda la demanda en hora punta, conocidos por los cortes de electricidad y subidas de tensión.  Se minimiza el impacto de las instalaciones eléctricas en su entorno. En el caso del autoconsumo fotovoltaico, el tiempo de retorno de la inversión se calcula sobre la base de cuánta electricidad se deja de consumir de la red, debido al empleo de paneles fotovoltaicos. Por ejemplo, en Alemania, con precios de la electricidad en 0,25 €/kWh y una insolación de 900 kWh/kWp, una instalación de 1 kWp ahorra unos 225 € al año, lo que con unos costes de instalación de 1700 €/kWp significa que el sistema se amortizará en menos de 7 años. Esta cifra es aún menor en países como España, con una irradiación superior a la existente en el norte del continente europeo. Eficiencia y costos[editar] Artículo principal: Paridad de red


Cronología de las eficiencias de conversión logradas en células solares fotovoltaicas (fuente: National Renewable Energy Laboratory de Estados Unidos)

Evolución del precio de las células fotovoltaicas de silicio cristalino (en $/Wp) entre 1977 y 2015 (fuente: Bloomberg New Energy Finance) Las eficiencias de las células solares varían entre el 6 % de aquellas basadas en silicio amorfo hasta el 46 % de las células multiunión. Las eficiencias de conversión de las células solares que se utilizan en los módulos fotovoltaicos comerciales (de silicio monocristalino o policristalino) se encuentran en torno al 16-22 %. El coste de las células solares de silicio cristalino ha descendido desde 76,67 $/Wp en 1977 hasta aproximadamente 0,36 $/Wp en 2014. Esta tendencia sigue la llamada ley de Swanson, una predicción similar a la conocida Ley de Moore, que establece que los precios de los módulos solares descienden un 20 % cada vez que se duplica la capacidad de la industria fotovoltaica. En 2014, el precio de los módulos solares se había reducido en un 80 % desde el verano de 2008, colocando a la energía solar por primera vez en una posición ventajosa respecto al precio de la electricidad pagado por el consumidor en un buen número de regiones soleadas. En este sentido, el coste medio de generación eléctrica de la energía solar fotovoltaica es ya competitivo con el de las fuentes convencionales de energía en una creciente lista de países, 336


particularmente cuando se considera la hora de generación de dicha energía, ya que la electricidad es usualmente más cara durante el día. Se ha producido una dura competencia en la cadena de producción, y asimismo se esperan mayores caídas del coste de la energía fotovoltaica en los próximos años, lo que supone una creciente amenaza al dominio de las fuentes de generación basadas en las energías fósiles. Conforme pasa el tiempo, las tecnologías de generación renovable son generalmente más baratas,339340 mientras que las energías fósiles se vuelven más caras: Cuanto más desciende el coste de la energía solar fotovoltaica, más favorablemente compite con las fuentes de energía convencionales, y más atractiva es para los usuarios de electricidad en todo el mundo. La fotovoltaica a pequeña escala puede utilizarse en California a precios de 100 $/MWh (0,10 $/kWh) por debajo de la mayoría de otros tipos de generación, incluso aquellos que funcionan mediante gas natural de bajo coste. Menores costes en los módulos fotovoltaicos también suponen un estímulo en la demanda de consumidores particulares, para los que el coste de la fotovoltaica se compara ya favorablemente al de los precios finales de la energía eléctrica convencional. En 2011, el coste de la fotovoltaica había caído bastante por debajo del de la energía nuclear, y se espera que siga cayendo: Para instalaciones a gran escala, ya se han alcanzado precios por debajo de 1 $/vatio. Por ejemplo, en abril de 2012 se publicó un precio de módulos fotovoltaicos a 0,60 Euros/Vatio (0,78 $/Vatio) en un acuerdo marco de 5 años. En algunas regiones, la energía fotovoltaica ha alcanzado la paridad de red, que se define cuando los costes de producción fotovoltaica se encuentran al mismo nivel, o por debajo, de los precios de electricidad que paga el consumidor final (aunque en la mayor parte de las ocasiones todavía por encima de los costes de generación en las centrales de carbón o gas, sin contar con la distribución y otros costes inducidos). La energía fotovoltaica se genera durante un período del día muy cercano al pico de demanda (lo precede) en sistemas eléctricos que hacen gran uso del aire acondicionado. Más generalmente, es evidente que, con un precio de carbón de 50 $/tonelada, que eleva el precio de las plantas de carbón a 5 cent./kWh, la energía fotovoltaica será competitiva en la mayor parte de los países. El precio a la baja de los módulos fotovoltaicos se ha reflejado rápidamente en un creciente número de instalaciones, acumulando en todo 2011 unos 23 GW instalados ese año. Aunque se espera cierta consolidación en 2012, debido a recortes en el apoyo económico en los importantes mercados de Alemania e Italia, el fuerte crecimiento muy probablemente continuará durante el resto de la década. De hecho, ya en un estudio se mencionaba que la inversión total en energías renovables en 2011 había superado las inversiones en la generación eléctrica basada en el carbón. La tendencia es que los precios disminuyan aún más con el tiempo una vez que los componentes fotovoltaicos han entrado en una clara y directa fase industrial. A finales de 2012, el precio medio de los módulos fotovoltaicos había caído a 0,50 $/Wp, y las previsiones apuntan que su precio seguirá reduciéndose hasta los 0,36 $/Wp en 2017. En 2015, el Instituto alemán Fraunhofer especializado en energía solar (ISE) realizó un estudio que concluía que la mayoría de los escenarios previstos para el desarrollo de la energía solar infravaloran la importancia de la fotovoltaica. 348 El estudio realizado por el instituto Fraunhofer estimaba que el coste levelizado (LCOE) de la energía solar fotovoltaica para plantas de conexión a red se situará a largo plazo entre 0,02 y 0,04 €/kWh, niveles inferiores a los de las fuentes de energía convencionales.


Extracto de las conclusiones del estudio de Fraunhofer ISE: Current and Future Cost of Photovoltaics. Long-term Scenarios for Market Development, System Prices and LCOE of UtilityScale PV Systems (Coste actual y futuro de la energía fotovoltaica. Escenarios a largo plazo para el desarrollo del mercado, sistemas de precios y LCOE de sistemas fotovoltaicos de conexión a red)— Febrero de 2015: 1. La energía solar fotovoltaica ya es actualmente una tecnología de generación renovable de bajo coste. El coste de las plantas fotovoltaicas a gran escala conectadas a red cayó en Alemania desde valores superiores a 0,40 €/kWh en 2005 hasta los 0,09 €/kWh en 2014. Se han publicado costes incluso menores en otras regiones más soleadas del resto del mundo, dado que una buena parte de los componentes de las plantas fotovoltaicas se comercializan en los mercados globales. 2. La energía solar pronto se convertirá en la fuente de energía más barata en muchas regiones del mundo. Incluso suponiendo proyecciones conservadoras y considerando que no se producirán avances tecnológicos importantes, no se espera un parón en la reducción de costes que se está produciendo actualmente. Dependiendo de la irradiación anual del emplazamiento elegido, el coste de la fotovoltaica se situará entre los 0,04-0,06 €/kWh para 2025, alcanzando 0,02-0,04 €/kWh antes de 2050 (estimación conservadora). 3. El ambiente financiero y regulatorio serán la clave para las futuras reducciones de coste de esta tecnología. El coste de los componentes en los mercados globales descenderá independientemente de las condiciones locales de cada país. Pero una regulación inadecuada pueden suponer un incremento de coste de hasta el 50 % debido al mayor coste de financiación. Esto puede incluso llegar a compensar negativamente el hecho de contar con un mayor recurso solar en algunas zonas. 4. La mayoría de los escenarios previstos para el desarrollo de la energía solar infravaloran la importancia de la fotovoltaica. Basados en estimaciones de costes desactualizadas, la mayor parte de las proyecciones para el futuro de los sistemas energéticos domésticos, regionales y globales prevén tan sólo una pequeña producción de energía solar. Los resultados de nuestro análisis indican que se hace necesaria una revisión fundamental de este aspecto para lograr una optimización de los costes. Energía fotovoltaica de capa fina o Thin film[editar]


Laminados fotovoltaicos de capa fina siendo instalados sobre un tejado.

Cuota de mercado de las diferentes tecnologías fotovoltaicas: Se observa la predominancia de las células de silicio. En 2010, la cuota de la tecnología de capa delgada cayó un 30 % debido al crecimiento de las más eficientes tecnologías de silicio mono y policristalinas que dominan el mercado (están representadas en azul claro e intenso). Artículo principal: Célula solar de película fina Otra alternativa de bajo coste a las células de silicio cristalino es la energía fotovoltaica de capa o película fina que está basada en las células solares de tercera generación. Consisten en una célula solar que se fabrica mediante el depósito de una o más capas delgadas (película delgada) de material fotovoltaico en un sustrato. Las células solares de película delgada suelen clasificarse según el material fotovoltaico utilizado:  Silicio amorfo (a-Si) y otros silicios de película delgada (TF-Si)  Teluro de cadmio (CdTe)  Cobre indio galio y seleniuro (CIS o CIGS)  Células solares sensibilizadas por colorante (DSC) y otras células solares orgánicas. La Conferencia Internacional Energía Solar de Bajo Costo de Sevilla, realizada en febrero de 2009, fue el primer escaparate en España de las mismas. Esta tecnología causó grandes expectativas en sus inicios. Sin embargo, la fuerte caída en el precio de las células y los módulos de silicio policristalino desde finales de 2011 ha provocado que algunos fabricantes de capa fina se hayan visto obligados a abandonar el mercado, mientras que otros han visto muy reducidos sus beneficios.


El Presidente de Estados Unidos Barack Obama pronuncia un discurso durante la inauguración de una planta solar fotovoltaica, en mayo de 2009. Beneficio medioambiental La cantidad de energía solar que alcanza a la superficie terrestre es enorme, cerca de 122 petavatios (PW), y equivale a casi 10 000 veces más que los 13 TW consumidos por la humanidad en 2005. Esta abundancia sugiere que no pasará mucho tiempo antes de que la energía solar se convierta en la principal fuente de energía de la humanidad. 360 Adicionalmente, la generación eléctrica mediante fotovoltaica presenta la mayor densidad energética (una media global de 170 W/m2) de todas las energías renovables. A diferencia de las tecnologías de generación de energía basadas en combustibles fósiles, la energía solar fotovoltaica no produce ningún tipo de emisiones nocivas durante su funcionamiento, aunque la producción de los paneles fotovoltaicos presenta también un cierto impacto ambiental. Los residuos finales generados durante la fase de producción de los componentes, así como las emisiones de las factorías, pueden gestionarse mediante controles de contaminación ya existentes. Durante los últimos años también se han desarrollado tecnologías de reciclaje para gestionar los diferentes elementos fotovoltaicos al finalizar su vida útil, y se están llevando a cabo programas para incrementar el reciclaje entre los productores fotovoltaicos. La tasa de retorno energético de esta tecnología, por su parte, es cada vez mayor. Con la tecnología actual, los paneles fotovoltaicos recuperan la energía necesaria para su fabricación en un período comprendido entre 6 meses y 1 año y medio; teniendo en cuenta que su vida útil media es superior a 30 años, producen electricidad limpia durante más del 95 % de su ciclo de vida. Emisiones de gases de efecto invernadero[editar] Las emisiones de gases de efecto invernadero a lo largo del ciclo de vida para la fotovoltaica son cercanas a los 46 g/kWh, pudiendo reducirse incluso hasta 15 g/kWh en un futuro próximo.364 En comparación, un planta de gas de ciclo combinado emite entre 400-599 g/kWh,365 un planta de gasoil 893 g/kWh,365 una planta de carbón 915-994 g/kWh366 o con tecnología de captura de carbono unos 200 g/kWh (excluyendo las emisiones durante la extracción y el transporte de carbón), y una planta de energía geotérmica de alta temperatura, entre 91-122 g/kWh.365 La intensidad de las emisiones para el ciclo de vida de la energía hidráulica, eólica y la energía nuclear es menor que la de la energía fotovoltaica, según los datos publicados por el IPCC en 2011 Al igual que todas las fuentes de energía cuyas emisiones dependen principalmente de las fases de construcción y transporte, la transición hacia una economía de bajo carbono podría reducir aún más las emisiones de dióxido de carbono durante la fabricación de los dispositivos solares. Un sistema fotovoltaico de 1 kW de potencia ahorra la combustión de aproximadamente 77 kg (170 libras) de carbón, evita la emisión a la atmósfera de unos 136 kg (300 libras) de dióxido de carbono, y ahorra mensualmente el uso de unos 400 litros (105 galones) de agua. Reciclaje de módulos fotovoltaicos[editar] Una instalación fotovoltaica puede operar durante 30 años o más 368 con escaso mantenimiento o intervención tras su puesta en marcha, por lo que tras el coste de inversión inicial necesario para construir una instalación fotovoltaica, sus costes de operación son muy bajos en comparación con el resto de fuentes energéticas existentes. Al finalizar su vida útil, la mayor parte de los paneles fotovoltaicos puede ser tratada. Gracias a las innovaciones tecnológicas


que se han desarrollado en los últimos años, se puede recuperar hasta el 95 % de ciertos materiales semiconductores y el vidrio, así como grandes cantidades de metales ferrosos y no ferrosos utilizados en los módulos. Algunas empresas y organizaciones sin fines de lucro, como por ejemplo PV CYCLE en la Unión Europea, están trabajando en las operaciones de recogida y reciclaje de paneles al final de su vida útil. Dos de las soluciones de reciclaje más comunes son:  Paneles de silicio: Los marcos de aluminio y las cajas de conexión son desmantelados manualmente al comienzo del proceso. El panel se tritura y las diferentes fracciones se separan: vidrio, plásticos y metales. Es posible recuperar más de 80 % del peso entrante y, por ejemplo, el cristal mixto extraído es fácilmente aceptado por las industrias de la espuma de vidrio y del aislamiento. Este proceso puede ser realizado por los recicladores de vidrio plano ya que la morfología y composición de un panel fotovoltaico es similar al cristal plano utilizado en la industria de la construcción y del automóvil.  Paneles de otros materiales: Hoy en día se cuenta con tecnologías específicas para el reciclaje de paneles fotovoltaicos que no contienen silicio, algunas técnicas utilizan baños químicos para separar los diferentes materiales semiconductores. Para los paneles de teluro de cadmio, el proceso de reciclaje empieza por aplastar el módulo y, posteriormente, separar las diferentes partes. Este proceso de reciclaje está diseñado para recuperar hasta un 90 % del vidrio y 95 % de los materiales semiconductores. En los últimos años, algunas empresas privadas han puesto en marcha instalaciones de reciclaje a escala comercial. Desde 2010 se celebra una conferencia anual en Europa que reúne a productores, recicladores e investigadores para debatir el futuro del reciclaje de módulos fotovoltaicos. En 2012 tuvo lugar en Madrid Panel solar Artículo principal: Energía solar


Dos tipos diferentes de paneles solares: fotovoltaicos (arriba) y térmicos (abajo) instalados sobre tejado. Un panel solar o módulo solar es un dispositivo que capta la energía de la radiación solar para su aprovechamiento. El término comprende a los colectores solares, utilizados usualmente para producir agua caliente doméstica mediante energía solar térmica, y a los paneles fotovoltaicos, utilizados para generar electricidad mediante energía solar fotovoltaica. COLECTOR SOLAR TÉRMICO

Generación de agua caliente con una instalación solar térmica de circuito cerrado. Artículos principales: Colector solar y Energía solar térmica. Un calentador solar de agua usa la energía del sol para calentar un líquido, el cual transfiere el calor hacia un depósito acumulador de calor. En una casa, por ejemplo, el agua caliente sanitaria puede calentarse y almacenarse en un depósito de agua caliente. Los paneles tienen una placa receptora y conductos, adheridos a ésta, por los que circula líquido. Esta placa está generalmente recubierta con una capa selectiva de color negro. El líquido calentado es bombeado hacia un aparato intercambiador de energía donde cede el calor y luego circula de vuelta hacia el panel para ser recalentado. Es una manera simple y efectiva de aprovechar la energía solar. Panel solar fotovoltaico[editar]

Paneles solares en las Islas Cíes, . Artículos principales: Panel fotovoltaico y Energía solar fotovoltaica. DESCRIPCIÓN


Los paneles fotovoltaicos: están formados por numerosas celdas que convierten la luz en electricidad. Las celdas a veces son llamadas células fotovoltaicas. Estas celdas dependen del efecto fotovoltaico por el que la energía lumínica produce cargas positiva y negativa en dos semiconductores próximos de diferente tipo, produciendo así un campo eléctrico capaz de generar una corriente. Los materiales para celdas solares suelen ser silicio cristalino o arseniuro de galio. Los cristales de arseniuro de galio se fabrican especialmente para uso fotovoltaico, mientras que los cristales de silicio están disponibles en lingotes normalizados, más baratos, producidos principalmente para el consumo de la industria microelectrónica. El silicio policristalino tiene una menor eficacia de conversión, pero también menor coste. Cuando se expone a luz solar directa, una celda de silicio de 6 cm de diámetro puede producir una corriente de alrededor 0,5 A a 0,5 V(equivalente a un promedio de 90 W/m², en un campo de normalmente 50-150 W/m², dependiendo del brillo solar y la eficiencia de la celda). El arseniuro de galio es más eficaz que el silicio, pero también más costoso. Las células de silicio más empleadas en los paneles fotovoltaicos se puede dividir en tres subcategorías:  Las células de silicio monocristalino están constituidas por un único cristal de silicio. Este tipo de células presenta un color azul oscuro uniforme.  Las células de silicio policristalino (también llamado multicristalino) están constituidas por un conjunto de cristales de silicio, lo que explica que su rendimiento sea algo inferior al de las células monocristalinas. Se caracterizan por un color azul más intenso.  Las células de silicio amorfo. Son menos eficientes que las células de silicio cristalino pero también más baratas. Este tipo de células es, por ejemplo, el que se emplea en aplicaciones solares como relojes o calculadoras. Los lingotes cristalinos se cortan en discos finos como una oblea, pulidos para eliminar posibles daños causados por el corte. Se introducen dopantes —impurezas añadidas para modificar las propiedades conductoras— en las obleas, y se depositan conductores metálicos en cada superficie: una fina rejilla en el lado donde da la luz solar y usualmente una hoja plana en el otro. Los paneles solares se construyen con estas celdas agrupadas en forma apropiada. Para protegerlos de daños, causados por radiación o por el manejo de éstos, en la superficie frontal se los cubre con una cubierta de vidrio y se pegan sobre un sustrato el cual puede ser un panel rígido o una manta blanda. Se hacen conexiones eléctricas en serie-paralelo para fijar el voltaje total de salida. El pegamento y el sustrato deben ser conductores térmicos, ya que las celdas se calientan al absorber la energía infrarroja que no se convierte en electricidad. Debido a que el calentamiento de las celdas reduce la eficacia de operación es deseable minimizarlo. Los ensamblajes resultantes se llaman paneles solares. ESTRUCTURA Las estructuras para anclar los paneles solares son generalmente de aluminio con tornillería de acero inoxidable para asegurar una máxima ligereza y una mayor durabilidad en el tiempo. Las estructuras tienen medidas estándar para la superficie, orientación e inclinación tanto en horizontal, como en vertical. La estructura suele estar compuesta de ángulos de aluminio, carril de fijación, triángulo, tornillos de anclaje (triángulo-ángulo), tornillo allen (generalmente de tuerca cuadrada, para la fijación del módulo) y pinza zeta para la fijación del módulo y cuyas dimensiones dependen del espesor del .


USO DE LA ENERGÍA Deben su aparición a la industria aeroespacial, y se han convertido en el medio más fiable de suministrar energía eléctrica a un satélite o a una sonda en las órbitas interiores del Sistema Solar, gracias a la mayor irradiación solar sin el impedimento de la atmósfera y a su alta relación potencia a peso. En el ámbito terrestre, este tipo de energía se usa para alimentar innumerables aparatos autónomos, para abastecer refugios o casas aisladas de la red eléctrica y para producir electricidad a gran escala a través de redes de distribución. Debido a la creciente demanda de energías renovables, la fabricación de células solares e instalaciones fotovoltaicas ha avanzado considerablemente en los últimos años.

Operario instalando paneles solares sobre una estructura diseñada al efecto. Entre los años 2001 y 2012 se ha producido un crecimiento exponencial de la producción de energía fotovoltaica, doblándose aproximadamente cada dos años. 4 Si esta tendencia continúa, la energía fotovoltaica cubriría el 10 % del consumo energético mundial en 2018, alcanzando una producción aproximada de 2200 TWh,5 y podría llegar a proporcionar el 100 % de las necesidades energéticas actuales en torno al año 2027. Experimentalmente también han sido usados para dar energía a vehículos solares, por ejemplo en el World Solar Challenge a través de Australia o la Carrera Solar Atacama en América. Muchos barcos7 8 y vehículos terrestres los usan para cargar sus baterías de forma autónoma, lejos de la red eléctrica. Programas de incentivos económicos, primero, y posteriormente sistemas de autoconsumo fotovoltaico y balance neto sin subsidios, han apoyado la instalación de la fotovoltaica en un gran número de países, contribuyendo a evitar la emisión de una mayor cantidad de gases de efecto invernadero. PRODUCTORES DE PANELES Los diez mayores productores mundiales de paneles fotovoltaicos (por producción en MW) en 2015 fueron: 1. Trina Solar (China) 2. Canadian Solar (Canadá) 3. Jinko Solar (China) 4. JA Solar (China) 5. Hanwha Q-Cells (Corea del Sur) 6. First Solar (EEUU) 7. Yingli (China) 8. SFCE (China) 9. ReneSola (EEUU)


10. Sunpower (EEUU) Instalaciones[editar] Potencia mundial instalada[editar] 100 200 300 400 2007 2009 2011 2013 2015 Potencia fotovoltaica mundial instalada hasta 2016, en gigavatios (GW), expresada por región.1112 Europa AsiaPacífico América del norte y sur China África y Oriente Medio Resto del mundo La potencia de un módulo solar se mide en Wp (Watt peak, vatio pico), o más concretamente, en sus respectivos múltiplos: kWp o MWp. Se trata de la potencia eléctrica generada en condiciones estándares para la incidencia de luz. Históricamente, Estados Unidos lideró la instalación de energía fotovoltaica desde sus inicios hasta 1996, cuando su capacidad instalada alcanzaba los 77 MW, más que cualquier otro país hasta la fecha. En los años posteriores, fueron superados por Japón, que mantuvo el liderato hasta que a su vez Alemania la sobrepasó en 2005, manteniendo el liderato desde entonces. A comienzos de 2016, Alemania se aproximaba a los 40 GW instalados.13 Sin embargo, por esas fechas China, uno de los países donde la fotovoltaica está experimentando un crecimiento más vertiginoso superó a Alemania, convirtiéndose desde entonces en el mayor productor de energía fotovoltaica del mundo.13 Se espera que multiplique su potencia instalada actual hasta los 150 GW en 2020.111415 A finales de 2015, se estimaba que hay instalados en todo el mundo cerca de 230 GW de potencia fotovoltaica.16 GRANDES PLANTAS


Parque solar Lauingen Energy Park, de 25,7 MW en la Suabia Bávara, Alemania

Parque solar en Waldpolenz, Alemania En Europa y en el resto del mundo se han construido un gran número de centrales fotovoltaicas a gran escala.17 A finales de 2016, las plantas fotovoltaicas más grandes del mundo eran, por este orden: Proyecto País Potencia Año Yanchi Solar PV Station

China

1000 MW

2016

Longyangxia Hydro-solar PV Station

China

850 MW

2013-2015

Kamuthi Solar Power Project

India

648 MW

2016

Solar Star

Estados Unidos 579 MW

2015

Desert Sunlight Solar Farm

Estados Unidos 550 MW

2015

Topaz Solar Farm

Estados Unidos 550 MW

2014

Copper Mountain III Solar Facility

Estados Unidos 350 MW

2015

Charanka Solar Park

India

345 MW

2012-2015

Cestas Solar Power Plant

Francia

300 MW

2015

Agua Caliente Solar Project

Estados Unidos 290 MW

2012

Silver State South Solar

Estados Unidos 250 MW

2016

California Valley Solar Ranch

Estados Unidos 250 MW

2013


Proyecto

País

Potencia

Año

El Romero

Chile

246 MW

2016

Antelope Valley Solar

Estados Unidos 230 MW

2015

Mount Signal Solar

Estados Unidos 206 MW

2014

Gonghe Industrial Park Phase I

China

200 MW

2013

Golmud Solar Park

China

200 MW

2011

Centinela Solar

Estados Unidos 200 MW

2014

Copper Mountain II Solar Facility

Estados Unidos 195 MW

2013-2015

Solarpark Senftenberg/Schipkau Coste de paneles[editar]

Alemania

2011

168 MW

Evolución del precio de las células fotovoltaicas de silicio cristalino (en $/W) entre 1977 y 2015 (fuente: Bloomberg New Energy Finance) El coste de los paneles fotovoltaicos se ha reducido de forma constante desde que se fabricaron las primeras células solares comerciales18 y su coste medio de generación eléctrica ya es competitivo con las fuentes de energía convencionales en un creciente número de regiones geográficas, alcanzando la paridad de red. Hasta 2005 el problema más importante con los paneles fotovoltaicos era el costo, que estaba bajando hasta 3 o 4 $/W. El precio del silicio usado para la mayor parte de los paneles tuvo una breve tendencia al alza en 2008, lo que hizo que los fabricantes comenzaran a utilizar otros materiales y paneles de silicio más delgados para bajar los costes de producción. Debido a economías de escala, los paneles solares se hacen menos costosos según se usen y fabriquen más. A medida que ha aumentado la producción, los precios han continuado bajando y todas las previsiones indican que lo seguirán haciendo en los próximos años. El coste de las células solares de silicio cristalino ha descendido desde 76,67 $/Wp en 1977 hasta aproximadamente 0,36 $/Wp en 2014.2122 Esta tendencia sigue la llamada «ley de Swanson», una predicción similar a la conocida Ley de Moore, que establece


que los precios de los módulos solares descienden un 20 % cada vez que se duplica la capacidad de la industria fotovoltaica.23 RECICLAJE DE PANELES La mayor parte de los paneles fotovoltaicos puede ser tratada. Gracias a las innovaciones tecnológicas que se han desarrollado en los últimos años, se puede recuperar hasta el 95 % de ciertos materiales semiconductores y el vidrio, así como grandes cantidades de metales ferrosos y no ferrosos utilizados en los módulos.24 Algunas empresas privadas25 y organizaciones sin fines de lucro, como por ejemplo PV CYCLE en la Unión Europea, están actualmente trabajando en las operaciones de recogida y reciclaje de paneles al final de su vida útil. Dos de las soluciones de reciclaje más comunes son:  Paneles de silicio: Los marcos de aluminio y las cajas de conexión son desmantelados manualmente al comienzo del proceso. El panel se tritura y las diferentes fracciones se separan - vidrio, plásticos y metales. Es posible recuperar más de 80 % del peso entrante y, por ejemplo, el cristal mixto extraído es fácilmente aceptado por la industria de la espuma de vidrio el aislamiento. Este proceso puede ser realizado por los recicladores de vidrio plano ya que la morfología y composición de un panel fotovoltaico es similar al cristal plano utilizado en la industria de la construcción y del automóvil.  Paneles de otros materiales: Hoy en día contamos con tecnologías específicas para el reciclaje de paneles fotovoltaicos que no contienen silicio, alguna técnicas utilizan baños químicos para separar los diferentes materiales semiconductores. Para los paneles de teluro de cadmio, el proceso de reciclaje empieza por aplastar el módulo y, posteriormente, separar las diferentes partes. Este proceso de reciclaje está diseñado para recuperar hasta un 90 % del vidrio y 95 % de los materiales semiconductores.26 En los últimos años, algunas empresas privadas han puesto en marcha instalaciones de reciclaje a escala comercial. Desde 2010 se celebra una conferencia anual en Europa que reúne a productores, recicladores e investigadores para debatir el futuro del reciclaje de módulos fotovoltaicos. En 2012 tuvo lugar en Madrid PDVSA PODRÍA PERDER 20 MILLONES DE DÓLARES EN TRIBUNALES VENEZOLANOS Una alegación de ausencia de domicilio en un contrato, le daría al operador financiero Moris Beracha, señalado en varias oportunidades en casos de fraude y corrupción, la posibilidad de pagar en bolívares una millonaria inversión hecha en dólares por la estatal petrolera venezolana, a través de su empresa de manejo de fondos internacional. por Maibort Petit el 24/12/2017 a las 05:41 horas


GOBIERNO DE MADURO INVESTIGA AL EXPRESIDENTE DE PDVSA RAFAEL RAMÍREZ La empresa estatal Petróleos de Venezuela, (PDVSA), podría perder hasta 20 millones de dólares en un tribunal de Venezuela por una demanda cuyo beneficiario final sería Moris Beracha y su empresa Fractal Fund Managment LTD. Una alegación de domicilio no establecido permitiría que una inversión hecha en dólares por la petrolera fuera resuelta en bolívares con la anuencia de un juez que tiene vinculaciones con el abogado de la empresa que sería favorecida por esta querella. De acuerdo a documentos legales en nuestro poder, el 11 de enero de 2011, la empresa PDV Insurance Company LTD, registrada bajo las leyes de las Islas Bermudas (según certificado de incorporación del 12 de diciembre de 1990, Registro No.16066), firmó un contrato de suscripción de acciones comunes tipo STP.PV con la empresa Fractal Fund Managment LTD, otra corporación con sede en las Islas Vírgenes Británicas organizada bajo las previsiones de la ley de Compañías Internacionales CAP 291, el 25 de febrero de 2005, bajo el No. 643915.


Fractal Fund Managment LTD había sido registrada inicialmente bajo las previsiones de la Ley de Compañías de las Islas Vírgenes Británicas de 2004, el 10 de enero de 2007, con la finalidad que esta empresa invirtiera los fondos aportados por PDVSA en el mercado bursátil internacional, lo cual en teoría generaría ganancias para el Fondo así como para sus inversores. En la demanda contra PDVSA, el abogado Amir Nassar es quien representa los intereses de Moris Beracha, un operador ampliamente conocido en el ámbito financiero venezolano por haber realizado negocios millonarios con el gobierno venezolano. Su nombre también ha sido mencionado en juicios en tribunales estadounidenses. Según la investigación, el 15 de febrero de 2012, PDV Insurance Company LTD solicitó a Fractal la redención (devolución) de la inversión vigente, por lo cual Fractal debía retornar a la empresa estatal los capitales invertidos en los 7 días siguientes a la solicitud del inversor que en este caso es PDV Insurance.


No obstante, fue el 6 de abril de 2016 cuando Fractal (empresa deudora) presentó una solicitud judicial de oferta real para "devolver" la suma adeudada que, según sus propios abogados, ascendía a la cantidad de 21 millones 596 mil 838 dólares. La empresa de Beracha informó que la devolución no se haría en dólares sino en bolívares y calculados a la tasa de cambio SIMADI vigente para esa fecha. En la demanda de Fractal se señala que al no haberse establecido un lugar para que se realizara el pago, el mismo tendría que hacerse en la ciudad de Caracas ya que en el documento de creación y constitución de PDV Insurance se establece que la dirección de la empresa estaba ubicada en las oficinas de Petróleos de Venezuela, PDVSA S.A., Avenida Libertador, Piso 8, Gerencia de Financiamiento, Inversiones y Seguros, Caracas Venezuela. De esa forma, la empresa de Moris Berecha ofreció judicialmente a la nación venezolana la cantidad de 5 mil 14 millones 689 mil 850 con 08/100 bolívares, por concepto de capital adeudado, pero al hacer la conversión de esta cantidad de bolívares a la tasa de cambio real para la fecha ?a saber 1.134 bolívares por dólar? la suma ofrecida en dólares se convertía solamente en 4 millones 422 mil 125 dólares, es decir, en manos de Fractal quedarían 17 millones 174 mil 712 dólares, una cantidad que sería esquilmada a la República Bolivariana de Venezuela.


El nombre de Moris Beracha ha sido relacionado a varios casos de corrupción. En febrero del 2015, fue señalado de estar involucrado en el fraude piramidal por 300 millones de dólares que golpeó al fondo de pensiones y ahorros de la estatal petrolera PDVSA, donde el banquero venezolano Francisco Illarramendi fue condenado a prisión por la Corte Federal de Connecticut. Luego de una larga querella, la Corte Federal de Connecticut desestimó todas las demandas judiciales contra Moris Beracha y todas sus acciones legales cuando decidió desmantelar las compañías de administración de activos que estaban en el centro de una demanda que involucraba a los fondos de pensiones de la petrolera estatal venezolana. Según un comunicado emitido por los abogados de Beracha en los Estados Unidos, el arreglo con la corte en este caso no implicó la admisión de irregularidades o responsabilidad por parte de Beracha y la querella en su contra fue desestimada "con prejuicio", lo que significa que ni Beracha ni sus empresas serán demandadas nuevamente por este asunto. Luego de este evento, su abogado, Eric Lewis, socio de la firma de abogados de Washington, D. C. Lewis Baach pllc., dijo que Beracha continuaría realizando operaciones comerciales en su área. A pesar del arreglo, el Consorcio Internacional de Periodistas de Investigación (ICIJ, en inglés) reveló el 4 de abril del 2013 que Moris Beracha, cuando era asesor de Mario Isea, había participado en el pago de sobornos a funcionarios venezolanos canalizados a través de paraísos fiscales en las islas Caimán, Suiza y Panamá. Las revelaciones del ICIJ sobre Venezuela formaron parte de una investigación realizada por ese grupo tras acceder a unos 2.5 millones de archivos digitales, fundamentalmente de las islas Vírgenes Británicas, las islas Cook y otros paraísos fiscales.


Beracha también aparece ligado a una denuncia presentada al Ministerio Público venezolano en 2009 donde se le acusa de haber participado en un fraude masivo relacionado con la negociación de las Notas Estructuradas de la República de Venezuela cuando Rafael Isea ocupada el Ministerio de Finanzas. Para esa época -según la denuncia- Beracha operaba desde la sede ministerial y habría actuado directamente como agente en la venta de los instrumentos financieros y a la vez actuaba como el representante de Lehman Brothers. La adjudicación de las notas se hizo de manera irregular, lo cual condujo a un fraude millonario a las finanzas de la nación sudamericana. En el caso contra PDV, el equipo de abogados de Beracha en Venezuela, liderado por Amir Nassar ha logrado que el caso se mantenga fuera del ojo público para evitar que haya un escándalo que evite que la empresa Fractal y su dueño puedan cobrar la millonaria suma por parte de la República de Venezuela. El nombre de Gonzalo Jurado Yépez aparece ligado al entorno de Nassar.


Esta causa fue atendida inicialmente por el Juez 17 de Municipio de Caracas, Juan Alberto Castro, quien renunció a su cargo en abril de 2017, denunciando la ruptura del orden constitucional en Venezuela y a miembros del Tribunal Supremo de Justicia, como parte de una organización criminal. Tras la renuncia del juez Castro, fue designado en ese cargo el abogado Miguel Padilla, quien resultó ser primo hermano de la esposa del abogado de Moris Beracha, Amir Nassar. Las relaciones familiares han permitido que el caso avance señaló una fuente ligada al caso que pidió mantenerse en el anonimato por su seguridad. Esa misma fuente dijo que el manejo que los abogados de Beracha tienen dentro del poder judicial venezolano ha hecho que acciones con basamentos ilegales puedan tener curso en los tribunales y cuyas consecuencias son perjudiciales para la República. Denunció además que los abogados y representados del caso Fractal -Pdvsa tienen relación directa con gente ligada al entorno del presidente, Nicolás Maduro, y del vicepresidente, Tareck El Aissami, entre quienes mencionó al ex-edecán del fallecido presidente Hugo Chávez, Antonio Morales, quien en la actualidad es el Superintendente de Bancos de Venezuela y jefe de la inteligencia financiera del país. Hasta el cierre de esta edición no pudo obtener una versión de los hechos por parte de Fractal. Esta columna está abierta a que todas las personas, instituciones y empresas mencionadas en este reportaje puedan expresar libremente sus versiones de los hechos. Invitamos a todas las personas que puedan aportar mayor información para esclarecer el tema, a comunicarse con nosotros

El arma casi secreta de los notarios contra los defraudadores Cuentan con la segunda mayor base de datos de España, que rastrea sociedades fantasma Diari de Tarragona

Curiosamente, una de las armas más potentes en la lucha contra el delincuente de ‘guante blanco’ no está en manos de la Policía, sino de los notarios. Y aunque en un principio pueda resultar algo insólito, tiene su razón de ser: nadie, excepto la Agencia Tributaria, cuenta con


más volumen de información que este colectivo, pues ellos registran cada operación que realizan. Y por sus manos pasa casi todo, infinidad de transacciones (desde hipotecas o herencias hasta un complejo entramado de constitución de sociedades), algunas de las cuales... puede terminar en un juzgado. De esta manera, los notarios españoles se han convertido en aliados imprescindibles del Estado en su lucha contra el blanqueo de capitales y fraude fiscal. Y lo hacen a través del Organo Centralizado de Prevención (OCP) del Blanqueo de Capitales, que depende del Consejo General del Notariado pero que tiene una total y absoluta autonomía. Creado por orden ministerial en 2005, cuenta con dos potentes herramientas informáticas (el Indice Unico Informatizado y la Base de Datos de Titular Real) para identificar a los auténticos propietarios de las empresas y rastrear la constitución de sociedades fantasma y testaferros, en ocasiones siguiendo casi en tiempo real las operaciones de lavado de dinero. Y esto es posible gracias a que desde 2004 los cerca de 2.800 notarios graban de forma estructurada los detalles de cada escritura que firman, más de 390 tipos de actos o negocios jurídicos codificados: poderes, préstamos hipotecarios, compraventas de inmuebles, constitución de sociedades... Unos datos que vuelcan cada 15 días a un servidor encriptado y confidencial: el Indice Unico Informatizado, que, con más de 110 millones de documentos notariales y casi 39 millones de personas físicas y jurídicas registradas, es la segunda base de datos más voluminosa del sector público tras el registro de la Agencia Tributaria, y el pilar de los servicios de prevención del blanqueo de capitales, financiación del terrorismo y fraude fiscal del colectivo notarial. Para aprovechar toda esta valiosa documentación, en el año 2012 el notariado decidió abrir un segundo registro informático: la Base de Datos de Titular Real (BDTR), que permite conocer de forma casi instantánea -en apenas tres minutos de media- quién es el dueño efectivo de una empresa. La información está organizada de tal manera que es posible rastrear el mapa real de la titularidad empresarial, aunque esta titularidad se realice a través de sociedades interpuestas. Y, además, hacerlo en una doble dirección: de las sociedades a la propiedad real y de un determinado titular a las sociedades que controla realmente. E incluso contiene información de las sociedades extranjeras que ejercen actividad económica en España. Y solo queda recogido aquí. En estos momentos pueden acreditar la identidad real de los dueños de más de 2,2 millones de entidades jurídicas, la mayor parte de sociedades limitadas (casi 1,7 millones). Incoherencias económicas Y es que una operación de blanqueo puede empezar por algo inocuo como es un poder... para terminar por un complejo entramado de sociedades pantalla que lo que buscan es que las autoridades no las descubran. Y muchas veces así es... hasta que las sospechas de los notarios, que se basan en las «incoherencias económicas», consiguen destapar este fraude. De esta manera, las notarías no solo graban los datos, sino que a su vez informan de las operaciones extrañas. Los bancos vigilarán más a políticos y consejeros El control afectará, además de a altos cargos de la administración central, autonómica y municipal, a sus familiares y allegados EFE


Ayer a las 19:49 hs - 19:49 hs

El departamento que dirige Luis de Guindos se va obligado a poner en marcha esta reforma acuciado por un expediente de Bruselas. FOTO: EFE Los bancos deberán endurecer el control financiero de las personas de responsabilidad pública, es decir, de los políticos o consejeros y directivos de empresas públicas. Esa es una de las principales medidas del anteproyecto de ley de prevención de capitales que el Gobierno elevó ayer a audiencia pública. Una reforma que supone la trasposición de una directiva europea que el departamento que dirige Luis de Guindos se ha visto obligado a poner en marcha después de que Bruselas abriera un expediente a España por no adaptar completamente la norma comunitaria. Fuentes de Economía confían en que la norma se apruebe a lo largo del primer semestre de 2018 y evitar así una posible sanción de la UE. Precisamente, uno de los puntos que faltaba por incluir tenía que ver con esa mayor vigilancia de estas personas de responsabilidad pública. La normativa no amplía el número de sujetos que tienen tal consideración y que se trata de altos cargos de la administración central, autonómica y de municipios de más de 50.000 habitantes, además de consejeros de compañías públicas. Pero lo que hace es obligar a las entidades financieras a endurecer su vigilancia. Un control que no sólo es para esas personas, sino que también afecta a sus familiares y allegados, algo que ya ocurre con la ley vigente. Hasta ahora, la norma antiblanqueo española establecía una diferencia entre los sujetos englobados en esta definición en función de si eran nacionales o no. En el caso de las personas extranjeras, las entidades financieras ya estaban obligadas a realizar un «control intensivo» sobre el origen de su patrimonio para descartar un origen ilícito. Sin embargo, para los


nacionales dependía del tipo de producto contratado. Si se consideraba que era un instrumento de bajo riesgo, no hacía falta un control exhaustivo. Sin embargo, con el cambio normativo los bancos deberán controlar el origen del patrimonio de estas personas independientemente del producto que soliciten. Es decir, se homologa el tratamiento con las personas de responsabilidad pública extranjeras. Además, la aceptación de estos clientes deberá producirse «por la alta dirección de la empresa», según fuentes de Economía. En caso de que las entidades detectaran algo sospechoso deberán comunicárselo al Servicio Ejecutivo de la Comisión de Prevención del Blanqueo de Capitales (Sepblac), dependiente de Economía, que iniciaría una investigación más en profundidad Estados Unidos investiga a una offshore vinculada al negocio del juego En respuesta a un exhorto, el Departamento de Justicia negó información porque tiene su pesquisa propia DOMINGO 24 DE DICIEMBRE DE 2017 Hugo Alconada Mon SEGUIR LA NACION El gobierno de Estados Unidos rechazó colaborar con la justicia argentina en una investigación que involucra al empresario Federico de Achával por presunto lavado de activos. ¿Por qué? Porque choca con otra pesquisa que se instruye en aquel país, según confirmó el Departamento de Justicia a la Cancillería argentina y cuya copia obtuvo LA NACION. La respuesta oficial de las autoridades estadounidenses llegó a Buenos Aires tras un pedido de colaboración que envió el juez federal Sebastián Casanello sobre Val de Loire, una sociedad offshore que durante los últimos años del gobierno kirchnerista sacó de la Argentina más de US$ 70 millones del mundo del juego.


De Achával. Foto: Archivo El

fiscal

federal Federico

Delgado buscaba

que

autoridades

estadounidenses

interrogaran a María Cecilia Villar Ferreira, una contadora uruguaya que figura como apoderada de Val de Loire con domicilio en Las Vegas, del estudio Mossack Fonseca. Pero la respuesta fue negativa. Con fecha 20 de noviembre, el director de Asuntos Internacionales de la División Criminal del Departamento de Justicia, Vaughn Ary, respondió que no podían brindar "la asistencia requerida en este momento debido a una investigación pendiente estadounidense". "Sin embargo -aclaró- si dentro de un año las autoridades argentinas aún requieren la información reevaluaremos nuestra capacidad de proveer asistencia". En la investigación que se instruye en Buenos Aires, en tanto, el fiscal Delgado busca determinar quién es el verdadero dueño de Val de Loire, ya que según un documento hallado en los Panamá Papers sería De Achával, sospecha que refrendó la Unidad de Información Financiera (UIF). Pero el empresario lo negó tanto ante la prensa como cuando declaró ante la Justicia. Por el contrario, se limitó a consignar que el británico Edmund Ward, ex suegro de uno de los fundadores del buffet Mossak Fonseca, es el rostro visible de "inversores" sin decir sus nombres. Consultado por LA NACION, De Achával reafirmó a través de un vocero su posición. Reiteró que él no es el beneficiario final de Val de Loire ni de los US$ 70 millones que


salieron del país, pero se negó a precisar los nombres sus socios en el Hipódromo de Palermo. Para los investigadores argentinos, la respuesta que llegó desde Washington es un escollo. Pero puede resultar una oportunidad, como ocurrió en 2007 con el "caso Antonini". ¿Quién está detrás? Según expuso LA NACION como parte de los Panamá Papers en abril de 2016, la sociedad Hapsa que preside De Achával ordenó giros al exterior a favor de Val de Loire por US$ 70 millones entre 2007 y 2013. Durante ese período, Hapsa ya había sellado una unión transitoria de empresas (UTE) con Casino Club, de Cristóbal López, para explotar tragamonedas de Palermo. Los voceros de López señalaron a De Achával. "Val de Loire es de él. La usa para sacar parte de las ganancias de Hapsa al exterior y Cristóbal no tiene nada que ver con eso", indicó un portavoz del Grupo Indalo. ¿Cómo era esa operatoria? El director ejecutivo de Hapsa, Enrique Vienni, le remitía una carta a Val de Loire en la que le pedía que hiciera una solicitud de préstamo a Hapsa. Días después, Ward (por Val de Loire) y Achával (por Hapsa) firmaban un mutuo para transferir el dinero, que así lograba salir de la Argentina y viajar hasta terminar en cuentas bancarias de Deutsche Bank AG, en Hamburgo, Alemania, y del PKB Privatebank, en Suiza. Durante toda esa operatoria, López jamás apareció en los mails internos de Mossack Fonseca. Pero otro documento muestra que Val de Loire también tuvo un rol clave para que Casino Club pudiera expandir su negocio, en una operación con los catalanes de CIRSA que abarcó al Casino Flotante de Puerto Madero y al casino de Rosario. A cambio, la firma offshore cobró una comisión de US$ 6 millones que se depositó en Hamburgo. Eso llevó a otra pregunta sin respuesta entre los investigadores argentinos. ¿De Achával cobró por medio de Val de Loire esa comisión de US$ 6 millones a cambio de intermediar entre ellos? Si De Achával no es el dueño de esa sociedad offshore, ¿quién cobró una comisión? ¿Acaso un funcionario kirchnerista por convalidar ese negocio? Y en ese caso, ¿qué funcionario pudo llevarse US$ 70 millones de Hapsa, más otros US$ 6 millones de López y Cirsa?


¿Es

la

inteligencia

artificial

una

realidad

virtuosa?

Ray Kurzweil, director de ingeniería en Google, se sentó con Andrew Ross Sorking, columnista de The New York Times, y hablaron sobre inteligencia artificial. A continuación, un extracto de su conversación. Gracias a la tecnología de vanguardia, los humanos nos volvemos cada vez más listos y vivimos más tiempo. Además, conceptos como aprendizaje automático, inteligencia artificial y realidad virtual están pasando a formar parte del léxico mundial. Ray Kurzweil, futurista y director de ingeniería en Google, está a la cabeza de un equipo que trabaja desarrollando la inteligencia de las máquinas y la comprensión del lenguaje natural; se sentó con Andrew Ross Sorking, columnista del New York Times, en la Global Leaders’ Collective que se celebró noviembre de 2016 en Washington, D.C., organizada por The New York Times. Hablaron sobre la I.A. y sus críticos, el desarrollo sostenible de la población y sobre cómo, quizá pronto, seamos capaces de conectar nuestros cerebros a la nube. A continuación, un fragmento editado y abreviado de esta conversación. Andrew Ross Sorkin. Usted habla sobre la idea de la inmortalidad física y de cómo será posible en el 2045. ¿Podría explicarlo? Ray Kurzweil: Nunca podré decir que he vivido para siempre porque nunca es para siempre, pero hablaré de tres puentes que conducen hacia una prolongación radical de la vida.El primer puente es lo que uno puede hacer ahora mismo para mantenerse sano, la manera tradicional, que nos permite llegar al puente dos. Una idea fundamental es que la tecnología de la


información progresa de manera exponencial; la salud y la medicina son ya tecnología de la información.

Las prostitutas responden a la campaña "Soy putero" con su propio vídeoIván LinaresEn la Jungla. Tras la polémica campaña en pos de abolir la prostitución que protagonizaron dos youtubers, las prostitutas se dirigen a los abolicionistas para defender su punto de vista. recomendado por Esto nos lleva al tercer puente, donde habrá nanorrobots médicos—pequeños robots del tamaño de un glóbulo rojo—que, básicamente, sustituyan el trabajo del sistema inmunitario Por ejemplo, ya se puede arreglar un corazón roto—aún no si se ha roto por cuestiones amorosas, para eso harán falta algunos avances más en el campo de la realidad virtual. Pero ahora mismo ya podemos arreglar un corazón dañado que haya sobrevivido a un ataque al corazón reprogramando células madre adultas. Estamos generando nuevos órganos e instalándolos con éxito y con el propio ADN del paciente en animales y podremos hacerlo en humanos pronto. Lo que ahora es un goteo, en diez años será, probablemente, un diluvio. Ese es el puente número dos. Y esto nos lleva al tercer puente, donde habrá nanorrobots médicos—pequeños robots informatizados, del tamaño de un glóbulo rojo—que, básicamente, acaben el trabajo del sistema inmunitario. Tenemos glóbulos rojos, nuestros linfocitos T, que nos mantienen sanos, pero evolucionaron [tiempo atrás] cuando la especie humana no tenía ningún interés en que viviéramos mucho tiempo. No reconocen el cáncer, por ejemplo, porque eso nos ataca más adelante en la vida. Podemos acabar el trabajo de los linfocitos T con estos nanorrobots médicos. Hay planes muy detallados sobre cómo atacar las diferentes enfermedades una vez tangamos estos aparatos. Estamos hablando del 2030. Al final, nos fusionaremos con la inteligencia artificial.

Andrew Ross Sorkin. El concepto de “singularidad.” Parte del futuro, al menos en su cabeza, es el concepto conocido como singularidad.


Ray Kurzweil: Empezamos con la idea de ampliar nuestra capacidad mental a través de la inteligencia artificial. La mayoría de la gente se siente incompleta si deja su teléfono móvil. Aún no los tenemos dentro del cuerpo o del cerebro—aunque hay algunas personas, como los enfermos de párkinson, que tienen ordenadores en el cerebro—pero será lo habitual en la década de los 2030. Otra aplicación de estos nanorrobots médicos será la de conectar nuestro neocórtex—que es la capa exterior del cerebro, es decir, donde se elabora el pensamiento— con la nube. Se podrá conectar el neocórtex a la nube de la misma forma que ahora conectamos nuestros teléfonos móviles. Seremos un híbrido de pensamiento biológico y pensamiento no-biológico, algo que, en mi opinión, ya ha empezado a darse con los teléfonos fuera de nuestro cuerpo, y seremos cada vez más listos. Para 2045 nuestra inteligencia será mil millones de veces más amplia. Es una transformación tan profunda que hemos tomado prestada esta metáfora de la física: la denominamos un cambio singular en la historia de la humanidad. Andrew Ross Sorkin. Permítame que le mencione a otros dos tipos listos que tienen una visión menos optimista de la I.A. Sus amigos Elon Musk y Bill Gates dicen que la I.A., la inteligencia artificial, supone nuestra "mayor amenaza existencial". Ray Kurzweil: En 1999, escribí en mi libro La era de las máquinas espirituales sobre la promesa entrelazada de la inteligencia artificial, la nanotecnología y la biotecnología versus sus posibles peligros. Hablo sobre las tres fases por las que pasa la gente cuando piensa en serio sobre el potencial de estas nuevas tecnologías. La primera es la inspiración que despierta que estas tecnologías tengan el potencial de solucionar problemas antiquísimos como la pobreza, la enfermedad y la brevedad de la vida. Después viene el miedo a los posibles peligros que acarrean estas tecnologías. Finalmente, se llega a la visión equilibrada de que estos peligros existenciales están pero tenemos medios para superarlos.


Pregunta del público. A medida que estas otras partes del mundo evolucionan, ¿cómo puede evolucionar también nuestra inteligencia emocional? Ray Kurzweil: Aún contamos con un cerebro antiguo que funciona a fuerza de estímulos básicos. El neocórtex, que se encuentra alrededor de nuestro cerebro antiguo, es, en realidad, el gran canalizador. Es posible que yo tenga tendencias prehistóricas hacia la agresión y la conquista. Mi neocórtex las canalizará para que, en lugar de eso, escriba un libro sobre el futuro o dé una conferencia a destacados ejecutivos del mundo de la moda. Ninguna otra especie hace ese tipo de cosas. El neocórtex está organizado de manera jerárquica. La base me sirve, por ejemplo, para identificar que una línea es recta, la parte más alta para entender que algo es gracioso o irónico, o que alguien es guapo.


Añadiremos niveles adicionales a la jerarquía cuando podamos expandir nuestro neocórtex al conectarlo a [un] neocórtex sintético en la nube. Seremos más graciosos; expresaremos mejor nuestros sentimientos amorosos. Ese tipo de emociones, consideradas como los atributos más humanos, se dan en la parte más alta de la jerarquía neocortical. Y vamos a realzarlas a medida que aumentemos nuestra capacidad cerebral. Pregunta del público. La idea de extender nuestra vida de forma radical es emocionante pero, ¿cómo solucionaremos problemas como el uso de recursos y la sostenibilidad si hay un aumento de la población? Ray Kurzweil: Tenemos muchos más recursos de los que necesitamos. Se está dando un crecimiento exponencial, por ejemplo, de la energía solar. Incluso cuando todas nuestras necesidades energéticas estén cubiertas por la energía solar, solo estaremos utilizando una parte de 10.000 de la luz del sol. Lo mismo sucede con la energía geotermal, la mareomotriz, la eólica y demás. Tenemos mil veces más energía de la que necesitamos. La agricultura vertical proporcionará comida a coste muy bajo para toda la población. Al final, seremos capaces de imprimir el resto de objetos físicos que necesitemos con inteligencia artificial avanzada—tecnologías de fabricación asistida en la década de 2020 para cubrir las necesidades de la población. De celulares inteligentes a tanques inteligentes 23 diciembre, 2017 1 510 Compartir en Facebook Compartir en Twitter


Las Fuerzas de Defensa buscan tecnología en el campo civil El ejército israelí está preparado para el futuro adaptando tecnologías revolucionarias del mundo civil, desde inteligencia artificial hasta telecomunicaciones y realidad virtual. La tecnología seguirá desempeñando un papel muy importante en el campo de batalla del futuro, dijo el jefe de la división tecnológica Lotem C4i de las FDI (nominado en la nota como “R”). La alta velocidad de los cambios tecnológicos a nivel mundial requiere que la FDI acelere su tiempo de respuesta y actualice constantemente la tecnología que ofrece a sus soldados. “Necesitamos proporcionar soluciones inmediatas, pero estas no necesariamente tienen que venir de los desarrollos propios: La gran cantidad de tecnologías expedida por el mundo civil ofrece a las FDI la oportunidad de echar mano de las que están ahí fuera y adaptarlas a las necesidades del ejército”, manifestó R. Lotem trabaja estrechamente con las distintas unidades para desarrollar productos conjuntos que satisfagan mejor las necesidades sobre el terreno. A principios de este año, la IDF lanzó su propio teléfono inteligente, desarrollado en colaboración con Motorola. El nuevo teléfono, ya en uso por los soldados en el campo, no solo revoluciona las comunicaciones sino que también permite un aplanamiento de la estructura jerárquica de la cadena de mando, dijo el Col. Avi Duek, jefe del Departamento de Sistemas y Proyectos. Una


vez que los soldados informaron a un comandante y este a su superior, los mensajes luego son recibidos directamente por todos en la cadena de mando al mismo tiempo. El teléfono no permite la comunicación de los usuarios fuera de la red del ejército y tiene protecciones en caso de que caiga en manos del enemigo. Usa 4G y tecnología de banda ancha, una mezcla de redes civiles y militares, e incluye aplicaciones como WhatsApp para un ejército específico. El blanqueo de capitales o lavado de dinero Algunos efectos en la economía y en la sociedad POR SERGIO PINEDA CAMPOS


El blanqueo de capitales, legitimación de capitales o lavado de dinero, en palabras sencillas, es la actividad que trata por diversos medios, de que el dinero obtenido por vías delictivas o ilícitas, pase dentro de la economía como el fruto de actividades productivas, de comercio, entre otras, que son honradas y a todas luces legales, dejando sembrado en su camino de “fortuna y riqueza”, toda una variedad de actividades que causan un enorme perjuicio social, y


dentro de este, un proceso de deterioro económico a países, sectores industriales o comercio y regiones económicas. Los términos lavado o blanqueo no son por mera casualidad, durante los años 20 en los estados Unidos, debido a la prohibición en la producción y comercialización del alcohol –llamada “ley seca”— y la prostitución, el dinero obtenido por la actividad ilegal se invertía en lavanderías de ropa, de tal forma que como esta actividad era casi completamente en efectivo, pues simplemente se confundía el dinero producido por la venta del servicio con el dinero sucio de la venta de alcohol de contrabando y los prostíbulos, “limpiando” el dinero y haciéndolo legal. Quizás estamos más acostumbrados a escuchar el tema del lavado de dinero como producto del narcotráfico; algo que sin duda es correcto, pero hay una variedad de actividades delictivas que producen un alto flujo de efectivo, siendo la idea el uso de ese dinero para ampliar la organización o “mafia”, o bien, el poder aparentar una fortuna como algo legal dentro de la sociedad, accediendo al reconocimiento, posición social, placeres o disfrute de una situación económica ventajosa. Actividades como malversación de fondos, tráfico de armas, todo tipo de robo y contrabando, prostitución, trata de personas, entre otros, también contribuyen con un flujo considerable de efectivo a las organizaciones criminales. Sin duda, hay organizaciones delictivas que son más creativas y usan el inmenso capital disponible para sobornar funcionarios públicos, banqueros, políticos, jerarcas de los supremos poderes, por citar algunos ejemplos, dónde los sobornos no necesariamente son en efectivo, sino que pueden adquirir a nombre de familiares o personas cercanas al funcionario o político, los bienes muebles o inmuebles en otros países, o la asignación de montos de dinero en divisas, alojados en paraísos fiscales y bajo la modalidad de cuentas numeradas. Hay otras actividades económicas que se emplean para el lavado de dinero y que afectan directamente la economía de un país como Costa Rica; la inversión en efectivo de pequeñas sumas de dinero a actividades productivas, sea mediante asociación o por medio de préstamos con tasas de interés accesibles, depósitos en diferentes cuentas de empresas, cuyo monto no llame la atención del sistema bancario y de control, tratando de vincular ésos dineros a procesos de recapitalización empresarial, especialmente de empresas que han tenido que diversificar sus formas de endeudamiento, sea mediante la emisión de nuevos bonos de deuda o nuevas emisiones de acciones; uso intensivo de empresas de papel, donde solamente se requiere la legalización en documentos de la sociedad anónima o entidad mercantil, de tal manera que su funcionamiento sea mínimo y sirva para generar registros contables falsos y como parte de una ramificación de este tipo de empresas, con el fin de confundir o despistar eventuales investigaciones fiscales por los verdaderos montos que se trasladan entre ellas; aparecen inclusive pagando impuestos pero por montos mucho menores de los que manejan. Por lo anterior, me parece incomprensible las actitudes o declaraciones recientes de algún funcionario del Poder Judicial, más específicamente, del Ministerio Público, cuando manifestara de algún modo su poco o nulo interés por la constitución de empresas de papel y su vinculación con la vida económica y más directamente, la relación financiera de estas con el Sistema Bancario Nacional, teniendo tantos antecedentes de actividades ilegales en nuestro país, en toda América Latina y el resto del Mundo. Otras formas del blanqueo de capitales son la compra y venta de bienes como todo tipo de vehículos de transporte, propiedades y afines, los cuales pueden pasarse de manos varias veces dentro de la estructura de la organización, o bien, tratar rápidamente de colocarlos en el mercado y borrar los rastros; inventar, alterar o falsificar facturas de importación o exportación


de diferentes bienes productivos o de intercambio; endeudamientos legítimos y reales dentro del Sistema Bancario Nacional, empleando garantías provenientes de la actividad delictiva, o bien, si el interés es la mera utilización del capital por el capital mismo, se pueden emplear garantías de baja calificación y que ni siquiera cubran el capital inicial del préstamo. La creatividad de las mafias del crimen es enorme, por lo que hay otros medios para lavar dinero y con distintas variaciones; sin embargo el otro interés de este artículo, corresponde a los efectos directos en la economía de un país como Costa Rica. Tenemos un mercado de divisas que es controlado por la oferta y demanda, e intervenido cuando se requiere por el Banco Central de Costa Rica; pero al existir una o varias estructuras de lavado de dinero cuya premisa fundamental es la de no reportar sus caudales, ni al Banco Central y menos al Ministerio de Hacienda para efectos tributarios, la alteración eventual de los indicadores económicos del Banco Central y del Ministerio de Hacienda pueden ser fatales para una economía pequeña como la nuestra. Dos situaciones para ejemplificar: un aumento no registrado de la oferta monetaria en la economía, presiona al Banco Central a que aumente las tasas de interés pues no tiene cómo medir que la mayor circulación de dinero se debe al blanqueo, no a actividades económicas legales, incrementando las tasas de préstamos a la industria, a la construcción de casas, a la inversión en general o por consumo personal; una situación colateral es la especulación que se da por el aumento o la disminución del tipo de cambio, siempre debido a indicadores del Banco Central que no se ajustarían a la cantidad de dinero y especialmente divisas que circulan dentro de la economía y que pueden provenir del lavado de dinero, generando el ambiente propicio para un eventual “mercado negro de divisas”, actividad que sin duda estaría en manos de las organizaciones criminales. Por otra parte, en lo que respecta al mercado inmobiliario, al ser la compra y venta de bienes una actividad principal del crimen organizado, o bien, como consecuencia de una mayor circulación de efectivo en la economía, la conformación de una “burbuja” en los mercados relacionados, hace precisamente que el valor de mercado de propiedades, por ejemplo, sea cada vez mayor, pero no mediante la generación de plusvalía, por citar un factor, sino por la sucesiva compra y venta de dichas propiedades que va alterando los precios de referencia, incluyendo las propiedades vecinas y así de todo el sector; un caso especial, aunque con naturaleza distinta, fue la “burbuja inmobiliaria” que produjo la Crisis Económica Mundial de los años 2007-2008. Las repercusiones inflacionarias de un aumento en el consumo por parte de sectores beneficiados, directa o indirectamente por el lavado de capitales, es una afectación que perjudica a toda la población, ya que el aumento del consumo de bienes y servicios no se debería por un incremento en el poder adquisitivo -digamos aumento de los salarios o disminución de impuestos- siendo los indicadores del Banco Central o del Ministerio de Hacienda, hasta cierto punto ineficaces para reflejar la realidad de la economía nacional, ello ante un escenario de un alto blanqueo de dinero. Las diferentes ramificaciones en la economía y consecuencias para los ciudadanos son muy grandes; los altos niveles de delitos asociados, el alto nivel de corrupción en todas las esferas sociales y de gobierno, las repercusiones en la vida comercial, la ineficiente redistribución de la riqueza, la reputación de nuestro país en los mercados financieros internacionales, son apenas la enumeración de síntomas del lavado de dinero que carcome el alma y la riqueza de una nación.


Por todo ello, resulta preocupante cuando en los medios de comunicación, aparece una noticia que indica que el 73 por ciento de los casos por lavado de dinero son desestimados por el Ministerio Público; un 73% de un 100% de lo que fue denunciado, siendo tan o más preocupante la cantidad de dinero sucio y de redes criminales que siguen en la impunidad, causando dolor, deterioro humano e influyendo de diversas maneras ilegítimas en la sociedad y en la economía nacional. El fortalecimiento de la legislación, una mayor atribución y acceso a datos por parte del Ministerio Público y los tribunales de Justicia, una mayor capacidad logística en cuanto a personal, tecnología y presupuesto para la Dirección General de Tributación Directa y para la Dirección General de Aduanas; una intervención más proactiva de las entidades fiscalizadoras del Sistema Bancario Nacional, del Registro de la propiedad, de la dirección de Notariado, entre otros, harían más difícil el trabajo de las organizaciones delictivas, permitiendo inclusive, que los rastros del dinero sucio sean más evidentes, tanto para desmantelar las organizaciones criminales, sus integrantes y socios, así como las personas que son esclavizadas y que sufren día con día una deshumanización. Pero lo que ayudaría en mucho, es una demostración ejemplarizante de los jerarcas de los tres poderes de la república de erradicar el compadrazgo, el eventual tráfico de influencias, la posible aceptación de dádivas a partidos políticos o particulares, demostrando una tolerancia cero a la corrupción, ya que esta es necesaria para el establecimiento y desarrollo de las organizaciones mafiosas, tal y como ha podido verse en el pasado reciente y en muchos países del mundo. Arabia Saudita exige 6.000 millones de dólares a un príncipe preso por corrupción Publicado: 24 dic 2017 03:24 GMT | Última actualización: 24 dic 2017 03:24 GMT Al Walid ben Talal es la persona más acaudalada de Arabia Saudita y posee la 45.ª fortuna más grande del mundo.


El principe Al Walid ben Talal. Síguenos en Facebook Las autoridades de Arabia Saudita han solicitado al principe Al Walid ben Talal, arrestado en noviembre como parte de una controversial redada anticorrupción, que abone al menos 6.000 millones de dólares por su liberación. Personas familiarizadas con el asunto citadas por The Wall Street Journal han asegurado que se trata de la cantidad más alta que Riad ha demandado a los príncipes sauditas detenidos y podría poner en riesgo el "imperio comercial" de Al Walid. Así, el arrestado se vería obligado a entregar gran parte de su conglomerado Kingdom Holding Company, una de las empresas de inversiones internacionales más exitosas, valorada en cerca de 9.000 millones de dólares. Pese a que los responsables del caso no han ofrecido muchos detalles sobre sus acusaciones, un alto funcionario saudita asegura que este multimillonario inversionista enfrenta cargos por lavado de dinero, soborno y extorsión.


¿Se

ha

gastado

el

príncipe heredero saudí más de 1.000 millones de dólares en 'caprichos'? Sin embargo, un abogado de Al Walid señaló que no se habían presentado acusaciones contra su cliente y que el fiscal solo abriría un caso en su contra si no alcanzan un acuerdo. Al Walid ben Talal, es la persona más acaudalada de Arabia Saudita y una de las más ricas del mundo: de hecho, la revista Forbes estima que posee la 45.ª Mayor fortuna de nuestro planeta. Participa en gigantes estadounidenses como Citigroup, Twitter o Fox Broadcasting y también invirtió en empresas tecnológicas, como Apple o Motorola. Parte de los 11 príncipes, cuatro ministros y decenas de exministros sauditas que estaban confinados en el hotel Ritz Carlton de Riad fueron liberados tras alcanzar compromisos financieros. Este es el caso de Miteb ben Abdulá, hijo del fallecido rey de Arabia Saudita, Abdalá ben Abdulaziz, quien pagó más de 1.000 millones de dólares. 

La investigación la lleva a cabo un comité contra la corrupción creado por el heredero del reino, Mohamed ben Salmán, que decidió reabrir el caso sobre las inundaciones de 2009 y el Síndrome Respiratorio de Oriente Medio (MERS, por sus siglas en inglés), en el marco del cual se practicaron los arrestos. Ese organismo también investiga casos de lavado de dinero y de corrupción en acuerdos de venta de armas, aunque algunos especialistas estiman que su función alternativa también sería eliminar cualquier oposición potencial contra el príncipe Mohamed.

¿REALIDAD O FICCIÓN? MONTAÑA DE DINERO POR CASO LAVA JATO SORPRENDE A BRASILEÑOS


La torre de dinero falso simbolizaba los 4 mil millones de reales aprehendidos en la Operación Lava Jato.

La torre de dinero falso simbolizaba los 4 mil millones de reales aprehendidos en la Operación Lava Jato. Tomado de Facebook

Una montaña de billetes falsos en medio del Centro de Curitiba, capital del estado brasileño Paraná, aglomeraba a curiosos. La estructura, montada en la calle XV de Noviembre, simbolizaba los 4 mil millones de reales aprehendidos en la Operación "Lava Jato"Esta activación forma parte de la campaña promocional de la película “ Policía Federal – La ley es para todos”, que se estrena el próximo 7 de septiembre, informó el portal Globo. PUBLICIDAD La producción del filme quería mostrar una representación de los millones recuperados por la mayor operación contra la anticorrupción y el lavado de dinero en Brasil, que inició el 17 de marzo de 2014. Esta pila de dinero falso estaba acompañada de notas: 148 acuerdos de delación premiada, 28 países cooperaron con las acciones y 45 acciones en Curitiba, parte de los resultados. “ Policía Federal – La ley es para todos”, con una duración de 2 horas y 10 minutos, aborda los orígenes de la operación y culminará con el interrogatorio forzado del expresidente Luiz Inácio Lula da Silva, según la agencia AFP. Jaqueline Damaceno, encargada de marketing de la distribuidora brasileña Downtown, responsable del largometraje, señaló a la revista Exame que lo presentado en Curitiba “es información que todo ciudadano necesita conocer”. Por “Lava Jato”, más de un centenar de políticos y empresarios han sido detenidos y las acusaciones que implicaron al actual presidente de Brasil, Michel Temer.


“Lava Jato” ('lavadero de autos', en portugués), ganó su nombre, destaca AFP, debido a la estación de servicio donde funcionaba parte del esquema de lavado de dinero que desvió, en sobornos, miles de millones de reales de la estatal Petrobras. EL LAVADO DE DINERO ES EL DELITO MÁS DIFÍCIL DE PROBAR: EXPERTOS La falta de coordinación de las autoridades frena la efectividad de la regulación frente a ese delito, coincidieron expertos en 'Lavado de dinero en México', programa especial de El Financiero Bloomberg A pesar de que la regulación en contra del lavado de dinero es sólida, eltema de la efectividad en el combate de este ilícito es uno de los focos más complejos tanto para el sector comercial como para el industrial, lo que vuelve a este delito el más difícil de probar en material legal, según lo que dijeron expertos en Lavado de dinero en México, programa especial de El Financiero Bloomberg TV. Jorge Alberto Lara Rivera, presidente del Buró de Seguridad y Legalidad Financiera, dijo que "en materia de prueba es el delito más complejo de probar", y uno de los factores que se deben reforzarpara realizar un trabajo más eficaz es la concordancia de las autoridades. En otras palabras, que exista cooperación entre las instituciones para combatir cualquier ilícito. Angéliza Ortiz Dorante, doctora en derecho público por la Universidad Autónoma de Barcelona, aseguró que se ha avanzado en cumplimiento técnico, pero hace falta ver los resultados de efectividad del combate contra el lavado de dinero. A propósito del tema de la efectividad, se precisó que en octubre el Grupo de Acción Financiera Internacional (GAFI) entregará los resultados sobre el cumplimiento de las recomendaciones en materia de prevención y combate al lavado de dinero. En cuanto al tema del sistema de regulación, Iván Alemán Loza, socio fundador de la consultora jurídica Alemán y Asociados, mencionó queMéxico está blindado, pero no es inmune, ya que hace falta pasar a las sentencias, a los procesos, a que los casos se prueben y no sólo queden en el registro de una irregularidad. "Tenemos que pasar al tema de la efectividad. Una cosa es lo preventivo, otra es el combate". Los tres expertos coincidieron en que el tema del lavado de dinero es algo complejo que tiene dimensiones que sobrepasan al país, por lo que la medición de este problema tiene dos caras: en algunos estudios, México es protagonista de los países con mayor índice de lavado de dinero; en otros, el país no figura en los primeros lugares. "Hay estudios, como de universidades de Australia y Holanda, donde México no figura en los primeros lugares. En algunos sí estamos y en otros no. México tiene una regulación muy sólida, y en algunos casos está sobrerregulado. Es muy distinto en diversas instituciones. La regulación va más allá que en otros países. Lo que se tiene que ver es qué método se utilizó para ver en qué lugar se puso a los países", dijo Ortiz Dorante.


"El lavado de dinero es un tema delicado. De inicio no conozco una metodología inmune para realizar los estudios. Tanto la cifra como la metodología serían delicadas. El lavado de dinero es un fenómeno internacional. Se necesitan políticas públicas, coordinación y cooperación entre instituciones mexicanas y otros países. Además, es necesario tener la capacidad de desmantelar al delincuente, de enfrentarlo" DETENCIÓN DOMICILIARIA A EMPRESARIO IMPLICADO EN LAVADO DE ACTIVOS PARA ODEBRECHT. César Hernández habría utilizado cuentas bancarias en Panamá para el ingreso de los 4.6 millones de dólares que envió la empresa brasileña a Colombia.

El juzgado segundo penal de garantías de Bogotá le otorgó el beneficio de detención domiciliaria al empresario César Hernández, procesado por presuntamente haber utilizado cuentas bancarias en Panamá para permitir el ingreso del dinero que fue utilizado por la empresa brasileña Odebrecht para pagar sobornos en Colombia para garantizar la entrega del contrato para la construcción de la vía Ocaña-Gamarra en el año 2014. La Fiscalía General sostiene que Hernández ejecutó un lavado de dineros a favor de la trasnacional. Para sustentar su hipótesis jurídica se presentaron una serie de testigos que aseguraron haberle entregado dinero en efectivo y cheques al empresario en su residencia. En la audiencia de imputación de cargos, el fiscal adscrito a la dirección de lavado de activos citó la declaración de un testigo quien fungió como director administrativo de una empresa de vuelos chárter. El director de la misma, conocido con el apodo de ‘El Capi’, le pidió entregarle un dinero en efectivo y unos cheques al empresario. “Fui dos o tres veces, con una suma cercana a los 940 millones de pesos colombianos representados en un cheque por $180 millones que se entregó el 24 de septiembre de 2014 (…) El 26 de septiembre –citó el fiscal- hizo entrega de 165 millones de pesos en efectivo. El 30 de septiembre otra de 50 millones de pesos en efectivo. El primero de octubre de 2014, $250 millones en cheque y posteriormente afirmó llevar el 2 de octubre 294 millones de pesos en efectivo". En la diligencia también se citó la declaración del representante legal de una empresa de aviación en Panamá quien aseguró que le prestó sus cuentas bancarias a Hernández para que éste realizara una consignación cercana a los 512 mil dólares. El empresario le aseguró que este


dinero hacía parte de una asesoría jurídica que había hecho y el pago de una comisión por la venta de una casa en Colombia. “Que le hiciera el favor, porque no tenía cuenta en el exterior”, citó el fiscal al narrar la declaración del testigo. Para la Fiscalía, este dinero hizo parte de los 4.6 millones de dólares que envió Odebrecht para garantizar la entrega de este millonario contrato, el cual fue entregado por la Agencia Nacional de Infraestructura (ANI) como un otrosí al contrato de la Ruta del Sol Tramo II que le fue entregado en el año 2009. La investigación señala que estas sumas de dinero fueron transferidas de manera sistemática por compañías off-shore que eran controladas por el departamento de Operaciones Estructurales de Odebrecht a las sociedades panameñas de aviación Helicontinente S.A. y Coast Helicopter Inc. con cuentas bancarias en Panamá. En la audiencia, el juez de control de garantías avaló la petición del ente investigador que considera que existe un riesgo de manipulación y eliminación de los elementos materiales probatorios recolectados, así como una presión para los testigos. Sin embargo, tras determinar quepresentaba problemas de salud por un accidente en su columna vertebral que lo mantiene en una situación de discapacidad agravada se tomó la decisión de otorgarle la casa por cárcel. Hernández, quien deberá cumplir la detención en su casa en Envigado (Antioquia), se enfrenta, de ser hallado culpable por el delito de activos, a una pena cercana a los 10 años de prisión.

¿CUÁL ES LA RELACIÓN ENTRE "LAVA JATO" Y EL ESCÁNDALO DE ODEBRECHT? A continuación cuáles son las características de la megacausa anticorrupción brasileña y del caso de Odebrecht y los vínculos entre ambas  La investigación "Lava Jato" ("Lavado de autos") es considerada como la operación más grande contra la corrupción política en Brasil. Decenas de políticos, funcionarios y empresarios están acusados de haber participado en una red fraudulenta en torno a la petrolera semiestatal Petrobras.  La constructora Odebrecht, la más grande de América Latina, es una de las principales empresas brasileñas implicadas en "Lava Jato". A raíz de las investigaciones en Petrobras, salió sin embargo a la luz una trama corrupta más amplia, que apunta a una forma extendida de hacer negocios a través del pago de sobornos. Un escándalo propio de Odebrecht, también de dimensiones gigantescas.


La constructora Queiroz Galvao, una de las implicadas en la red de corrupción que operó en Petrobras dentro de lo que se conoce como la operación Lava Jato. RÍO DE JANEIRO.- La operación policial brasileña "Lava Jato" y el escándalo internacional de corrupción de la constructora Odebrecht golpean desde hace tiempo a las altas esferas del poder político y económico en toda América Latina. Explicamos a continuación cuáles son las características de la megacausa anticorrupción brasileña y del caso de Odebrecht y los vínculos entre ambas. "Lava Jato" La investigación "Lava Jato" ("Lavado de autos") es considerada como la operación más grande contra la corrupción política en Brasil. Decenas de políticos, funcionarios y empresarios están acusados de haber participado en una red fraudulenta en torno a la petrolera semiestatal Petrobras. La trama se dio a conocer en marzo de 2014, con una operación en locales de autoservicio y lavados de coches en Brasilia que dio el nombre a la investigación. Las pesquisas se centraban en la concesión fraudulenta de jugosos contratos públicos de Petrobras a empresas interesadas, a cambio del pago de sobornos a políticos y funcionarios. Los "sobrecostos" para las compañías eran compensados normalmente con un encarecimiento de los servicios prestados a Petrobras. Según cifras de la fiscalía de Paraná en el sur de Brasil, a cargo de las principales investigaciones, el monto de los sobornos registrado hasta ahora asciende a los 2.000 millones de dólares (6.400 millones de reales). Se estima, sin embargo, que los perjuicios totales para Petrobras por desvío de recursos y encarecimiento de obras podría superar los 13.000 millones de dólares. Por la operación han sido acusadas hasta ahora unas 260 personas por 56 cargos penales, la mayoría de ellos por corrupción, lavado de dinero y asociación ilícita. Un total de 130 personas, entre ellos importantes políticos y empresarios, han sido condenados a cárcel en 26 sentencias. Las investigaciones siguen en marcha.


Odebrecht desmintió este martes versiones sobre el presunto cierre de sus operaciones en Colombia El caso "Odebrecht" La constructora Odebrecht, la más grande de América Latina, es una de las principales empresas brasileñas implicadas en "Lava Jato". A raíz de las investigaciones en Petrobras, salió sin embargo a la luz una trama corrupta más amplia, que apunta a una forma extendida de hacer negocios a través del pago de sobornos. Un escándalo propio de Odebrecht, también de dimensiones gigantescas. En diciembre, la empresa se declaró culpable ante la Justicia de Brasil, de Estados Unidos y Suiza de haber pagado sobornos, de forma similar a como hizo con Petrobras, en 12 países (diez de América Latina y dos africanos) por más de 785 millones de dólares desde 2001. Las autoridades estadounidenses y suizas tenían competencia por el uso de sus sistemas bancarios para el flujo de pagos ilegales. El ex presidente de la constructora Marcelo Odebrecht fue condenado en 2016 a 19 años de cárcel en Brasil. Varios ejecutivos de la compañía están también presos o son investigados por corrupción. La Justicia brasileña ha llegado a acuerdos de cooperación con 78 de ellos, entre ellos Marcelo Odebrecht, para que revelen la trama corrupta a cambio de beneficios judiciales. Las denuncias de los ejecutivos de Odebrecht condujeron este martes a que el Tribunal Supremo brasileño levante la inmunidad a más de 70 políticos aforados y autorice investigaciones contra un total de 108, entre ellos varios ministros del Gobierno de Michel Temer. También serán investigados los cinco ex presidentes brasileños vivos. Pero la corrupción de Odebrecht también salpica gravemente a otros países de la región. En uno de los casos más sonados, el ex presidente peruano Alejando Toledo (2001-2006) está prófugo de la Justicia de su país desde hace dos meses por cargos de que recibió 20 millones de dólares de la compañía a cambio de favorecerla con la concesión para la construcción de una carretera entre Brasil y Perú.

SENADO ESTADOUNIDENSE DISCUTE DEFINICIÓN DE CRIPTOMONEDAS PARA LEY ANTILAVADO DE DINERO Javier Bastardo


Las criptomonedas siguen ganando terreno dentro de las discusiones legales en Estados Unidos. Recientemente un par de senadores introdujeron un proyecto de ley que podría modificar la condición de Bitcoin dentro de los estatutos legales de este importante eje de la economía global. El proyecto de ley que presentaron a finales de mayo el Senador Chuck Grassley de Iowa y la Senadora Diane Feinstein de California tiene como objetivo principal actuar contra el lavado de dinero, especialmente con la supervisión de las actividades en monedas digitales e instrumentos similares. El proyecto de ley contempla a Bitcoin y otras monedas digitales con definiciones cada vez más cercanas a un “instrumento monetario” bajo los estatutos de EE.UU. Esto tendría una importante repercusión en el estatus de las criptomonedas en el país y además permitiría eliminar un posible vehículo para el lavado de dinero que podría realizarse aprovechando la estructura y el funcionamiento de las criptomonedas. La sección 13 de la propuesta está dedicada específicamente a este punto. Allí, las criptomonedas figuran junto a otra serie de elementos como dispositivos de acceso y tarjetas de valor almacenado -a través de los que se podrían desviar fondos y lavar dinero- por lo que la iniciativa de Grassley y Feinstein, pretende cejar esta opción delictiva. La Sección 13 enmendaría la ley 31 U.S.C. § 5312 para incluir los fondos almacenados en formato digital dentro de la definición de instrumentos monetarios. Esto sometería efectivamente a esos dispositivos a los requisitos de información sobre lavado de dinero en virtud de la Ley de Secreto Bancario, en los casos en que el valor almacenado sea superior a 10.000 dólares. Propuesta de Ley de Lucha contra el Lavado de Activos, Financiamiento del Terrorismo y Falsificación de 2017 Y es que a ojos de las autoridades, este tipo instrumentos monetarios son medios cada vez más eficaces para que los delincuentes oculten y trasladen fondos a través del territorio


estadounidense, pues son fácilmente ocultables (en cuanto a los hardwares), y difícilmente rastreables, en cuanto a los bienes digitales. En ambos casos, estos instrumentos no están cubiertos por los requisitos de información, por lo que la enmienda puede ajustar de manera significativa esta ley. Este nuevo caso se suma a la travesía legal de Bitcoin en los Estados Unidos, donde la criptomoneda cada vez encuentra mayor reconocimiento, si bien existen disparidades entre estados en la manera en que se percibe esta herramienta financiera.

ETERNAS ‘PIRÁMIDES’ Cuando se informó el martes de la captura de ocho personas de una ‘pirámide’, durante una operación adelantada por la Fiscalía, seccional Medellín, el hecho parecía ajeno al Quindío, no obstante al revelarse los pormenores se confirmó que la captadora ilegal de dinero había alcanzado con sus tentáculos a víctimas en el Quindío, y por consiguiente la noticia tomó relevancia regional. Según los datos, la ‘pirámide’ estaba camuflada en una empresa conocida como Conmuvida Internacional S.A., y se dedicaba a la captación masiva ilegal de dinero en Antioquia, Quindío y Nariño. Las víctimas, de acuerdo con los reportes de las autoridades, serían unas 10 mil personas de los tres departamentos que hicieron aportes entre los años 2007 y 2008. El episodio remonta a los quindianos con la actividad que se creía extinta, cuando en noviembre de 2008 fue capturado David Murcia, un camarógrafo, comerciante y empresario, quien fue el creador de DMG Grupo Holding S. A. El gobierno intervino a la organización al ser acusada de negocios ilegales, entre los que se destacaban el lavado de dinero y esquemas piramidales, lo que se constituye en Colombia como “captación masiva e ilegal de dinero”. Aunque la defensa se centró en que no era delito sino una comercializadora de bienes y servicios basados en el sistema de mercadeo multinivel, Murcia fue extraditado a Estados Unidos en 2010 donde fue juzgado por lavado de activos, no sin antes confirmarse que su campo de acción se había expandido a Panamá, Venezuela y Ecuador, y a Brasil, Perú y México, lo cual no se confirmó. El fenómeno de los esquemas piramidales, a pesar de las amargas experiencias vividas por los colombianos, sigue siendo atractivo. En la década pasada se recuerda que muchas familias perdieron sus ahorros, casas y demás propiedades, embelesadas por la consecución de dinero rápido, cuantioso y fácil, sin requerir de un esfuerzo. En abril de 2017, Beatriz Elena Londoño, delegada para el consumidor financiero de la Superintendencia Financiera, SIF, en su paso por Armenia dictó una charla en Fenalco, y dio a conocer el nuevo proceder en los negocios piramidales, considerado como algo que promete mucho y puede quitar todo. La novedad, reveló la funcionaria, son las redes sociales, y por medio de ellas hacen captación en Armenia, Pereira y Cartago, al funcionar en grupos cerrados de Whatsapp, y con los nombres de ‘mandalas de la prosperidad’, ‘telares de la abundancia’ y ‘emprendedores’. “A través de los grupos invitan a la ciudadanía con soportes gráficos orientándola sobre cómo funciona el ‘negocio’ y asegurando que no es una pirámide sino una empresa de


emprendimiento social y que pueden invitar a personas responsables a que ‘inviertan’”, describió Londoño. Es tal vez la malsana cultura que se arraigó entre el colombiano, por medio del narcotráfico, contrabando y negocios ilícitos, y que promueve el afán de convertirse en millonario de la noche a la mañana, lo que es utilizado por los delincuentes para seguir reclutando ingenuos y así llenar sus arcas captando dinero de manera ilegal. No bastó con ver las largas filas de personas angustiadas -en las afueras de las oficinas de las pirámides hace 10 años y que intentaban salvar su inversión-, para coger vergüenza y no dejarse engañar por falsas e ilícitas ilusiones. Esta modalidad de estafa debe tener un freno. Por si no lo saben, la persona que invita a otra, así no esté consciente de que su inversión se quedará ahí, se convierte en captador masivo aunque solamente dé $5.000 o $1 millón, lo que puede acarrear penas de prisión de hasta 10 años si no devuelve el dinero, porque tiene un agravante. Hay información de las autoridades y los medios de comunicación, además de acciones para educar y desmantelar negocios. Las ‘pirámides’ son el reflejo de una sociedad a la que se le incrustó la ilegalidad, por la carencia de valores como el trabajo y la honestidad. En nosotros está en seguir o no engrosando las cifras de víctimas. Las ‘pirámides’ son fáciles de identificar, porque ningún negocio lícito funciona así, uno no puede tener ganancias del 300 % en unos días, pues “de eso tan bueno no dan tanto”. EL BITCÓIN IRRUMPE EN EL MERCADO DE FUTUROS

El bitcóin irrumpe en el mercado de futuros entre dudas sobre su fiabilidad La moneda virtual bitcóin irrumpe hoy en el mercado de futuros estadounidense con su lanzamiento en la plataforma de Chicago CBOE, donde los primeros contratos de futuros comenzarán a ofrecerse esta noche y el primer día de operaciones será el lunes. Además de a CBOE, la autoridad reguladora también ha dado luz verde al intercambio de futuros de bitcóin en el CME de Chicago, el mercado más grande de derivados del mundo, que comenzará el 18 de diciembre a ofrecer contratos, mientras que el índice Nasdaq ha anunciado su intención de seguir los mismos pasos en 2018. El debut de la criptomoneda viene acompañado de un debate sobre si la gestión por parte de operadores profesionales e inversores institucionales contribuirá a su reconocimiento en los mercados o si su sonada volatilidad supondrá un peligro para ellos.


El bitcóin cotizaba a 996 dólares al empezar este año y su valor se ha disparado hasta rondar los 16.000 esta semana, con una escalada en los últimos días que los expertos atribuían a su inminente negociación en los mercados de futuros de EE.UU. Para sus contratos, CBOE se basará en la plataforma Gemini, fundada por los hermanos Cameron y Tyler Winklevoss, conocidos por haber disputado con Mark Zuckerberg la idea original de Facebook y, más recientemente, por acumular más de mil millones de dólares en bitcoines. Los futuros que negociará CBOE bajo el código XBT serán contratos liquidables en efectivo y tomarán como referencia el precio en dólares estadounidenses que se obtenga en las subastas que realiza Gemini, indica la plataforma en su página web. Por su parte, el CME utilizará cuatro casas de intercambio (Bitstamp, GDAX, itBit y Kraken) para producir su índice de precios de bitcóin diario, aunque planea incluir otras en el futuro, indicó una portavoz a The Wall Street Journal (WSJ). Las cinco plataformas en las que han depositado su confianza los dos mercados de futuros de Chicago han tomado medidas para ajustarse a las regulaciones y a las leyes contra el lavado de dinero, según el diario. La moneda virtual creada en 2009, descentralizada y basada en la tecnología "blockchain", ha despertado temores de que sus transacciones escondan operaciones de lavado de dinero o sirvan a países o personas objeto de sanciones económicas por EE.UU. En cuanto a su salida al mercado, preocupa a los inversores que los precios de futuros del bitcóin no se fijen de manera correcta y sigan teniendo movimientos bruscos por su alta volatilidad, o que algunos agentes manipulen los mercados de entrega inmediata para repercutir en los de futuros. En el caso de CBOE, su presidente y consejero delegado, Chris Concannon, aseguró estar "cómodo" con el sistema de subastas de Gemini, a pesar de que ha errado "varias veces" en los últimos meses, en fines de semana con poco volumen de transacciones o festivos, recoge el diario. En este sentido, Cameron Winklevoss defendió los mecanismos de subasta de "eficacia probada" de su plataforma, cuyo acuerdo con la CBOE permite al mercado identificar a "agentes malignos" que intenten manipular esas subastas, añade el WSJ. A raíz de la aprobación de esas negociaciones por parte de la autoridad estadounidense, la Comisión de Negociación de Futuros, tanto CBOE como CME se comprometieron a tomar medidas adicionales para evitar manipulaciones, pero a los inversores les queda la duda ante lo desconocido. "Los grandes índices de capitalización muestran algo de volatilidad en las liquidaciones en efectivo y eso que hay alta liquidez y alta regulación", indicó a CNBC el analista Steve Sosnick, de Interactive Brokers Group, quien añadió que en el caso del bitcóin hay "mucha más incertidumbre". ¡AGUAS CON LOS BITCOIN! SON USADOS PARA DEFRAUDAR Y LAVAR DINERO: CONDUSEF etty Images El Bitcoin es una moneda digital sobre la cual las instituciones financieras de México no pueden resolver quejas, fraudes o quebrantos, señaló la autoridad.


El Bitcoin es un tipo de dinero digital informal, que, no está regulado por ninguna autoridad del país. Lo anterior significa que las instituciones financieras de México están imposibilitadas para responder por algún quebranto o cambio significativo en su valor. La Comisión Nacional para la Protección y Defensa de los Usuarios de Servicios Financieros (Condusef) explicó que el Bitcoin apareció en 2009 como una alternativa a las monedas fiduciarias como dólar, euro, yen, entre otras. Señaló que dicha moneda virtual es utilizada para adquirir bienes y servicios, tanto reales como virtuales; y su valor depende del número de usuarios activos que la compren, así como de los comerciantes que la acepten como medio de pago. “Debido a que el Bitcoin no es una moneda oficial, las autoridades no pueden responder por algún quebranto o cambio significativo en su valor e incluso en otros países se ha señalado su uso en OPERACIONES ILÍCITAS, COMO FRAUDE Y LAVADO DE DINERO”, ALERTÓ LA CONDUSEF. CARACTERÍSTICAS DEL BITCOIN Sobre las características principales del Bitcoin, la Condusef reportó los siguientes datos:  No es una moneda de curso legal y las instituciones reguladas del sistema financiero mexicano no están autorizadas para usar ni efectuar operaciones con ese tipo de pago.  Tampoco existe ninguna garantía o regulación que asegure que los consumidores o comercios que adquieren este tipo de activos puedan recuperar su dinero.  Al ser una moneda virtual que no está regulada, todas las operaciones realizadas son irrevocables.  Lo anterior significa que no no existe forma de que los usuarios puedan reclamar, en caso de que sospechen que son o han sido víctimas de un fraude o algún quebranto, por un cambio repentino y abrupto en su valor o por la suspensión de su cotización. ASÍ OPERABA RED DE LAVADO DE ACTIVOS


Con empresas fachadas y exportaciones ficticias habrían ingresado al país unos 20.000 millones de pesos en los últimos cuatro años. Fiscalía les imputó los delitos de lavado de activos y concierto para delinquir. El pasado 23 de mayo agentes de la Dijín en coordinación con la Fiscalía capturaron en Barranquilla a 16 presuntos integrantes de una red dedicada a lavar activos para bandas criminales que operan en la Región Caribe, entre estas el ‘Clan del Golfo’. EL HERALDO conoció el modus operandi de la red criminal que lavaba activos a nivel nacional e internacional. Según las pesquisas, la estructura criminal utilizaba empresas fachadas para ingresar el dinero al país desde Europa, Estados Unidos o Centroamérica. Para ello, la organización contaba con la colaboración de algunos funcionarios de dos entidades bancarias para la creación de empresas así como los movimientos de sus productos financieros, con el fin de no ser rastreados por las autoridades colombianas. Durante las audiencias preliminares que se llevaron a cabo en Cartagena, la Fiscalía 48 de la Dirección Nacional Antinarcóticos y Lavado de Activos señaló que para los integrantes de la red criminal no era conveniente tener contacto directo con los dueños del dinero, por lo que utilizaban intermediarios, a fin de no generar sospechas y así tener menos riesgos de ser investigados por las autoridades. “Solo tomaban contacto con los intermediarios de la organización criminal, comerciantes o empresarios”, manifestó el fiscal. Identidades y Roles En las investigaciones desarrolladas durante varios meses, los funcionarios judiciales establecieron las identidades de las personas que integraban la organización, entre ellas dos empleados de entidades bancarias. Juan Manuel Echeverri Calvo, de 38 años, quien fungía como asesor financiero de una entidad bancaria. Le prestaba asesoría a Edgardo Enrique Beltrán para la apertura de cuentas de sus testaferros y los movimientos de las mismas. Señalaba cuándo era conveniente cambiar de banco, cerrar alguna cuenta o cambiar de razón social para evadir el control de las autoridades y evitar los Reportes de las Operaciones Sospechosas (ROS) que pudieran emitir los bancos. Jorge Enrique Valbuena Casas, de 73 años, broker de la organización criminal. Según la Fiscalía, era el enlace entre las organizaciones criminales. Coordinaba la entrega del dinero en el exterior y de las consignaciones en cuentas bancarias, cuando se confirmaban las transacciones reclamaba el dinero en Colombia y pagaba el dinero a la organización criminal o a la persona que le había suministrado los recursos en el exterior. Henry de Jesús Rico Quintana, de 45 años, creador de las empresas fachadas Zima Karbalal S.A.S. y Suministros su carga, las cuales estaban a nombre de terceras personas y eran utilizadas para traer dineros desde el extranjero, mediante consignaciones de adelanto de exportaciones ficticias y que servían para justificar en el banco el ingreso de los dineros ilícitos a la empresa. Gina Paola Rodríguez Daza, de 41 años, quien facilitaba su número de cuenta para que le fueran consignadas grandes sumas de dinero que retiraba posteriormente para pagar a las organizaciones criminales. Francisco José Romano Muñoz, de 63 años, al igual que Jorge Valbuena fungía como broker, contaba con muchos intermediarios que trabajan para él. Farid Elnesser Elnesser, de 46 años, testaferro de Henry Rico y representante legal de la empresa fachada Zima S.A.S., la cual era utilizada para ‘bajar’ dinero del exterior por parte de Henry Rico a través de su cuenta corriente.


Farid Chaín Chaín, de 66 años, intermediario de la organización. Era enlance entre los brokers y los comerciantes o empresarios que tenían las cuentas de empresas fachadas o legalmente constituidas para ‘bajar’ dinero, específicamente de Estados Unidos y Centroamérica. Edgardo Enrique Beltrán Romero, alias Michel, de 57 años, otro de los brokers de la organización. Según la Fiscalía, creó empresas fachadas ante la Cámara de Comercio, utilizando el nombre de otra persona, la misma que le servía de testaferro y prestaba su nombre para la apertura de cuentas bancarias. Édgar Guillermo Quintana Peña, de 54 años, testaferro de Henry Rico y representante legal de la empresa fachada Karbalal S.A.S., la cual realizaba negocios y transacciones mensuales por más de $500 millones. La Fiscalía estableció que Quintana reside en un barrio humilde, tiene Sisben y no posee cuenta de ahorros. David José Otero Juliao, de 54 años, intermediario. Era enlance entre los brokers, los empresarios que tienen las cuentas y empresas fachadas; sus ganancias estaban entre los 50 y 80 pesos por dólar.

Otros integrantes De acuerdo con la Fiscalía, otro de los integrantes de la organización criminal es Arturo Nieto Bolívar, de 49 años, también testaferro de Henry Rico. Representante legal de la empresa fachada Karbala S.A.S., al igual que Édgar Quintana, vive en un barrio humilde, tiene Sisbén y no posee cuenta de ahorros. Alberto Antonio Fontalvo Vides, de 54 años, trabajó en un banco donde prestó asesoría financiera a Henry Rico para la apertura de cuentas de empresas fachadas y los movimientos de las cuentas. Estaba pendiente de cuando se reflejara alguna consignación para Henry Rico o a quien él designara, fuera a la sucursal bancaria donde se encontraba y retiraba grandes sumas de dinero. Rafael Alonso Daza Pérez, alias El Gordo, de 48 años, fungía como cobrador de la organización criminal. Trabajaba para una persona a quien identifican como alias El Viejo, dueño del dinero que fue ‘bajado’ desde República Dominicana hacia Colombia, el cual no fue pagado completo por parte de los miembros de la estructura.


Maruen Elnesser Elnesser, de 50 años, alias El Turquito, intermediario de la organización que tenía como función ser el enlace entre los brokers y los comerciantes o empresarios de empresas fachadas o legalmente constituidas para ‘bajar’ el dinero, el cual podría ser lícito o ilegal, pero con el objetivo de conseguir el dólar de una manera más económica. Luz Nelly De Castro Buelvas, de 47 años, intermediaria de la organización, quien era enlace entre los brokers y los comerciantes o empresarios que tenían las cuentas de empresas fachadas o legalmente constituidas para ‘bajar’ el dinero, el cual podría ser lícito o ilegal, con el fin de conseguir el dólar de una manera también más económica. Luis Joaquín Díazgranados Guevara, de 49 años, alias Tico, conductor de un camión transportador de combustible; fungía como testaferro de Edgardo Beltrán Romero, ya que de manera frecuente prestaba su nombre para la creación de empresas fachadas, compra de vehículos, apertura de cuentas corrientes, de ahorro y tarjetas de crédito. La Fiscalía les imputó los delitos de concierto para delinquir y lavado de activos, los únicos que no aceptaron cargos fueron Rafael Daza y Juan Echeverri. El Juez 12 Penal Municipal de Cartagena les dictó detención domiciliaria a los procesados. Según la Fiscalía, la red habría movido unos 20.000 millones de pesos en los últimos cuatro años. LOS LAVADORES PROFESIONALES.-“SI ESTA REGLA LLEGARA A CONSOLIDARSE, LA FISCALÍA SOLO PODRÁ INVESTIGAR A CRIMINALES QUE LAVAN EL PRODUCTO DE SUS PROPIOS DELITOS”. CÉSAR AZABACHE.

"Si dejamos que se establezca esta concepción, el sistema quedará condenado a no aproximarse jamás a la intermediación de fondos clandestinos". (Ilustración: Giovanni Tazza) Las crisis solo terminan siendo aprovechadas si se convierten en la ocasión de revisar los fundamentos que las hicieron posibles. En nuestro caso, la lista de asuntos por revisar es enorme. Comienza sin duda por intervenir en el sistema de financiamiento de la política, ese gran agujero negro que dejamos irresuelto en la transición de principios de siglo. Incluye encontrar un nuevo punto de equilibrio que nos permita impulsar los grandes proyectos de construcción que tenemos pendientes sin cometer los evidentes errores que cometió la política de contratación pública de estos últimos años. Supone además desarrollar un sistema de intervenciones en flagrancia eficiente contra los sobornos. E incluye también modificar nuestra aproximación al problema del lavado de activos.


Detengámonos ahora en este último asunto. Al día de hoy, el lavado de activos sigue siendo entre nosotros un problema intuido, pero no medido en su exacta dimensión. Según la Unidad de Inteligencia Financiera, con datos al 2015, el narcotráfico, la extracción clandestina de oro, la corrupción y un largo etcétera producen US$1.500 millones anuales que se lavan en nuestro medio casi con total impunidad. Es fácil deducir que con este volumen de fondos disponibles en el mercado, el lavado de activos tiene que haber generado ya un sector de intermediarios pujando por filtrar estos fondos en el mercado o reinvertirlos en cualquiera de los sectores de la economía clandestina. Sin embargo, según las estadísticas oficiales del INPE, no hay en las cárceles peruanas ninguna persona detenida exclusivamente por lavar activos. La mayoría de resoluciones publicadas en el portal del Poder Judicial sobre este delito (89, según el recuento hecho antes de cerrar estos comentarios en la firma que dirijo) corresponde a personas que han cometido otro delito (generalmente narcotráfico) y, además, han lavado o intentado lavar ellas mismas, directamente o a través de colaboradores cercanos, los fondos que obtuvieron de sus propios crímenes. Ninguna se refiere a lavadores profesionales de fondos ilegales. Según los registros de la Policía Nacional, jamás se ha ejecutado en el Perú una sola operación dirigida a detener lavadores en flagrancia o a intervenir sus empresas. Hay operaciones, algunas muy exitosas, para casos por narcotráfico. Las operaciones sobre puntos de extracción de oro ilegal también son conocidas. Hay registros sobre intervenciones realizadas contra las corruptelas de menor envergadura que parecen abundar en el transporte público. Pero ningún registro sobre operaciones dirigidas contra lavadores profesionales. Y si revisamos los informes de la procuraduría contra el lavado de activos, no encontraremos información sobre fondos incautados, embargados o recuperados en esta área. Temo que nadie esté mirando la importancia que tiene desestimular el mercado de fondos lavados que existe entre nosotros. En este contexto, en el que los intermediarios que lavan activos parecen ser invisibles, una de las tres Salas Penales de la Corte Suprema, la Segunda Transitoria, acaba de hacer una declaración sumamente peligrosa. La Segunda Transitoria ha declarado que solo deben admitirse investigaciones sobre este delito cuando se cumpla una condición: la fiscalía debe dirigirse contra personas que estén en posición de conocer los detalles del crimen que produjo los fondos que se filtra o intenta filtrar a la economía. Pero solo quienes cometen crímenes están en posición de conocer todos estos detalles. Entonces, si esta regla llegara a consolidarse, la fiscalía solo podrá investigar en adelante a los criminales que lavan o intentan lavar el producto de sus propios delitos. Los intermediarios, los lavadores profesionales, no están, ni veo por qué les pueda interesar estar, en esa posición. Si a alguien no le interesa saber de dónde vienen los fondos con que opera es al lavador profesional. Entonces, si dejamos que se establezca esta concepción, el sistema quedará condenado a no aproximarse jamás a la intermediación de fondos clandestinos. Lavar activos consiste en ocultar su origen. Por eso es imprescindible que las reglas que se emplean en estos casos contengan llaves abiertas que permitan a las autoridades intervenir no solo a quienes generan estos fondos, sino también a quienes, sin intervenir en los crímenes que los producen, encuentran en el lavado de activos una ocupación criminal a la que dedicarse a tiempo completo. Lo que distingue el comportamiento de los lavadores profesionales es la clandestinidad con que operan y el uso intensivo de fraudes para ocultar en la economía el origen de los fondos que se les encarga. Para que el sistema pueda alcanzar a los lavadores


profesionales es preciso comprender que actuar sin que importe el origen de los fondos que se reciben clandestinamente es exactamente lo mismo que proceder conociéndolo. La regla aprobada por la Segunda Transitoria no ha notado que el mercado de intermediación de fondos lavados existe. Y no ha notado que los efectos de su última decisión son devastadores sobre la posibilidad de intervenir en él. ASÍ FUNCIONA Y SE EXPANDE EL MILLONARIO Y COMPETITIVO NEGOCIO DE LAS CIBEREXTORSIONES Mark WardBBC.

El negocio de las ciberextorsiones con programas malignos ya no es un juego reservado a criminales expertos en tecnología. "Es para casi todos". Esa es una de las conclusiones que un equipo de investigaciones de Google, junto a expertos de la Universidad de Nueva York y de la Universidad de California, presentaron en un reporte sobre como fluye el dinero a través de los ataques informáticos con programas malignos. El informe fue presentado este miércoles durante la conferencia Black Hat, un evento anual sobre seguridad informática que se celebra en Las Vegas, Estados Unidos. Según los cálculos de los expertos, durante los dos últimos años los criminales que utilizan programas ransomware (virus que retienen el acceso a archivos informáticos hasta el pago de un rescate) ganaron unos US$25 millones. s, tus arc ¿DEBO PAGAR A LOS CHANTAJISTAS SI MI COMPUTADORA ES INFECTADA CON EL VIRUS WANNACRY? "Víctimas sintéticas" Chris BaraniukCorresponsal de tecnología, BBC El virus informático WannaCry ha infectado a cientos de miles de computadoras en todo el mundo en al menos 150 países. Lo más aconsejable para garantizar que tu sistema está protegido ante el ciberataque es actualizar Windows. Pero ¿qué debes hacer si el ransomware (un programa malicioso que bloquea archivos y exige cobrar a cambio) llega a tu computadora? EL CIBERATAQUE DE ESCALA MUNDIAL Y "DIMENSIÓN NUNCA ANTES VISTA" QUE AFECTÓ A INSTITUCIONES Y EMPRESAS DE UNOS 150 PAÍSES RedacciónBBC Mundo  Compartir Un ciberataque "de dimensión nunca antes vista" logró este viernes bloquear el acceso a los sistemas informáticos de instituciones estatales y empresas de varios países. La policía europea, Europol, indicó que el ciberataque era de una escala "sin precedentes" y advirtió que una "compleja investigación internacional" era necesaria para "identificar a los culpables". El domingo se anunció que el ataque afectó a unas 200.000 víctimas en 150 países.  Ciberataque masivo a escala global: 5 preguntas para entender qué es y de donde surgió el virus WannaCry


La campaña masiva de ransomware, un ataque en el que los perpetradores piden dinero a cambio de liberar el acceso a los sistemas, también afectó a instituciones de Reino Unido, Estados Unidos, China, España, Italia, Vietnam y Taiwán, entre otros. El fabricante de vehículos Renault señaló que detuvo la producción en sus fábricas francesas como consecuencia del ataque. Este es un ataque cibernético importante que impacta organizaciones de toda Europa a una dimensión nunca antes vista Kevin Beaumont, experto en seguridad Se informó que las herramientas usadas en el ataque pudieron haber sido desarrolladas por la Agencia de Seguridad Nacional de Estados Unidos (NSA, por sus siglas en inglés).  Cómo una fisura en Windows fue el origen del ciberataque de alcance mundial (y por qué muchos culpan a la Agencia Nacional de Seguridad de EE.UU.) Hackers se atribuyeron el mes pasado el robo del software, conocido como Eternal Blue, y su distribución por internet. "Este es un ataque cibernético importante, que impacta organizaciones de toda Europa a una dimensión nunca antes vista", dijo el experto en seguridad Kevin Beaumont. "Hemos visto más de 75.000 casos... en 99 países", escribió Jakub Korustek en un blog de la firma de seguridad informática Avast publicado alrededor de las 20:00 GMT de este viernes. Image captionEl sitio del NHS británico mostraba problemas para acceder a sus sistema informático y de telefonía. Horas antes, Costin Raiu, de la tecnológica rusa Kaspersky, había hablado de 45.000 ataques en 74 países. Raiu describió el virus como un "gusano" que se estaba autorreplicando y esparciendo a gran velocidad. Por su parte, Forcepoint Security señaló que el gusano estaba siendo esparcido por una campaña de correos electrónicos malicioso de hasta 5 millones de emails.  "Paga o destruimos tus datos": cuáles son los ramsonware "más buscados" por la policía en Europa ¿Qué piden? Computadoras en miles de lugares han sido bloqueadas por un programa que demanda el pago de US$300 en la moneda electrónica bitcon para que los sistemas puedan ser liberados.  Luego de años en las sombras, el creador de Bitcoin revela su identidad Una de las pantallas bloqueadas este viernes mostraba la amenaza de que un pago a cambio de liberar el sistema debía ser completado antes del 15 de mayo o de lo contrario los archivos serían eliminados cuatro días después. ¿QUÉ ES UN RANSOMWARE? Es un software malintencionado que restringe el acceso a algunos archivos y que pide un rescate a cambio  Se transmite como un troyano o un gusano capaz de duplicarse.  Se presenta como un programa inofensivo pero suele infectar el sistema operativo explotando una vulnerabilidad del software y cifrando archivos. "¡Ups, tus archivos han sido encriptados!", decía el ransomware, el cual es conocido como WannaCryptor o WCry, aunque también es conocido como "WannaCry", en inglés "quieres llorar".


"No pierdas el tiempo, nadie puede recuperar tus archivos sin nuestro servicio de desencriptación", decía el mensaje que supuestamente garantiza la devolución de la información a cambio del pago. Hasta ahora se desconoce quién puede estar detrás de los ataques y si fueron ejecutados de forma coordinada. Sin embargo, varios expertos que dan seguimiento a la situación apuntan a las vulnerabilidades dadas a conocer por un grupo conocido como The Shadow Brokers, que recientemente afirmó haber robado herramientas de hackeo a la NSA. Un parche para reparar la vulnerabilidad fue liberado por Microsoft en marzo, pero muchos sistemas pueden no haber tenido la actualización instalada, según los expertos. y los especialistas recomiendan no pagar rescates por ataques informáticos como Las autoridades en Reino Unido declararon que tenían un "incidente importante" después de que varios hospitales del Servicio nacional de Salud (NHS, por sus siglas en inglés) en Inglaterra y Escocia se vieron afectados. El personal no pudo acceder a los datos de los pacientes, pero hasta ahora no hay evidencia de que su información personal se haya visto comprometida, según el NHS. Ello llevó a la cancelación de cotas con pacientes y la suspensión de actividades como intervenciones quirúrgicas. Entre las empresas españolas afectadas está el gigante de las telecomunicaciones Telefónica, que confirmó que estaba lidiando con un "incidente de seguridad cibernética", pero aseguró que sus clientes no se veían afectados. Las compañías energéticas Iberdola y Gas Natural también registraron problemas en sus sistemas. Otra empresa que confirmó que había sido atacada fue la empresa de mensajería estadounidense FedEx, aunque no aclaró en qué lugares hizo efecto elransomware. "Al igual que muchas otras compañías, FedEx está experimentando interferencia con algunos de nuestros sistemas basados en Windows", dijo la empresa en un comunicado. En Italia, las computadoras de un laboratorio universitario quedaron bloqueadas por el mismo programa, como mostró un usuario en Twitter. Image captionLa coordinación de algunas ambulancias y los sistemas de registros de consultorios médicos resultaron afectados en Inglaterra y Escocia. La mayor y más creciente amenaza: Chris Baraniuk, reportero de tecnología de la BBC El software que bloquea la computadora y exige el pago antes de devolverle el acceso al usuario, llamado ransomware, es una de las mayores y crecientes amenazas informáticas del mundo. Ciertamente parece que eso es lo que ha golpeado al NHS en este caso. Imágenes compartidas en línea, supuestamente de miembros del personal del NHS, muestran un programa que exige el pago de US$300 en bitcoin y que se parece al ransomware conocido como WannaCryptor o WCry . Sin embargo, no hay ninguna indicación de quién está detrás del ataque ni sabemos exactamente cómo infectó los sistemas del NHS. Los hospitales ya han sido blanco de un software similar antes, como el que golpeó tres hospitales de Estados Unidos el año pasado. ¿Afecta a computadoras personales?


Sí y es una de las trampas que más han crecido entre usuarios de computadoras personales, normalmente a través de correos electrónicos. Una de las variantes de ransomware más extendidas se llama Locky. Image captionLa recomendación es no abrir documentos o archivos adjuntos de correos electrónicos de procedencia desconocida. Se trata de un virus troyano que recibe la víctima a través de un correo electrónico que le pide abrir un archivo adjunto con un título similar a "documento de pago" o "recibo". Una vez abierto, a través del programa Word o en archivo comprimido, los comandos (macros) se ejecutan de forma automática y "toman" el control del ordenador. Lo siguiente que ve la víctima es una pantalla con instrucciones de pago en bitcoins como los que se vieron este viernes alrededor de mundo. Otros ransomware comunes son CryptoWall4, PadCrypt o Fakben. La recomendación de los expertos para los usuarios comunes es no abrir archivos adjuntos de procedencia desconocida. 

WannaCry: por qué los expertos creen que otro ciberataque masivo puede ser "inminente" y qué puedes hacer para protegerte

QUÉ PUEDES HACER PARA PROTEGERTE DE LOS ATAQUES MASIVOS DEL VIRUS WANNACRY RedacciónBBC Mundo Un nuevo ciberataque masivo puede ser inminente, luego del ataque global lanzado el viernes que afectó unos 125.000 sistemas de computación, advierten los expertos. El investigador británico conocido como MalwareTech, quien ayudó a parar el ataque del ransomware denominado Wanna Decryptor (también llamado WannaCrypt o WannaCry), predijo "otro más, probablemente el lunes". Por su parte, el jefe de la Oficina Europea de Policía (Europol), Rob Wainwright, advirtió este domingo en entrevista con BBC que existe una "amenaza creciente" de nuevos ataques, por lo que hizo un llamado a aplicar los "parches" de seguridad que ofrecen sistemas como Windows lo antes posible. Sin embargo, la segunda ola de ataques masivos del malware WannaCry, que se esperaba para este de mañana lunes, no ha sucedido. Lo que sí ha pasado es que el virus se ha expandido a Asia. La diferencia horaria había hecho que la mayoría de empresas tuvieran sus oficinas ya cerradas cuando WannaCry empezó a actuar. Pero ahora que millones de empleados han encendido sus computadoras en su vuelta al trabajo, el virus se ha activado. Riesgo aún latente El virus se aprovecha de una vulnerabilidad de Microsoft Windows que fue previamente identificada por la Agencia Nacional de Seguridad (NSA según sus siglas en inglés) de EE.UU, dijeron los expertos. La compañía creó un "parche" para reparar la falla, pero muchos usuarios no lo han instalado, por lo que el riesgo aún es latente.  El "accidente" por el que un joven de 22 años se hizo "héroe" al detener el virus que secuestró computadoras en casi 100 países Cómo protegerte


Mantén tu computador actualizado El ransomware ingresó por una fisura de Windows que fue reparada a través de un "parche", disponible en una actualización que Windows lanzó hace más de un mes. Como los computadores no se "parchan" automáticamente, es trascendental instalar las actualizaciones de los programas lo antes posible apenas aparecen. No abras correos electrónicos sospechosos En general, un virus se esparce a través de correos electrónicos con archivos adjuntos que al abrirse toman el control de tu computador. No abras correos de personas o instituciones que no conozcas e incluso si llegan de conocidos, sospecha de archivos adjuntos extraños. Actualiza tu sistema operativo Otra manera en que este ransomware se expandió fue a través de sistemas operativos obsoletos, como Windows XP, todavía utilizado por instituciones como el Servicio Nacional de Salud (NHS, según sus siglas en inglés). Estos no tienen protección contra los virus modernos. Respalda tus archivos Algo básico, pero importante: mejor prevenir que lamentar. Si alguien toma el control de tu computadora, es importante tener tus archivos respaldados, así no los pierdes. Usa un antivirus Un consejo antiguo, pero efectivo. Los antivirus puede detener un ransomware o rastrearlo en un archivo sin instalar. MalwareTech, el británico que consiguió detener una de sus variantes al comprar un dominio, advirtió el pasado domingo que los hackers podrían actualizar el virus para remover el "interruptor de emergencia" que ayudó a detenerlo. "La version 1 de WannaCry se pudo detener, pero la versión 2.0 puede arreglar la falla. Sólo estás seguro si instalas el parche lo antes posible", publicó en su Twitter. El investigador de seguridad cibernética Darien Huss, de la firma tecnológica Proofpoint comparte su visión. "Tengo la sospecha de que, con la cantidad de cobertura que este incidente está teniendo, probablemente ya hay gente trabajando para reincorporar el exploitque se usó para expandirlo (el virus)", asegura el experto. Según su experiencia en ataques dirigidos, Huss no cree que un Estado esté implicado en este. rvicio Nacional de Salud (NHS, según sus siglas en inglés) fue atacado por el virus, según reconoció en un comunicado. "Este ataque fue tan simple, tan poco sofisticado que me lleva a creer que la gente o la persona involucrados, a pesar de ser muy capaces, son más amateurs", dice Huss. Responsables Los investigadores ya están trabajando para rastrear a los responsables del ransomware utilizado el viernes. Europol describió el ciberataque como "sin precedentes" y dijo que su equipo de cibercrimen está trabajando en los países afectados para "mitigar la amenaza y ayudar a las víctimas". "Estos cibercriminales pueden creer que quedarán en el anonimato, pero usaremos todas las herramientas a nuestro alcance para ponerlos a disposición de la justicia", comentó Oliver Gower, de la Agencia Nacional del Crimen de Reino Unido, país en el que el virus hizo caer parte de su sistema de salud el viernes.


"Hay un montón de dinero en juego. No hay ninguna razón para que (los hackers) se detengan. No requiere mucho esfuerzo cambiar el código y lanzarlo nuevamente", afirmó MalwareTech. Por fortuna, protegerse está al alcance de todos. La principal recomendación de los expertos es no pagues el rescate. Puede que para algunos US$300 no sea un precio muy alto para recuperar datos irremplazables que fueron encriptados contra su voluntad. De hecho, un bot de Twitter que monitorea pagos con la moneda virtual a carteras electrónicas de los autores de WannaCry sugiere que algunas personas están dispuestas a desembolsar el dinero para solucionar la situación. parecen estar pagando en torno a US$300 a los criminales para recuperar sus archivos. Sin embargo, como estás tratando con criminales no hay motivos para esperar una respuesta honesta.  Cómo una fisura en Windows fue el origen del ciberataque de alcance mundial (y por qué muchos culpan a la Agencia de Seguridad Nacional de EE.UU.)  "Paga o destruimos tus datos": cuáles son los 'ramsonware' "más buscados" por la policía en Europa Además, debido a la manera en que WannaCry está diseñado, lo más probable es que muchas personas no puedan recuperar el acceso a sus archivos incluso si pagan el dinero. "Un operador humano debe activar el descifrado de manera manual", explicó en Twitter Matthew Hickey, un investigador de ciberseguridad de la compañía británica Hacker House. También se espera que las víctimas se pongan en contacto con los hackers para recibir una "llave" que les permita desbloquear los archivos, le dice a la BBC Alan Woodward, experto en seguridad de la Universidad de Surrey, en Reino Unido.

"Pero dudo mucho que alguien devuelva la solicitud de contacto, teniendo en cuenta la atención que hay ahora puesta sobre este tema", explica el especialista.


"Si alguien paga este rescate es más que probable que envíen bitcoins que se vincularán con una dirección para siempre. No tiene sentido". ¿Qué puedes hacer? Las buenas noticias es que es muy poco probable que los usuarios domésticos se hayan visto afectados. WannaCry se ha extendido en redes empresariales a través de una vulnerabilidad en Windows que la mayoría de los individuos en sus casas han protegido con un parche.  Virus WannaCry: ¿corre peligro mi computadora? Y muchos ni siquiera están están en riesgo ya que no tienen computadoras o sistemas vulnerables en su casa. Sin embargo, para aquellos desafortunados que sí fueron afectados -ya sea en el trabajo o dentro de una institución- lo mejor es asumir que el acceso a los archivos que no fueron guardados en una copia de seguridad desconectada de la computadora se han perdido para siempre.

los especialistas. Por eso es tan importante hacer backups (copias de seguridad) en una unidad o máquina aparte de manera regular. Es posible eliminar Wannacry de la computadora una vez está ahí, aunque el proceso es complejo. El sitio de ayuda tecnológica Bleeping Computer dice que para desinfectar la máquina hay que descargar algunos programas. No obstante, los expertos admiten que eso no descifrará los archivos encriptados por el ransomware probando, una vez más, que no hay nada que pueda sustituir un buen backup.

Los ransomware se utilizan para infectar las computadoras de las víctimas para luego encriptar sus archivos, de manera que estos no puedan leerse o usarse. Para que el usuario pueda desencriptarlos, el criminal le exige que pague unaextorsión. Estos pagos usualmente se hacen a través de la moneda virtual Bitcoin.  Qué es el ether, la nueva moneda virtual que amenaza al bitcoin y que creció más de un 4.000% en menos de 6 meses  El ciberataque de escala mundial y "dimensión nunca antes vista" que afectó a instituciones y empresas de unos 150 países


Para su estudio, los investigadores buscaron los archivos utilizados para infectar las computadoras y los pusieron a funcionar en miles de máquinas virtuales, para generar lo que llamaron "víctimas sintéticas". Luego monitorearon el tráfico de esta red de infectados para observar hacia a dónde sería transferido el dinero. La información que reunieron en esta etapa también sirvió para encontrar nuevas variantes de programas malignos. Los 300.000 archivos malignos que hallaron se dividieron en 34 "familias", entre las cuales Locky y Cerber fueron las más populares. El análisis reveló que esas dos cepas fueron las que más dinero produjeron en 2016, sumando un total de US$15 millones. El reporte también reveló que más del 95% de los pagos realizados con moneda virtual se cambiaban a efectivo usando el servicio ruso BTC-e. El pasado 26 de julio, Alexander Vinnik, uno de los fundadores de BTC-e, fue arrestado por la policía griega y enfrenta cargos por lavado de dinero.  El virus que secuestra tu computadora y te pide rescate aquí para quedarse", dice el autor del reporte sobre programas malignos Un negocio en crecimiento Según el análisis, las bandas criminales detrás de la ciberextorsión no se detendrán por ahora, aunque están enfrentándose a nuevos competidores. "Este es un mercado que se mueve rápido", dijo Elie Bursztein líder del equipo de Google. "Hay una competencia agresiva", aseguró. Los ciberataques extorsivos "se han vuelto muy rentables, y están aquí para quedarse".

EL JOVEN DE 22 AÑOS QUE SE HIZO "HÉROE" AL DETENER EL VIRUS QUE SECUESTRÓ COMPUTADORAS EN UNOS 150 PAÍSES RedacciónBBC Mundo 13 mayo 2017

El ciberataque que golpeó el viernes los sitios de organizaciones en unos 150 países fue muy efectivo, pero tenía un punto débil que vio un analista informático que ahora es considerado un "héroe".


Una simple acción de un joven de 22 años, conocido en internet con el nombre deMalwareTech, logró contener parte del ransomware, el virus troyano que literalmente secuestra la información de una computadora y exige un pago para liberarla.  El ciberataque de escala mundial y "dimensión nunca antes vista" que afectó a instituciones y empresas de casi 100 países  "Paga o destruimos tus datos": cuáles son los 'ramsonware' "más buscados" por la policía en Europa MalwareTech se encontraba la noche del viernes analizando el código detrás del programa malicioso cuando hizo un descubrimiento que resultaba evidentemente extraño. El software, llamado WannaCry, se estaba esparciendo al usar una extraña dirección de internet, que por seguridad de los lectores no mencionamos, pero notó que esa dirección no llevaba a ningún sitio. Eso se debía a que nadie había registrado ese dominio, es decir, la página base en la red la cual funcionaba como base para esparcir el virus y activar su daño.

Derechos de autor de la imagenPAImage captionEl programa malicioso usado en el 'ransomware' exige a contrarreloj un pago por la liberación del sitio. Al notarlo, MalwareTech pagó los US$10,69 para comprar la dirección web, y al ser el propietario pudo acceder a los datos analísticos y tuvo una idea de cómo estaba funcionando este ransomware. Y no solo eso: al registrar la dirección también notó que el software malicioso se detuvo. "En realidad, en parte fue por accidente", dijo en una charla con la BBC. Su hallazgo hizo que potenciales víctimas en todo el mundo, tanto instituciones privadas como del gobierno, evitaran perder miles de millones de dólares. ¿Qué pasó? Desde el viernes, la campaña masiva de ransomware, un ataque en el que los perpetradores piden dinero a cambio de liberar el acceso a los sistemas, afectó a instituciones de Reino Unido, Estados Unidos, China, España, Italia, Vietnam y Taiwán, entre otros, pero principalmente de Rusia. ¿QUÉ ES UN RANSOMWARE?


Es un software malintencionado que restringe el acceso a algunos archivos y que pide un rescate a cambio  Se transmite como un troyano o un gusano capaz de duplicarse.  Se presenta como un programa inofensivo pero suele infectar el sistema operativo explotando una vulnerabilidad del software y cifrando archivos. Entre los más afectados estuvo el Servicio Nacional de Salud británico, la empresa española Telefónica, el fabricante de vehículos Renault, y la servicio de mensajería de FedEx. Primero se creía que el virus tenía una especie de "interruptor de apagado" para detener la propagación del ransomware,en caso de que las cosas se salieran de su control para su creador.  Ciberataque masivo a escala global: 5 preguntas para entender qué es y de donde surgió el virus WannaCry Si ese fuera el caso, el acto de registrar la dirección web misteriosa activó ese interruptor. Pero luego de horas de análisis, "sin pegar un ojo" para dormir, MalwareTech piensa que no era ese el caso, sino una manera de detectar si el malware se estaba ejecutando en una "máquina virtual". Derechos de autor de la imagenEPAImage captionEl Se trata de un software seguro, desechable, que los investigadores utilizan para inspeccionar los virus. Mientras que un ordenador real no era capaz de acceder a la dirección registrada por el joven de 22 años, una máquina virtual podía obtener respuesta artificialmente y dar por válido el sitio como real. "Mi registro (de la dirección) causó que todas las infecciones a nivel mundial creyeran que estaban dentro de una (máquina virtual) y salieran... por tanto, mi intencional acción previno la propagación y posterior petición de rescate de los ordenadores", describió MalwareTech. El investigador ha sido llamado un "héroe accidental" por frenar la propagación del virus. "Yo diría que eso es correcto", dijo a la BBC.

l estación de transporte en Frankfurt se vio afectada por el virus, lo que dejó sin funcionamiento las pantallas de salidas y llegadas. ¿El 'ransomware' está derrotado? Si bien parece haber detenido una cepa de la propagación del virus con el registro de la dirección web, esto no significa que el ransomware en sí haya sido detenido. Los archivos que ya fueron enviados por el software malicioso todavía piden un rescate "Es muy importante que la gente actualice su sistema", planteó MalwareTech, con los parches de seguridad que ofrece Windows para evitar la entrada de este virus Los expertos en seguridad han advertido que podrían aparecer nuevas variantes de WannaCry que ignoren al "interruptor de apagado". "Esta variante no debe estar extendiéndose más lejos, sin embargo, es casi seguro que habrá imitaciones", dijo el investigador de seguridad Troy Hunt en un blog.


MalwareTech advirtió: "Hemos detenido este, pero habrá otro que venga y no va a poder ser detenido por nosotros". "Hay una gran cantidad de dinero en esto, no hay ninguna razón para que se detengan. No es mucho esfuerzo para ellos cambiar el código y empezar de nuevo", alertó. "12 ataques por segundo": cuáles son los países de América Latina más amenazados por "malware" RedacciónBBC Mundo 

Latina, la mayoría de los ataques de malware no llegan por internet. Al menos 12 ataques de programas maliciosos -malware- cada segundo: a eso estuvieron expuestos los latinoamericanos durante el último año, según un reciente reporte de la empresa internacional de ciberseguridad Kaspersky Lab. El promedio mantiene a la región muy por detrás de Asia y África e incluso algunos países europeos en lo que se refiere a infecciones de software indeseable, pero según Kaspersky en países Brasil casi la mitad de las computadoras analizadas fue objeto de amenaza (49,9%). Mientras que en Perú, Bolivia, Chile, México y Colombia las afectadas fueron aproximadamente 4 de cada 10.  Por qué no conviene tener más de un antivirus instalado en tu computadora El malware -del inglés malicious software- es el nombre genérico dado a los programas que tiene como objetivo infiltrarse en una computadora u otro equipo informático sin permiso de su dueño, a menudo con intenciones criminales. El término incluye a virus, gusanos, troyanos y otros programas maliciosos. Intentos de ataque por usuarios conectados País

Porcentaje

Brasil

49,9%

Perú

41,9%


Bolivia

41,8%

Chile

40,0%

México

39,9%

Colombia

39,3%

Guatemala

37,5%

Ecuador

36,1%

Venezuela

36,0%

Uruguay

30,0%

Argentina

29,5%

En total, y utilizando como principal fuente a su servicio basado en la nube Kaspersky Security Network, la empresa de origen ruso registró más de 398 millones de ataques de este tipo de programas entre agosto de 2015 y agosto de 2016. Y su reporte -dado a conocer esta semana durante su 6ta Cumbre Latinoamericana de Analistas de Seguridad, celebrada en Los Cabos, México- arroja interesantes pistas sobre el comportamiento informático de los latinoamericanos, así como sobre los riesgos a los que están expuestos.  Qué es el virus HummingBad que afecta millones de teléfonos Android Cuidado con los USB Efectivamente, Kaspersky identificó como la principal fuente de amenazaprogramas piratas, memorias USB contaminadas y "otros medios que no requieren el uso obligatorio de internet". Según la firma, los ataques activados por este tipo de vías representaron el 82% de los casi 400 millones de ciberataques identificados, lo que significa que únicamente el 18% correspondió a ataques en línea.


aumentan la vulnerabilidad de los usuarios. La fuerte conexión entre ciberataques y el uso ilegal de software no debería sorprender en una región en la que se estima que los programas piratas constituyen el 55% de todo el software instalado, según estimaciones de la Business Software Alliance citadas por Kaspersky Lab.  5 errores comunes en el mantenimiento de tu computadora De hecho, según Dmitry Bestuzhev, Director del Equipo de Investigación y Análisis para América Latina de la empresa, entre las 10 principales amenazas más comunes en la región se encuentra el malware que se hace pasar por un crackpara instalar Microsoft Windows en los sistemas operativos. Según Bestuzhev, algunas variaciones de ese software ilegal no solamente activan de forma ilegal a Windows, sino que también sirven como una puerta trasera para la instalación de módulos de acceso remoto no autorizado en las computadoras de las víctimas. "Es importante recordar que al software ilegal no se le puede dar soporte técnico. Y sin actualizaciones o parches de seguridad, el usuario se expone a muchas amenazas especialmente lanzadas desde el internet", explicó además Bestuzhev. "Lo que termina sucediendo es que por querer ahorrarse dinero o salir de vivo, el usuario termina contaminando su máquina", agregó el especialista de Kaspersky, empresa que protege a unos 400 millones de usuarios a nivel global. Phishing y demás Esto no significa, sin embargo, que aquellos que evitan la piratería están libres de amenazas, pues siempre pueden ser víctimas de correos engañosos (phishing) u otro tipo de ataques por internet.


Según Kaspersky, la inmensa mayoría de los ataques por internet (82%) -que por lo general se producen cuando los usuarios visitan páginas o hacen clic en enlaces de apariencia inocente, pero vinculadas a cibercriminales- son ataques de código malicioso, cuyo objetivo en general es el robo de datos. Y el resto pertenece a aplicaciones de adware que se instalan en las barras de herramientas o hacen que el navegador muestre publicidad no deseada. "Ya que este tipo de software no siempre es bloqueado por el antivirus (por cuestiones legales), tiende a ser uno de los más usados por los cibercriminales", explicó Bestuzhev. Mientras, de los ataques que se propagan por correo electrónico, la mayoría de los intentos identificados por Kaspersky tuvo que ver con la descarga de troyanos bancarios (57%) y el ransomware (27%), como se conoce a los programas que "secuestran" a las computadoras para cobrar rescate.  "Paga o destruimos tus datos": cuáles son los ramsonware "más buscados" por la policía en Europa Y, por supuesto, también están los intentos de phishing: esos correos engañosos que tratan de convencer al usuario que comparta información sensible. Usuarios que han recibido mensajes de phishing País

Porcentaje

Brasil

12,3%

Argentina

7,5%

Ecuador

5,7%

Venezuela

5,2%


Bolivia

5,2%

Colombia

5,1%

Chile

5,0%

México

4,4%

Perú

4,3%

Costa Rica

3,9%

Paraguay

3,9%

Uruguay

3,8%

Según Kaspersky, un 12,3% de los usuarios brasileños han sido víctimas de este tipo de ataques, mientras que el segundo país más afectado es Argentina (7,5%), que es sin embargo el menos afectado por ataques de malware. Luego siguen Ecuador (5,7%), Venezuela (5,2%) y Bolivia (5,2%), mientras que el país menos afectado por el phishing parece ser Uruguay (3,8%).


Lavado de activos virtual

Esta moneda virtual tiene como caraterística principal que no circula y solamente puede ser utilizada por los bancos centrales de los paises miembros del Alba, como forma de contabilizar su intercambio comercial, sin necesidad de usar el dólar americano como divisa de referencia. El Sucre es utilizado en las diferentes transacciones comerciales a través del Banco del Alba, en el que los estados participantes colocan sumas de capital, creando un fondo de compensación, para eliminar la dependencia de las monedas utilizadas en los mercados como referencia para las convenciones y tratados internacionales comerciales. La moneda virtual tiene entonces como finalidad eliminar de las transacciones internacionales el dólar estadounidense, y conformar una moneda suramericana, inicialmente como mecanismo de compensación de pagos. El 27 de enero de 2010 comenzó a ser utilizado el Sucre como moneda virtual de intercambio comercial; de hecho la primera transacción comercial que se realizó mediante el Sucre fue la exportación de arroz venezolano a Cuba el 4 de febrero de ese mismo año y a la fecha, desde su


entrada en vigencia, se han realizado un poco más de 5.800 operaciones, por un monto cercano a los US$2.600 millones. Es tal la facilidad con la que el Sucre permite las transacciones internacionales y tan laxos los controles sobre las mismas, no solo por parte de los países miembros del Alba, sino por parte de la comunidad internacional, que el sistema ha sido recientemente objeto de múltiples críticas, por ser una herramienta ideal para la realización de operaciones de lavado de dinero, incluso hay quienes afirman que el sistema se ha utilizado para ayudar a realizar transacciones comerciales a países sobre los cuales pesan sanciones económicas. Actualmente existen casos documentados, y en proceso de investigación en los que varias empresas, en algunos casos ficticias, usan el Sucre para sacar dinero de Venezuela hacia el Ecuador y luego enviarlo a paraísos fiscales, sin que en el país de destino los recursos permanezcan más de 72 horas, lo que claramente tiene como consecuencia desajustes en las balanzas comerciales de los respectivos países. Todo ocurre cuando se realizan operaciones ficticias a través de empresas de papel ya sean de Ecuador o Venezuela, algunas de ellas con nexos en Colombia, siempre con la ayuda de testaferros o la existencia de una sobre facturación en operaciones de comercio exterior. Es famoso en Ecuador el caso de una empresa con vínculos en Colombia que firmó un convenio, en presencia del Presidente Juan Manuel Santos; la Canciller de Colombia, Maria Angela Holguín; el fallecido Presidente de Venezuela, Hugo Chávez; el Canciller de Venezuela de la época, hoy Presidente, Nicolás Maduro; y otros miembros de los gabinetes de ambos países Las actividades sospechosas, que involucrarían cerca de 5% del total de las transacciones que utilizan esta moneda virtual, son transacciones que incluyen compañías registradas con datos falsos, transferencias bancarias realizadas por encima de los ingresos y gastos que registran las empresas y pagos por bienes inexistentes, por lo que dichas actividades estarían relacionadas con el lavado de recursos provenientes del narcotráfico o de actividades relacionadas con actos de corrupción de altos funcionarios públicos de países vecinos. Para nadie es un secreto que varios de los países miembros del Alba, históricamente han sido utilizados para la realización de actividades relacionadas con la producción y tráfico de drogas y es muy probable que de la mano del Sucre como moneda virtual se facilite el flujo transnacional de las enormes ganancias ilegales que genera el narcotráfico y la corrupción. Así las cosas, de la mano del Sucre como innovación transaccional de los países miembros del Alba, las grandes mafias perfeccionan cada vez más las herramientas necesarias para lograr dar apariencia de legalidad a los dineros producto de actividades ilícitas como narcotráfico y corrupción oficial, que claramente en nada contribuyen a la integración de los pueblos sino muy por el contrario a la desintegración social. A ESTARÍA PROYECTANDO EMITIR EL "CRIPTORUBLO", SU PROPIA MONEDA VIRTUAL.


Pese a la desconfianza de Vladimir Putin hacia la virtualización de las divisas, medios rusos señalaron que este no sería contrario a este uso del dinero

Rusia estaría proyectando emitir el "criptorublo", su propia moneda virtual Síguenos en Facebook Gobierno de Rusia estaría planeando poner en circulación muy pronto su propia moneda virtual pese a la desconfianza que siente hacia este tipo de emisión de dinero, según informó el CoinTelegraph refiriendo a medios de Rusia. "El presidente de Rusia Vladimir Putin ha establecido oficialmente que Rusia tendrá su propio 'Criptorublo' en una conferencia a puertas cerradas en Moscú, de acuerdo a fuentes locales de noticias", señaló el medio económico. De acuerdo al CoinTelegraph, el 'criptorublo' será emitido por el Estado ruso, y a su vez, controlado y mantenido por las autoridades rusa. Se aclaró que no podrá ser explotado, aunque sí cambiable por rublos físicos, aunque si el titular no puede explicar de dónde proceden los rublos virtuales, se impondrá un impuesto del 13 por ciento. Por su parte, el presidente Putin advirtió antes el riesgo inherente a este tipo de uso virtual del dinero. En su opinión, con esta forma de manejar las divisas se podría facilitar el blanqueo de dinero, la evasión fiscal y la financiación del terrorismo. Por lo anterior, Putin es favorable a la regulación estatal del dinero virtual. "Basándonos en la experiencia internacional, debemos crear un ambiente regulador que nos permita sistematizar las relaciones en este sector, proteger los intereses de los ciudadanos, empresarios y del Estado y dar garantías legales para el trabajo con las herramientas financieras innovadoras", declaró Putin a Sputnik. SE TRATA DEL CASO DE LAVADO DE DINERO MÁS GRANDE DEL MUNDO COMPAÑÍA BASADA EN COSTA RICA ACUSADA DE MILLONARIO LAVADO DE DINERO


Liberty Reserve que operaba “un muy popular sistema cambiario online fuera del control de los gobiernos nacionales, está acusada de haber lavado dinero por US$6,000 millones” a través de transacciones ilegales entre 2006 y 2013

Las autoridades estadounidenses anunciaron el martes el desmantelamiento de un gigantesca sistema de lavado de dinero, por unos 6.000 millones de dólares, efectuado por una compañía financiera basada en Costa Rica. Cinco responsables y empleados de la compañía Liberty Reserve fueron detenidos el pasado viernes en operativos en Costa Rica, España y Nueva York, según un comunicado de la fiscalía federal de Manhattan. Se trata del "caso de lavado de dinero más grande del mundo", indicaron las autoridades estadounidenses. "La compañía basada en Costa Rica, que opera un muy popular sistema cambiario online fuera del control de los gobiernos nacionales, está acusada de haber lavado dinero por 6.000 millones" de dólares a través de transacciones ilegales entre 2006 y 2013, señaló la fiscalía. "Liberty Reserve efectuó supuestamente al menos 55 millones de transacciones ilegales por al menos un millón de usuarios de todo el mundo y facilitó conductas criminales globales", afirma el comunicado. La investigación incluyó operativos policiales en 17 países.


En total, siete personas han sido inculpadas, entre ellas el fundador de Liberty Reserve, Arthur Budovsky, y su cofundador Vladimir Kats. Sus nacionalidades no han sido dadas a conocer, aunque la gran mayoría no serían costarricenses. "A través de los esfuerzos de los acusados, Liberty Reserve ha surgido como uno de los principales medios por los cuales ciber-criminales de todo el mundo distribuyen, almacenan y lavan los ingresos de sus actividades ilegales", sostiene el acta de inculpación. Liberty Reserve (LR) permitía transacciones de dinero entre usuarios que habían abierto una cuenta en la compañía y hacia comerciantes que aceptaban a LR como forma de pago, según ese documento. La empresa cobraba una comisión del 1% por transferencia. Por 75 centavos de dólar proveía un servicio adicional para ocultar el número de cuenta del usuario, "volviendo a la operación ilocalizable incluso dentro del sistema ya opaco de Liberty Reserve. Según el acta de inculpación, Liberty Reserve ocultó a las autoridades de regulación financiera de Costa Rica sus verdaderas actividades y a partir de fines de 2011 cerró sus operaciones "oficiales" y empezó a vaciar sus cuentas en bancos del país centroamericano. En ese momento, las autoridades costarricenses lograron secuestrar 19,5 millones de dólares de una cuenta de LR tras un pedido de la justicia estadounidense. Sin embargo, la compañía continuó operando de manera ilegal en el país y buscó evitar nuevas acciones en su contra moviendo sus fondos a cuentas en Chipre, Hong Kong, China, Marruecos, Australia y España, señaló la fiscalía estadounidense. En total, la justicia estadounidense secuestró 45 cuentas bancarias, la gran mayoría de ellas en Costa Rica y Chipre, y 35 sitios internet de transferencias de dinero utilizados para facilitar las actividades de Liberty Reserve. LAVADO DE DINERO USA TECNOLOGÍA DE PUNTA


En esta foto del 3 de abril de 2013, Mike Caldwell, un ingeniero de software de 35 años de edad, revisa fichas de bitcoin en su tienda en Sandy, Utah. Caldwell acuña versiones físicas de bitcoins, produciendo tokens caseros con códigos protegidos por sellos holográficos a prueba de manipulaciones, un tipo de efectivo prepago retrofuturista. Con hasta 70,000 transacciones diarias durante el último mes, las bitcoins han sido impulsadas desde el mundo de las extravagancias de Internet hasta la cúspide del uso general, un avance notable para una moneda que hizo su debut en línea hace solo cuatro años. (AP Photo / Rick Bowmer) Caracas — El lavado de capitales se adapta con rapidez a las nuevas tecnologías, “modernas e innovadoras” frente a los “lentos y pesados” Estados, que deben responder a estos delitos, advirtieron ayer expertos en la IX Conferencia Internacional Antilavado de Dinero en Caracas. El abogado Alejandro Rebolledo, responsable de la organización de la conferencia, destacó la adaptación de las bandas criminales a la tecnología, poniendo como ejemplo la moneda virtual conocida como bitcoin. Desde su aparición en 2009, este nuevo sistema basado en el valor de una moneda virtual no física ha ido ganando seguidores. En abril alcanzó un valor de $260 por unidad antes de desplomarse. Diversos analistas lo consideran como un campo abonado para el lavado de dinero, delito que —según cálculos del Banco Mundial— mueve “$3 billones” en todo el mundo. “El bitcoin se está manejando mucho en el mundo. Se calcula que uno puede valer sobre $76.7″, indicó Rebolledo.


Por su parte, la especialista en control cambiario y comercio internacional, Ana Marina Palermo, suma a estos problemas mecanismos para regular el mercado de capitales, como el control de cambio existente en Venezuela desde 2003. “Los controles de cambio absolutos no amparan todos los escenarios de una economía, entonces las personas naturales y jurídicas tienen que cubrir esas necesidades en mercados negros que son ilícitos”, manifestó Palermo. En Venezuela, ese mecanismo generó un mercado paralelo, en el que la moneda estadounidense se cotiza hasta cinco veces por encima del precio oficial, de $6.3 por bolívar. Para Palermo este mercado se nutre de “empresas de maletín” o fraudulentas. NUEVAS AMENAZAS LAVADO DE DINERO VIRTUAL La utilización de la Internet y los teléfonos móviles para lavar dinero son algunas de las modalidades más recientes y peligrosas para perpetrar el delito de lavado de dinero, pero considero que la educación continua es la clave para librar con éxito esta batalla. Una modalidad reciente que ha comenzado a causar estragos es el lavado de dinero “virtual”. En este sentido, los delincuentes abusan de la red mundial del Internet para estratificar, creando varias identidades en línea. El dinero real que se obtiene ilegalmente, se cambia por dinero virtual, se traslada de una a otra identidad, y por último se canjea nuevamente por dinero real. En este momento, la cantidad de dinero que se puede mover en el espacio virtual es relativamente baja, pero definitivamente se trata de una modalidad amenazante. Otra tendencia de lavado relacionada a esquemas de fraude que se está utilizando con frecuencia, a una menor escala, son los teléfonos móviles. La tecnología de los teléfonos móviles permite transferir dinero digital a través de nuestros teléfonos celulares. En Abril del 2010, un individuo fue acusado y sentenciado por lavado de dinero en las Islas de Gran Caimán, por utilizar información robada de tarjetas de crédito con las que compro créditos para llamadas móvil y luego los vendió mediante el sistema de pagos de Persona-a-Persona (P2P). El sistema de pagos P2P permite también transferencias de fondos entre fronteras. Por ejemplo, una persona puede ir a un centro telefónico (o casa de cambio) en la ciudad de los Ángeles, California y poner dinero real. El dinero se transforma a un formato digital igual que en una transferencia bancaria. El emisor le informa al beneficiario mediante mensaje de texto que los fondos se enviaron y le da un código para retirarlos. El beneficiario se presenta en un centro de canje telefónico (o casa de cambio) en Ciudad México, indica el código que recibió (puede ser un número o una palabra secreta) y el centro le entrega la cantidad de dinero en efectivo. En la actualidad, esta modalidad no se utiliza para mover grandes cantidades de dinero ni se está haciendo masivamente, pero esta es una nueva metodología que indudablemente aumentará, especialmente en lo que concierne el lavado de dinero por fraude. Si bien las casas de cambio tienen un alto riesgo de ser utilizadas por los blanqueadores de dinero, los bancos de la región siguen siendo los que más sufren el ataque de estos delincuentes. Generalmente, en América Latina los bancos son los principales medios para lavar dinero. Es decir, aun si los clientes de las empresas que prestan los servicios de pagos y


ofrecen servicios de pagos mediante sistemas P2P son los que lavan el dinero, estas empresas mantienen cuentas en bancos. Esto significa que en el combate contra el lavado de dinero, mientras más estrictos sean los bancos en sus sistemas de control y los supervisores bancarios en sus sistemas de supervisión, más difícil será para los lavadores de dinero cometer sus delitos . La capacitación de cara a la prevención, es la principal arma en esta lucha y uno de los controles internos mas valiosos que puede implementar una institución financiera. Los lavadores de dinero continúan utilizando el sistema de blanqueo que les funciona hasta que los bancos crean los controles suficientes para hacerlo inservible. En ese momento no lo usarán más, pero crearán un nuevo sistema. Es por este motivo principalmente que los ejecutivos de una institución financiera deben estar en un proceso de educación continua que los mantenga actualizados. Los controles que se aplican hoy pueden o no ser útiles mañana. Además de la capacitación continua, hoy por hoy, la certificación en materia de prevención de lavado de activos es casi un requisito para el personal de cumplimiento y todo el personal que tenga responsabilidades de control en una institución financiera. Los cursos certificación como el AMLCA y el CPAML son una excelente herramienta para desarrollar un buen entendimiento en el proceso de identificación y mitigación de riesgos. En estos cursos se aprovecha la experiencia estadounidense para combatir con éxito el lavado de dinero. Estados Unidos es uno de los países con mayor interés en la lucha contra el blanqueo de capitales y sus leyes son muy estrictas, especialmente en relación a instituciones financieras extranjeras que suelen representar un mayor riesgo. VULNERABILIDAD DE LAS MONEDAS VIRTUALES PARA LEGITIMAR CAPITALES. En los últimos años se ha tratado de definir de una manera adecuada las monedas virtuales, más aún con el auge y desarrollo contemporáneo de éstas a través de la web. Una de las definiciones más completas la definen como “…divisas digitales no reguladas, que son emitidas y controladas por quienes las desarrollan, y son usadas y aceptadas entre los participantes de una comunidad virtual determinada; se pueden ganar o comprar, y son empleadas para adquirir productos virtuales o reales, así como para intercambiar servicios o realizar cualquier otra transacción. Linden Dollars, Facebook Credits, Amazon Coins, y Bitcoins, son algunas de las monedas virtuales de mayor popularidad en la actualidad, pues cumplen con la función de medio de intercambio al permitir que dos sujetos económicos intercambien bienes; son unidad de cuenta cuando facilitan medir y comparar el valor de los productos; y contribuyen a la innovación financiera al brindar alternativas de pago adicionales a los consumidores…” Se ha traído a colación esta definición de monedas virtuales, por cuanto consideramos que se adapta en gran medida al tema, puesto que utiliza un término muy acertado para este tipo de moneda, y es precisamente que son “divisas digitales”. Según la Real Academia Española, la moneda es una pieza de oro, plata cobre u otro metal, regularmente en forma de disco y acuñada con los distintivos elegidos por la autoridad emisora para legitimar su valor y puede estar representada en billetes o papel de curso legal.


Contrariamente a lo que originalmente se conoce como moneda, ha surgido unas divisas que distorsionan totalmente con lo anteriormente, producto del desarrollo tecnológico mundial muy estrechamente ligado con el internet y la computación, en virtud que, son denominadas monedas pero que son intangibles al tacto humano, sin forma aparente, y aunque poseen distintivos no están acuñados como generalmente lo conocemos, pero sin embargo, representan un valor. Por esta razón, se coincide en la definición, que las monedas virtuales son divisas digitales creadas por una comunidad indeterminada de personas naturales o jurídicas, públicas o privadas, cuyo valor y curso legal esta determinado, dirigido, regulado, usado y aceptado en el ciberespacio por los individuos de esa comunidad, y por tanto, pueden ser reguladas o no por cualquier banco central o autoridad gubernamental, con el cual se pueden realizar operaciones comerciales,pagos de servicios, intercambios y cualquiera otra actividad que implique una contraprestación. De acuerdo a este aporte conceptual, podemos señalar que las monedas virtuales se dividen en dos grandes grupos: a) Las reguladas por la autoridad gubernamental; y b) Las no reguladas por la autoridad gubernamental. MONEDAS VIRTUALES REGULADAS Dentro de esta categoría de monedas virtuales, se encuentran aquellas que son creadas, adaptadas, garantizadas y respaldadas, por la autoridad gubernamental respectiva, a través de los Bancos Centrales, quienes controlan no solamente las operaciones con estas monedas sino la forma en la cual se realizarán dichas operaciones, estableciendo un control permanente sobre la divisa, para estabilizar su valor. Una de las monedas virtuales más importantes, en su inicio, fue el Euro, la cual entró en vigencia el 1 de enero de 1999, convirtiéndose en la moneda oficial de once (11) Estados miembros, hoy día ya alcanza a diecisiete (17) países que utilizan esta moneda, sustituyendo a las antiguas monedas de cada nación en dos etapas. “…En primer lugar, se introdujo como moneda virtual para los pagos no efectuados en efectivo y con fines contables, mientras que las antiguas monedas siguieron empleándose en los pagos en efectivo, siendo considera das como divisiones del euro. Posteriormente, el 1 de enero de 2002, el euro apareció físicamente, en forma de billetes y monedas…” Hoy día el euro no es considerado como moneda virtual, pues ya existe en forma impresa, sin embargo, dejó una importante huella en la historia de esta clase de monedas. El Sistema Unitario de Compensación Regional (SUCRE) Siguiendo con estos paradigmas, surgió el 16 de octubre de 2009, el Sistema Unitario de Compensación Regional de Pagos (SUCRE), el cual es una moneda utilizada como unidad de cuenta que sustenta el mecanismo de pago alternativo, utilizado por los países que integran la Alianza Bolivariana para los Pueblos de Nuestra América (Alba), para cumplir con los pagos producto del comercio entre los estados miembros, bien sea de carácter público o privado. En tal sentido, “El Sistema Unitario de Compensación Regional de Pagos, SUCRE, es un mecanismo que sirve para la canalización de pagos internacionales resultantes de las operaciones de comercio recíproco entre sus países miembros. Este Sistema se basa en la


utilización de una moneda virtual “sucre”, para el registro de las operaciones exclusivamente entre los bancos centrales, en tanto que la liquidación local (pagos a exportadores y cobros a importadores) se efectúa con las respectivas monedas locales de los países miembros (en el Ecuador se realizará en dólares).” Actualmente este sistema o moneda virtual, es utilizada por cinco (5) países, todos pertenecientes a la Alianza Bolivariana para los Pueblos de Nuestra América (Alba), como son Bolivia, Cuba, Ecuador, Nicaragua y Venezuela, y se encuentra en espera de una posible inclusión la República Oriental del Uruguay, pues actualmente está en proceso de estudio legislativo. Una de las características propias de esta clase de moneda virtual, es precisamente que permite realizar operaciones con la moneda local de curso legal en cada país parte, es decir, que para utilizar esta moneda, no es necesario que deje de circular la moneda oficial del país miembro, por cuanto una vez que se ha realizado la operación con el SUCRE, ingresa al Banco Central del país miembro tales recursos convertidos en moneda local, de esta forma existe un control total de cada Banco Central y no de un Banco Central general o común para todos. Por esta razón, es que estas operaciones se adaptan a las legislaciones imperantes en esta materia para cada país miembro, ello sin afectar los respectivos cuerpos normativos. Entre las ventajas de este sistema o moneda virtual, podemos mencionar las siguientes: 1. Acceso a un mercado ampliado de aproximadamente 68 millones de habitantes. 2. Permite el uso de moneda local para el pago de las importaciones. 3. Reduce los costos de conversión de divisas para las pequeñas y medianas empresas y empresas asociativas. 4. Optimiza los trámites administrativos para pagos internacionales. 5. Reduce otros costos transaccionales originados por información asimétrica. 6. Facilita la liquidación expedita de las obligaciones adquiridas. 7. Reduce la diferencia entre la fecha valor aplicada a las adquisiciones y cesiones de divisas. 8. Maximiza el flujo de caja de la tesorería de la empresa. 9. Oferta diversificada de bienes y servicios. 10. Reducción en los costos de importación. 11. Precios más bajos para los consumidores . 12. Debido a su control gubernamental a través del sistema financiero, se minimizan los riesgos de legitimación de capitales, pues en la mayoría de los casos se tiene conocimiento del origen de los fondos. Sin embargo, existen limitantes o desventajas de esta clase de moneda virtual, las cuales se pueden enumerar de la siguiente forma: 1. Limita el mercado de comercio únicamente a los cinco (5) países integrantes de la Alianza Bolivariana para los Pueblos de Nuestra América (Alba), como son Bolivia, Cuba, Ecuador, Nicaragua y Venezuela. 2. No es adquirible como moneda para el ahorro. 3. No permite la adquisición de productos de otras nacionalidades, aunque pasen por los países del Alba. Agregar más controles a la hora de realizar operaciones comerciales tanto de exportación como de importación.


MONEDAS VIRTUALES NO REGULADAS Existe una variedad de monedas virtuales, que no están bajo el control de los entes gubernamentales a través de los bancos centrales, entre las cuales podemos mencionar el Linden Dollars, Facebook Credits, Amazon Coins, y Bitcoins. Sin embargo, y pese a la existencia de estas monedas, solamente nos referiremos al Bitcoin, por considerar que es la divisa digital con mayor auge en los últimos tres años y con mayor incidencia en el ciberespacio. EL BITCOIN El Bitcoin “es una de las primeras implementaciones de un concepto denominado criptomoneda, el cual fue descrito originalmente en 1998 por Wei Dai en la lista de correos de cypherpunks. Basándose en la idea de que el dinero es un objeto, o cualquier tipo de registro, aceptado como forma den pago de bienes y servicios, el pago de las deudas en un determinado país o un contexto socio-económico, Bitcoin se ha diseñado en torno a la idea de una nueva forma de dinero que usa criptografía para controlar su creación y transacciones, en lugar de depender de autoridades centrales. En 2009, la primera especificación y prueba de concepto de Bitcoin fue publicada en una lista de correo de criptografía por un miembro bajo el seudónimo de Satoshi Nakamoto. Hacia finales de 2010 Satoshi deja el proyecto diciendo que se había pasado a otras cosas. El creador de Bitcoin nunca reveló su identidad y simplemente dejó su invento al mundo. El origen y la motivación detrás de Bitcoin sigue siendo, hasta hoy, un gran misterio. Desde 2010, la comunidad Bitcoin ha crecido con muchos programadores trabajando en el proyecto. Durante junio y julio del 2011 repentinamente Bitcoin ganó la atención de medios de comunicación dando lugar a una manifestación de compras masivas. El resultado de esta burbuja se desinfló lentamente en la última parte del 2011, pero el valor de Bitcoin se recuperó nuevamente hasta superar el pico del 2011. El 27 de septiembre de 2012, la Fundación Bitcoin fue creada en un esfuerzo por estandarizar, proteger y promover Bitcoin. Hoy en día, la economía Bitcoin se está desarrollando rápidamente con nuevos usuarios que se unen diariamente.” El Bitcoin, es pues, una divisa digital, un protocolo y un software, creado para realizar pagos en todo el mundo y transacciones punto a punto, protegido criptográficamente y sin intervención o respaldo de ningún banco central o autoridad gubernamental. CARACTERÍSTICAS a. Es una moneda anónima. Desde el creador del sistema, cuya verdadera identidad y origen es todo un misterio y solo se conoce bajo el pseudónimo Satoshi Nakamoto, los usuarios de bitcoins utilizan pseudónimos para crear sus monederos virtuales y realizar las transacciones, lo cual las hace tan anónimas como el dinero en metálico, pero con la capacidad de hacer grandes movimientos internacionales al instante. b. No existe físicamente. Los bitcoins funcionan gracias a un sistema de encriptación por claves, donde lo único que existe, es la información acerca de quién posee cada moneda y ésta se encuentra en los ordenadores de todos los usuarios de bitcoins del mundo. Sólo el dueño de una moneda puede entregársela a otro, y cuando lo hace, se actualizan los datos en todos los ordenadores, de manera que la información se transmite a cientos, quizás miles (o millones) de “testigos” que sabrán “quién” tiene cada moneda en todo momento. c. No está controlado por ninguna institución ni gobierno. Bitcoin utiliza tecnología punto a


punto (P2P), que le permite operar sin una autoridad central; gestionar las transacciones y realizar la emisión de Bitcoins con el trabajo conjunto de la red, bajo los patrones de oferta y demanda y los limites algorítmicos que establecen un tope de emisión de 21 millones de Bitcoins. d. Puede ser usada por cualquier persona alrededor del mundo. Cualquier usuario alrededor del mundo puede descargar un monedero virtual, que es un archivo que se instala en un dispositivo con conexión a internet, desde el cual es posible efectuar las transacciones punto a punto (P2P). Las cuentas son anónimas o bajo pseudónimo y cada parte de la transacción está fijada con una clave pública para garantizar la seguridad del intercambio y evitar que se hagan dos pagos con una misma moneda. e. Ausencia de pagos por intermediación. Cuando realizas una transacción en internet a través de tarjetas de crédito o débito o usando plataformas de pago, siempre tendrás que pagar una comisión al intermediario; debido a que las transacciones con bitcoins se realizan persona a persona, no existen intermediarios a quienes se deba pagar por el servicio, lo cual constituye uno de los mayores atractivos para quienes utilizan esta divisa. f. Los bitcoins no pueden ser congelados ni intervenidos por nadie. Cada bitcoin pertenece únicamente a su propietario en su totalidad, como las transacciones no están controladas por ninguna entidad, ni gobierno y no se conoce la verdadera identidad de su propietario, se hace imposible la congelación de fondos o las restricciones de compras; es decir nadie puede impedir que se realice una transacción. g. Los Bitcoins se pueden transferir entre nodos arbitrarios en la red. h. Las transacciones son irreversibles. i. El doble gasto se evita mediante el uso de una cadena de bloques. j. Las transacciones se transmiten en cuestión de segundos y son verificadas en un plazo de 10 a 60 minutos. k. El procesamiento de transacciones y la emisión del dinero se realizan colectivamente a través de la minería. l. Las transacciones se pueden recibir en cualquier momento, independientemente de si su computadora está encendida o apagada. m. Limite fijo cercano a los 21 millones de Bitcoins. n. Los Bitcoins son divisibles hasta 8 posiciones decimales dando un total de aprox. 21×1014 unidades monetarias. o. Las transacciones son baratas, y mayormente gratis. Son varias las ventajas que proporciona el Bitcoin como divisa digital, no solamente para el comercio sino también para el ahorro o inversión. Tal es el caso de las que a continuación se destacan: a. En vista de su inexistencia en forma física, es muy fácil su custodia y se minimizan los riesgos de ser víctimas de hurtos o robos. b. Puede ser usada por cualquier persona en cualquier parte del mundo, toda vez que su uso sólo está limitado a la red. c. En vista que la relación comercial es directamente entre las personas que realizan la operación, carece de intermediarios y por tanto, se minimizan los costos operacionales, incluso hasta pueden llegar a ser gratis. d. No son susceptibles de ser congelados, expropiados, decomisados o confiscados, toda vez


que, no son regulados por ningún banco central ni controlados ni respaldados por autoridad gubernamental alguna. e. Por la irreversibilidad de las transacciones es poco probable que una operación con Bitcoins luego de realizada, pueda ser revertida para procurarse una posible estafa. f. Evita un doble gasto, es decir, por registrarse todas las operaciones en una base de datos, no es posible que un Bitcoins pueda ser gastado al mismo tiempo en dos lugares distintos de forma malintencionada. g. Las transacciones se realizan en un lapso muy breve. h. No suponen un riesgo para la estabilidad de precios, siempre que la creación de dinero continúa permaneciendo en un bajo nivel. Por otro lado, las desventajas que proporciona la utilización de esta moneda digital, así como los riesgos financieros y económicos que ello acarrea, son las que se describen a continuación: a. Por su falta de control gubernamental o a través de un banco central, carecen de respaldos y no gozan de protección financiera de los estados. b. Son monedas inestables económicamente, por la carencia de políticas de regularización. c. Son susceptibles a las actividades ilícitas de carácter económico y financiero, como las estafas y fraudes, incluso la legitimación de capitales, en virtud del control gubernamental para la determinación del origen de los fondos. d. Por realizarse bajo operaciones de pseudónimo o anonimato, se desconoce la identidad de la persona con la cual se realiza la operación y por ende, su vinculación con alguna organización criminal o grupo terrorista. e. Las transacciones no devengan impuestos, y con ello se pudiera incurrir en evasión de impuestos, lo cual podría acarrean consecuencias legales. VULNERABILIDAD DE ESTA MONEDA VIRTUAL PARA LEGITIMAR CAPITALES Para determinar la vulnerabilidad de las monedas virtuales frente a la legitimación de capitales, necesario es recordar la definición de este delito. Hemos dicho que la legitimación de capitales, es el proceso de esconder o disfrazar la existencia, fuente ilegal, movimiento, destino o uso ilegal de bienes o fondos producto de actividades ilegales para hacerlos aparentar legítimos. En este sentido, debe el Estado impedir que este proceso legitimatorio de los activos obtenido en forma ilegal, lleguen a su estado final, su aparente legitimidad. Para lograr este cometido, se implementan una serie de controles financieros y económicos, los cuales permiten descubrir señales de alerta sobre personas con desequilibrios financieros que se traducen en riesgos de legitimación de capitales. De no existir estos controles institucionales, sería imposible determinar el perfil del cliente, y así conocer el aumento de su patrimonio, cuyo análisis devendrá en si éste es desproporcionado o no con su capacidad económica y financiera. Estos controles gubernamentales comienzan desde la propia emisión de la moneda, hasta su comportamiento en el sistema financiero, pasando incluso por su adquisición en las distintas actividades de los ciudadanos . Se considera, en principio, que las monedas virtuales –y muy especialmente el Bitcoin-, puede llegar a convertirse en una alternativa financiera muy positiva, que incremente el poder adquisitivo de las personas a nivel mundial, y con ello se expanda el comercio de una manera globalizada. Sin embargo, ello no nos permite afirmar que los negocios con Bitcoin sean responsables y seguros.


Esta afirmación la basamos en las fuertes debilidades que frente a la legitimación de capitales, se presenta el Bitcoin como moneda digital, en virtud que, tal y como se observa de las características antes expuestas, su posesión y propiedad descansa sobre un anonimato, es decir, se desconoce la identidad de la persona con la cual se realiza la operación o transacción. Esta situación evidentemente contraviene normas y principios básicos que rigen las actividades financieras y de seguros, vale decir, por ejemplo, conozca a su cliente, conozca a su proveedor, etc., de tal manera que, si se desconoce la persona con la cual se realiza el negocio, cómo puede asegurarse que el mismo es responsable y seguro. Por otro lado, al no permitir un control gubernamental sobre la moneda digital Bitcoin, la hace especialmente vulnerable, pues se vuelve inestable y de alto riesgo, por cuanto su respaldo es la confianza de sus usuarios, lo cual no resulta una garantía de peso frente a una caída, devaluación o pérdida por estafa o fraude electrónico. Sobre estos aspectos, el banco Central Europeo, realizó un estudio en el año 2012, sobre los Esquemas Virtuales Monetarios, donde se concluyó lo siguiente: “…Aunque en términos prácticos esquemas virtuales monetarios sean sólo una evolución, de un punto de vista conceptual ellos realmente presentan cambios sustanciales cuando comparado a verdaderas divisas y sistemas de pago. En primer lugar, actores convencionales como instituciones financieras, cámaras de compensación y bancos centrales son ausentes de estos esquemas. También, ellos proliferan más fácilmente, en el contexto del enorme crecimiento en el acceso a y el empleo de la Internet y como consecuencia de las innovaciones técnicas detrás de estos esquemas. Además, ellos no a menudo son atados a un país específico o el área monetaria, que complica la fabricación de ley, la regulación y el hacer cumplir de la ley. Del análisis preliminar en este informe puede ser concluido que, en la situación corriente, esquemas virtuales monetarios: no plantean un riesgo de poner un precio sobre la estabilidad, con tal de que la creación de dinero sigue quedarse en un nivel bajo tienden a ser intrínsecamente inestable, pero no puede poner en peligro la estabilidad financiera debido a su conexión limitada con la verdadera economía, su volumen bajo negociado y una falta de amplia aceptación de usuario; actualmente no son regulados y estrechamente no son supervisados o supervisados por cualquier autoridad pública, aun cuando la participación en estos esquemas exponga a usuarios para acreditar, la liquidez, riesgos operacionales y legales;podría representar un desafío para autoridades públicas, considerando la incertidumbre legal que rodea estos esquemas, como ellos pueden ser usados por criminales, estafadores y lavanderos de dinero para realizar sus actividades ilegales; podría representar un desafío para autoridades públicas, considerando la incertidumbre legal que rodea estos esquemas, como ellos pueden ser usados por criminales, estafadores y lavanderos de dinero para realizar sus actividades ilegales; podría tener un impacto negativo sobre la reputación de bancos centrales, asumiendo el empleo de tales sistemas crece bastante y en el caso de que un incidente atrae la cobertura de prensa, ya que el público puede percibir el incidente como siendo causado, en parte, por un banco central no que hace su trabajo correctamente; realmente de verdad se caen dentro de la responsabilidad de los bancos centrales como consecuencia de características compartidas con sistemas de pago, que dan lugar a la necesidad de al menos un examen de acontecimientos y la provisión de una evaluación inicial.


Aunque estos esquemas puedan tener aspectos positivos en términos de innovación financiera y la provisión de alternativas de pago adicionales para consumidores, es claro que ellos también implican riesgos. Debido al pequeño tamaño de esquemas virtuales monetarios, estos riesgos no afectan a nadie otro que los usuarios de los esquemas. Sin embargo, razonablemente puede esperar que el crecimiento de divisas virtuales más probablemente seguirá, provocado por varios factores: a) el acceso creciente y al empleo de la Internet y el número creciente de usuarios de comunidad virtuales, b) el aumento de comercio electrónico y en bienes particulares digitales, que son la plataforma ideal para esquemas virtuales monetarios; c) el grado más alto de anonimato comparado a otros instrumentos de pago electrónicos que pueden ser alcanzados por pagando por divisas virtuales; d) los gastos de transacción inferiores, comparados con sistemas de pago tradicionales; y e) el claro más directo y más rápido y el establecimiento de transacciones, que es necesario y deseado en comunidades virtuales. Considerando que la evaluación corriente de riesgos es sumamente dependiente de esquemas relativamente pequeños clasificados virtuales monetarios, la suposición que esquemas virtuales monetarios seguirán cultivando el medio que un examen periódico de los acontecimientos es necesario para reexaminar los riesgos…” Como se observa, se coincide con el estudio realizado por expertos en la materia, cuando se sostiene que, ante la falta de controles de esta moneda digital, se incrementan los riesgos de estafa, fraude y legitimación de capitales, por ello, se considera que esta moneda virtual aún no es segura para evitar estas acciones delictivas, por lotanto, requiere de mayor desarrollo para minimizar estos riesgos.

¿Podrá la moneda virtual de Ecuador impedir el lavado de dinero? Escrito por Loren Riesenfeld Lavado de dinero Ecuador Crimen Cibernético

Ecuador lanzó su moneda digital en diciembre de 2014 En los próximos meses, Ecuador terminará de poner en funcionamiento una moneda digital que se podrá usar con teléfonos celulares, una ventaja potencial para el 40 por ciento de la


población que carece de cuentas bancarias; sin embargo, siguen las dudas acerca de si existen suficientes precauciones para evitar que los criminales la usen para lavar dinero. Promocionado como una forma electrónica de dinero, el Banco Central del Ecuador (BCE) creó el Sistema de Dinero Electrónico, una moneda virtual centralizada que busca ampliar el acceso a servicios financieros (cerca del 40 por ciento de los ecuatorianos económicamente activos carecen de cuentas bancarias). Para obtener el dinero digital, los usuarios deben acercarse a un Centro de Transacción, presentar su identificación y entregar dinero físico, que luego puede ser enviado por teléfono móvil a otras personas y empresas. Desde que las inscripciones se abrieron en diciembre, el BCE ha registrado más de 11.000 cuentas, destinadas exclusivamente a ciudadanos ecuatorianos y vinculadas a sus números de identificación nacional. Aunque la cantidad de inscripciones es actualmente bajo (se espera tener 500.000 usuarios para finales de 2015), se siguen implementando nuevos servicios en línea, y el Banco Central dice que para mediados de 2015 los usuarios podrán pagar facturas de servicios públicos, impuestos y cuentas de tarjeta de crédito desde sus teléfonos móviles. Los temores iniciales acerca de que el sistema podría ser utilizado para lavar dinero llevaron al gobierno a anunciar que las transacciones se limitarían a US$2.000 al mes y US$300 al día por persona (las empresas tendrían topes mayores), según el diario El Comercio. “Tenemos un departamento que se dedicará sólo a monitorear eso [las transacciones inusuales]. Es muy fácil rastrear el dinero electrónico en este sistema”, dijo en octubre Faustio Valencia, supervisor del programa del Banco Central. En una conversación con InSight Crime, el exviceministro de finanzas Luis Mejía Montesdeoca expresó una opinión más cautelosa. Según Mejía, aunque Ecuador se ha esforzado por cumplir con normas internacionales sobre lavado de dinero, “aún es muy temprano para saber si [el sistema de dinero electrónico] va a tener un efecto positivo con respecto a la lucha contra el lavado de dinero. No podemos saberlo en este momento”. Muchos ciudadanos son escépticos frente a este proyecto, aunque muchos más lo desconocen, informó The Guardian. Abunda la desinformación sobre el sistema, como las especulaciones según las cuales Ecuador intenta remplazar al dólar como su moneda oficial, posibilidad que los analistas anuncian pero el gobierno niega vehementemente (pdf). Análisis de InSight Crime Que este sistema llegue a utilizarse o no para la actividad delictiva es algo que está por verse, pero sin duda puede evitar las estafas que se han presentado en otros programas de moneda digital, como el Sistema Unitario de Compensación Regional (SUCRE virtual) oBitcoin. Los


lavadores de dinero han utilizado el SUCRE, una moneda digital creada por los países de la Alianza Bolivariana para las Américas (ALBA), para facilitar sus transacciones. Y Bitcoin, una moneda descentralizada virtual cuyos usuarios utilizan criptografía para crear nuevas monedas y verificar las transacciones, ha experimentado un uso ilegal rampante y altamente conocido. Según un informe (pdf) del Grupo de Acción Financiera en Contra del Lavado de Dinero(FATF por sus iniciales en inglés), las monedas virtuales son vulnerables al blanqueo de capitales porque les permiten a los usuarios realizar transacciones de forma anónima. Otras debilidades incluyen la falta de claridad en cuanto al cumplimiento de normatividad contra el lavado de dinero y la ausencia de supervisión central, señala el informe. Pero la centralización no es totalmente efectiva cuando se trata de evitar transacciones ilegales. El SUCRE puede ser utilizado solamente por los bancos nacionales de los países miembros del ALBA, no por individuos. Aun así, el cinco por ciento de las transacciones en sucres fueron consideradas sospechosas en 2013. Si un importador venezolano quiere comprar un producto de un exportador ecuatoriano usando bolívares, el banco central de Venezuela convierte la moneda doméstica en sucres y se los envía al banco central de Ecuador, que le paga al exportador en dólares estadounidenses. Los estados financieros del BCE (pdf) muestran que Ecuador recibió US$431 millones de sucres en 2014, la gran mayoría provenientes de Venezuela. El problema surge cuando empresas estafadoras usan una táctica de blanqueo de dinero llamada comercio con facturación falsificada (en inglés misinvoicing). Según el Wall Street Journal, una empresa en Ecuador exportó carbonato de calcio a US$US1.000 el kilo, lo cual llama la atención por el hecho de que un kilo de carbonato de calcio sólo cuesta 17 centavos de dólar. Dicha empresa puede alegar que los US$999,83 extra son ingresos legítimos. Aunque el nuevo sistema ecuatoriano no tiene ninguna prohibición definida en las transacciones internacionales, el hecho de que sus usuarios deban ser ciudadanos del país, y que enviar y recibir dinero requiere de un servicio celular ecuatoriano, elimina eficazmente la posibilidad de flujos digitales de efectivo ilegales internacionalmente. Bitcoin, que se suele comparar con el sistema de dinero electrónico de Ecuador, es ampliamente utilizado para comprar drogas ilegales en mercados de internet en línea. Silk Road, el primer y más grande de dichos mercados, fue desmantelado en 2013 y la Buró Federal de Investigaciones (FBI por sus iniciales en inglés) incautó un cargamento de bitcoin de unos US$33,6 millones. Esta moneda también recibió críticas por temores relacionados con lavado


de dinero (en abril de 2014, un empresario que usaba Bitcoinfue condenado por facilitar un millón de dólares en pagos ilegales). En sus informes, el BCE ha intentado establecer diferencias entre su dinero electrónico y monedas criptográficas como Bitcoin y hace hincapié en que el sistema electrónico no es anónimo. Y a diferencia de Bitcoin, que puede ser imposible de rastrear si se usa correctamente, Ecuador podrá rastrear cada transacción hecha en el sistema, lo cual ha llevado también a cuestionar el asunto de la privacidad. Un experto le dijo a The Guardian que el sistema “tiene el potencial de ser un programa de vigilancia”. El lavado de dinero en Ecuador es un grave problema debido a su economía dolarizada. Grandes cantidades de dinero físico salen ilegalmente del país, y según un informe deGlobal Financial Integrity, Ecuador registró US$1,9 mil millones en flujos financieros ilícitos en 2012. La Economist Intelligence Unit demostró que grupos venezolanos crean empresas falsas en Ecuador, declaran las exportaciones inexistentes y luego llevan dólares al necesitado mercado venezolano —en cuyo mercado negro valen muchísimo más—. El sistema de dinero electrónico no puede resolver estos problemas (no es una herramienta para evitar otras formas de blanqueo de dinero), pero su diseño puede reducir los usos ilegales.

Casinos online, una forma de ocultar el lavado de dinero Por Mundo Contact.- Fuente: McAfee

Desde los inicios de las apuestas online a mediados de la década de los 90, el número de casinos virtuales experimentó un vertiginoso crecimiento. Para los próximos tres años, se proyecta un aumento del 30%, algo que representará una cifra superior a los 39 mil millones


de dólares. Este hecho impulsó el desarrollo de recursos técnicos que pueden emplearse para blanquear dinero. Las apuestas online generan grandes volúmenes de transacciones y dinero en efectivo que pueden ocultar y disfrazar el blanqueo de capitales. En esta actividad no existen productos físicos ni se realiza intercambio de moneda física, lo que complica la tarea de rastrear el flujo de dinero. Además, las ganancias están exentas de impuestos en muchas jurisdicciones, eliminando la necesidad de presentar informes obligatorios a la Administración, algo que se traduce en una absoluta falta de infraestructura para la supervisión de las transacciones. Como resultado, el dinero obtenido de forma ilegal puede blanquearse apostándolo en un extremo de la transacción y recibiendo los pagos como ganancias de la apuestas en el otro extremo. Esas ganancias también pueden utilizarse como pago por mercancías o servicios ilegales, cambiando de manos más de una vez. Ventajas del lavado de dinero a través de las apuestas online  Anonimato. Debido a que los casinos online están diseñados para operar en distintas jurisdicciones (y de forma ilegal en muchas de ellas), los operadores disponen de formas bastante avanzadas para preservar el anonimato de los jugadores. Estas tácticas incluyen: o Ausencia de recopilación de información personal relevante durante el registro en el servicio. o Compatibilidad con Bitcoin u otras monedas digitales menos conocidas, como CasinoCoin, con el fin de evitar sistemas monetarios muy regulados. o Uso de la red mundial gratuita TOR (The Onion Router) con más de 5,000

o

o

o

redireccionamientos para ocultar la identidad, la ubicación y las actividades de los jugadores. Uso de servidores proxy, que puedan hacer que las conexiones web parezcan originadas en otra ciudad o país. Cifrado del tráfico de los jugadores a través de una red privada virtual para ocultar sus actividades ante los proveedores de servicios de Internet o las fuerzas de seguridad. Herramientas de blanqueo de capitales que permiten a los clientes convertir monedas virtuales de forma anónima.


Opciones de pago. La popularidad de los juegos de azar online ha fomentado el desarrollo de una gran variedad de opciones, con diversos métodos de depósito y reintegro, y entidades intermediarias que procesan las transacciones: o Opciones de juego: el jugador elige entre una variedad de juegos, como apuestas, mesas de póquer, cartones de bingo y juegos de habilidad. o Opciones de pago: el jugador elige entre opciones de depósito o reintegro, incluidas tarjetas de crédito y débito, tarjetas prepago, transferencias bancarias, transferencias ACH, cheques, pasarelas de pago, transferencias entre jugadores, y cargos y abonos en cuentas de teléfonos móviles. o

Opciones de procesamiento: los depósitos y reintegros de los jugadores se tramitan mediante procesadores de pago en varias monedas, incluidas

monedas virtuales como Bitcoin. El exceso dificulta la vigilancia. La cantidad de casinos es tan grande que resulta difícil para las autoridades locales la supervisión, sin mencionar la vigilancia de sus actividades. En noviembre de 2013 había aproximadamente 104 jurisdicciones internacionales que regulaban un total de 2,734 sitios web de juego en Internet con al menos alguna forma de apuesta. Además, se estima que hay más de 25,000 sitios web de apuestas ilegales en todo el mundo.

Soluciones y estrategias


Dado que el juego online está creciendo y en constante evolución, los responsables de la detención de los ciberdelincuentes deben ser capaces de aprovechar alianzas entre distintos países y sectores, y entre la empresa pública y privada, combinando los recursos de las fuerzas de seguridad, los proveedores de servicios de Internet, las empresas de seguridad en Internet, las organizaciones de supervisión independientes, los sectores académicos y, en última instancia, las instituciones financieras que reciben las transferencias sospechosas. Un ejemplo es el Centro Europeo de Ciberdelincuencia de Europol, que ha creado una estrategia y unos recursos tácticos sólidos para enfrentarse a la ciberdelincuencia en varios frentes: Fusión de datos: recopilar y procesar información sobre la ciberdelincuencia y generar conocimientos técnicos entre las fuerzas de seguridad de todos los estados miembros.  Operaciones: proporcionar a los estados miembros la experiencia técnica, analítica y pericial necesaria para llevar a cabo investigaciones sobre ciberdelincuencia.  Alianzas locales/globales: facilitar la cooperación entre las fuerzas de seguridad con socios dentro y fuera de la comunidad de miembros, así como coordinar casos

transnacionales complejos en estrecha colaboración con organizaciones como Interpol, Eurojust (agencia para la cooperación judicial de la UE), la unidad especializada en ciberdelincuencia de Unión Europea y el Grupo Europeo de Formación y Educación en Ciberdelincuencia. Estrategia: generar evaluaciones sobre amenazas, incluidos análisis de tendencias y previsiones, así como sobre avances relacionados con la ciberdelincuencia y los procesos funcionales. Formación y concienciación: colaborar con organizaciones como las academias de policía, con el fin de desarrollar actividades formativas y, en general, promover la concienciación sobre la ciberdelincuencia entre los alumnos, así como informar y capacitar a las fuerzas de seguridad, los jueces y los fiscales. Investigación y desarrollo: crear herramientas periciales para que los estados

miembros sean capaces de detener y procesar a los ciberdelincuentes de manera más eficaz. La única manera de evitar que los ciberdelincuentes recojan sus beneficios y salgan impunes es mediante la dotación de recursos suficientes a las fuerzas de seguridad online. ASÍ UTILIZAN LOS CIBERCRIMINALES EL BITCOIN PARA BLANQUEAR EL DINERO PROCEDENTE DE UN DELITO Dos conceptos 'on fire' complejos y difíciles de entender; de hecho, se habla a diario de ellos y pocos son los que conocen realmente sus implicaciones: Bitcoin y blanqueo de capitales. ¿Cómo utilizan los cibercriminales esta moneda virtual para blanquear dinero procedente de sus delitos?


Cómo se utiliza el Bitcoin para blanquear el dinero procedente de un delito | Silvia Barrera Antes de comenzar a contar las posibilidades de la mezcla explosiva de los conceptos Bitcoin y blanqueo de capitales, conviene aclarar qué es exactamente este último. El blanqueo, según el artículo 301 del Código Penal, sanciona al que adquiera, posea, utilice, convierta, o transmita bienes, sabiendo que éstos tienen su origen en una actividad delictiva, es decir, que lo que se pretende es evitar que se transformen ciertos bienes (principalmente dinero) obtenidos ilegalmente (procedente de la comisión de un delito anterior, el que sea) en dinero de apariencia legal (que el dinero se introduzca y se enmascare de forma natural en nuestras transacciones diarias). Definido el blanqueo, vamos a trasladarlo al cibermundo, en su doble vertiente. Delitos cometidos a través de Internet y el empleo del Bitcoin, como moneda virtual más empleada. No es objeto de este post explicaros el funcionamiento del Bitocoin (BT), pero sí que sepáis por qué y cómo se puede usar para blanquear dinero. Es una moneda descentralizada (no supervisada por terceros) basada en intercambios a través de Redes P2P (Redes Peer to Peer, similar al funcionamiento de BitTorrent). Los depositas en un monedero (Wallet) que te tienes que abrir a través de un servicio web para PC o móvil (similar a una cuenta bancaria) y las transacciones (entre los que pagan o reciben) están cifradas y se anotan en una cadena de bloques (una contabilidad pública compartida) en la que el único dato que puedes ver para identificar la transacción es una función hash (un código alfanumérico de muchos caracteres).


Este código te permite trazar los movimientos de las transacciones pero no identifica a su titular por lo que, si has tenido que pagar tras ser extorsionado por el malware Ramsonware (el famoso malware que cifra tus archivos si no pagas un rescate), verás cómo se diversifica tu pago sin saber quién recibe el dinero de ese delito ni hacia dónde va. Por eso, lo hace tan atractivo para que los cibercriminales.

Suponemos que el malo está recibiendo bitcoins en su/s monedero/s procedentes de cualquier delito precedente cometido a través de la Deep Web como la venta de droga, armas, recibiendo donaciones para la financiación del terrorismo o las multimillonarias extorsiones y daños informáticos delRamsonware, y sus variantes. Oferta de venta de drogas en la Deep Web Una vez que tiene sus Bitcoins, un criminal, que usa la red TOR para enmascarar sus conexiones que permitan una posible identificación, no querrá cometer el estúpido error de ser


identificado a través de alguna de las formas que emplee para convertir los Bitcoins anónimos en moneda de curso legal. Cómo no, recurre a las diversas formas disponibles para que la gente de bien que utiliza el Bitcoin los convierta en moneda de curso legal.

Oferta de servicios de sicarios en la Deep Web ¿Cómo puede cambiar su moneda virtual por moneda de curso legal? Tendrá diferentes opciones. La primera y más atrevida es acercarse a un cajero automático de esta moneda o pagar en bitcoins a través de un datafono en los sitios disponibles pero no son muy atractivos porque requiere presencia física. Podría utilizar mulas (intermediarios) que se coman el marrón de ser identificados a cambio de una comisión por cada transacción y correr el riesgo de ser delatados si éstos son detenidos. También dispone y cada vez existe una mayor oferta, de servicios web exchangers, que facilitan la posibilidad de cambiar Bitcoins por otras monedas de curso legal, entre ellas euros o dólares, ésta última como la moneda más demandada. Cuando se desmanteló el primer gran mercado negro de la Deep Web Silk Road, el 30% de las transacciones anónimas de compras de bienes ilegales a través de Bitcoins se realizó en Estados Unidos con la venta de 1,2 millones de dólares; calderilla. Sólo para las empresas exchangers con domicilio social en Estados Unidos es obligatorio (su normativa antiblanqueo así lo dispone) identificar al titular de la cuenta de Bitcoin con datos de identidad fehacientes en el momento de abrirse y disponer de una cuenta para intercambiar sus BT´s por moneda de curso legal. Algunos de estos exchangers pueden ser https://www.kraken.com/https://exchange.btcc.com/?utm_source=itjuzi.com https://bter. com/ o un convertidor de moneda virtual en moneda legal como https://coinmkt.com/


Captura de pantalla de la web de gambling https://bter.com/ Para el resto de ciudadanos (es decir, cualquiera que no tenga la residencia norteamericana), solo es necesario aportar fotocopias de los documentos de identidad. Como podrĂŠis intuir, no os voy a decir las veces que los usuarios se abren cuentas falsas con documentos falsificados, modificados o robados. Es fĂĄcil, por tanto, convertir Bitcoins en dinero y blanquear.

Requisitos para proceso de registro en web https://www.bitstamp.net/ de trading


Ni que decir tiene si el exchanger es (por poner un ejemplo) ucraniano o Senegalés, no sometidos a ningún tipo de control (ni garantía) financieras ni el cambio exige ni de lejos tales verificaciones de identidad o las que tenga serán mínimas.

Requisitos para proceso de registro en web https://www.bitstamp.net/ de trading para un ciudadano norteamericano Lo mismo pasa con las webs de trading, que permiten comprar y vender bitcoins como si fueran acciones. En el momento que el criminal venda sus BT´s al precio que disponga, podrá distraerlos. Los requisitos para la apertura de una cuenta, la verificación del registro y la supervisión financiera para poder operar son los mismos que los anteriores. Otra posibilidad son los casinos de juego virtual. De momento en España, el Bitcoin no está admitido como método de pago porque no es un sistema de pago centralizado ni regulado pero está en proceso de estudio. De todas formas, aunque se incluyera, los sistemas de verificación de cuentas e identidad que se incluyen en las webs de juego online con dominio “.es” son muy rigurosos por lo que sería poco probable que un criminal elija (aunque los hay) este cauce para blanquear. Lo tiene más fácil si recurre a una web de juego “.com” alojada en Islas de Man donde las comprobaciones son escasas.


Captura de pantalla de la web de gambling https://fortunejack.com/ No obstante, las webs de juego tampoco son una de las formas preferidas por el delincuente ya que las propias operadoras tienen mecanismos de detección del fraude y de patrones repetitivos que pueden evitar que ese “jugador” blanqueador siga operando en esas páginas para blanquear o que pueda ser sometido al mínimo rastreo por parte de las autoridades. A la imposibilidad de trazar y llegar a un titular legítimo concreto de una cuenta de Bitcoin y sus transacciones, se suma la navegación a través de TOR que proporciona más aún un plus de anonimato. Luego, visto todo esto, no es de extrañar que algunos lancen sus maletas llenas de billetes al río para pasarse al mundo online.

EL PROBLEMA CRIMINOLÓGICO DEL LAVADO DE ACTIVOS Cada día es más evidente, frente a los ojos de las economías mundiales como a los de la ciencia penal, que en el problema de lavado de capitales reside una de las cuestiones criminológicas de mayor gravedad institucional, gran impacto social y grave daño comunitario.


Como se ha advertido en los últimos años, el fenómeno no es novedoso y tampoco es una novedad la preocupación nacional e internacional que ha inducido al desarrollo de una verdadera política criminal de prevención y castigo de ese tipo de acciones delictivas. La trascendencia criminológica del lavado de capitales ha evolucionado en directa relación con el aumento de los niveles de circulación económica que ha posibilitado y generado el crimen organizado, posiblemente, potenciado por los efectos nocivos de la llamada “globalización” que también ha llegado al fenómeno criminal. Como lo ha afirmado en los últimos años un autor español: “No hace falta destacar la importancia y gravedad de una actividad delictiva que, sin exageración, se ha calificado como la gran lacra de la segunda mitad del siglo XX, ni de la alarma y preocupación generadas por la misma tanto entre los gobiernos como en la opinión pública de los países. Las vías y procedimientos para atajar este problema han sido y son temas de debate en todos los ámbitos. El desarrollo del narcotráfico en estos años se ha visto sin duda favorecido – y ahí radican probablemente las causas fundamentales de su crecimiento- por dos factores: por una parte, el desarrollo económico occidental, con el consiguiente aumento del nivel de vida, que ha propiciado un amplio mercado de potenciales consumidores (especialmente entre la juventud, que ha contado con los recursos económicos suficientes). Y por otra, el proceso de globalización de la economía, materializado en el fuerte crecimiento de los intercambios comerciales, el desarrollo de los transportes internacionales de mercancías, la liberalización LAVADO DE ACTIVOS.- GENERALIDADES Olivo Rodríguez Huertas del comercio internacional –con una reducción de las barreras arancelarias, una reducción igual de las restricciones cuantitativas y una creciente simplificación de las formalidades y los controles aduaneros y la propia internacionalización del sistema financiero...) (todo ello ha permitido organizar la producción, distribución y comercialización de la droga a escala mundial, y no solamente a escala local como había venido sucediendo en épocas anteriores”. Sin lugar a duda puede afirmarse que de acuerdo a un conjunto de dimensiones, el problema del lavado de capitales presenta facetas criminológicas que lo ubican como un flagelo de enorme gravedad: • En primer lugar es un problema grave tomando en consideración el impacto distorsionador que manifiesta en las economías mundiales. • En segundo lugar, el lavado de dinero se expresa como un potenciador y estimulador de la delincuencia organizada. • En tercer lugar, se nutre, en sistemas fuertemente globalizados, de las brechas que generan los diferentes niveles de control financiero que rigen las economías involucradas.


• En cuarto lugar, el fenómeno del lavado de dinero pone en evidencia las contradictorias valoraciones que surgen a menudo en países que, de modo a veces clandestino, observan a estos procesos como una alternativa de ingreso de capitales y de inyección económica a las alicaídas gestiones de los países subdesarrollados: lo que a veces genera visiones distintas en la relación Norte –Sur. • En quinto lugar, existe una relación no lógica, sino empírica, entre el lavado de dinero y los niveles de transparencia en el ejercicio de la función pública. • En sexto lugar, el agrandamiento del fenómeno criminal que describimos ha obligado a las economías nacionales a aumentar los niveles de injerencia y regulación, reduciendo el margen de discrecionalidad de la actividad privada, lo que constituía hasta hace poco tiempo una bandera indelegable del capitalismo bien entendido. Todo ello exige que nos ocupemos, una vez más, pero adecuando ahora nuestro análisis a la legislación nacional, del fenómeno del lavado de capitales o de legitimación de activos. PROTOTIPOS DE MEDIOS DE PRUEBA DOCUMENTAL EN PROCESO DE LAVADO DE ACTIVOS Luego del sucinto análisis del concepto de documento, a título de ejemplo, revisemos a continuación una relación de cosas u objetos que pueden constituir documentos con fuerza probatoria en investigaciones o juicios al fondo por delitos de lavado de activos: (a) Documentos de identificación: cédulas de identificación personal, registros civiles o eclesiásticos denacimiento o del estado civil, tarjetas militares, pasaportes, visas o registros migratorios, licencias de conducir autos o naves aéreas o acuáticas, tarjetas de identificación de empleos particulares u oficiales, etc., con los cuales se puede demostrar parentesco o relación entre imputados, cómplices o sospechosos, o bien para la necesaria identificación plena de personas implicadas. (b) Documentos de pago: cheques, letras de cambio, recibos de consignación de dinero, recibos de transacciones de dinero a través de cajeros automáticos, pagarés, tarjetas de crédito, tarjetas de débito, cheques viajeros, giros postales (Money Orders), dinero efectivo en moneda nacional o extranjera, recibos de depósito a término fijo, cupones o desprendibles de cheques, entren otros, que pueden ser útiles tanto para probar la capacidad patrimonial de las personas, como para establecer si hay o no relaciones entre ellas. (c) Documentos de propiedad: certificados de títulos duplicados del dueño, del acreedor hipotecario, o de otros derechos registrables conforme a la Ley de Registro de Tierras, vigente; escrituras públicas o privadas de compraventa, facturas, recibos de abonos por pagos a crédito, hipotecas, licencias de importación o exportación, manifiestos de aduana, testamentos, sentencias de sucesión, y similares.


(d) Contratos: laborales, de arrendamiento de bienes muebles o inmuebles, de compraventa de bienes muebles o inmuebles, de constitución o reforma de sociedades, contratos de comodato, contratos de mutuo, contratos de préstamos, de depósitos, etcétera. (e) Certificados diversos: de registro inmobiliario, automotor y de naves aéreas o acuáticas; de Cámaras de Comercio, de Oficinas de Impuestos locales o nacionales (declaraciones de renta o pagos de impuestos), académicos (expediciones de títulos o certificados de escolaridad), de membresía de clubes, etc., que pueden servir para complementar, corroborar o desvirtuar pruebas de propiedad e incluso de una condición especial de alguna de las personas imputadas o sospechosas de haber incurrido en alguna actividad ilícita. (f) Soportes informáticos: discos duros de computadoras, discos blandos (diskettes), discos compactos, discos de compactación de información (Zip), discos ópticos, impresoras, agendas digitales y electrónicas de toda especie, teléfonos celulares, cassettes de audio y video, discos de DVD, cámaras digitales y dispositivos de memoria paralela, que son útiles para los fines del aseguramiento de las pruebas. (g) Escritos o imágenes impresas: manuscritos, libros de contabilidad y de comercio en general, fotografías y álbumes fotográficos, agendas de papel, libros que contienen anotaciones manuscritas o dedicatorias, cuadros, recetas médicas, recibos de pagos de peajes, tarjetas de invitación o de presentación personal, tickets aéreos o de otra especie, cupones de pases para abordar vuelos, marcas de mercancía (con mayor razón si son las marcas que a veces les ponen los narcotraficantes a los envíos de drogas, aunque a veces lo hagan para distraer a las autoridades), poderes conferidos a abogados, copias de procesos judiciales. Amerita un estudio más detenido sobre los documentos que se describen a continuación, desde el punto de vista de su utilización como instrumentos probáticos partiendo de las consideraciones de Herman Rincón Cuéllar, en su exposición sobre “Práctica y Aseguramiento de las Pruebas en el Proceso Penal”: 1. “Agendas electrónicas. Con la ayuda de un técnico en la materia pueden buscarse los archivos, en los cuales ordinariamente se guardan números telefónicos, direcciones de correo electrónico, números de escrituras públicas, de cuentas corrientes o de ahorros, de certificados de depósitos, etc., que en un momento determinado pueden ser utilizados para el descubrimiento de la verdad”. 2. “Buscapersonas. Es importante tener en cuenta que el hallazgo de buscapersonas no solamente puede ser útil para leer los mensajes actuales o que se encuentren en la memoria, sino además para acudir ante la empresa prestadora del servicio con el fin de obtener la historia de esas comunicaciones o fundamentos para ordenar judicialmente la intervención de otras, la identificación del usuario o la persona que pague el servicio, cuando haya razones


legales para hacerlo. No hay que olvidar que en las organizaciones criminales con frecuencia los servicios de buscapersonas y teléfonos celulares son contratados a nombre de terceras personas para distraer a las autoridades”. 3. “Teléfonos celulares. Explorar la memoria de un teléfono celular para conocer los últimos números marcados o de llamadas recibidas, al igual que los mensajes dejados en el buzón, puede ser de mucha utilidad para conocer los contactos del usuario del aparato. De la misma manera es conveniente verificar con la empresa prestadora del servicio, a nombre de quién fue vendido el equipo telefónico, quién y de qué manera paga las cuentas, por las mismas razones anotadas al final del numeral precedente. La búsqueda en las memorias de los teléfonos celulares puede ser mucho más útil si se tiene en cuenta que ya se usan para hacer conexiones con la Internet, para envíos de correo electrónico y dentro de poco estarán en el mercado aparatos de esta especie que permiten la comunicación audiovisual”. 4. “Computadores. No es extraño que cuando se produce la incautación de equipos electrónicos, particularmente computadores, las autoridades de policía, del Ministerio Público o judiciales intenten disponer a la mayor brevedad posible de ellos en el cumplimiento de funciones oficiales, para suplir así las carencias o necesidades que se padecen a este respecto. No obstante ello, lo aconsejable es procurar que, antes de hacer uso de tales equipos, se ordene y practique, con la ayuda de un ingeniero o experto en sistemas, con el fin de buscar en la memoria información que pueda ser útil a los fines de la investigación, no sólo en los archivos corrientes, sino en los buzones de correo electrónico, servicios de Internet (páginas personales o comerciales consultadas) e incluso en las memorias de cámaras de video que hayan sido conectadas con el fin de tener comunicación audiovisual a gran distancia. En el mismo sentido debe recomendarse que, aún en el caso de que no se encuentre información en la memoria de un computador por haber sido borrados, se procure explorar la memoria printer desde donde es posible la recuperación de archivos para los cuales se haya dado orden de impresión recientemente. La memoria RAM de la computadora es un área de almacenamiento a corto plazo para cualquier tipo de dato que la computadora está usando, pero también es el tipo más común de memoria que utilizan las impresoras. La memoria ROM conserva su contenido incluso cuando se apaga el computador, por eso se conoce como permanente y es utilizada además en calculadoras y dispositivos periféricos tales como las impresoras láser. Por esa razón fue que en 1994, cuando en un allanamiento se encontró una computadora e indicios de que recientemente se habían impreso archivos que alcanzaron a ser borrados, producida su retención la computadora fue llevada a Estados Unidos, donde expertos en informática pudieron recuperar de la memoria printer los archivos impresos, correspondientes a guías telefónicas, direcciones de funcionarios judiciales y de gobierno,


placas de vehículos que ingresaban a la ciudad, etc., información que era utilizada por los miembros de una organización dedicada al tráfico de estupefacientes”. 5. “Diskettes. El hallazgo de diskettes al lado de computadores, en los que puede guardarse información relacionada con actividades delictivas, debe tomarse con mucha cautela, pues ha habido casos en que uno o varios de ellos han sido deliberadamente contaminados con virus para destruir información, han sido dejados a propósito para que quien los encuentre, al intentar leer los archivos contenidos en esos discos blandos, destruya otros existentes en el disco duro y que pueden ser comprometedores de la responsabilidad penal que pueda tener el usuario o dueño del equipo. En todo caso, es importante hacer el esfuerzo por inspeccionar y analizar los archivos contenidos en unidades de almacenamiento de información, tales como diskettes, discos del sistema Zip (grabadoras de discos especiales con capacidad para archivar aproximadamente unos 100 megabytes), discos ópticos o discos compactos”. 6. “Discos ópticos. Considerados los cuantiosos recursos con que cuentan los narcotraficantes, lavadores de activos y en general la delincuencia organizada, pero también el incremento de la masificación de los medios informáticos, ya no es nada extraño encontrar archivos grabados en discos ópticos porque, dado su carácter de memoria auxiliar o “periféricos de almacenamiento masivo”, les permite guardar archivos voluminosos que pueden mantener fuera de un computador y esconder más fácilmente. En efecto, los discos ópticos son removibles, tienen capacidad para almacenar masivamente datos en pequeños espacios, son portables y son más seguros en la conservación de los archivos porque la capa que los almacena es inmune a los campos magnéticos caseros”. 7. “Palm Pilot. Además de las muy conocidas agendas de papel y electrónicas, el Palm es un organizador personal en el que se pueden almacenar direcciones, teléfonos, usar juegos sencillos, programar listados de cosas por hacer, escribir memorandos, pero además las versiones actuales permiten conectarse a Internet y recibir mensajes de correo electrónico. Si a ello se suma el uso cada vez más frecuente de la Internet y el correo electrónico para realizar actividades delictivas relacionadas con los estupefacientes y el lavado de activos, se hace mucho más importante dedicar mayor atención a este tipo de aparatos electrónicos cuando son portados por una persona indiciada de cometer alguna de esas conductas o son hallados en la escena de uno de tales delitos”. 8. “Tarjetas telefónicas prepagadas. No se debe olvidar que, además del aumento del uso de los servicios telefónicos prepagados para llamadas nacionales e internacionales, en la actualidad también hay tarjetas de esta especie con terminales de computador, que pueden ser usadas para comunicarse con cualquier aparato de esa clase. Por esa razón lo más recomendable es obtener el auxilio de expertos en telecomunicaciones con el fin de tratar de obtener


información relacionada con el uso que se les haya dado a esas tarjetas, de tal manera que, por lo menos, se obtengan elementos de juicio para interrogar a un imputado o a eventuales testigos”. 9. “Tarjetas de débito. Ordinariamente son tarjetas expedidas por los bancos para hacer retiros en dinero efectivo de cuentas corrientes o de ahorro; las más conocidas tienen bandas magnéticas pero también pueden tener barras de acceso que al ser leídas permitan el ingreso a una determinada cuenta para realizar una transacción. Igualmente existen las e-cash o monederos electrónicos y smart cards o tarjetas inteligentes, que cuentan con terminales de computación o chips incorporados para almacenar unidades de valor que con anterioridad se han depositado o cargado a una cuenta, de tal manera que el usuario pueda hacer pagos o descuentos hasta agotar la cuantía depositada o disponible y “recargarla” con un nuevo depósito. Aunque las empresas que ofrecen los monederos electrónicos han establecido pequeñas cuantías máximas, no se puede descartar que las mismas puedan ser utilizadas para hacer pagos relacionados con actividades ilícitas”. 10. “Tarjetas de crédito. Algo que se debe tener en cuenta es que en allanamientos o en poder de personas capturadas se encuentran tarjetas de crédito expedidas a nombre de un tercero, que en muchos casos son utilizadas por narcotraficantes (las entregan a empleados suyos para pagos de viajes, gastos personales, etc.), lavadores o para pagar sobornos. Mayor cuidado hay que tener ahora que se ha puesto en el mercado la tarjeta de crédito virtual (E-Card) específicamente diseñada para compras por Internet, pues no se trata de una tarjeta física sino de un simple número, que ni siquiera requiere anotarse sino que hasta se puede consultar en la página de Internet del banco que la expide, previo uso de una contraseña”. “Aunque no constituya propiamente un documento, un pedazo de papel con unas características determinadas en un momento dado puede llegar a constituir prueba de la culpabilidad o inocencia de una persona a quien se imputa una infracción al estatuto de estupefacientes. En efecto, en una oportunidad el descubrimiento de un pliego de papel de regalo al que le habían cortado un pedazo, dentro de un escritorio del Comando de Policía al que pertenecían dos agentes de policía, permitió establecer que éstos mentían cuando le atribuían a un individuo el porte de varias envolturas de cocaína base dentro de una caja de goma de mascar, pues el grabado del papel utilizado para las envolturas era el mismo del hallado en el escritorio de los agentes y además exhibía un corte en el que calzaban a la perfección los retazos utilizados para las envolturas cuyo porte se atribuía al imputado, quien en su indagatoria acababa de alegar que los uniformados le habían introducido la caja de chicles a su bolsillo”. “Otro ejemplo digno de mencionar consiste en la utilización de una fotocopia de una carta manuscrita, anónima pero con dos alias al final del texto, en la cual se delataba ante la DEA que


una organización narcotraficante iba a enviar un cargamento de más de tres toneladas de cocaína a USA, por vía marítima y en unas condiciones especificadas en la carta, lo que efectivamente había ocurrido. Habiendo obtenido una copia informal, un fiscal dejó constancia de ello, ordenó la apertura de una investigación previa y, con base en solicitud de asistencia judicial, obtuvo copias de las pruebas relacionadas con la incautación del cargamento de cocaína y la captura de personas, como también se identificó al autor de la carta, quien rindió testimonio jurado, aceptó la redacción de la carta e informó sobre la manera cómo obtuvo la información. OTROS MEDIOS DE PRUEBA En el ámbito del lavado de activos constituyen medios de prueba no sólo para obtenerla sino para el aseguramiento de la prueba: El secuestro de correspondencia: Siempre que sea útil para el establecimiento de la verdad, pudiendo el juez ordenar, por resolución fundada, el secuestro de la correspondencia epistolar, telegráfica o de cualquier otra clase, remitida por el imputado o destinada a él, aunque sea bajo nombre supuesto, siendo aplicable las limitaciones del secuestro de documentos. Otro medio de prueba que concuerda con los avances tecnológicos utilizados para fines criminales es el de interceptación de telecomunicaciones, reguladas en el Art. 192 del Código Procesal Penal, para lo cual se requiere la autorización judicial para la interceptación, captación y grabación de las comunicaciones, mensajes, datos, imágenes o sonidos transmitidos a través de redes públicas o privadas de telecomunicaciones por el imputado o cualquier otra persona que pueda facilitar razonablemente información relevante para la determinación de un hecho punible, cualquiera sea el medio técnico utilizado para conocerlas. Se procede conforme a las reglas del allanamiento o registro. La medida de interceptación de comunicaciones tiene carácter excepcional y debe renovarse cada treinta días, expresando los motivos que justifican la extensión del plazo. La resolución judicial que autoriza la interceptación o captación de comunicaciones debe indicar todos los elementos de identificación de los medios a interceptar y el hecho que motiva la medida. Otra novedad es que el informe pericial se puede incorporar al juicio por su lectura, sin perjuicio de que las partes soliciten la presencia del perito en la audiencia y que las partes y sus consultores técnicos pueden participar en el desarrollo del peritaje. Además de la prueba documental, se han diversificados y revalorizados los documentos expresamente elaborados para la comprobación de las infracciones ya sean actas o procesos verbales, sometiéndolos a un mayor control de parte del Juez, lo que representa un reconocimiento y defensa de los derechos humanos y de las libertades fundamentales, para garantizar la preservación de la prueba, vital en la investigación, acusación y juicio en materia de lavado de activos. Como ejemplo se tienen las actas levantadas con motivo del registro de personas; registros colectivos registro de moradas y lugares cerrados; allanamientos.


ORGANISMOS ESTATALES A LOS CUALES EL JUEZ Y EL FISCAL PUEDEN PEDIR INFORMACIÓN EN CASOS DE LAVADO DE ACTIVOS. Saber cómo es un valor agregado que puede significar la diferencia en la ejecución de cualquier tarea. Para un Juez o investigador es de vital importancia tener la certeza de que existen instituciones que por la naturaleza de sus operaciones pueden ser útiles tanto para aclarar como para estructurar un caso. Los casos de lavado de activos son, por lo general, difíciles de estructurar y tienden a manifestar situaciones que requieren, para su comprensión, cierto nivel técnico que no necesariamente está incluido en la formación de un buen abogado. De ahí que, se hace necesario contar con el apoyo pericial de técnicos con formación y experiencia en campos muy ajenos al legal. A CONTINUACIÓN SE DETALLAN LAS INSTITUCIONES DE GRAN UTILIDAD PARA DESENMARAÑAR UN CASO Y APORTAR PRUEBAS E IDEAS MEDULARES EN LA ESTRUCTURACIÓN DEL MISMO. Unidad de Análisis Financiero Se define como la estructura encargada de recibir, solicitar, analizar y difundir a las autoridades competentes los reportes de información financiera relacionados con las ganancias que se sospecha provienen del crimen o que están establecidas en su legislación o en su reglamentación nacional, con el fin de combatir el lavado de activos. La Ley contra el Lavado de Activos Provenientes del Tráfico Ilícito de Drogas y Sustancias Controladas y Otras Infracciones Graves, crea la Unidad de Análisis Financiero, como brazo ejecutor del Comité Nacional Contra el Lavado de Activos. Además de los roles citados en la definición, deberá mantener los registros de todas las transacciones transadas en efectivo cuyo monto supere los US$10,000.00, su equivalencia en moneda nacional o en cualquier otro tipo de moneda; ofrecer apoyo técnico a otras autoridades competentes, en cualquier fase del proceso de investigación; organizar seminarios y entrenamientos que fortalezcan la capacidad preventiva, de detección y de cumplimiento por parte de los sujetos obligados, así como realizar inspecciones de verificación de cumplimiento e investigativas de ser necesario. Esto aplica para todos los sujetos obligados, estipulados en la ley. Banco Central Dadas sus funciones, que son las de ejecutar las políticas monetaria, cambiaria y financiera, de acuerdo al programa monetario aprobado por la Junta Monetaria, este organismo es de vital importancia para todas las actividades económicas de un país. Más aún cuando representa parte de la estructura de lo que es la Autoridad Monetaria y Financiera. El manejo del comportamiento económico de todos los sectores ya sean productivos o de servicios (comerciales, financieros) hace de este organismo una fuente de información que


puede resultar de gran valor complementario en los casos que respecto al lavado de activos pueda manejar un Juez o un fiscal. La Ley contra el Lavado de Activos Provenientes del Tráfico Ilícito de Drogas y Sustancias Controladas y Otras Infracciones Graves (72-02), en su Artículo 38, literal d, tipifica al Banco Central como un Sujeto Obligado, esto con el espíritu de que se sujetara a la ley ante la posibilidad de que por razones monetarias coyunturales efectuara Operaciones de Mercado Abierto, a través de las que, con la emisión de Certificados de Participación, podría captar recursos del público. Además, de la capacidad de servir de banco corresponsal de otros bancos centrales y de bancos comerciales radicados en el extranjero. . Superintendencia de Bancos Este organismo es parte de la Autoridad Monetaria y Financiera con la responsabilidad de supervisar las entidades de intermediación financiera y cambiaria. Además, dentro de su estructura opera el Departamento de Inteligencia Financiera, que no es más que una Unidad de Inteligencia Financiera para las entidades que están bajo su supervisión. Toda información que se necesite de las entidades que conforman los sectores financiero y cambiario, debe ser obtenida a través de la Superintendencia de Bancos a fin de no violar lo legalmente establecido en torno al secreto bancario.. Por otro lado, la Superintendencia de Bancos, está señalada como Autoridad Competente y de hecho había sido tipificada como tal en el Decreto 288-96, Reglamento de la Ley Sobre Drogas y Sustancias Controladas (50-88). En tal sentido, el Departamento de Inteligencia Financiera es operativo desde 1997, teniendo bajo su responsabilidad la prevención del Lavado de Activos. En el año 2000, se ingresó al Grupo Egmont, lo que provee un instrumento para requerir y compartir informaciones con Autoridades Competentes de otras jurisdicciones extraterritoriales. Desde el año 2001 forma parte del Subcomité de Control Financiero del Comité Interamericano Contra el Terrorismo de la Organización de Estados Americanos (CICTEOEA). El uso de la Superintendencia de Bancos, como órgano de enlace con el sistema de pagos, está revestido de una vital importancia en la estructuración de cualquier caso de lavado de activos (movimientos de las cuentas, productos/servicios financieros o cambiarios que, en cualquier modalidad, pudiera mantener la persona jurídica o moral acusada o sospechosa). La mayoría de las transacciones que se efectúan en una economía hacen uso de los servicios ofrecidos por las entidades que están bajo la supervisión de dicha institución, por lo que las informaciones a obtener pueden complementar cualquier caso de lavado de forma real y cabal. También puede ser utilizada como apoyo técnico en la interpretación de Estados Financieros o de un producto financiero. Dirección Nacional de Control de Drogas En función de su naturaleza y de las actividades que realiza, policía especial contra drogas, las informaciones a obtener de este organismo son importantes. Por ejemplo, si el sospechoso o


acusado ha sido investigado, si tiene ficha delictiva, si ha tenido conexidad con alguna persona investigada, acusada o condenada por tráfico de drogas, entre otros. Aquí funciona la sede de la Policía Internacional (INTERPOL), por lo que también esto implica un instrumento adicional de mucha utilidad, cuando los casos son extra fronterizos. Además, pueden recibir apoyo técnico del Departamento de Investigación Financiera, que opera desde 1996. . Dirección General de Impuestos Internos En esta institución del Estado pueden obtenerse datos vitales para una investigación, pues se podrá confirmar la existencia de una organización y los impuestos que ha pagado. En función de esto el investigador comparará la magnitud del negocio con los impuestos pagados, y de no coincidir se estaría en frente de un fraude o de un posible escenario de lavado de dinero. Lo anterior aplica también para individuos, y atendiendo a sus ingresos y bienes se podrá comparar el nivel de impuestos pagados. Esa institución tiene a su cargo también, el registro de vehículos. Dirección General de Migración El disponer de las entradas y salidas del país de un sospechoso puede ofrecer informaciones adicionales que complementarían cualquier investigación, pues le podrían vincular aún más al caso. Registro Mercantil Disponer del registro mercantil da la certeza al investigador de la existencia de la empresa investigada, lo que no implica que este operando, pero allí se podrá obtener el registro de los accionistas, identificaciones numéricas y domicilios, con lo que el investigador establecerá vinculaciones, al tiempo de mejorar la calidad investigativa. Contraloría General de la República Cuando la investigación toque a una institución del Estado, la Contraloría General de la República es un organismo que puede ser de gran utilidad, pues a través de sus operaciones el investigador podrá constatar detalles relativos al control interno, manejo financiero, ejecución presupuestaria, entre otras variables que unirá a las que dispone. Cámara de Cuentas Siendo el órgano de verificación externa posterior de las instituciones centralizadas y autónomas del Estado, su importancia es vital al momento que una investigación implique a las mismas. Los informes evacuados por la Cámara de Cuentas son ideales para fines comparativos en un proceso investigativo, pues podrían arrojar la luz que necesite el investigador para completar el caso. Oficina Nacional de Propiedad Industrial El uso de patentes de fachadas o fantasmas o el registro de un nombre comercial es una forma que se puede perfilar en un esquema de lavado de activos o de un crimen financiero, de ahí la


importancia de que el investigador pueda contar con una institución en la que pueda verificar la propiedad de marcas o nombres de productos que se vinculen al caso investigado. Superintendecia de Valores El mercado de valores puede ser utilizado para lavar activos y para la comisión de crímenes financieros de alta sofisticación. El investigador, puede contar con la ayuda del organismo supervisor, que tiene la responsabilidad de aprobar las emisiones públicas de títulos valores, además de garantizar la correcta operación del mercado y sus componentes. A través de este organismo el investigador podrá obtener todas las informaciones que requiera tanto de una emisión de valores como de una inversión en los mismos. Otras Fuentes de Información Estatales El investigador puede apelar a otras fuentes que le pueden ser útiles en el proceso investigativo. Por ejemplo, cuando desee comprobar la adquisición, venta, garantías, otros dueños o cualquier información trascendente relativa a un bien inmueble es de rigor que acuda a la Oficina del Registrador de Títulos. Si desea investigar quién ha construido un edificio y de ahí determinar de dónde proviene el capital que lo ha financiado, puede obtener la información en las Oficinas de Catastro de los Ayuntamientos Municipales o en la Secretaría de Estado de Obras Públicas. Para el caso de verificar pólizas de seguro, pueden ser verificadas a través de la Superintendencia de Seguros, así como los pagos y movimientos de dinero efectuados a Administradoras de Fondos de Pensiones, en la Superintendencia de Pensiones. Portales Electrónicos de Información Para fines de conocer a las personas físicas o jurídicas, en el debido cumplimiento de lo legalmente establecido. Existe una serie de entidades públicas y privadas que ayudan a quienes estén interesados en investigar la veracidad de los datos, que ha ofrecido o de los que simplemente se disponen. Tal es el caso de la Lista OFAC, . Métodos para movilizar dinero fuera o hacia un paraíso fiscal7 • Transporte Físico: cuando el dinero obtenido de forma ilegal es transportado físicamente desde un país hacia un Paraíso Fiscal en portafolios, equipaje, en personas que sirven de mulas, entre otros. • Transferencia Cablegráfica: cuando una suma es depositada en una entidad bancaria de un país, usualmente un monto menor al requerido para fines de registro, y luego ese dinero es enviado mediante transferencia cablegráfica a una cuenta bancaria de una entidad financiera establecida en el Paraíso Fiscal. • Cheque de Caja/Gerencia/Administración: se deposita como se ha apuntado antes y se solicita un cheque de gerencia, el que a su vez es enviado por correo o transportado físicamente al extranjero.


• Precios de Importación/Exportación: al registrar costos incorrectos en facturas de importación/exportación por concepto de productos enviados o recibidos. (Ver ejemplos en anexos) • Administradores, Contadores y Administradores de dinero: ellos se les da el dinero que depositarían en una cuenta de fideicomiso. Esta es una cuenta bancaria mantenida por y bajo custodia de esta parte, que utiliza para fondos relativos a los intereses financieros y/o negocios del cliente. Los fondos pueden ser transferidos, a través de cablegrafía o cheques de caja, gerencia o administración, al extranjero. • Cuentas de Corretaje: donde se depositan los cheques de cajas, de gerencia o de administración, de negocios ficticios o cheques personales. Los retiros subsecuentes se envían por correo o se trasportan físicamente al extranjero. • Agentes de Cambio Remesadores (Servicios de Transferencias): las empresas que ofrecen este servicio pueden ser utilizadas para transferir fondos hacia los Paraísos Fiscales. • Préstamos Ficticios: cuando una empresa ficticia establece una cuenta en un país extranjero y a través de éstas reciben préstamos de compañías cuya real operación se dificulta establecer. • Inversionistas Extranjeros Ficticios: cuando se forma un negocio legítimo en un país, pero se utilizan “inversionistas ficticios extranjeros” que proporcionarían capitales a la empresa. Los pagos del sistema de transacción de negocios (cheques de Caja, de Gerencia o de Administración, transferencias cablegráficas y cheques de negocios, de negocio o de individuos ficticios) fluyen retrospectivamente hacia el país. • Honorarios por Localización: cuando se generan honorarios por localización o pagos por servicios prestados. Estas transacciones falsas pueden ser para localizar inversionistas para negocios extranjeros, para negociar compro de bienes raíces, entre otros. LA INVESTIGACION FINANCIERA EN CASOS DE LAVADO DE ACTIVOS Sueldos Corporativos: son los pagados por una empresa ficticia extranjera por medio de cheques corporativos, transferencias cablegráficas o cheques de caja, de gerencia o de administración.


Una vez los fondos se encuentran en una cuenta de un Paraíso Fiscal, puede hacerse una transferencia electrónica hacia una cuenta bancaria que bajo un nombre falso se aperture en otro Paraíso Fiscal, por una empresa que controla esa cuenta en ese último país o territorio. Desde aquí se hace “préstamo” a una empresa ficticia en un país cualquiera, que es controlada por un delincuente financiero, quien de hecho originó estos productos ilegales. Los problemas surgen cuando el proceso del lavado implica una jurisdicción extranjera, del tipo Paraíso Fiscal. La clave para detectar y resolver este tipo de operaciones es documentar el flujo de dinero con anterioridad a su salida del país, pues la mayor vulnerabilidad del crimen del lavado se manifiesta en su primera fase, es decir, en la colocación. Indicadores de Fraudes Alguna acción o indicador de la posible existencia de fraude, tal y como la omisión de algún ingreso específico, y registros inadecuados y grandes compras pagadas en efectivo podrían ser indicadores que denoten la ocurrencia de un fraude o de una actividad ilegal. El investigador financiero puede utilizar los siguientes indicadores de fraudes para ayudar a identificar a aquellos que están involucrados en actividades ilegales, identificando sus esquemas. ASPECTOS DOGMÁTICOS, CRIMINOLÓGICOS Y PROCESALES DEL LAVADO DE ACTIVOS Cuarenta y seis (46) indicadores de fraudes A continuación citamos cuarenta y seis (46) posibles situaciones sospechosas. Es bueno señalar que las mismas no son rígidas o estáticas, sino más bien dinámicas y han de existir muchas otras. 1. Mantener dos juegos de libros y registros. 2. Ocultamiento de activos. 3. Destrucción de libros y registros. 4. Grandes o frecuentes transacciones en divisas cuyas compras se efectúen en efectivo. 5. Pagos a compañías o personas ficticias. 6. Asientos y documentos falsos o alterados. 7. Facturas o notas falsas. 8. Compras o ventas de activos subvaluados o sobrevaluados. 9. Uso de nombres falsos. 10. Grandes préstamos de la compañía a empleados u otras personas.


11. Cobros frecuentes de cheques recibidos. 12. Uso frecuente de cheques de caja. 13. Uso de fotocopias de facturas o recibos en lugar de los documentos originales. 14. Gastos personales pagados con fondos corporativos. 15. Cheques en los que se ha dejado en blanco el nombre del beneficiario y en los que después se ha llenado en fecha posterior. 16. Excesivos descuentos en facturación. 17. Excesivos defectos o material echado a perder. 18. Doble pago de facturas. 19. Uso innecesario de cuentas de cobro. 20. Individuos que negocian cheques que eran pagaderos a una empresa. 21. Endosos de segundas y terceras personas en cheques corporativos (de la compañía). 22. Uso excesivo de cheques de cambio o retiro de cuentas. 23. Préstamos de compañías localizadas en países que son refugio fiscal. LA INVESTIGACION FINANCIERA EN CASOS DE LAVADO DE ACTIVOS24. Declaración de impuestos por cantidades menores a las reales, atribuibles a transacciones específicas y negociación por parte del causante de haber recibido el ingreso, o incapacidad para proporcionar una explicación satisfactoria de su omisión. 25. Incrementos substanciales no explicados en valor neto, especialmente sobre un período de años. 26. Depósitos bancarios de fuentes inexplicables que exceden en forma substancial el ingreso declarado. 27. Ocultamiento de cuentas bancarias, cuentas de corretaje y otras propiedades. 28. Explicación inadecuada de transacciones por grandes sumas de divisas, o el gasto inexplicables de divisas. (Especialmente cuando se trata de un negocio que no requiere grandes cantidades de efectivo). 29. Incumplimiento en el depósito de los recibos en la cuenta del negocio, contrario a las prácticas normales. 30. Incumplimiento con la declaración de impuestos, especialmente por un precio de varios años aunque se recibieran cantidades substanciales de ingreso gravable. 31. Reclamación de deducciones ficticias o inadecuadas. 32. Cantidades substanciales de gastos personales deducidos como gastos de negocios. 33. Asientos falsos o alteraciones hechas en los libros y registros, documentos fechados con fecha


atrasada o post-fechados, facturas falsas o estados financieros falsos, u otros documentos falsos. 34. No llevar los libros adecuados, especialmente si ya se le dio aviso por parte del inspector como resultado de algún examen previo, ocultamento de registros o rehusarse a mostrar ciertos registros. 35. Distribución de ingresos a socios ficticios. 36. Inclusión de ingresos o deducciones en la declaración de un causante relacionado, cuando existe diferencia en las tasas de impuestos. 37. Declaraciones falsas, especialmente si se hicieron bajo juramento, respecto a un hecho material involucrado en la investigación. 38. Intentos de obstruir la investigación. Incumplimiento para responder a preguntas pertinentes o cancelación reiterada de citas concertadas. Evitar al investigador. 39. El conocimiento del causante respecto a impuestos y prácticas de negocios cuando aparecen diversos puntos cuestionables en las declaraciones. 40. Destrucción de libros y registros, especialmente si fueron confeccionados exactamente antes de la investigación. ASPECTOS DOGMÁTICOS, CRIMINOLÓGICOS Y PROCESALES DEL LAVADO DE ACTIVOS 41. Transferencia de activos para fines de ocultamiento. 42. Involucramiento en actividad ilegal (ingreso ilegal). 43. Incumplimiento para revelar todos los hechos relevantes a la persona que prepara la declaración. 44. Incumplimiento para seguir las indicaciones y consejos del contador o abogado. 45. Riqueza inexplicable. 46. Asociación de negocios con empresas localizadas en países que son paraísos fiscales. DOS AGENTES DEL FBI Y EL SERVICIO SECRETO DE USA DETENIDOS POR ROBO DE BITCOINS Dos agentes federales que lideraron la investigación sobre Silk Road (el sitio web que vendía drogas y armas con pagos en moneda virtual) fueron despedidos y son acusados de fraude bancario, lavado de dinero y otros delitos por robar Bitcoins. Los agentes son Carl Force, de 46 años, un agente especial de Baltimore que trabajaba para la DEA, y Shaun Bridges de 32 años, un agente especial de Laurel, Maryland que trabajaba para el Servicio Secreto. Con el desmonte de Silk Road el gobierno estadounidense se hizo con la mayor bolsa de Bitcoins del mundo.


CIUDAD DE BUENOS AIRES (Urgente24) - El gobierno de USA se adueñó de una de las bolsas más grandes de bitcoins, luego de que decomisaron millones de dólares en moneda virtual asociada a la actividad criminal del mercado negro en la red profunda. Dos agentes federales que lideraron la investigación presuntamente decidieron tomar algo del dinero para sí mismos, de acuerdo con documentos judiciales. Ambos agentes fueron despedidos y son acusados de fraude bancario, lavado de dinero y otros delitos por robar moneda virtual durante la investigación que llevó al cierre de Silk Road el año pasado. Uno de los agentes trabaja para la Administración para el Control de Drogas (DEA) y el otro para el Servicio Secreto, que aunque principalmente protege al presidente de USA, también investiga delitos relacionados con moneda. Los cargos fueron presentados en una corte federal de San Francisco y describen a dos agentes federales corruptos que intentaron enriquecerse a sí mismos mientras buscaban atrapar a uno de los cibercriminales más importantes del mundo. Los cargos contra los agentes podrían terminar causando problemas en el caso del gobierno contra Ross Ulbricht, también conocido como Dread Pirate Roberts, quien fundó Silk Road. Ulbricht fue encontrado culpable el año pasado de ayudar al tráfico de drogas mediante su sitio y todavía espera sentencia. Como resultado del caso contra Ulbricht y otros, el gobierno federal confiscó moneda virtual que tenía en ese entonces un valor de 33 millones de dólares. Los agentes son Carl Force, de 46 años, un agente especial de Baltimore que trabajaba para la DEA, y Shaun Bridges de 32 años, un agente especial de Laurel, Maryland que trabajaba para el Servicio Secreto. Force fue el agente que lideró la investigación y fue el investigador principal que se comunicó con Ulbricht. Force es acusado de fraude bancario, robo de propiedad gubernamental, lavado de dinero y conflicto de intereses.


Bridges era el experto forense en sistemas de cómputo del caso. Está acusado de fraude bancario y lavado de dinero. Force presuntamente abrió cuentas falsas de personas e intentó extorsionar a Ulbricht, a quien en una ocasión le pidió US$ 250.000 a cambio de no revelar su información al gobierno federal, según la acusación. Utilizando la cuenta French Maid, Force tuvo éxito en obtener US$ 100.000 en bitcoins de Ulbricht, el cual fue depositado en sus cuentas personales. Después realizó transacciones en Bitcoins y dólares, incluyendo una de US$ 235.000 enviada a Panamá, para lavar el dinero, según los fiscales. De acuerdo con los fiscales, Force también utilizó su posición como ejecutivo en el mercado de intercambio de divisas CoinMKT, del cual era inversionista, para confiscar cuentas de clientes. De ese servicio transfirió US$ 297.000 en moneda virtual a sus cuentas personales, según la demanda. Dridges presuntamente robó US$ 820.000 usando transferencias para mover Bitcoins que antes había robado de Silk Road a principios de 2013. Luego los depositó en el mercado de divisas Mt. Gox, con sede en Japón. Dos días después firmó una orden del gobierno para confiscar millones de dólares en Bitcoins de cuentas de Mt. Gox. Luego, cuando se enteró que el FBI estaba investigando actividad sospechosa dentro del caso de Silk Road, transfirió US$ 250.000 de su cuenta personal a otra compartida con otra persona, de acuerdo con la demanda.

MENTES MÁS BRILLANTES EN LA TECNOLOGÍA. Organizamos a nuestros genios según su trabajo (presidente ejecutivo más inteligente: Steve Jobs; fundador más inteligente: Mark Zuckerberg; ingeniero más inteligente: Christophe Bisciglia, de Cloudera), y no es del todo una coincidencia que subrayáramos las tres tendencias del momento: ‘consumidorización' de la tecnología, medios sociales y la ‘nube'. Este año decidimos ir directamente a las industrias fuertes y escribir sobre los empresarios, ejecutivos e ingenieros más inteligentes en su respectivo campo. Nuestra lista completa de las mentes más brillantes de la tecnología será revelada en la edición de la revista del 5 de septiembre. No se lo pierdan. Quidsi Quidsi, la firma de Vinit Bharara y Marc Lore, tuvo tanto éxito que Amazon la compró por 545 mdd. ✓ (Foto: Cortesía Fortune) Fundadores, Quidsi Amazon Cuando los amigos de la infancia Vinit Bharara y Marc Lore lanzaron Diapers.com en 2005, la sabiduría convencional les dijo que no podrían hacer dinero vendiendo productos en grandes cantidades en línea. Bhara y Lore no se la creyeron. Su plan de negocios visualizaba a los pañales como ‘un artículo de gancho y un creador de relaciones'. Los pañales de bajo costo


harían que las madres ocupadas se unieran. Diapers.com se ganaría a esas mamás a través de una vía gratuita, con envíos rápidos y servicio al cliente de lujo. Las mamás no sólo regresarían a comprar pañales sino también productos más costosos, como carreolas y juguetes. Bharara y Lore llamaron a su nueva compañía Quidsi, que en latín quiere decir ‘y si...'. Crearon una tienda elegante e intuitiva que ahora ofrece más de 23,000 artículos para bebés. Detrás de ella establecieron una empresa de logística y logros sofisticados. Diseñaron un software que determina cuál de las 23 cajas de distintos tamaños debe ser usada para enviar un paquete al menor costo posible. Lore creó un algoritmo para determinar la cantidad de inventario preciso y el momento de reabastecerlo. Quidsi usa una serie de servicios de paquetería nacional y local para mantener los costos bajos y asegurar que los pedidos lleguen a tiempo. Dado que Amazon ya estaba ganando el juego de los precios y las entregas, no se trataba de una estrategia ganadora, obviamente. Pero llegaron las mamás, y como suelen hacerlo ellas, le cuentan a sus amistades: no más compras de pañales a media noche, no más ir a Costco para comprar fórmula. El año pasado, Diapers.com generó 300 millones de dólares en ingresos. Esto incluye la venta de Soap.com, un sitio dedicado a la venta de productos para el hogar, que fue lanzado en 2010 y ofrece a las madres otros 25,000 artículos. Soap.com comparte un carrito de compras con Diapers.com y ofrece la misma propuesta de valor: precios bajos, gran servicio, entrega rápida. Claramente, los jóvenes de Quidsi pretendían algo, así que no fue ninguna sorpresa que en noviembre del año pasado Amazon comprara la compañía (precio final: 545 millones de dólares). Pero el gigante de ventas electrónicas de Seattle no sólo compró la fiel base de clientes de Quidsi, ni sus operaciones logísticas, sino que también compró al dúo de genios, Bharara y Lore, quienes siguen haciéndose cargo de Quidsi desde sus oficinas centrales en Nueva Jersey. En julio del año pasado, el equipo de Quidsi lanzó el sitio de productos para mascotas Wag.com, la apuesta de los fundadores de Quidsi por recuperar el legado derrotado de Pets.com. Jordan Rohan, analista de Internet en el banco de inversión boutique Stifel Nicolaus, dice que "Marc y Vinit se aventuraron audazmente en la zona de Amazon, la tierra de los bajos márgenes y el envío gratuito, y salieron victoriosos". Linkedin LinkedIn podría establecer a Reid Hoffman, uno de los fundadores, como el padre de las redes sociales. ✓ (Foto: Cortesía Fortune) Reid Hoffman es empresario, inversionista de riesgo y co-fundador de LinkedIn. Luego de venderlo a Microsoft por US $26.200, se unió al directorio de esta empresa. Es co-fundador de PayPal, la compañía de pago que más tarde fue vendida a eBay, inversionista de Change.org y socio de la firma de capital de riesgo Greylock Partners. En 2005 fue uno de los primeros inversionistas de Facebook. Hoy participa en el directorio de varias organizaciones sin fines de lucro, como Endeavor y Kiva, que combate la pobreza a través de las microfinanzas. Hoffman también es reconocido por haber invertido en más de 80 emprendimientos tecnológicos, entre los que destacan Zynga, Flickr, y Digg. Por su parte, Wences Casares es empresario y emprendedor argentino, fundador de exitosas empresas de tecnología y financieras en Estados Unidos, América del Sur y Europa. Es el fundador y Director Ejecutivo de Xapo, miembro del directorio de PayPal, Las Majadas de Pirque y de las fundaciones Endeavor y Kiva. También es fundador del Banco Lemon, un banco minorista brasileño, como también de las empresas de pago móvil Bling Nation y Lemon Wallet, adquirida en 2013 por US $50 millones.


Su historia comenzó al fundar el primer proveedor de servicios de internet de Argentina antes de abandonar la universidad, para luego crear Patagon, el primer servicio de corretaje en línea de Latinoamérica –que fue adquirido por el Banco Santander en US $750 millones–. Las Majadas de Pirque organizará una conversación en profundidad entre ambos expertos, donde juntos buscarán enriquecer el debate sobre el impacto de las nuevas tecnologías en los negocios, la sociedad y la democracia, e inspirar a emprendedores y ejecutivos locales.

Presidente ejecutivo, LinkedIn Socio, Greylock Quizás nunca aparezca en un éxito de Hollywood, pero no cabe duda que Reid Hoffman es una de las estrellas del fenómeno de las redes sociales. En 2002, en la época en la que un joven prodigio se titulaba en Harvard, Hoffman ya estaba creando LinkedIn, que hoy en día es la red profesional más grande del mundo, con 100 millones de miembros y un millón de reclutas nuevos cada semana. LinkedIn fue lanzado en mayo del 2003 junto con Hoffman, ahora de 44 años de edad. Manejó el sitio durante su primera etapa de crecimiento, aprovechando su experiencia previa como ejecutivo en PayPal. En 2009, Hoffman pasó las riendas al actual presidente ejecutivo, Jeff Weiner, pero se mantuvo como presidente con una participación del 20% en el negocio. Este mayo, LinkedIn se volvió la primera red social en hacerse pública. Las acciones fueron valuadas inicialmente en 45 dólares y llegaron a hasta 122 dólares. Hoy en día oscilan en 95 dólares. El precio actual da a LinkedIn una valuación de cerca de 9,000 millones de dólares, y hace de Hoffman un multimillonario. El éxito de LinkedIn -que generó 243 millones de dólares en ingresos el año pasado gracias a la publicidad, suscripciones y licencias de software- podría ser suficiente para establecer a Hoffman como padre fundador de las redes sociales. Pero él no tuvo sólo un éxito. A Hoffman se le pegó el 'bicho' de lo social en 1997, cuando cofundó Socialnet.com, un sitio de citas y comunidad que fue vendido a Spark Networks en 2001. Sus primeras incursiones fueron en el desarrollo de productos y la experiencia del usuario en Fujitsu, y Apple entrenó a Hoffman para su papel como ‘hombre de productos' (en sus propias palabras) de la compañía, donde comenzó a comprender el poder de conectar a la gente a través de redes en línea. Después llegó PayPal, donde, como miembro fundador de la junta y ejecutivo, Hoffman hizo una fortuna (para aquel entonces) gracias a la venta de la plataforma de pagos a eBay. También se hizo famoso por ser miembro de la ‘Mafia de PayPal', llamada así porque sus colegas Elon Musk, Keith Rabois de Square y el inversionista Peter lograron un mayor éxito con la tecnología. LinkedIn es la afirmación de Hoffman a la fama, pero también se volvió uno de los inversionistas


ángel más prolíficos de Silicon Valley, y asesoró a empresarios jóvenes, sobre todo a quienes tenían una idea social. Apostó exitosamente a favor de Digg (compartición de contenido), Flickr (compartición de fotos) y Facebook, el sitio de compartición más grande de todos. Hoy en día Hoffman es socio en una compañía de capital de riesgo, Greylock, a la que se unió en 2009. Supervisa las inversiones de la compañía en el sitio de ubicaciones Gowalla, y en el sitio de compartición de viviendas Airbnb, entre otros. También es asesor de Groupon y director de Zynga, dos de las compañías creadas tras redes sociales, y cuyas próximas ofertas iniciales públicas podrían eclipsar la de LinkedIn. Dado que Hoffman tiene participación en ambas, quizás no está muy preocupado. El fundador de Netscape y capitalista de riesgo, Marc Andreessen, dice que Reid es una de las personas a las que se debe recurrir en el Valley y en la industria de negocios para el Internet socialde todas las formas y tamaños. "Es un gran creador de empresas y un pensador profundo... una combinación muy extraña. Es la primera persona a la que llamo cuando estoy confundido".

LEMOND BANK

EL FUNDADOR DE PATAGON ABRE EN BRASIL UN BANCO PARA LOS QUE NO TIENEN INTERNET Wenceslao Casares, que abandona la Red, crea Lemon Bank y la fábrica de juegos Wanakogames No llega a los 30 y ya lo ha sido todo: estudiante, emigrante, empresario de éxito, gurú internáutico, multimillonario de prestigio y rico desprestigiado. Ahora quiere ser el banquero de los pobres, pero, que quede claro, Wenceslao Casares no es Teresa de Calcuta. La nueva aventura del fundador de Patagon es, como dice él, " un banco para los que no tienen banco", un banco para los que no tienen Internet. Lo curioso es que la empresa la ha montado un multimillonario gracias a Internet. Casares creó Patagon.com en 1997, una web de servicios financieros. Tres años después se la encajó al Banco de Santander por 92.000 millones de pesetas de entonces. Hasta en euros de hoy duele la cifra: 580 millones. Con el dinero bajo el brazo, Casares fundó dos empresas que nada tenían que ver directamente con Internet: Wanakogames, una desarrolladora de juegos para Xbox y PlayStation, con sede en estados Unidos; y Lemon Bank, un banco real, de piedra, en Brasil. "Esto no tiene nada, nada que ver con Internet. Es, prácticamente, lo contrario", aclara Casares. Este argentino, más emprendedor que vivales, reconoce los fallos que cometió con Patagon. "El primero fue pensar que Internet cambiaría la banca en tres años; la va a cambiar, pero en 20. El segundo gran error fue pensar que Internet iba a cambiar los hábitos financieros de las clases


bajas. Ha cambiado la de las clases ricas y medias, que tienen Internet y dejan de ir a las oficinas bancarias. Pero los pobres siguen visitando el banco, porque no tienen Internet ni ordenador". Casares vio los fallos, los asumió y los aprovechó para su siguiente empresa: un banco para pobres en Brasil. En ese país, las oficinas financieras tienen dos colas: una para clientes fetén y otra para los que van a pagar los recibos de la electricidad. Son colas interminables, incómodas, a veces humillantes. Con el ex presidente de Patagon Brasil, Michael Esrubilsky, y su socio de confianza Guillermo Kirchner, Casares fundó hace un año Lemon Bank. Oficinas en franquicia Los colores verde y amarillo de Lemon Bank comenzaron a florecer en medio de farmacias, zapaterías, panaderías o gasolineras, donde los humildes podían pagar sus factura de electricidad. "Hacemos franquicias con las tiendas. Ellos ponen su espacio y personal y nosotros les damos una parte de la comisión del recibo". El cliente de Lemon Bank no está en el engranaje del sistema financiero. Casares, con el gancho del pago cómodo de recibos, intenta darles una personalidad bancaria. El Lemon ya tiene 3.700 chiringuitos. Cada semana se abren 50 más. "Llegaremos a 16.000, pero nos quedaremos sólo con los 9.000 mejores". El mes pasado, por los quioscos de Casares pasaron cinco millones de clientes únicos y realizaron siete millones de transacciones, la mayoría de 15 reales (cinco euros). "Son cantidades tan pequeñas que los bancos tradicionales no sacan ningún beneficio de ellas; no les es rentable este tipo de clientes. Nosotros les atendemos, creamos tráfico y luego empezamos a ofrecerles otros productos: el primero es la tarjeta de crédito". En realidad es una tarjeta monedero. El cliente adelanta a Lemon Bank, por ejemplo 20 dólares, y el banco le da una tarjeta para que gaste por esa cantidad. Con esta fórmula de franquicias, Casares dice que Lemon Bank se ha convertido en el banco más pequeño de Brasil por número de empleados (75), y el mayor por oficinas (3.700). "Y en 12 o 18 meses daremos beneficios". Tres años después del boom de Internet, Wenceslao Casares, elegido en Davos Global Leader of Tomorrow, ha depositado sus inversiones en los desposeídos de la Tierra La posibilidad de exprimir un mercado poco bancarizado y con enorme potencial no está para nada verde: con la premisa de estar cerca de la población de bajos ingresos, el Lemon Bank de Brasil brinda servicios en negocios, desde kioscos hasta funerarias, e inclusive a bordo de dos líneas de autobuses, porque opera sin sucursales. El Lemon Bank es el único banco privado brasileño que opera exclusivamente sin sucursales: lo hace a través de lo que llama corresponsales, que son sedes instaladas en lugares tan poco habituales a la operatoria financiera como una panadería, una estación de servicio, una tienda o una farmacia. La base del negocio está en las personas que suelen recurrir a prestamistas individuales en un continente como América latina, donde sólo están bancariamente atendidas 3 de cada 7 personas.


Las cuentas se abren contra la presentación de un documento de identidad y un comprobante de domicilio. El titular recibe una tarjeta de débito Visa Electron con la que puede hacer compras en establecimientos adheridos y retirar dinero de los cajeros automáticos del banco. Además, los clientes pueden recargar sus teléfonos móviles, pagar impuestos, servicios, etc., aunque el banco lo que busca para su negocio es además que pases a ser usuarios de sus productos (crédito, etc). Lemon Bank no ha salido todavía del mercado brasilero a otros paises vecinos por las regulaciones existentes en esos paises, específicamente la ley que regula el funcionamiento de los corresponsales. En ese sentido, Brasil tiene una de las legislaciones más avanzadas del mundo. Lemon Bank irrumpe en población no bancarizada Por Karen Keller

El brasileño Lemon Bank invertirá 2mn de reales (US$670.000) en el lanzamiento de una campaña orientada a atraer a 25 millones de brasileños de bajos recursos para que ingresen al sistema bancario, informó el banco en un comunicado. La campaña se basará en avisos televisivos y en llamadas telefónicas a los hogares y promoverá servicios de cuentas corrientes, tarjetas de crédito y seguros. Para fines de año Lemon Bank espera haber captado 100.000 nuevas cuentas como resultado de la campaña. Lemon Bank redefinió en marzo de este año su mercado objetivo hacia la población más desfavorecida de Brasil, luego de vender su operación Fator Doria Atherino, una de las mayores corredoras de valores del país. En ese entonces, el banco reveló que como parte de su


estrategia implementaría 6.500 puntos de venta en cadenas minoristas brasileñas hacia fines de año. Lemon Bank es una de las escisiones de la compañía argentina de Internet Patagon, un portal online de servicios financieros que el banco español Santander Central Hispano (Nyse: STD) compró en el 2002 y que luego fue vendido a sus dueños originales, los que de un portal financiero lo transformaron en banco. PRESIDENTE EJECUTIVO Y FUNDADOR, SQUARE Sólo se necesita una gran idea para cambiar de forma radical la forma en la que pensamos. Jack Dorsey, de 34 años, ha tenido dos. En 2006, Dorsey creó la red de microblogging Twitter, donde aún es director de productos. Su nuevo negocio es Square, un servicio de pagos móviles que reemplaza el aparato de pagos tradicional de lectores de tarjetas, cuentas de banco y computadoras de oficina. Para usar Square, los vendedores simplemente conectan un enchufe de plástico cuadrado en un iPhone, iPad o un aparato Android, convirtiéndolo en un lector de tarjetas de crédito móvil. El servicio ha sido una gran ayuda para vendedores pequeños que no suelen aceptar tarjetas. Lo mejor es que la compañía no cobra cuotas de transacción planas, aunque sí se lleva 2.75% de cada transacción. Dorsey cofundó Square en 2009. Hoy en día la compañía procesa 3 millones de dólares en transacciones diarias, lo que representa ganancias anuales de cerca de 30 millones de dólares. Más de 50,000 pequeños negocios se unen cada mes. Square consiguió recientemente otros 100 millones de dólares adicionales en financiamiento de riesgo, cuadruplicando el valor de la compañía a mil millones de dólares. El elemento crucial de este éxito temprano es Dorsey mismo, quien dedica ocho horas al día a la compañía, además de otras ocho horas como desarrollador de productos en Twitter. "Mucha gente tiene respuestas complicadas para problemas complicados", dice el director operativo de Square, Keith Rabois. "Jack es extraordinario porque puede reducir un conjunto de elementos complicados en una solución simple y elegante que funciona".

Daniel ek La empresa de Daniel Ek, Spotify, llega a 15 millones de usuarios en Europa, y se acaba de lanzar en EU. ✓ (Foto: Cortesía Fortune) Presidente ejecutivo y cofundador, Spotify Por años, Spotify fue el servidor de música de moda que los estadounidenses no podían tocar. Su viaje desde Estocolmo estuvo lleno de promesas, especulación y negociaciones con disqueras. Ahora que llegó (Spotify fue lanzada en Estados Unidos este julio), el servicio de


canal de música fundado por Daniel Ek transformará la forma en que la gente consume música, tal como lo hizo en Europa. "Los servicios de música ‘todo lo que puedas comer' han existido en Estados Unidos desde hace tiempo, pero ninguno de ellos funciona como Spotify, una aplicación tan simple, tan rápida y legal que permite a los usuarios escuchar más de 13 millones de canciones del servicio de forma gratuita. Mientras que Rhapsody requiere pagos por suscripción mensuales adelantados, Spotify usa un modelo gratuito. Se mantiene gracias a la publicidad y te informa cuántas veces puedes escuchar una canción al mes. Los planes Premium permiten a los usuarios usar el servicio de forma móvil. Spotify usa dinero de la publicidad y de las cuotas de suscripción para compensar a los artistas y disqueras". Ek también creó una experiencia del usuario cautivadora que supera incluso a iTunes, que ofrece cerca de un millón de canciones más que Spotify pero hace que los usuarios paguen por adelantado y tengan que esperar a que la música se descargue para poder escucharla. Ek cree que si abres todo el catálogo de música a los usuarios de forma gratuita, eventualmente se engancharán lo suficiente para pagar las cuotas de suscripción. Las cifras hablan por sí mismas. Hasta hoy, Spotify llega a 15 millones de usuarios en Europa, y 750,000 de ellos pagan.

Don Mattrick Sin Don Mattrick no habría existido Kinect, aparato que cambió la trayectoria de Microsoft. ✓ (Foto: Cortesía Fortune) Presidente, Microsoft Interactive Entertainment Históricamente, las consolas de videojuegos sobreviven entre cinco y siete años con ventas a la baja, cuando los fabricantes anuncian el siguiente producto. Gracias a Don Mattrick, ese no ha sido el caso para el Xbox 360 de Microsoft. Las cosas no siempre lucieron bien para la icónica consola. Cuando Mattrick se fue de Electronic Arts para trabajar en Microsoft en 2007, el negocio del Xbox aún tenía que generar ganancias. Ese mismo año, los defectos de hardware hicieron que 24% de todas las consolas Xbox 360 fracasaran, causando pérdidas de 1,150 millones de dólares para extender garantías y reembolsar a clientes molestos. Mattrick ideó y puso en marcha un plan de tres años para recuperar el negocio. "Había muchos cambios, y Don era la verdadera fuerza estabilizadora", dice Dennis Durkin, director operativo y financiero de Interactive Entertainment Business de Microsoft. Sin Mattrick ahí no habría Kinect, el controlador de sensor de movimiento del Xbox 360. Mattrick ensambló el equipo de Kinect, reclutó talento externo como al director creativo Kudo


Tsunoda, y fijó objetivos cruciales como la reducción de costos para lograr un precio al consumidor costeable. Ahora, Kinect es uno de los aparatos de hardware más exitosos de Microsoft, tanto en las críticas como en las finanzas. Microsoft ha vendido más de 10 millones de unidades desde su lanzamiento en noviembre, y aumentó la venta de consolas en 29% durante los primeros cuatro meses del 2011, en comparación con el mismo periodo el año anterior. Los hackers ya han programado varias aplicaciones para Kinect, desde juegos de realidad aumentada hasta programas de animación de captura de movimientos. Los robóticos están usando la cámara de Kinect para capturar imágenes en 3D en tiempo real. "Mucha gente puede ver las tendencias, pero Don también formó un equipo que podría ejecutar una visión", dice Durkin. "Ahí es donde él realmente cambió la trayectoria de nuestro negocio". BIFURCACIÓN (sistema operativo) Este artículo se refiere a la bifurcación de procesos en sistemas operativos, Bifurcación (informática) para otros usos. Una bifurcación o fork, cuando se aplica en el contexto de un lenguaje de programación o un sistema operativo, hace referencia a la creación de una copia de sí mismo por parte de un programa, que entonces actúa como un "proceso hijo" del proceso originario, ahora llamado "padre". Los procesos resultantes son idénticos, salvo que tienen distinto número de proceso (PID). Más generalmente, una bifurcación en un entorno multihilo significa que un hilo de ejecución se bifurca. El orden de la salida será determinada por diversos parámetros del núcleo del sistema operativo. Como se puede observar, el valor contenido en la variable id Propio es compartido por proceso padre e hijo; sin embargo, la referencia a la variable no es la misma y su posterior modificación en cada código, ya sea del padre o del hijo, no se verá reflejada en ambos procesos. BOMBA FORK

Esquema de funcionamiento de la bomba fork, los procesos son divididos recursivamente hasta causar una denegación de servicio o un bloqueo del sistema. La bomba fork es una forma de ataque del tipo denegación de servicio sobre un computador que implementa la operación fork, o alguna funcionalidad equivalente


mediante la cual un proceso es capaz de crear otro proceso. La bomba fork es considerado un wabbit ya que no se replica de la misma forma que los gusanos o los virus. Su efecto se basa en la suposición de que el número de programas y procesos que se ejecutan simultáneamente en un ordenador tiene un límite. Una bomba fork funciona creando una gran cantidad de procesos muy rápidamente con el objetivo de saturar el espacio disponible en la lista de procesos mantenida por el sistema operativo del computador. Si la tabla de procesos se llega a saturar, entonces no se pueden iniciar nuevos programas hasta que no se cierre alguno. En el caso que esto suceda, es muy poco probable que se pueda iniciar un programa útil ya que los procesos de la bomba estarán esperando para poder crear nuevos procesos a la primera oportunidad que se les conceda. Las bombas fork no sólo ocupan espacio dentro de la lista de procesos, también consumen tiempo de proceso y memoria de la máquina donde se ejecutan. Como resultado de esto, los ordenadores se vuelven lentos e incluso se pueden volver inutilizables dada la falta de memoria y la imposibilidad de aprovechar el procesador. DIFICULTAD DE UNA SOLUCIÓN Una vez una bomba fork ha sido activada de forma "satisfactoria" en un sistema, puede que no sea posible ejecutar ninguna tarea sin un reinicio del sistema, ya que la única solución es detener todos los procesos iniciados por ella. Normalmente se requiere cargar un programa adicional para "matar" procesos, lo que puede no ser posible si no hay posiciones vacías dentro de la tabla de procesos o espacio dentro de las estructuras de memoria. MODO DE PREVENCION DE UNA BOMBA FORK Una forma de prevenir el ataque de una bomba fork es limitar el número de procesos que un usuario puede ejecutar. Cuando un proceso intenta crear otro proceso y el propietario de dicho proceso ya posee la cantidad máxima de procesos que se le ha asignado, el intento de creación del nuevo proceso falla. El máximo número de procesos asignado a cada usuario debe ser lo suficientemente bajo para poder resistir la ejecución simultánea de una bomba fork por cada usuario y dejar libres los suficientes recursos como para poder restaurar el sistema. Téngase en cuenta que la ejecución accidental de una bomba fork es altamente improbable en más de un usuario a la vez. Los sistemas de tipo Unix típicamente tienen establecido este límite, controlado con el comando ulimit del shell. En los kernel Linux existe una variable llamada RLIMIT_NPROC, que indica la cantidad máxima de procesos que se puede ejecutar. Si un proceso intenta llamar a la función fork y el usuario propietario del proceso ya tiene igual o más procesos que los indicados en RLIMIT_NPROC la llamada a la función fallará. Otra solución implica la detección de bombas fork antes de su ejecución por parte del sistema operativo, aunque eso supone más gasto de recursos por parte del sistema. Existe un módulo para el Kernel de Linux. El malware (del inglés malicious software), programa malicioso1 o programa maligno, también llamado badware, código maligno, software malicioso, soft Ware dañino o software malintencionado, es un tipo de software que tiene como objetivo infiltrarse o dañar una computadora o sistema de información. El término malware es muy utilizado por profesionales de la informática para referirse a una variedad de software hostil, intrusivo o molesto. Antes de que el término malware fuera acuñado por Yisrael Radai en 1990, el software malicioso se agrupaba bajo el término «virus informático».


Un software se cataloga como un programa malicioso en función de los efectos que provoque en un computador. El malware no es lo mismo que «software defectuoso»; este último contiene errores peligrosos, pero no de forma intencionada. Los estudios de Symantec publicados en 2008 sugerían que «el ritmo al que se ponen en circulación códigos maliciosos y otros programas no deseados podría haber superado al de las aplicaciones legítimas». Según un informe de F-Secure, «se produjo tanto malware en 2007 como en los 20 años anteriores juntos». Según Panda Security, durante los doce meses del 2011 se crearon 73 000 nuevos ejemplares de amenazas informáticas por día, 10 000 más de la media registrada en todo 2010. De estas, el 73 % fueron troyanos y crecieron de forma exponencial los del subtipo de descarga.

El malware suele ser representado con símbolos de peligro o advertencia de archivo malicioso. PROPÓSITO

MALWARE POR CATEGORÍAS Algunos de los primeros programas maliciosos, incluido el gusano Morris y algunos virus de MSDOS, fueron elaborados como experimentos, como bromas o simplemente como algo molesto, no para causar graves daños en las computadoras. En algunos casos el programador no se daba cuenta de cuánto daño podía hacer su creación. Algunos jóvenes que estaban aprendiendo sobre los virus los crearon con el único propósito de demostrar que podían hacerlo o simplemente para ver con qué velocidad se propagaban. Incluso en 1999 un virus tan extendido conocido como Melissa parecía haber sido elaborado tan solo como una travesura. El software creado para causar daños o pérdida de datos suele estar relacionado con actos de vandalismo. Muchos virus son diseñados para destruir archivos en disco duro o para corromper el sistema de archivos escribiendo datos inválidos. Algunos gusanos son diseñados para vandalizar páginas web dejando escrito el alias del autor o del grupo por todos los sitios por donde pasan. Estos gusanos pueden parecer el equivalente informático del grafiti.


Sin embargo, debido al aumento de usuarios de internet, el software malicioso ha llegado a ser diseñado para sacar beneficio de él, ya sea legal o ilegalmente. Desde 2003, la mayor parte de los virus y gusanos han sido diseñados para tomar control de computadoras para su explotación en el mercado negro. Estas computadoras infectadas conocidas como zombis son usadas para el envío masivo de correo basura para alojar datos ilegales como pornografía infantil8 o para unirse en ataques de denegación de servicio distribuido (DDoS) como forma de extorsión, entre otras cosas. Hay muchos más tipos de malware producido con ánimo de lucro, como el spyware, el adware intrusivo y los secuestradores tratan de mostrar publicidad no deseada o redireccionar visitas hacia publicidad para beneficio del creador. Estos tipos de malware no se propagan como los virus, ya que generalmente son instalados aprovechándose de vulnerabilidades de los sistemas o junto con software legítimo como las aplicaciones informáticas de tipo descarga de contenido (P2P). MALWARE INFECCIOSO: VIRUS Y GUSANOS Artículos principales: Virus, Gusano y Robert Tappan, creador del 1er Gusano.

Código fuente del gusano Morris.

VIRUS DE PING-PONG. Los tipos más conocidos de malware, virus y gusanos se distinguen por la manera en que se propagan, más que por otro comportamiento particular. 9 El término virus informático se usa para designar un programa que, al ejecutarse, se propaga infectando otro software ejecutable dentro de la misma computadora. Los virus también pueden tener una carga útil10 que realice otras acciones a menudo maliciosas, por ejemplo, borrar archivos. Por otra parte, un gusano es un programa que se transmite a sí mismo, explotando vulnerabilidades en una red de computadoras para infectar otros equipos. El


principal objetivo es infectar a la mayor cantidad posible de usuarios, y también puede contener instrucciones dañinas al igual que los virus. Nótese que un virus necesita de la intervención del usuario para propagarse mientras que un gusano se propaga automáticamente. Teniendo en cuenta esta distinción, las infecciones transmitidas por correo electrónico o documentos de Microsoft Word, que dependen de su apertura por parte del destinatario para infectar su sistema, deberían ser clasificadas más como virus QUE COMO GUSANOS. MALWAREOCULTO:PUERTATRASERA, DRIVE-BYDOWN LOADS, ROOT KITS Y TROYANOS Para que un software malicioso pueda completar sus objetivos, es esencial que permanezca oculto al usuario. Por ejemplo, si un usuario experimentado detecta un programa malicioso, terminaría el proceso y borraría el malware antes de que este pudiera completar sus objetivos. El ocultamiento también puede ayudar a que el malware se instale por primera vez en la computadora. PUERTAS TRASERAS Una puerta trasera (en inglés, backdoor) es un método para eludir los procedimientos habituales de autenticación al conectarse a una computadora. Una vez que el sistema ha sido comprometido (por uno de los anteriores métodos o de alguna otra forma), puede instalarse una puerta trasera para permitir un acceso remoto más fácil en el futuro. Las puertas traseras también pueden instalarse previamente al software malicioso para permitir la entrada de los atacantes. Los crackers suelen usar puertas traseras para asegurar el acceso remoto a una computadora, intentando permanecer ocultos ante una posible inspección. Para instalar puertas traseras los crackers pueden usar troyanos, gusanos u otros métodos. Se ha afirmado, cada vez con mayor frecuencia, que los fabricantes de ordenadores preinstalan puertas traseras en sus sistemas para facilitar soporte técnico a los clientes, pero no ha podido comprobarse con seguridad. Un malware en Skype está siendo el problema reciente en la seguridad, debido a que a mayo del 2013, existían ya 750 mil afectados siendo el 67 % en Latinoamérica. El código malicioso afecta al equipo y se propaga entre los contactos a través de este mismo medio de comunicación. DRIVE-BY DOWNLOAD Google ha descubierto que una de cada 10 páginas web que han sido analizadas a profundidad puede contener las llamadas drive-by downloads o descargas automáticas, que son sitios que instalan spyware o códigos que dan información de los equipos sin que el usuario se percate. A estas acciones Niels Provos y otros colaboradores de Google le denominaron, en un artículo, «el fantasma en la computadora». Por ello, se están realizando esfuerzos para identificar las páginas que pudieran ser maliciosas. El término puede referirse a las descargas de algún tipo de malware que se efectúa sin consentimiento del usuario, lo cual ocurre al visitar un sitio web, al revisar un mensaje de correo electrónico o al entrar a una ventana emergente, la cual puede mostrar un mensaje de error. Sin ser su verdadera intención, el usuario consiente la descarga de software indeseable o de malware, y estas vulnerabilidades se aprovechan. El proceso de ataque Drive-by Downloads se realiza de manera automática mediante herramientas que buscan en el sitio web alguna vulnerabilidad. Una vez encontrada, insertan


un script malicioso dentro del código HTML del sitio violado. Cuando un usuario visita el sitio infectado, este descargará dicho script en el sistema del usuario, y a continuación realizará una petición a un servidor Hop Point, donde se solicitarán nuevos scripts con exploits encargados de comprobar si el equipo tiene alguna vulnerabilidad que pueda ser explotada, intentando con ellas hasta que tienen éxito, en cuyo caso se descargará un script que descarga el archivo ejecutable (malware) desde el servidor. En la mayor parte de los navegadores se están agregando bloqueadores antiphishing y antimalware que contienen alertas que se muestran cuando se accede a una página web dañada, aunque no siempre dan una total protección. ROOTKITS Las técnicas conocidas como rootkits modifican el sistema operativo de una computadora para permitir que el malware permanezca oculto al usuario. Por ejemplo, los rootkits evitan que un proceso malicioso sea visible en la lista de procesos del sistema o que sus ficheros sean visibles en el explorador de archivos. Este tipo de modificaciones consiguen ocultar cualquier indicio de que el ordenador está infectado por un malware. Originalmente, un rootkit era un conjunto de herramientas instaladas por un atacante en un sistema Unix donde el atacante había obtenido acceso de administrador (acceso root). Actualmente, el término es usado generalmente para referirse a la ocultación de rutinas en un programa malicioso. Algunos programas maliciosos también contienen rutinas para evitar ser borrados, no solo para ocultarse. Un ejemplo de este comportamiento puede ser: “Existen dos procesos-fantasmas corriendo al mismo tiempo. Cada proceso-fantasma debe detectar que el otro ha sido terminado y debe iniciar una nueva instancia de este en cuestión de milisegundos. La única manera de eliminar ambos procesos-fantasma es eliminarlos simultáneamente, cosa muy difícil de realizar, o provocar un error el sistema deliberadamente.”15 Uno de los rootkits más famosos fue el que la empresa Sony BMG Music Entertainment. Secretamente incluyó, dentro de la protección anticopia de algunos CD de música, el software “Extended Copy Protection (XCP) y MediaMax CD-3”, los cuales modificaban a Windows para que no lo pudiera detectar y también resultar indetectable por los programas anti-virus y anti-spyware. Actuaba enviando información sobre el cliente, además abrió la puerta a otros tipos de malware que pudieron infiltrarse en las computadoras, además de que si se detectaba, no podía ser eliminado, pues se dañaba el sistema operativo. Mikko Hypponen, jefe de investigación de la empresa de seguridad F-Secure, con sede en Finlandia, consideró a este rootkit como uno de los momentos fundamentales de la historia de los malware.17 TROYANOS El término troyano suele ser usado para designar a un malware que permite la administración remota de una computadora, de forma oculta y sin el consentimiento de su propietario, por parte de un usuario no autorizado. Este tipo de malware es un híbrido entre un troyano y una puerta trasera, no un troyano atendiendo a la definición. A grandes rasgos, los troyanos son programas maliciosos que están disfrazados como algo inocuo o atractivo que invitan al usuario a ejecutarlo ocultando un software malicioso. Ese software, puede tener un efecto inmediato y puede llevar muchas consecuencias indeseables, por ejemplo, borrar los archivos del usuario o instalar más programas indeseables o maliciosos.


Los tipos de Troyanos son: backdoors, banker, botnets, dialer, dropper, downloaders, keylogger, password stealer, proxy. Los troyanos conocidos como droppers son usados para empezar la propagación de un gusano inyectándolo dentro de la red local de un usuario. Una de las formas más comunes para distribuir spyware es mediante troyanos unidos a software deseable descargado de Internet. Cuando el usuario instala el software esperado, el spyware es puesto también. Los autores de spyware que intentan actuar de manera legal pueden incluir unos términos de uso, en los que se explica de manera imprecisa el comportamiento del spyware, que los usuarios aceptan sin leer o sin entender. MALWARE PARA OBTENER BENEFICIOS Durante los años 1980 y 1990, se solía dar por hecho que los programas maliciosos eran creados como una forma de vandalismo o travesura. Sin embargo, en los últimos años la mayor parte del malware ha sido creado con un fin económico o para obtener beneficios en algún sentido. Esto es debido a la decisión de los autores de malware de sacar partido monetario a los sistemas infectados, es decir, transformar el control sobre los sistemas en una fuente de ingresos. Mostrar publicidad engañosa: spyware, adware y hijacking Los programas spyware son creados para recopilar información sobre las actividades realizadas por un usuario y distribuirla a agencias de publicidad u otras organizaciones interesadas. Algunos de los datos que recogen son las páginas web que visita el usuario y direcciones de correo electrónico, a las que después se envía spam. La mayoría de los programas spyware son instalados como troyanos junto a software deseable bajado de Internet. Otros programas spyware recogen la información mediante cookies de terceros o barra de herramientas instaladas en navegadores web. Los autores de spyware que intentan actuar de manera legal se presentan abiertamente como empresas de publicidad e incluyen unos términos de uso, en los que se explica de manera imprecisa el comportamiento del spyware, que los usuarios aceptan sin leer o sin entender. Los Spyware tienen como objetivo recopilar información del equipo en el que se encuentra y transmitírselo a quien lo ha introducido en el equipo. Suele camuflarse tras falsos programas, por lo que el usuario raramente se da cuenta de ello. Sus consecuencias son serias y van desde robos bancarios, suplantaciones de identidad hasta robo de información.22 Por otra parte los programas adware muestran publicidad al usuario de forma intrusiva en forma de ventana emergente (pop-up) o de cualquier otra forma. Esta publicidad aparece inesperadamente en el equipo y resulta muy molesta. Algunos programas shareware permiten usar el programa de forma gratuita a cambio de mostrar publicidad, en este caso el usuario consiente la publicidad al instalar el programa. Este tipo de adware no debería ser considerado malware, pero muchas veces los términos de uso no son completamente transparentes y ocultan lo que el programa realmente hace. Los hijackers son programas que realizan cambios en la configuración del navegador web. Por ejemplo, algunos cambian la página de inicio del navegador por páginas web de publicidad o página pornográfica, otros redireccionan los resultados de los buscadores hacia anuncios de pago o páginas de phishing bancario. El pharming es una


técnica que suplanta al DNS, modificando el archivo hosts, para redirigir el dominio de una o varias páginas web a otra página web, muchas veces una web falsa que imita a la verdadera. Esta es una de las técnicas usadas por los hijackers o secuestradores del navegador de Internet. Esta técnica también puede ser usada con el objetivo de obtener credenciales y datos personales mediante el secuestro de una sesión. ROBAR INFORMACIÓN PERSONAL: KEYLOGGERS Y STEALERS

Un ejemplo de cómo un hardware PS/2 keylogger está conectado. Artículos principales: Keylogger y Stealer. Cuando un software produce pérdidas económicas para el usuario de un equipo, también se clasifica como crimeware23 o software criminal, término dado por Peter Cassidy para diferenciarlo de los otros tipos de software malicioso. Estos programas están encaminados al aspecto financiero, la suplantación de personalidad y el espionaje. Los keyloggers y los stealers son programas maliciosos creados para robar información sensible. El creador puede obtener beneficios económicos o de otro tipo a través de su uso o distribución en comunidades underground. La principal diferencia entre ellos es la forma en la que recogen la información. Los keyloggers monitorizan todas las pulsaciones del teclado y las almacenan para un posterior envío al creador. Por ejemplo al introducir un número de tarjeta de crédito el keylogger guarda el número, posteriormente lo envía al autor del programa y este puede hacer pagos fraudulentos con esa tarjeta. Si las contraseñas se encuentran recordadas en el equipo, de forma que el usuario no tiene que escribirlas, el keylogger no las recoge, eso lo hacen los stealers. La mayoría los keyloggers son usados para recopilar contraseñas de acceso pero también pueden ser usados para espiar conversaciones de chat u otros fines. Los stealers también roban información privada pero solo la que se encuentra guardada en el equipo. Al ejecutarse comprueban los programas instalados en el equipo y si tienen contraseñas recordadas, por ejemplo en los navegadores web o en clientes de mensajería instantánea, descifran esa información y la envían al creador. REALIZAR LLAMADAS TELEFÓNICAS: DIALERS Los dialers son programas maliciosos que toman el control del módem dial-up, realizan una llamada a un número de teléfono de tarificación especial, muchas veces internacional, y dejan la línea abierta cargando el coste de dicha llamada al usuario infectado. La forma más habitual de infección suele ser en páginas web que ofrecen contenidos gratuitos pero que


solo permiten el acceso mediante conexión telefónica. Suelen utilizar como señuelos videojuegos, salva pantallas, pornografía u otro tipo de material. Actualmente la mayoría de las conexiones a Internet son mediante ADSL y no mediante módem, lo cual hace que los dialers ya no sean tan populares como en el pasado. ATAQUES DISTRIBUIDOS: BOTNETS

Ciclo de spam (1): Sitio web de Spammers (2): Spammer (3): Spamware (4): equipos infectados (5): Virus o troyanos (6): Servidores de correo (7): Usuarios (8): Tráfico Web. Las botnets son redes de computadoras infectadas, también llamadas “zombis”, que pueden ser controladas a la vez por un individuo y realizan distintas tareas. Este tipo de redes son usadas para el envío masivo de spam o para lanzar ataques DDoS contra organizaciones como forma de extorsión o para impedir su correcto funcionamiento. La ventaja que ofrece a los spammers el uso de ordenadores infectados es el anonimato, que les protege de la persecución policial. En una botnet cada computadora infectada por el malware se loguea en un canal de IRC u otro sistema de chat desde donde el atacante puede dar instrucciones a todos los sistemas infectados simultáneamente. Las botnets también pueden ser usadas para actualizar el malware en los sistemas infectados manteniéndolos así resistentes ante antivirus u otras medidas de seguridad. OTROS TIPOS: ROGUE SOFTWARE Y RANSOMWARE EL ROGUE software hace creer al usuario que la computadora está infectada por algún tipo de virus u otro tipo de software malicioso, esto induce al usuario a pagar por un software inútil o a instalar un software malicioso que supuestamente elimina las infecciones, pero el usuario no necesita ese software puesto que no está infectado.24


RANSOMWARE También llamados criptovirus o secuestradores, son programas que cifran los archivos importantes para el usuario, haciéndolos inaccesibles, y piden que se pague un «rescate» para poder recibir la contraseña que permite recuperar los archivos. Info Spyware reporta en su blog que a partir de mayo del 2012, han existido dos variantes del llamado «virus de la policía» o «Virus Ukash», que es producido por el troyano Ransom.ab, que con el pretexto de que se entró a páginas de pornografía infantil, se les hace pagar una supuesta multa para poder desbloquear sus equipos, actualmente también utilizando la propia cámara Web del equipo hacen unas supuestas tomas de vídeo que anexan en su banner de advertencia, para asustarlos más al hacerlos pensar que están siendo observado y filmado por la policía, siendo Rusia, Alemania, España y Brasil los países más afectados o la versión falsa del antivirus gratuito Microsoft Security Essentials que dice bloquear el equipo por seguridad y que para poder funcionar adecuadamente se ofrece un módulo especial que se tiene que pagar. La Brigada de Investigación Tecnológica de la Policía Nacional de España, junto con Europol e Interpol, desmantelaron en febrero del 2013, a la banda de piratas informáticos creadores del «Virus de la Policía», responsables de estafar alrededor de un millón de euros al año. A pesar de ello, han ido surgiendo nuevas versiones y variantes con características propias de unidades policiales de países de Latinoamérica, siendo los países afectados Argentina, Bolivia, Ecuador, Uruguay y México, en este último saca la imagen de la desaparecida Policía Federal Preventiva. GRAYWARE O GREYNET Los términos grayware (o greyware) y graynet (o greynet) (del inglés gray o grey, “gris”) suelen usarse para clasificar aplicaciones o programas de cómputo que se instalan sin la autorización del departamento de sistemas de una compañía; se comportan de modo tal que resultan molestos o indeseables para el usuario, pero son menos peligrosos que los malware. En este rubro se incluyen: adware, dialers, herramientas de acceso remoto, programas de bromas (Virus joke), programas para conferencias, programa de mensajería instantánea, spyware y cualesquiera otros archivos y programas no bienvenidos que no sean virus y que puedan llegar a dañar el funcionamiento de una computadora o de una red. El término grayware comenzó a utilizarse en septiembre del 2004. VULNERABILIDADES USADAS POR EL MALWARE Existen varios factores que hacen a un sistema más vulnerable al malware: homogeneidad, errores de software, código sin confirmar, sobre-privilegios de usuario y sobre-privilegios de código. Una causa de la vulnerabilidad de redes, es la homogeneidad del software multiusuario. Por ejemplo, cuando todos los ordenadores de una red funcionan con el mismo sistema operativo, si se puede comprometer ese sistema, se podría afectar a cualquier ordenador que lo use. En particular, Microsoft Windows33tiene la mayoría del mercado de los sistemas operativos, esto permite a los creadores de malware infectar una gran cantidad de computadoras sin tener que adaptar el software malicioso a diferentes sistemas operativos. La mayoría del software y de los sistemas operativos contienen bugs que pueden ser aprovechados por el malware. Los ejemplos típicos son los desbordamiento de búfer (buffer overflow), en los cuales la estructura diseñada para almacenar datos en un


área determinada de la memoria permite que sea ocupada por más datos de los que le caben, sobre escribiendo otras partes de la memoria. Esto puede ser utilizado por el malware para forzar al sistema a ejecutar su código malicioso.

Las memorias USB infectadas pueden dañar la computadora durante el arranque. Originalmente las computadoras tenían que ser booteadas con un disquete, y hasta hace poco tiempo era común que fuera el dispositivo de arranque por defecto. Esto significaba que un disquete contaminado podía dañar la computadora durante el arranque, e igual se aplica a CD y memorias USB con la función AutoRun de Windows la que ya ha sido modificada. Aunque eso es menos común ahora, sigue siendo posible olvidarse de que el equipo se inicia por defecto en un medio removible, y por seguridad normalmente no debería haber ningún disquete, CD, etc., al encender la computadora. Para solucionar este problema de seguridad basta con entrar en la BIOS del ordenador y cambiar el modo de arranque del ordenador. En algunos sistemas, los usuarios no administradores tienen sobre-privilegios por diseño, en el sentido que se les permite modificar las estructuras internas del sistema, porque se les han concedido privilegios inadecuados de administrador o equivalente. Esta es una decisión de la configuración por defecto, en los sistemas de Microsoft Windows la configuración por defecto es sobre-privilegiar al usuario. Esta situación es debida a decisiones tomadas por Microsoft para priorizar la compatibilidad con viejos sistemas sobre la seguridad y porque las aplicaciones típicas fueron desarrollados sin tener en cuenta a los usuarios no privilegiados. Como los exploits para escalar privilegios han aumentado, esta prioridad se cambió para el lanzamiento de Windows Vista. Como resultado, muchas aplicaciones existentes que requieren excesos de privilegios pudieron tener problemas de compatibilidad con Windows Vista. Sin embargo, el control de cuentas de usuario (UAC en inglés) de Windows Vista intentó solucionar los problemas que tienen las aplicaciones no diseñadas para usuarios no privilegiados a través de la virtualización, actuando como apoyo para resolver el problema del acceso privilegiado inherente en las aplicaciones heredadas. El malware, funcionando como código sobre-privilegiado, puede utilizar estos privilegios para modificar el funcionamiento del sistema. Casi todos los sistemas operativos populares y también muchas aplicaciones scripting permiten códigos con muchos privilegios, generalmente en el sentido que cuando un usuario ejecuta el código, el sistema no limita ese código a los derechos del usuario. Esto hace a los usuarios vulnerables al malware contenido en archivos adjuntos de correos electrónicos, que pueden o no estar disfrazados. Dada esta situación, se advierte a los usuarios de que abran solamente archivos solicitados, y ser cuidadosos con archivos recibidos de fuentes desconocidas. Es también común que los sistemas operativos sean diseñados de modo que reconozcan dispositivos de diversos fabricantes y cuenten con drivers para estos hardwares, algunos de estos drivers pueden no ser muy confiables.


ELIMINANDO CÓDIGO SOBRE-PRIVILEGIADO El código sobre-privilegiado se remonta a la época en la que la mayoría de programas eran entregados con la computadora. El sistema debería mantener perfiles de privilegios y saber cuál aplicar según el usuario o programa. Al instalar un nuevo software el administrador necesitaría establecer el perfil predeterminado para el nuevo código. Eliminar las vulnerabilidades en los drivers de dispositivos es probablemente más difícil que en los software ejecutables. Una técnica, usada en VMS, que puede ayudar es solo mapear en la memoria los registros de ese dispositivo. Otras propuestas son:  Varias formas de virtualización, permitiendo al código acceso ilimitado pero solo a recursos virtuales.  Varias formas de aislamiento de procesos también conocido como sandbox.  La virtualización a nivel de sistema operativo que es un método de abstracción del servidor en donde el kernel del sistema operativo permite múltiples instancias de espacio de usuario llamadas contenedores, VEs, SPV o jails, que pueden ser parecidas a un servidor real.  Las funciones de seguridad de Java. Tales propuestas, sin embargo, si no son completamente integradas con el sistema operativo, duplicarían el esfuerzo y no serían universalmente aplicadas, esto sería perjudicial para la seguridad. PROGRAMAS ANTI-MALWARE Como los ataques con malware son cada vez más frecuentes, el interés ha empezado a cambiar de protección frente a virus y spyware, a protección frente al malware, y los programas han sido específicamente desarrollados para combatirlos. Los programas anti-malware pueden combatir el malware de dos formas: 1. Proporcionando protección en tiempo real (real-time protection) contra la instalación de malware en una computadora. El software anti-malware escanea todos los datos procedentes de la red en busca de malware y bloquea todo lo que suponga una amenaza. 2. Detectando y eliminando malware que ya ha sido instalado en una computadora. Este tipo de protección frente al malware es normalmente mucho más fácil de usar y más popular.34 Este tipo de programas anti-malware escanean el contenido del registro de Windows, los archivos del sistema operativo, la memoria y los programas instalados en la computadora. Al terminar el escaneo muestran al usuario una lista con todas las amenazas encontradas y permiten escoger cuales eliminar. La protección en tiempo real funciona idénticamente a la protección de los antivirus: el software escanea los archivos al ser descargados de Internet y bloquea la actividad de los componentes identificados como malware. En algunos casos, también pueden interceptar intentos de ejecutarse automáticamente al arrancar el sistema o modificaciones en el navegador web. Debido a que muchas veces el malware es instalado como resultado de exploits para un navegador web o errores del usuario, usar un software de seguridad


para proteger el navegador web puede ser una ayuda efectiva para restringir los daños que el malware puede causar. MÉTODOS DE PROTECCIÓN Siguiendo algunos sencillos consejos se puede aumentar considerablemente la seguridad de una computadora, algunos son:

Protección a través del número de cliente y la del generador de claves dinámicas  Tener el sistema operativo y el navegador web actualizados.35  Tener instalado un antivirus y un firewall y configurarlos para que se actualicen automáticamente de forma regular ya que cada día aparecen nuevas amenazas.36  Utilizar una cuenta de usuario con privilegios limitados, la cuenta de administrador solo debe utilizarse cuándo sea necesario cambiar la configuración o instalar un nuevo software.  Tener precaución al ejecutar software procedente de Internet o de medio extraíble como CD o memorias USB. Es importante asegurarse de que proceden de algún sitio de confianza.  Una recomendación en tableta, teléfono celular y otros dispositivos móviles es instalar aplicaciones de tiendas muy reconocidas como App Store, Google Play o Tienda Windows, pues esto garantiza que no tendrán malware. Existe además, la posibilidad de instalar un antivirus para este tipo de dispositivos.  Evitar descargar software de redes P2P, ya que realmente no se sabe su contenido ni su procedencia.  Desactivar la interpretación de Visual Basic Script y permitir JavaScript, ActiveX y cookies solo en páginas web de confianza.  Utilizar contraseñas de alta seguridad para evitar ataques de diccionario. Es muy recomendable hacer copias de respaldo regularmente de los documentos importantes a medios extraíbles como CD, DVD o Disco duro externo, para poderlos recuperar en caso de infección por parte de algún malware, pero solamente si se está 100% seguro que esas copias están limpias. Nota: El método de restauración de sistema de windows, podría restaurar también archivos infectados, que hayan sido eliminados anteriormente por el antivirus, por tanto es necesario, desactivar esta función antes de DESINFECTAR EL SISTEMA, Y POSTERIORMENTE REACTIVARLA. CORTAFUEGOS (INFORMÁTICA) «Firewall» redirige aquí. Para la película homónima, véase Firewall (película).


Esquema de donde se localizaría un cortafuegos en una red de ordenadores.

Un ejemplo de una interfaz de usuario para un cortafuegos en Ubuntu Un cortafuegos (firewall) es una parte de un sistema o una red que está diseñada para bloquear el acceso no autorizado, permitiendo al mismo tiempo comunicaciones autorizadas. Se trata de un dispositivo o conjunto de dispositivos configurados para permitir, limitar, cifrar, descifrar, el tráfico entre los diferentes ámbitos sobre la base de un conjunto de normas y otros criterios. Los cortafuegos pueden ser implementados en hardware o software, o en una combinación de ambos. Los cortafuegos se utilizan con frecuencia para evitar que los usuarios de Internet no autorizados tengan acceso a redes privadas conectadas a Internet, especialmente intranets. Todos los mensajes que entren o salgan de la intranet pasan a través del cortafuegos, que examina cada mensaje y bloquea aquellos que no cumplen los criterios de seguridad especificados. También es frecuente conectar el cortafuegos a una tercera red, llamada zona desmilitarizada o DMZ, en la que se ubican los servidores de la organización que deben permanecer accesibles desde la red exterior. Un cortafuegos correctamente configurado añade una protección necesaria a la red, pero que en ningún caso debe considerarse suficiente. La seguridad informática abarca más ámbitos y más niveles de trabajo y protección. Historia del cortafuegos[editar]


El término firewall/fireblock significaba originalmente una pared para confinar un incendio o riesgo potencial de incendio en un edificio. Más adelante se usa para referirse a las estructuras similares, como la hoja de metal que separa el compartimiento del motor de un vehículo o una aeronave de la cabina. La tecnología de los cortafuegos surgió a finales de 1980, cuando Internet era una tecnología bastante nueva en cuanto a su uso global y la conectividad. Los predecesores de los cortafuegos para la seguridad de la red fueron los routers utilizados a finales de 1980, que mantenían a las redes separadas unas de otras. La visión de Internet como una comunidad relativamente pequeña de usuarios con máquinas compatibles, que valoraba la predisposición para el intercambio y la colaboración, terminó con una serie de importantes violaciones de seguridad de Internet que se produjo a finales de los 80: 1  Clifford Stoll, que descubrió la forma de manipular el sistema de espionaje alemán. 1  Bill Cheswick, cuando en 1992 instaló una cárcel simple electrónica para observar a un atacante.1  En 1988, un empleado del Centro de Investigación Ames de la NASA, en California, envió una nota por correo electrónico a sus colegas2 que decía: "Estamos bajo el ataque de un virus de Internet! Ha llegado a Berkeley, UC San Diego, Lawrence Livermore, Stanford y la NASA Ames".  El Gusano Morris, que se extendió a través de múltiples vulnerabilidades en las máquinas de la época. Aunque no era malicioso, el gusano Morris fue el primer ataque a gran escala sobre la seguridad en Internet; la red no esperaba ni estaba preparada para hacer frente a su ataque.3 Primera generación – cortafuegos de red: filtrado de paquetes[editar] El primer documento publicado para la tecnología firewall data de 1988, cuando el equipo de ingenieros Digital Equipment Corporation (DEC) desarrolló los sistemas de filtro conocidos como cortafuegos de filtrado de paquetes. Este sistema, bastante básico, fue la primera generación de lo que se convertiría en una característica más técnica y evolucionada de la seguridad de Internet. En AT&T Bell, Bill Cheswick y Steve Bellovin continuaban sus investigaciones en el filtrado de paquetes y desarrollaron un modelo de trabajo para su propia empresa, con base en su arquitectura original de la primera generación. 4 El filtrado de paquetes actúa mediante la inspección de los paquetes (que representan la unidad básica de transferencia de datos entre ordenadores en Internet). Si un paquete coincide con el conjunto de reglas del filtro, el paquete se reducirá (descarte silencioso) o será rechazado (desprendiéndose de él y enviando una respuesta de error al emisor). Este tipo de filtrado de paquetes no presta atención a si el paquete es parte de una secuencia existente de tráfico. En su lugar, se filtra cada paquete basándose únicamente en la información contenida en el paquete en sí (por lo general utiliza una combinación del emisor del paquete y la dirección de destino, su protocolo, y, en el tráfico TCP y UDP, el número de puerto).5 Los protocolos TCP y UDP comprenden la mayor parte de comunicación a través de Internet, utilizando por convención puertos bien conocidos para determinados tipos de tráfico, por lo que un filtro de paquetes puede distinguir entre ambos tipos de tráfico (ya sean navegación web, impresión remota, envío y recepción de correo electrónico, transferencia de archivos…); a menos que las máquinas a cada lado del filtro de paquetes estén a la vez utilizando los mismos puertos no estándar.6 El filtrado de paquetes llevado a cabo por un cortafuegos actúa en las tres primeras capas del modelo de referencia OSI, lo que significa que todo el trabajo lo realiza entre la red y las


capas físicas.7 Cuando el emisor origina un paquete y es filtrado por el cortafuegos, este último comprueba las reglas de filtrado de paquetes que lleva configuradas, aceptando o rechazando el paquete en consecuencia. Cuando el paquete pasa a través de cortafuegos, éste filtra el paquete mediante un protocolo y un número de puerto base (GSS). Por ejemplo, si existe una norma en el cortafuegos para bloquear el acceso telnet, bloqueará el protocolo TCP para el número de puerto 23. Segunda generación – cortafuegos de estado[editar] Durante 1989 y 1990, tres colegas de los laboratorios AT&T Bell, Dave Presetto, Janardan Sharma, y Nigam Kshitij, desarrollaron la segunda generación de servidores de seguridad. Esta segunda generación de cortafuegos tiene en cuenta, además, la colocación de cada paquete individual dentro de una serie de paquetes. Esta tecnología se conoce generalmente como la inspección de estado de paquetes, ya que mantiene registros de todas las conexiones que pasan por el cortafuegos, siendo capaz de determinar si un paquete indica el inicio de una nueva conexión, es parte de una conexión existente, o es un paquete erróneo. Este tipo de cortafuegos pueden ayudar a prevenir ataques contra conexiones en curso o ciertos ataques de denegación de servicio. Tercera generación — cortafuegos de aplicación[editar] Son aquellos que actúan sobre la capa de aplicación del modelo OSI. La clave de un cortafuegos de aplicación es que puede entender ciertas aplicaciones y protocolos (por ejemplo: protocolo de transferencia de ficheros, DNS o navegación web), y permite detectar si un protocolo no deseado se coló a través de un puerto no estándar o si se está abusando de un protocolo de forma perjudicial. Un cortafuegos de aplicación es mucho más seguro y fiable cuando se compara con un cortafuegos de filtrado de paquetes, ya que repercute en las siete capas del modelo de referencia OSI. En esencia es similar a un cortafuegos de filtrado de paquetes, con la diferencia de que también podemos filtrar el contenido del paquete. El mejor ejemplo de cortafuegos de aplicación es ISA (Internet Security and Acceleration). Un cortafuegos de aplicación puede filtrar protocolos de capas superiores tales como FTP, TELNET, DNS, DHCP, HTTP, TCP, UDP y TFTP (GSS). Por ejemplo, si una organización quiere bloquear toda la información relacionada con una palabra en concreto, puede habilitarse el filtrado de contenido para bloquear esa palabra en particular. No obstante, los cortafuegos de aplicación resultan más lentos que los de estado. Acontecimientos posteriores[editar] En 1992, Bob Braden y DeSchon Annette, de la Universidad del Sur de California (USC), dan forma al concepto de cortafuegos. Su producto, conocido como "Visas", fue el primer sistema con una interfaz gráfica con colores e iconos, fácilmente implementable y compatible con sistemas operativos como Windows de Microsoft o MacOS de Apple.[cita requerida]En 1994, una compañía israelí llamada Check Point Software Technologies lo patentó como software denominándolo FireWall-1. La funcionalidad existente de inspección profunda de paquetes en los actuales cortafuegos puede ser compartida por los sistemas de prevención de intrusiones (IPS). Actualmente, el Grupo de Trabajo de comunicación Middlebox de la Internet Engineering Task Force (IETF) está trabajando en la estandarización de protocolos para la gestión de cortafuegos.[cita requerida]


Otro de los ejes de desarrollo consiste en integrar la identidad de los usuarios dentro del conjunto de reglas del cortafuegos. Algunos cortafuegos proporcionan características tales como unir a las identidades de usuario con las direcciones IP o MAC. Otros, como el cortafuegos NuFW, proporcionan características de identificación real solicitando la firma del usuario para cada conexión.[cita requerida] Tipos de cortafuegos[editar] Nivel de aplicación de pasarela[editar] Aplica mecanismos de seguridad para aplicaciones específicas, tales como servidores FTP y Telnet. Esto es muy eficaz, pero puede imponer una degradación del rendimiento. Circuito a nivel de pasarela[editar] Aplica mecanismos de seguridad cuando una conexión TCP o UDP es establecida. Una vez que la conexión se ha hecho, los paquetes pueden fluir entre los anfitriones sin más control. Permite el establecimiento de una sesión que se origine desde una zona de mayor seguridad hacia una zona de menor seguridad. Cortafuegos de capa de red o de filtrado de paquetes[editar] Funciona a nivel de red (capa 3 del modelo OSI, capa 2 del stack de protocolos TCP/IP) como filtro de paquetes IP. A este nivel se pueden realizar filtros según los distintos campos de los paquetes IP: dirección IP origen, dirección IP destino. A menudo en este tipo de cortafuegos se permiten filtrados según campos de nivel de transporte (capa 3 TCP/IP, capa 4 Modelo OSI), como el puerto origen y destino, o a nivel de enlace de datos (no existe en TCP/IP, capa 2 Modelo OSI) como la dirección MAC. Cortafuegos de capa de aplicación[editar] Trabaja en el nivel de aplicación (capa 7 del modelo OSI), de manera que los filtrados se pueden adaptar a características propias de los protocolos de este nivel. Por ejemplo, si trata de tráfico HTTP, se pueden realizar filtrados según la URL a la que se está intentando acceder, e incluso puede aplicar reglas en función de los propios valores de los parámetros que aparezcan en un formulario web. Un cortafuegos a nivel 7 de tráfico HTTP suele denominarse proxy, y permite que los ordenadores de una organización entren a Internet de una forma controlada. Un proxy oculta de manera eficaz las verdaderas direcciones de red. Cortafuegos personal[editar] Es un caso particular de cortafuegos que se instala como software en un ordenador, filtrando las comunicaciones entre dicho ordenador y el resto de la red. Se usa por tanto, a nivel personal. Ventajas de un cortafuegos[editar] Bloquea el acceso a personas y/o aplicaciones. Limitaciones de un cortafuegos[editar] Las limitaciones se desprenden de la misma definición del cortafuegos: filtro de tráfico. Cualquier tipo de ataque informático que use tráfico aceptado por el cortafuegos (por usar puertos TCP abiertos expresamente, por ejemplo) o que sencillamente no use la red, seguirá constituyendo una amenaza. La siguiente lista muestra algunos de estos riesgos:  Un cortafuegos no puede proteger contra aquellos ataques cuyo tráfico no pase a través de él.  El cortafuegos no puede proteger de las amenazas a las que está sometido por ataques internos o usuarios negligentes. El cortafuegos no puede prohibir a espías corporativos


copiar datos sensibles en medios físicos de almacenamiento (discos, memorias, etc.) y sustraerlas del edificio.  El cortafuegos no puede proteger contra los ataques de ingeniería social.  El cortafuegos no puede proteger contra los ataques posibles a la red interna por virus informáticos a través de archivos y software. La solución real está en que la organización debe ser consciente en instalar software antivirus en cada máquina para protegerse de los virus que llegan por cualquier medio de almacenamiento u otra fuente.  El cortafuegos no protege de los fallos de seguridad de los servicios y protocolos cuyo tráfico esté permitido. Hay que configurar correctamente y cuidar la seguridad de los servicios que se publiquen en Internet. Políticas del cortafuegos[editar] Hay dos políticas básicas en la configuración de un cortafuegos que cambian radicalmente la filosofía fundamental de la seguridad en la organización:  Política restrictiva: Se deniega todo el tráfico excepto el que está explícitamente permitido. El cortafuegos obstruye todo el tráfico y hay que habilitar expresamente el tráfico de los servicios que se necesiten. Esta aproximación es la que suelen utilizar las empresas y organismos gubernamentales.  Política permisiva: Se permite todo el tráfico excepto el que esté explícitamente denegado. Cada servicio potencialmente peligroso necesitará ser aislado básicamente caso por caso, mientras que el resto del tráfico no será filtrado. Esta aproximación la suelen utilizar universidades, centros de investigación y servicios públicos de acceso a Internet. La política restrictiva es la más segura, ya que es más difícil permitir por error tráfico potencialmente peligroso, mientras que en la política permisiva es posible que no se haya contemplado algún caso de tráfico peligroso y sea permitido Endurecimiento (informática) En informática, el hardening o endurecimiento es el proceso de asegurar un sistema reduciendo sus vulnerabilidades o agujeros de seguridad, para los que se está más propenso cuanto más funciones desempeña; en principio un sistema con una única función es más seguro que uno con muchos propósitos. El proceso de cerrar las vías para los ataques más típicos incluye el cambio de claves por defecto, desinstalar el software y dar de baja usuarios y accesos innecesarios; también deshabilitar servicios que no serán usuados y fortalecer las configuraciones de aquellos que estarán en uso. Distintas organizaciones y grupos de expertos se dedican a recolectar y examinar sistemas y software para determinar las medidas de seguridad adecuadas, identificar deficiencias de seguridad, predecir la efectividad de los procedimientos para fortalecer sistemas y verificar que tales medidas son adecuadas y efectivas una vez implementadas. Hay varios métodos endurecer sistemas Unix y GNU. Esto puede implicar, entre otras medidas, aplicando un parche al kernel como Escudo de ejecución o PaX; cerrando puertos de red abiertos; e instalar sistemas de detección de intrusos, cortafuegos y sistemas de prevención. Existen también guías de endurecimiento y herramientas como Lynis, Bastille Linux, JASS para Solaris sistemas y Apache/PHP Hardener, que pueden, por ejemplo, desactivar características innecesarias en los archivos configuración o actuar de varias otras formas para dar protección. Seguridad de redes


La seguridad de redes consiste en las políticas y prácticas adoptadas para prevenir y supervisar el acceso no autorizado, el uso indebido, la modificación o la denegación de una red informática y sus recursos accesibles. La seguridad de redes involucra la autorización del acceso a datos en la red, que es controlada por el administrador de red. Los usuarios eligen o se les asigna una identificación y contraseña u otra información de autenticación que les permite acceder a información y programas dentro de sus autorizaciones. La seguridad de red cubre una variedad de redes de computadoras, tanto públicas como privadas, que se usan en trabajos cotidianos; realizar transacciones y comunicaciones entre empresas, agencias gubernamentales e individuos. Las redes pueden ser privadas, como dentro de una empresa, y otras que pueden estar abiertas al público. La seguridad de la redes está presente en organizaciones, empresas y otros tipos de instituciones. Hace como su nombre indica: protege la red, además de proteger y supervisar las operaciones que se realizan. La forma más común y simple de proteger un recurso de red es asignándole un nombre único y la contraseña correspondiente. Conceptos de seguridad de redes[editar] La seguridad de redes empieza con la autenticación, usualmente con un nombre de usuario y una contraseña. Ya que esto requiere solamente autenticar un nombre de usuario, por ejemplo, con la contraseña, se utiliza el término autenticación de un factor. Con un doble factor de autenticación se utiliza algo que el usuario "tiene", por ejemplo, un token de seguridad, una tarjeta de crédito o un teléfono celular; y con un factor triple de autenticación se usa algo que el usuario "es", por ejemplo huella dactilar o reconocimiento de iris. Una vez autenticado, un cortafuegos aplica políticas de acceso, por ejemplo, asignar los servicios a los cuales pueden acceder los usuarios de la red. 1 Aunque esta medida es efectiva para prevenir acceso no autorizado, este componente puede fallar al revisar contenido que puede ser dañino, un ejemplo sería un gusano informático o un troyano que esté siendo transmitido en la red. Un antivirus o un Sistema de prevención de intrusos (SPI )2 ayuda a detectar e inhibir la acción de un malware. Un sistema de prevención de intrusos, basado en anomalías, también puede monitorear la red, por ejemplo usando wireshark se puede analizar tráfico en la red con propósitos de auditoría o para un análisis de alto nivel. La comunicación entre dos hosts en una red puede ser encriptada para asegurar la privacidad. Los honeypots,3 esencialmente recursos accesibles en la red que actúan como señuelos, pueden ser desplegados en una red para vigilar y como herramienta de vigilancia y alerta temprana, ya que los honeypots normalmente no se utilizan para fines legítimos. Las técnicas utilizadas por los atacantes que intentan comprometer estos recursos señuelo se estudian durante y después de un ataque, para observar las nuevas técnicas de intrusión. Dicho análisis puede ser usado para futuros reforzamientos en la seguridad de la red que está siendo protegida por ese honeypot. Un honeypot también puede dirigir la atención de un atacante lejos de servidores legítimos. Un honeypot alienta a los atacantes a gastar su tiempo y energía en el servidor señuelo mientras distrae su atención de los datos del servidor real. Similar a un honeypot, una honeynet es una red configurada con vulnerabilidad intencional. Su propósito es, también, el de invitar a los atacantes para que sus técnicas de ataque puedan ser analizadas y ese conocimiento pueda ser usado para aumentar la seguridad de la red. Una honeynet normalmente contiene uno o más honeypots.4 Administración de seguridad[editar] La administración de seguridad para redes varía según las diversas situaciones. Una casa u oficina pequeña puede requerir solamente seguridad básica, mientras que las grandes


empresas pueden requerir un software y hardware de alto mantenimiento y avanzado para evitar ataques maliciosos de piratería y spam. Tipos de ataques[editar] Las redes están sujetas a ataques de fuentes maliciosas. Los ataques pueden ser de dos categorías: "pasivos" cuando un intruso intercepta datos que viajan a través de la red, y "activos" cuando un intruso inicia comandos para interrumpir el funcionamiento normal de la red o para realizar reconocimiento y "espionaje" para encontrar y obtener acceso a activos disponibles a través de la red.5 Tipos de ataque:6  Pasivos  Red  Escucha telefónica  Escáner de puertos  Escaneo libre  Activos  Ataque de denegación de servicio  DNS spoofing  Ataque Man-in-the-middle  ARP Spoofing  Ataque por salteo de VLAN  Ataque smurf  Desbordamiento de búfer  Desbordamiento de montículo  Ataque de formato String  Inyección SQL  Phishing  Cross-site scripting  CSRF  Ataque informático Escucha telefónica Una escucha telefónica o pinchazo telefónico o intervención telefónica (este último más común en México) es el monitoreo de una conversación telefónica por parte de una tercera persona, usualmente en forma encubierta. El término escucha se extiende a intercambio de información a través de redes informáticas. La escucha telefónica por parte de la policía u otras fuerzas gubernamentales reconocidas puede ser considerada una escucha telefónica legal según la normativa. Las escuchas telefónicas son estrictamente controladas en muchos países para salvaguardar la privacidad de los individuos. Sin embargo, en ciertas jurisdicciones como Alemania, las cortes pueden aceptar como prueba conversaciones telefónicas ilegalmente grabadas sin el consentimiento de las partes. En los Estados Unidos, las agencias federales pueden ser autorizadas en ciertas circunstancias para realizar escuchas por parte de la United States Foreign Intelligence Surveillance Court, una corte con procedimientos secretos.


Muchas organizaciones graban sus conversaciones telefónicas para poder probar lo que fue dicho, para entrenar a su personal o monitorear el rendimiento. Esta actividad puede no ser considerada como escucha telefónica en algunas, aunque no todas las jurisdicciones, porque es hecha con el conocimiento de al menos una de las partes intervinientes en la conversación telefónica. Las leyes que regulan la grabación de conversaciones telefónicas en algunos sitios requiere que sólo una de las partes esté al tanto de la grabación, mientras otros exigen que ambos estén advertidos. Se considera una buena práctica anunciar al principio de una llamada que la conversación está siendo grabada. Hacking de teléfono El hacking de teléfono es la práctica de interceptar llamadas telefónicas o mensajes de voz, a menudo mediante el acceso a la información de un móvil sin el consentimiento del propietario del teléfono. El término se dio a conocer durante el escándalo de hacking telefónico de News International, en el que se afirmaba (y en algunos casos fue probado en la corte) que el periódico sensacionalista británico News of the World había participado en la intercepción de mensajes de voz de la Familia Real Británica, otras figuras públicas y la estudiante asesinada Milly Dowler. CHUPONEO EN EL PERU “Constelación”, el sistema que 'chuponea' 300 líneas telefónicas en tiempo real Caso Business Track: Ex jefe naval reconoce compra de equipos de chuponeo Caso Business Track: Ex jefe naval reconoce compra de equipos de chuponeo

Redacción LR Abrumado por las pruebas, el almirante (r) Rolando Navarrete Salomón, ex comandante general de la Marina de Guerra, admitió ayer, lunes, en el juicio a Business Track (BTR) que la institución naval recibió a fines del 2000 equipos de interceptación telefónica Tigerfish adquiridos en Estados Unidos. Los Tigerfish fueron adquiridos, por encargo de la Marina de Guerra y por el entonces agregado naval en Washington, capitán de navio Carlos Tomasio de Lambarry, pero no era claro si


llegaron

a

la

institución

naval o desaparecieron en

el

camino.

Durante la investigación del caso BTR, copias de los documentos de esa compra fueron encontrados en la casa de Carlos Tomasio, segundo en el mando de BTR. Este oficial en retiro aseguró que guardaba esos papeles como un “trofeo” de su contribución a la defensa nacional, pero la Marina puso en duda la compra oficial y la llegada de esos equipos al país. Sin embargo, ahora al comparecer como testigo en este juicio, elalmirante Navarrete terminó por reconocer que fue una compra oficial y que los Tigerfish ingresaron al almacén naval. Lo reconoció solo después de que le pusieron ante sus ojos los documentos de dicha transacción, que forman parte de un informe del Ministerio de Defensa, entregado al tribunal. Ante las primeras preguntas, Navarrete insistía en negar todo, en que la Marina no tenía información ni documentos de esa compra. En el informe aparecen los oficios de compra y del desaduanaje de los equipos. Previamente también declaró el técnico naval Pedro Marín, quien se encargó de recoger naval los equipos Tigerfish, debidamente embalados, en la Aduana y trasladarlos e ingresarlos a la Dirección de Abastecimiento de la Marina.

Las tres salas de "Constelación", donde todo se puede oír Los oídos de ‘Constelación’ Comentarios

‘Constelación’ es uno de los principales enemigos del crimen organizado. Pocos saben que en el sexto piso de la Dirección Antidrogas de la Policía Nacional (Dirandro), en San Isidro, existe un equipo electrónico de interceptación telefónica legal, capaz de grabar 300 líneas de teléfonos celulares en tiempo real.


Se llama ‘Constelación’. Es uno de los principales enemigos del crimen organizado. Muchos cuadros importantes del narcotráfico y el terrorismo están presos gracias a este programa de inteligencia electrónica. Uno de ellos es el jefe senderista ‘Artemio’. El pedido para ‘chuponear’ un teléfono puede hacerlo un policía o un fiscal que investiga determinado caso, pero debe ser autorizado por un juez, que establece hasta los plazos de la interceptación. El equipo fue donado el año 2008 por la DEA, el organismo estadounidense que reprime el narcotráfico en el planeta, pero recién empezó a operar en mayo del 2009, luego de que las empresas telefónicas aceptaran de ‘mala gana’ colaborar con ese sistema de escucha. El lugar donde funciona ‘Constelación’ parece sacado de una película de ciencia ficción. Su acceso está bloqueado. El ascensor no se detiene en ese piso. Solo puede ingresar el personal que tiene registrada su huella digital en las memorias electrónicas de las puertas blindadas. El ambiente está compartimentado en tres grandes divisiones: la Sala del Fiscal, la Sala del Interceptor y la Sala de Escuchas y Transcripciones o también llamada Oficina de Análisis Especial (Ofianes). El trabajo de más responsabilidad, el más agotador, recae en los 50 agentes encargados de las escuchas y análisis, que son en la mayoría mujeres. Durante 24 horas continuas, repartidos en tres turnos, estos policías anónimos se la pasan concentrados escuchando las conversaciones y decodificando diálogos, pues los criminales hablan en clave y apelativos. Luego hacen resúmenes e interpretaciones. Tienen un oído finamente entrenado, que les permite identificar el acento natal de cualquier persona. Hay casos jocosos en los que, por ejemplo, un ‘charapa’ trata de hablar como un piurano para despistar su ubicación en ese momento. Muchas veces, los agentes de ‘Constelación’ les han salvado la vida a sus propios colegas que trabajan en el VRAEM. Gracias a las escuchas pudieron alertarlos de que los terroristas y narcotraficantes les preparaban emboscadas y seguimientos. Los escuchas forman parte de un grupo élite de la Dirandro. Su selección es rigurosa e impecable. En el 2008, cuando se lanzó el concurso para el programa de ‘Constelación’, los candidatos tuvieron que pasar un chequeo exhaustivo de su vida personal y aprobar los exámenes toxicológicos. Los pocos que pasaron esa evaluación fueron citados a un hotel exclusivo de la avenida Encalada, cerca de la embajada de Estados Unidos. Allí los esperaron agentes de la DEA con los más sofisticados equipos de poligrafía, para detectar mentiras. Todos los años se someten a esa prueba. Los peruanos debemos sentirnos orgullosos de tener policías como ellos.

Giselle y los 6 USB En la avenida Tacna quedan los santuarios de Santa Rosa de Lima y el Cristo de Pachacamilla. Pero en el Perú no parece haber milagro que contenga al “chuponeo”. El martes último a las 5 y 30 de la tarde, seis agentes del Grupo Especial de Inteligencia de la Dirección Antidrogas (Dirandro), dirigidos por el titular de la Tercera Fiscalía Contra el Crimen Organizado Walter Milla, irrumpieron en una habitación del piso 10 del edificio Estolaza, en la cuadra cuatro de la céntrica y deprimida vía. Era el último hito en el mapa de los “petroaudios”.


El cuarto de 16 metros cuadrados ya estaba casi desocupado pero saltaba a la vista un monitor Samsung de 15 pulgadas y un Router Zyxel de Telefónica con cables de conexión a Internet sobre un pequeño escritorio. Según el suboficial de la Marina en actividad Martín Fernández Vírhuez (39), ahora en proceso de colaboración eficaz, allí funcionó un centro de interceptación telefónica de la empresa Business Track. Fernández declaró a la Policía que él mismo alquiló dicha habitación y que desde allí se ‘chuponeó’ al abogado Alberto Quimper Herrera, ex director de Perupetro actualmente bajo arresto domiciliario. Las interceptaciones telefónicas al especialista tributario se habrían realizado entre febrero y setiembre del año pasado. Es el noveno inmueble intervenido en los últimos días. Pero la investigación comenzó a fines de octubre, dos semanas después de que el gobierno se viera remecido por las escandalosas conversaciones grabadas entre Quimper y el ex ministro Rómulo León Alegría. Desde entonces, el caso tomó una ruta desconcertante: aparecieron más llamadas y correos interceptados (en algunos casos, gravemente adulterados), cayó todo un gabinete, una comisión parlamentaria del Congreso de la República se enfrascó en una inútil investigación detrás de evidencia inexistente y se inflaron globos de gas por negocios que no se dieron. Con la captura del presunto equipo de “chuponeadores” el caso puede volver a la primera base: un escándalo petrolero motivado en una gran operación de espionaje industrial. El nombre de Petro-Tech, empresa enfrentada frontalmente a Perupetro al momento de explotar el escándalo, vuelve a sonar con insistencia. Y como personaje central, una especialista en seguridad electrónica, Giselle Giannotti, que clama inocencia. APROXIMADAMENTE EL 20 DE OCTUBRE, la Fiscal de la Nación, Gladys Echaíz, recibió de modo anónimo tres audios que registraban conversaciones telefónicas de Luis Nava y Mirtha Cunza, secretarios del presidente Alan La Primera Pista.- A fines de García. Echaíz llevó las cintas, que hasta entonces no octubre, la Fiscalía recibió un habían sido difundidas, a Palacio de Gobierno. escrito anónimo que denunciaba a Las grabaciones demostraban que el ‘chuponeo’ había Business Track de realizar el llegado al más alto nivel. Ni el Presidente estaba a salvo. chuponeo por encargo de la Echaíz solicitó al Mandatario trabajar la investigación con petrolera Petro-Tech. A partir de el jefe de la Dirandro, general Miguel Hidalgo. Éste noviembre, el testimonio de un encargó las pesquisas al Grupo Especial de Inteligencia colaborador eficaz permitió (Gein), dirigido por el coronel PNP Carlos Morán. Los desbrozar el camino. Petro-Tech, miembros de esta unidad, apoyada por la DEA, la agencia de propiedad del norteamericano antidrogas de los Estados Unidos, son los que capturaron Kallop, mantiene un millonario a Fernando Zevallos y al ex alcalde de Pucallpa, Luis contencioso con el Estado. Valdez. A finales de octubre llegó al Ministerio Público un documento anónimo que sindicaba al almirante AP en retiro Elías Ponce Feijóo y a la empresa Business Track como los responsables de las interceptaciones telefónicas. Ponce Feijóo, hombre cercano al presidente regional del Callao, Álex Kouri, y al vicepresidente


Luis Giampietri, había sido denunciado por la desaparición de dos estudiantes chalacos en 1993 (CARETAS 2025). Ponce fue ascendido “retroactivamente” como contralmirante en el 2006. Esta semana el Presidente de la República lo despojó de tal condición. Consultado por CARETAS, el vicepresidente Giampietri dijo de él: “No tengo nada que decir, conozco a más de mil oficiales de Marina, a él lo conozco hace muchos años pero no. El objeto es investigar quienes han hecho el chuponeo”. EL EQUIPO POLICIAL comenzó a vigilar permanentemente el local de la cuadra veinte de la avenida Salaverry, en Lince. Posteriormente, en noviembre, un suboficial de la Marina en retiro se acogió a la colaboración eficaz y entregó una memoria USB que contenía dos audios y 13 transcripciones de conversaciones ‘chuponeadas’, entre ellas las de Rómulo León y Alberto Quimper. La ‘Operación Sagitario’ se mantuvo en secreto hasta el jueves 8, cuando el titular del 15o Juzgado Penal, Edwin Yalico, autorizó la intervención. Ponce Feijóo fue detenido a las 7 a.m. y poco después cayeron el capitán de navío (r) Carlos Tomasio de Lambarri (57), el oficial de mar en retiro Jesús Tirado Seguin (57), así como los suboficiales de contrainteligencia en actividad Martín Fernández Vírhuez (39) y José Ojeda Angles (36). Giselle Giannotti Grados (41) fue intervenida a las 10 de la mañana en la puerta de su residencia de Las Casuarinas. La Policía le decomisó una caja fuerte con US$ 9,000 en efectivo, 15 documentos secretos de la Marina de Guerra con información sobre terrorismo, transcripciones de conversaciones telefónicas ‘chuponeadas’ y seis memorias portátiles USB. Los seis detenidos fueron llevados a diferentes ‘casas policiales de seguridad’ y, una vez incomunicados, algunos empezaron a quebrarse. El suboficial Fernández Vírhuez inició su colaboración el sábado 10. Confirmó que fueron ellos los que ‘chuponearon’ a Rómulo León y Alberto Quimper, y sostuvo que lo hicieron por indicaciones de Ponce Feijóo y Giselle Giannotti. Aseguró que Ponce les brindaba los números telefónicos fijos y celulares que debían interceptar y precisó que Giannotti era la encargada de analizar las transcripciones y cerrar los tratos con los clientes. Fernández soltó una bomba: dijo que Giannotti vendió los ‘petroaudios’ a la empresa ‘PetroTech’ a través ‘del doctor (Alberto) Varillas y el estudio García Sayán’. El primero es el gerente legal de la empresa. Y el estudio de abogados, por cierto, no guarda relación con el también abogado y ex ministro Diego García Sayán. El anónimo de octubre decía lo siguiente: “Como toda organización de inteligencia Business Track no podía dejar huellas de informes ni facturas, así que desde el 2007 ya no emitieron ninguna factura para Petro-Tech. Se sabe que lo hacían por otra empresa, aunque se comenta que lo efectuaban por intermedio del estudio donde trabajaba el doctor Varillas”. Este último niega categóricamente cualquier vinculación. Reconoce que a fines del 2006 le encargaron a Business Track una “evaluación de sistemas de seguridad de la compañía”, y que esa es “la única relación que ha habido con esta gente. FERNÁNDEZ AÑADIÓ que, en algunos casos, utilizaban equipos de interceptación de la Marina de Guerra. Otras veces obtenían las conversaciones telefónicas y los récords de las llamadas a través de sus contactos en las empresas Telefónica, Claro y Nextel. Business –aseguró el aspirante a colaborador eficaz– cobraba US$ 3,000 por interceptar


celulares,

US$

1,500

por

teléfonos

fijos

y

US$

800

por

e-mails.

En la oficina de Salaverry, el Gein incautó un scanner modelo AOR AR8600MkIIU Marcos IIB, que habría sido adquirido por la Agregaduría Naval en Washington, de acuerdo a información del Ministerio Público. También 27 CPUs y 32 USB. Pero el material hallado en la caja fuerte de Giselle Giannotti es considerado, hasta ahora, el más revelador de todos. Figuran transcripciones de conversaciones telefónicas interceptadas a Alfredo Barnechea y Rómulo León, y al ex ministro de Energía y Minas, Juan Valdivia. Los seis USB de Giannotti aún continúan lacrados, pero trascendió que allí aparecen e-mails, transcripciones y audios inéditos de conversaciones de Rómulo León, Alberto Quimper, el viceministro de Energía Pedro Gamio, Abel Salinas, el dominicano Fortunato Canaán, su empleado Danilo López, José Ignacio López Soria de la Organización de Estados Iberoamericanos, numerosos empresarios y hasta la secretaria de Luis Nava. Los abogados de Giannotti sostienen que las transcripciones y el material que contienen los seis USB les fueron entregados por el periodista Pablo O’Brien, ex miembro de la Unidad de Investigación del diario El Comercio, quien le habría solicitado un ‘análisis independiente’ de las conversaciones telefónicas interceptadas. No fue posible ubicar al periodista para verificar esta información. ¿QUIÉN ES GISELLE GIANNOTTI? Tiene 41 años y 2 hijos mellizos de 8 años que ahora preguntan por su madre. Es sobrina de Alfonso Grados Bertorini e hija de un médico peruano que residía en Virginia, Estados Unidos, cuando nació. Por eso tiene la nacionalidad norteamericana. Es egresada de administración de empresas de la Universidad de Lima, pero posteriormente se especializó en sistemas. En su círculo laboral le llaman ‘Digital’. Trabaja para Business Track desde hace seis años como analista de seguridad de información. Sus conocidos la describen como ávida lectora, muy interesada en terrorismo y temas de seguridad nacional. En el 2006, con Wilson Gómez Barrios, fundador de Forza y padre de sus hijos, se echó a analizar una ruta de comunicaciones electrónicas ‘bolivarianas’. Se comunicaron con el entonces ministro del Interior Rómulo Pizarro. Ese mismo año creyeron detectar que se planeaba un asesinato contra el Presidente. Con el cambio de gobierno se comunicaron con el vicepresidente, almirante Luis Giampietri, quien tendió puente con el almirante José Aste y el general EP Otto Guibovich del Comando Conjunto. Poco después fueron invitados por el entonces congresista Ántero Flores Aráoz, hoy Ministro de Defensa, para que comentaran de sus hallazgos a un grupo de personas en su casa. Había varios ministros, entre ellos Jorge del Castillo, Luis Valdivia, y otras 25 personas. Fue una breve exposición. Nada sugiere, como se publicó en algunos medios, que sea ‘informante’ de la CIA. Tampoco que ha viajado 75 veces a Estados Unidos. En el 2001 fue nombrada gerente de la empresa petrolera Business Oil Corporation S.A.C. Boilcorsac, pero dejó el cargo al año siguiente. La empresa fue vinculada al narcotráfico en el 2004.


Los allegados aseguran que era una analista ‘free lance’ en Business y que aprovechó sus contactos para obtener contratos. Los clientes de dicha compañía, según su página Web (www.businesstrack.com.pe), eran Forza, el Estudio Aurelio García Sayán, Petro-Tech, Cementos Lima, la Confiep, el Estudio Ghersi, la Contraloría General de la República, Petroperú, BHP Billinton Tintaya, Rímac Seguros y Orus. También, Naval Alpaca, MAPFRE y las municipalidades de Miraflores, San Borja, San Isidro y el Callao. Las versiones sobre el origen de su amistad con Ponce coinciden en que se conocieron durante una reunión organizada por la minera Billinton Tintaya. A raíz de la detención, sus familiares temen por su salud. Tiene historia de cáncer y sufre de gastritis aguda. Y falta lo peor. Después que se examine en los próximos días el contenido de los USB y las laptop incautadas, los detenidos serán trasladados a centros penitenciarios este fin de semana. EN LAS OFICINAS de Perupetro ven las motivaciones de los “petroaudios” cada vez más claras. Desde un primer momento el presidente de la empresa, Daniel Saba, salió con la pierna en alto para denunciar que había “algo detrás” y que una empresa, Petro-Tech, venía librando importantes litigios tributarios con el Estado y de seguro se encontraba sumamente interesada en sacarlo del camino. Esta empresa tiene suscritos nueve contratos de exploración y explotación de hidrocarburos. Compitió con Discover, la empresa noruega a la que Rómulo León representaba, en la licitación del escándalo. Hasta hoy Saba defiende la pertinencia del proceso y niega que Quimper, miembro del directorio de Perupetro que también asesoraba a los noruegos que ganaron cinco lotes, pudiera tener algún tipo de injerencia. Saba fue tras Petro-Tech apenas se instaló en el cargo. Sus dos predecesores fueron cercanos a Petro-Tech y considera que la favorecieron (CARETAS 2049). El cronograma da cuenta de la real escalada de tensiones. La primera contingencia fue la de los adeudos por impuestos creados después del contrato, que en el caso del Impuesto al Patrimonio Empresarial (IPE), Perupetro totalizó en más de US$ 15 millones para el período entre 2002 y 2006. El pago fue solicitado en enero del año pasado. Vencido el plazo de treinta días, volvió a enviar una comunicación el 19 de febrero en la que la empresa advertía que si Petro-Tech no cancelaba el pago el contrato le sería rescindido. Justo antes de cumplirse los dos meses, el 17 de abril, Petro Tech pagó bajo protesto los US$ 15’149,623 adeudados. Tres meses después, el 28 de mayo, Petro-Tech recibió una nueva carta de Perupetro en la que solicitó el pago del IPE del 2007: poco más de US$ 6 millones. Un mes más tarde el pago se hizo efectivo, de nuevo bajo protesto. En los números de Perupetro resta todavía la subsanación del Impuesto a las Transacciones Financieras (ITF) y del IPE del 2008. La ofensiva continuó en junio con una nueva misiva. Perupetro consideraba que Petro-Tech incumplía el contrato al no calificar la operación de venta de gas natural a su afiliada Procesadora de Gas Pariñas como una “venta a terceros”, situación que también afectaba el pago de impuestos. De nuevo, si no era corregida y Perupetro no era indemnizado con lo que dejó de percibir, casi US$ 12.8 millones, el contrato iba a ser resarcido. Petro Tech decidió dejar de vender el gas natural a su afiliada y cumplió con el pago bajo protesto el último día permitido: 15 de octubre del 2008.


El escándalo de los petroaudios había estallado diez días antes, el 5 de octubre. Según la información recabada por CARETAS, Fernández, el detenido colaborador, ha declarado que la presión por terminar el trabajo en las semanas anteriores se hizo cada vez más intensiva. Durante esas cargadas semanas, una alta funcionaria de Petro-Tech le había dicho a Saba que iban a pagar, pero se la cobrarían “una por una”. El presidente de Perupetro solicitó seguridad para desplazarse. William Kallop, principal propietario de Petro-Tech, viajó a Estados Unidos la noche anterior al último pago, el 14 de octubre, y desde entonces no vuelve a Lima. La especulación más persistente es que, finalmente, a fines de mes se anunciaría la venta de la empresa a un consorcio integrado por las petroleras estatales de Colombia –Ecopetrol– y Corea del Sur. El propio Alberto Varillas, gerente legal de la empresa, ha reconocido que Petro-Tech estaba a la búsqueda de un socio o comprador desde hace casi un año (CARETAS 2049). No deja de ser paradójico que, si el objetivo bajo ese orden de ideas era tumbarse a Saba para provocar un vacío de poder en el sector, lo que ocurrió es que fue precisamente él quien solitariamente quedó en su puesto. El resto de personajes relevantes –César Gutiérrez de Petroperú, Juan Valdivia de Energía y Minas y para tal caso el resto del gabinete dirigido por Jorge del Castillo– sí cayeron. Parece ser que fue enviado un misil para desaparecer un objetivo muy preciso, pero en el camino la ruta fue desviada y los destrozos colaterales, originados en el frente que representó la relación entre Rómulo León y el empresario dominicano Fortunato Canaán, terminaron siendo mayores de lo esperado. Cuando el escándalo estalló Varillas respondió a la alusión hecha por Saba diciendo que “acá se ha sacado de proporciones un tema contractual para vincularnos a un tema delictivo”. Ahora vuelve a negar tajantemente cualquier situación irregular. Pero hoy, casi tres meses después, el nombre de la empresa sigue ligado a la historia con un cordón casi umbilical.

Alerta. Gracias a la cooperacion internacional, Perú cuenta desde hace dos y medio años con una herramienta de inteligencia electrónica necesaria para la lucha contra el crimen organizado: "Constelación". Edmundo Cruz "Constelación" intercepta 300 líneas telefónicas en tiempo real. Quiere decir que si una línea programada deja de trasmitir conversaciones, el interceptor automáticamente busca otra línea activa a espiar entre una lista de miles. Es más. Si la llamada telefónica 301 tiene prioridad mayor por ser de alguien más importante, de inmediato se cortará la más antigua y de menor prioridad para cederle el paso. El sistema discrimina al instante. Tiene programados 1000 niveles de prioridades. Así espía "Constelación", sofisticado interceptor de las comunicaciones que desde el 19 de mayo del 2009 da soporte técnico y nombre a un programa de escuchas legales, único en el Perú.


Los “blancos objetivos” del programa son las organizaciones criminales nacionales e internacionales en ascenso. Los peruanos solo sabíamos de las escuchas ilegales, a las que llamamos "chuponeo", hasta que el año 2002 la Ley 27697 estableció esta posibilidad de invadir, bajo mandato del juez, la privacidad de personas implicadas en la criminalidad organizada. Policías, fiscales y jueces empezaron a aplicar el dispositivo en escala menor. "Constelación" ha impreso a la herramienta legal una potencialidad extraordinaria. Enhorabuena. Los equipos de alta tecnología para el programa los ha aportado el gobierno norteamericano a través de la DEA (Drug Enforcement Administration). En el primer semestre de 2008 fueron instalados en el sexto piso de la Dirección Antidrogas de la Policía Nacional (Dirandro). El acceso al piso está bloqueado. El ascensor no se detiene en ese nivel. Los equipos ocupan tres ambientes de acceso restringido: la sala del Fiscal, la sala del Interceptor y la sala de Escucha y Transcripciones u Oficina de Análisis Especial (Ofianes). A estas tres salas solo ingresan los que tienen registrada su huella digital en los cerebros electrónicos de las puertas blindadas. La sala del Fiscal está asignada al representante del Ministerio Público adscrito al programa: el Fiscal Superior del Crimen Organizado. Es la sala más pequeña (3 por 4 metros), pero la computadora con que está equipada posee un software especial, el único a través del cual se pueden programar los números a interceptar. Si el Fiscal adscrito no los ingresa, no hay “chuponeo”. Ese es uno de los seguros del sistema. Y es también el único contacto del Ministerio Público con la estructura técnica de “Constelación”. A los otros ambientes de los equipos no ingresa ningún fiscal, ni siquiera el titular Fiscal Superior del Crimen Organizado o su Adjunto. OREJAS DEL SISTEMA La Sala de Escucha y Transcripciones es la más poblada, activa y amplia. Allí únicamente ingresa el comandante PNP responsable del sistema y los analistas que manejan unos 30 equipos de escucha. Trabajan 24 horas en tres turnos. Mientras el interceptor graba 300 líneas en tiempo real, ellos siguen la conversación y hacen resúmenes, escuchan y decodifican (los criminales hablan con códigos), separan lo útil de lo banal y registran, y cuando la escucha lo sugiere lanzan una alerta. A las 4 a.m. pueden oír: “… ya estamos saliendo a Panamá (Panamericana)" ..., o escuchar que


la vida de un juez está en peligro. En el acto toman el teléfono y llaman al oficial de enlace. “Oye, tengo un dato relevante, ven”. Todo analista trabaja con un oficial de enlace. La sala del Interceptor es la más aislada. Su cerebro es un software especial. Un PenLink y un Lincoln 2, opinan los expertos. El equipo es una especie de consola con un repertorio de botones. Sus soportes metálicos emiten radiaciones que obligan a tomar precauciones. Esta es la estructura técnica del programa, una de las dos que lo sostienen. La otra es la estructura legal, responsable de la tramitación del mandato judicial y de las escuchas. Los fiscales provinciales, superiores y el Fiscal Superior del Crimen Organizado, junto con los policías a cargo de los casos, son los artífices de esta labor que transcurre fuera del sexto piso de Dirandro. La escucha legal se sintetiza en 7 pasos (ver despiece). Pero, en realidad, todo comienza con la petición de un policía investigador o un fiscal. El policía plantea al fiscal provincial el caso y la necesidad de recurrir al arma electrónica. Propone números. El magistrado rechaza la petición o la hace suya y abre investigación, como ha ocurrido en el reciente operativo "Rey de Chilca." "REY DE CHILCA" A 62 kms. de Lima, un laboratorio polivalente comprimía en un área de 70 m2 las fases de transformación de la pasta sucia, en pasta lavada, PBC y clorhidrato de cocaína. Y obtenía una productividad al doble de lo normal: de un kilo de PBC sacaba un kilo de clorhidrato. Haciendo alarde de una depurada e importada técnica de insumos químicos. Las escuchas jugaron su papel. Los mandatos judiciales oportunos, las interceptaciones en tiempo real y la combinación certera de la inteligencia de a pie con la inteligencia electrónica de "Constelación" funcionaron. La influencia de la inteligencia electrónica (sistema Constelación) en la capacidad operativa de la DIREAD a nivel nacional en las acciones de interdicción al TID en el periodo 2014-2016

El presente trabajo trata sobre cómo la inteligencia electrónica, que en el Estado peruano se obtiene a través del sistema Constelación, influyó en la capacidad de la DIREAD, institución encargada de la lucha contra el tráfico ilícito de drogas (TID), para realizar sus acciones de interdicción desde el 2014 al 2016. A través de entrevistas con distintos actores que participan de la aplicación de la inteligencia electrónica en esta institución, se llega a comprobar que, a pesar de las dificultades que ella tiene para aplicarse debido a que las leyes vigentes basadas en el derecho internacional impiden interceptar llamadas sin existir pruebas claras contra el sujeto investigado, esta tiene una influencia positiva, pues ha permitido que se realicen acciones más efectivas contra el TID. Asimismo, esta investigación estudia la capacidad de la DIREAD para


cumplir sus funciones, comprobando que existe una dependencia de esta institución hacia organizaciones extranjeras o internacionales como la DEA. Esto se debe a que desde el Estado peruano no se le da suficiente apoyo, lo que limita en gran medida su capacidad. Sobre este punto se discute brevemente cómo influye la cooperación internacional en la DIREAD y qué tan positiva resulta, considerando que el apoyo de la DEA permite que las agencias que tienen cooperación con esta posean más recursos y sean más profesionales en relación a sus pares apoyadas exclusivamente por el Estado

VÍA DE ESCAPE Un paso neurálgico de la escucha es la notificación del mandato judicial a tres destinos: (1) el Fiscal adscrito al sistema que ingresa los números a interceptar, (2) las empresas telefónicas proveedoras de los números que abren el canal de "chuponeo", y (3) Dirandro, las orejas de la escucha. Si las empresas no abren el canal de las líneas a interceptar, no es posible el “chuponeo”, sostienen los responsables. Algunos entendidos cuestionan este seguro. Al final de la escucha se graban los audios en un DVD y se elabora el Acta en dos ejemplares; uno de éstos queda en Dirandro y el otro va al fiscal, vía una cadena de custodia. La cadena no parece tan segura. Fragmentos de actas del caso Fefer se filtraron a la televisión y este último paso habría sido la vía de escape. Las actas contenían "chuponeo" al fono de Iván Torres, abogado de las acusadas Bracamonte y Castro, y socio en el mismo estudio jurídico del entonces vicepresidente Omar Chehade. Las autoridades de Dirandro han admitido esta posibilidad. LOS 7 PASOS DE LAS ESCUCHAS LEGALES SOLICITUD. Por lo general, la iniciativa de interceptación legal de un teléfono nace del policía que investiga el caso, también del fiscal. El fiscal solicita el mandato al juez. MANDATO JUDICIAL. El juez resuelve. Precisa las líneas a interceptar, establece plazo de interceptación y entrega mandato al fiscal. NOTIFICACIÓN. El fiscal del caso informa de la resolución al fiscal superior adscrito al sistema, a la empresa telefónica y a Dirandro. PROGRAMACIÓN. El Fiscal superior adscrito al sistema ingresa los números a interceptar en un software exclusivo. La empresa abre el canal de interceptación. Dirandro hace lo propio. Comienza la interceptación legal.


INTERCEPTACIÓN. El sistema intercepta y graba. Los analistas escuchan y hacen resúmenes. Si oyeran algo así como: “… estamos saliendo, el camión va por aquí, por allá…”, de inmediato llaman al oficial de enlace. GRABACIÓN. Las escuchas indiciarias se graban en un DVD y se levanta un Acta. El DVD se guarda y lacra con un sistema de seguridad. ENTREGA DE DVD Y ACTAS. El DVD es entregado al fiscal mediante una cadena de custodia. De las Actas, una queda en Dirandro, otra se entrega al fiscal en directo. Cada caso tiene un oficial de enlace (por lo general es el policía que ve el caso). Cada Fiscal del caso nombra un Adjunto. CLAVES Software. PenLink y Lincoln 2. Estos serían dos de los programas informáticos que nutren el cerebro de "Constelación". Erelang. Es el nombre de la fórmula mágica que correlaciona las prioridades de los "objetivos blancos" programados, los que están interceptados en tiempo real y los que están en espera. Empresas. El programa de escuchas legales tiene suscritos convenios de cooperación con todas las empresas de telefonía que operan en el país. Están notificadas las "bandas". EN CIFRAS 11.041 operativos contra el tráfico ilícito de drogas se han realizado este año. 11.328

intervenidos

entre

casos

de

narcotráfico

y

lavado

8.782 kilos de clorhidrato de cocaína y 12.000 kilos de pasta básica de cocaína.

Técnicas Buzón de voz

de

activos.


El hackeo de teléfonos a menudo involucra el acceso no autorizado a llamadas telefónicas o a mensajes de voz. Contrario a lo que su nombre sugiere, escándalos como el de la escucha ilegal de llamadas telefónicas por parte de News International, poco tienen que ver con el hacking de teléfonos, sino que están relacionados con el acceso remoto no autorizado a los sistemas de buzón de voz. Esto es posible, en gran parte a las debilidades en la implementación de estos sistemas por parte de las empresas de telecomunicaciones.3 Desde los inicios de la telefonía móvil, los proveedores de servicio han permitido el acceso a los mensajes de voz mediante un teléfono fijo, requiriendo la entrada de un Número de Identificación Personal (NIP) para escuchar los mensajes. Muchas compañías de telefonía celular utilizan un sistema que establece un valor predeterminado de NIP de cuatro dígitos conocidos, que rara vez es cambiado por el propietario del teléfono, haciendo más fácil para un adversario quién sabía el número de teléfono y el proveedor de servicios para acceder a los mensajes de correo de voz asociados a ese servicio.4 Aún cuando el NIP por defecto no era conocido, la ingeniería social era utilizada para restablecer el NIP por defecto, haciéndose pasar por el dueño del teléfono durante una llamada al centro de llamadas.56 Muchas personas utilizan NIPs débiles que son fáciles de adivinar; para evitar que los suscriptores elijan NIPs de baja seguridad, algunas compañías de telefonía móvil no permiten el uso de dígitos consecutivos o la repetición del mismo NIP del buzón de voz. 7 A mediados de la década de los 2000, se descubrió que las llamadas que se realizan de la terminal se registran en una cuenta de correo de voz sin que el usuario asigne un código NIP, por lo que un atacante podría utilizar un ID falso y hacerse pasar por el número de teléfono de la víctima, y de ese modo obtener acceso no autorizado al buzón de voz sin un NIP.89 A raíz de la controversias sobre el espionaje telefónico y las críticas hacia los proveedores de telefonía que permitían el acceso al correo de voz sin NIP, se ha aumentando el nivel de seguridad por defecto de los sistemas para que el acceso a los mensajes de correo de voz y otros ajustes del teléfono ya no se logren a través de un NIP predeterminado.4 Por ejemplo, AT&T anunció en agosto del 2011 que los usuarios deberán introducir su contraseña personal para poder acceder a su correo de voz. T-Mobile dijo que recomienda que el usuario asigne una contraseña a su elección para mayor seguridad". AURICULARES Un análisis de códigos NIP seleccionados por los usuarios, sugirió que diez números representan un 15% de todas las contraseñas de iPhones, con "1234" y "0000" como las más comunes. Los años de nacimiento y fechas de graduación también son opciones recurrentes. 11 Aunque un NIP de cuatro dígitos sea seleccionado al azar, la combinación de dígitos para la clave es pequeña (10.000 posibilidades), haciendo este tipo de contraseña más fácil de forzar que otros sistemas; por lo tanto, alguien con acceso físico a un auricular asegurado con un alfiler viable puede determinar el NIP en un corto tiempo.12 Las empresas por lo tanto pueden implementar políticas que promuevan el uso de contraseñas más fuertes a través de la gestión de sistemas en los teléfonos móviles. Los micrófonos en los teléfonos móviles pueden activarse remotamente por organismos de seguridad o empresas de telecomunicaciones, sin necesidad de acceso físico. Esta característica “roving bug” ha sido utilizada por organismos policiales y servicios de inteligencia para escuchar conversaciones cercanas.


Otras técnicas para hackear teléfonos incluyen engañar a un usuario de teléfono móvil descargando malware para monitorear la actividad en el teléfono, o bluesnarfing, el cual consiste en el acceso no autorizado a un teléfono vía Bluetooth.621 Otros[editar] También existen defectos en la implementación del algoritmo cifrador del GSM, que permite la intercepción pasiva. El equipo necesario está disponible para agencias gubernamentales o pueden ser armados por piezas individuales disponibles. En diciembre del 2011, Karsten Nohl, un científico alemán, reveló que es posible hackear el buzón de voz y los mensajes de texto en varias redes con un software descifrador gratuito disponible en internet. Él acusó a las compañías de telefonía móvil por confiar en técnicas antiguas de encriptación en el sistema 2G, y dijo que el problema se podría arreglar fácilmente. LEGALIDAD El hacking de teléfono es una forma de vigilancia, la cual es ilegal en muchos países, a menos que sea llevada a cabo como una intercepción legal por una agencia gubernamental. En el escándalo de hacking telefónico de News International, al investigador privado Glenn Mulcaire se le encontró que había violado el Acta 2000 de Regulación de los Poderes de Investigación. Fue sentenciado a 6 meses en prisión en enero de 2007. Debido a diversas reclamaciones y controversias sobre el hacking telefónico, el periódico News of the World fue clausurado en julio de 2011. En diciembre de 2010, la Ley de Veracidad en el Identificador de Llamadas fue puesta en marcha en Estados Unidos, haciendo ilegal “causar a sabiendas que algún servicio de identificador de llamadas transmita información de identificación engañosa o inexacta con el intento de causar daño, hacer fraude, u obtener injustamente algo de valor.” Ataque de denegación de servicio


Diagrama de un ataque DDoS usando el software Stacheldraht. En seguridad informática, un ataque de denegación de servicio, también llamado ataque DoS (por sus siglas en inglés), es un ataque a un sistema de computadoras o red que causa que un servicio o recurso sea inaccesible a los usuarios legítimos. Normalmente provoca la pérdida de la conectividad con la red por el consumo del ancho de banda de la red de la víctima o sobrecarga de los recursos computacionales del sistema atacado. Un ejemplo notable de ello se produjo el 27 de marzo de 2013, cuando el ataque de una empresa a otra inundó la red de correos basura provocando una ralentización general de Internet e incluso llegó a afectar a puntos clave como el nodo central de Londres. Los ataques DoS se generan mediante la saturación de los puertos con múltiples flujos de información, haciendo que el servidor se sobrecargue y no pueda seguir prestando su servicio. Por eso se le denomina denegación, pues hace que el servidor no pueda atender a la cantidad enorme de solicitudes. Esta técnica es usada por los crackers o piratas informáticos para dejar fuera de servicio servidores objetivo. Una ampliación del ataque DoS es el llamado ataque de denegación de servicio distribuido (DDoS por sus siglas en inglés) el cual se lleva a cabo generando un gran flujo de


información desde varios puntos de conexión hacia un mismo punto de destino. La forma más común de realizar un DDoS es a través de una red de bots, siendo esta técnica el ciberataque más usual y eficaz por su sencillez tecnológica. En ocasiones, esta herramienta ha sido utilizada como un buen método para comprobar la capacidad de tráfico que un ordenador puede soportar sin volverse inestable y afectar a los servicios que presta. Un administrador de redes puede así conocer la capacidad real de cada máquina. MÉTODOS DE ATAQUE Un ataque de denegación de servicio impide el uso legítimo de los usuarios al usar un servicio de red. El ataque se puede dar de muchas formas. Pero todas tienen algo en común: utilizan la familia de protocolos TCP/IP para conseguir su propósito. Un ataque DoS puede ser perpetrado de varias formas. Aunque básicamente consisten en:  Consumo de recursos computacionales, tales como ancho de banda, espacio de disco, o tiempo de procesador.  Alteración de información de configuración, tales como información de rutas de encaminamiento.  Alteración de información de estado, tales como interrupción de sesiones TCP (TCP reset).  Interrupción de componentes físicos de red.  Obstrucción de medios de comunicación entre usuarios de un servicio y la víctima, de manera que ya no puedan comunicarse adecuadamente. INUNDACIÓN SYN (SYN FLOOD) PRINCIPIOS DE TCP/IP Cuando una máquina se comunica mediante TCP/IP con otra, envía una serie de datos junto a la petición real. Estos datos forman la cabecera de la solicitud. Dentro de la cabecera se encuentran unas señalizaciones llamadas Flags (banderas). Estas señalizaciones (banderas) permiten iniciar una conexión, cerrarla, indicar que una solicitud es urgente, reiniciar una conexión, etc. Las banderas se incluyen tanto en la solicitud (cliente), como en la respuesta (servidor). Para aclararlo, veamos cómo es un intercambio estándar TCP/IP: 1) Establecer Conexión: el cliente envía una Flag SYN; si el servidor acepta la conexión, éste debería responderle con un SYN/ACK; luego el cliente debería responder con una Flag ACK. 1-Cliente --------SYN-----> 2 Servidor 4-Cliente <-----SYN/ACK---- 3 Servidor 5-Cliente --------ACK-----> 6 Servidor 2) Resetear Conexión: al haber algún error o perdida de paquetes de envío se establece envío de Flags RST: 1-Cliente -------Reset-----> 2-servidor 4-Cliente <----Reset/ACK---- 3-Servidor 5-Cliente --------ACK------> 6-Servidor


La inundación SYN envía un flujo de paquetes TCP/SYN (varias peticiones con Flags SYN en la cabecera), muchas veces con la dirección de origen falsificada. Cada uno de los paquetes recibidos es tratado por el destino como una petición de conexión, causando que el servidor intente establecer una conexión al responder con un paquete TCP/SYN-ACK y esperando el paquete de respuesta TCP/ACK (Parte del proceso de establecimiento de conexión TCP de 3 vías). Sin embargo, debido a que la dirección de origen es falsa o la dirección IP real no ha solicitado la conexión, nunca llega la respuesta. Estos intentos de conexión consumen recursos en el servidor y copan el número de conexiones que se pueden establecer, reduciendo la disponibilidad del servidor para responder peticiones legítimas de conexión. SYN cookies provee un mecanismo de protección contra Inundación SYN, eliminando la reserva de recursos en el host destino, para una conexión en momento de su gestión inicial. NUKE Es una técnica DoS que pretende agotar el ancho de banda de la víctima. Consiste en enviar de forma continuada un número elevado de paquetes ICMP Echo request (ping) de tamaño considerable a la víctima, de forma que esta ha de responder con paquetes ICMP Echo reply (pong) lo que supone una sobrecarga tanto en la red como en el sistema de la víctima. Dependiendo de la relación entre capacidad de procesamiento de la víctima y el atacante, el grado de sobrecarga varía, es decir, si un atacante tiene una capacidad mucho mayor, la víctima no puede manejar el tráfico generado. SMURF Existe una variante a ICMP Flood denominado Ataque Smurf que amplifica considerablemente los efectos de un ataque ICMP. Existen tres partes en un Ataque Smurf: El atacante, el intermediario y la víctima (comprobaremos que el intermediario también puede ser víctima). En el ataque Smurf, el atacante dirige paquetes ICMP tipo "echo request" (ping) a una dirección IP de broadcast, usando como dirección IP origen, la dirección de la víctima (Spoofing). Se espera que los equipos conectados respondan a la petición, usando Echo reply, a la máquina origen (víctima). Se dice que el efecto es amplificado, debido a que la cantidad de respuestas obtenidas, corresponde a la cantidad de equipos en la red que puedan responder. Todas estas respuestas son dirigidas a la víctima intentando colapsar sus recursos de red. Como se dijo anteriormente, los intermediarios también sufren los mismos problemas que las propias víctimas. INUNDACIÓN UDP (UDP FLOOD) Básicamente este ataque consiste en generar grandes cantidades de paquetes UDP contra la víctima elegida. Debido a la naturaleza sin conexión del protocolo UDP, este tipo de ataques suele venir acompañado de IP spoofing. Es usual dirigir este ataque contra máquinas que ejecutan el servicio Echo, de forma que se generan mensajes Echo de un elevado tamaño.[ IMPACTO EN LA RED A nivel global, este problema ha ido creciendo, en parte por la mayor facilidad para crear ataques y también por la mayor cantidad de equipos disponibles mal configurados o con fallos


de seguridad que son explotados para generar estos ataques. Se ve un aumento en los ataques por reflexión y de amplificación por sobre el uso de botnets. A principios de 2014, el uso de ataques basados en protocolos UDP ha aumentado significativamente. Actualmente ocurren importantes incidentes con ataques basados en CHARGEN, NTP y DNS. De acuerdo al reporte de DDOS de Prolexic de Q1 2014, el ancho de banda promedio de los ataques creció en un 39% respecto a los ataques del 2013. Respecto del mismo trimestre del 2013, hubo un 47% de aumento en la cantidad de ataques y un 133% de crecimiento del ancho de banda punta (peak) de los ataques. El 21 de octubre de 2016 ocurrieron, principalmente en Estados Unidos, los ataques más masivos de la última década y se vieron afectadas aplicaciones y páginas web como Twitter, Spotify, Amazon, Netflix y la versión digital de "The New York Times" El ataque ping de la muerte es uno de los ataques de red más antiguos. El principio de este ataque consiste simplemente en crear un datagrama IP cuyo tamaño total supere el máximo autorizado (65.536 bytes). Cuando un paquete con estas características se envía a un sistema que contiene una pila vulnerable de protocolos TCP/IP, éste produce la caída del sistema. Los sistemas más modernos ya no son vulnerables a este tipo de ataque. Los atacantes comenzaron a aprovecharse de esta vulnerabilidad en los sistemas operativos en 1996, vulnerabilidad que en 1997 sería corregida por lo que este tipo de ataque no tiene efecto sobre los sistemas operativos actuales. PING DE LA MUERTE Es un tipo de ataque a computadoras que implica enviar un ping deformado a una computadora. Un ping normalmente tiene un tamaño de 64 bytes; algunos sistemas operativos no podían manejar pings mayores al máximo de un paquete IP común, que es de 65.535 bytes. Enviando pings de este tamaño era posible hacer que esas computadoras dejaran de funcionar. Este fallo fue fácil de usar. Si bien, enviar un paquete de "Ping de la Muerte" de un tamaño de 65.536 bytes es inválido según los protocolos de establecimiento de una red, se puede enviar un paquete de tal tamaño si se hacen fragmentos del mismo. Así, cuando la computadora que es el blanco de ataque vuelve a montar el paquete, puede ocurrir una saturación del buffer, lo que a menudo produce como consecuencia un fallo del sistema. Este exploit ha afectado a la mayoría de Sistemas Operativos, como Unix, Linux, Mac, Windows, a impresoras, y a los routers. No obstante la mayoría de los sistemas operativos desde 19971998 han arreglado este problema, por lo cual el fallo está solucionado. En la actualidad otro tipo de ataques con ping han llegado a ser muy utilizados, como por ejemplo el "Ping Flooding". AGUJERO DE SEGURIDAD Un agujero de seguridad es una vulnerabilidad de un sistema de información que permite mediante su explotación violar la seguridad del sistema. TIPOS Ejemplos de tipos de vulnerabilidades según la naturaleza del mismo:  De software. Ejemplos:  Inyección SQL


    

Desbordamiento de buffer Clickjacking Condiciones de carrera Cross Site Request Forgery Cross-site scripting  De hardware  Del entorno físico del sistema  Del personal involucrado  De procedimientos de administración, organización y seguridad involucrados  De la red de comunicaciones utilizada HITOS O ETAPAS En el tiempo de vida de una vulnerabilidad podemos distinguir los siguientes hitos o etapas importantes:  Nacimiento.- Durante el proceso de desarrollo del producto por parte del proveedor (Ej el vendedor o una comunidad de desarrolladores software), se introducen una serie de defectos. Estos defectos pueden ser de diseño, implementación o de gestión. Algunos de esos defectos pueden convertirse en riesgos para la seguridad del producto y por tanto para la seguridad del usuario del producto. Un defecto se convierte en una vulnerabilidad si hace que el comportamiento del sistema sea tal que pueda ser aprovechado para conseguir acceso no autorizado, elevación de privilegios, denegación de servicio o cualquier otra forma de romper la seguridad del sistema. No se consideran vulnerabilidades que son detectadas y corregidas antes del despliegue.  Descubrimiento.- Este hito ocurre cuando se tiene conocimiento de la existencia de la vulnerabilidad. Si la vulnerabilidad es creada intencionadamente entonces el nacimiento y el descubrimiento ocurren simultáneamente. Se llama descubridor a la primera persona que revela un defecto y determina que ese defecto es una vulnerabilidad. Si el descubridor no es conocido se dice que es anónimo.  Comunicación de la vulnerabilidad.- Este hito ocurre una vez que el descubridor revela la vulnerabilidad a alguien más. Esta transferencia de información puede ser de distintos tipos. Ejemplos: completa y pública vía (revelación completa) o comunicación privada entre hackers. Se llama originador (en inglés originator) o revelador (en inglés discloser) a la persona u organización que informa de la vulnerabilidad a el proveedor del producto. Observar que el descubridor y el originador pueden ser personas distintas.  Corrección.- Ocurre cuando el vendedor del producto analiza la vulnerabilidad, localiza cual es el problema, y lanza una versión al público que resuelve la vulnerabilidad.  Publicitación.- Es cuando el conocimiento de la vulnerabilidad se extiende a una audiencia importante dándole publicidad.  Automatización de explotación.- Es cuando a partir de la vulnerabilidad se crea una herramienta o script que automatiza la explotación de la vulnerabilidad. A esta herramienta o script se le llama exploit. De esta forma se permite que no sólo expertos sobre el tema (hackers) puedan vulnerar la seguridad. De esta forma se tiene una herramienta que permite a otros usuarios inexpertos (script kiddies) vulnerarla.  Muerte.- Ocurre cuando el número de sistemas vulnerables al exploit es insignificante. Esto puede haber sucedido porque el sistema ha sido retirado, el sistema ha sido arreglado mediante algún parche, o porque los hackers no tienen interés en explotarla.


Estos eventos no necesariamente ocurren estrictamente en este orden. Por ejemplo:  La publicitación y la corrección puede suceder al mismo tiempo, particularmente en casos donde el descubridor de la vulnerabilidad es el propio vendedor del producto, el cual usa el arreglo de la vulnerabilidad como parte de la propia publicidad del producto.  La corrección de una vulnerabilidad no tiene por qué suceder antes de la automatización de la explotación. Si se construye un exploit antes de que la vulnerabilidad sea corregida por el proveedor, se dice que se trata de un exploit de día cero que da lugar a ataques de día cero.  El descubrimiento se puede producir en el mismo momento del nacimiento, es decir, se trata de una vulnerabilidad intencionada. Se especula que algunos sistemas tienen desde el origen agujeros de seguridad intencionados conocidos por alguna de las partes que interviene en el diseño y/o desarrollo. Este tipo vulnerabilidades funcionaría a modo de puerta trasera o caballo de Troya. Ejemplos:  En 2007 el gobierno de los Estados Unidos de América lanzó la un estándar para la generación de números aleatorios. Se proponían cuatro generadores de números pseudoaleatorios. Uno de ellos, el Dual EC DRBG, promovido por la NSA, tenía una puerta trasera que consistía en un conjunto de números secretos que permitían predecir la salida a partir de recopilar una pequeña porción de los resultados anteriores.  Se ha hablado mucho de las supuestas presiones que recibió PGP Corporation para introducir una puerta trasera en su software. Esta supuesta puerta trasera permitiría a la ciertas organizaciones (Ej. FBI, NSA ) poder descifrar el contenido cifrado con esta herramienta. Para camuflar esta supuesta puerta trasera se especula que se presionó a PGP Corporation para que hiciera el código de PGP (software de código abierto) tan enrevesado y extenso que no se pudiera detectar tal puerta trasera. Esto provocó que muchos usuarios se quedaran con las versiones antiguas, fácilmente verificables, y promovió la creación de software alternativo.  Otro caso es la supuesta introducción de una puerta trasera en open BSD promocionada por el FBI. BÚSQUEDA DE VULNERABILIDADES Y MOTIVACIONES PARA SU PUBLICACIÓN La búsqueda de vulnerabilidades de seguridad es realizada principalmente por dos tipos de personas u organizaciones:  Los atacantes de sistemas.-Pueden aprovechar las vulnerabilidades para hacer vulnerables a los sistemas y conseguir de forma ilegal beneficios monetarios de ello, ya sea directamente (Ej. permitiendo el uso de tarjetas de crédito ajenas) o indirectamente (Ej. vendiendo información privada sobre las víctimas). Por su propia naturaleza este tipo de investigadores del vulnerabilidades no están interesados en la revelación de las vulnerabilidades descubiertas ya que así se aseguran de que la vulnerabilidad no sea arreglada y así puedan seguir beneficiándose de la misma.  Profesionales de la informática y en especial de la seguridad.- Estos profesionales, por distintas motivaciones, estudian de forma legal los sistemas y muchas veces logran encontrar vulnerabilidades. Este tipo de personas están interesadas en la revelación de la información. De esta forma acreditan haber encontrado la misma y así pueden apuntarse el mérito. Las motivaciones que tienen estos profesionales para encontrar la vulnerabilidades podríamos resumirlas en:


Reputación.- El que una persona o organización sea acreditada como la primera en descubrir una vulnerabilidad particular es muy importante en el mundo de la seguridad informática. Por un lado a las personas les acredita de habilidades y esto puede usarse para aumentar sus ingresos o conseguir mejores trabajos. Para una empresa también es importante porque puede utilizarse para conseguir clientes en base al alto nivel del personal que trabaja para ella.  Perjudicar a competidores.- Por ejemplo un desarrollador o compañía puede tener especial interés en buscar vulnerabilidades a productos de la competencia para poner en dificultades al proveedor y desacreditar sus productos. De esta forma se consigue mejorar la posición en el mercado del producto propio.  Forzar al proveedor del productor a mejorar la calidad del producto y que tenga más interés en producir software más seguro.  Disfrutar del desafío intelectual de encontrar vulnerabilidades.  Obtener gratificaciones monetarias por parte del proveedor del producto o de otra entidad. TRATAMIENTO DE LA INFORMACIÓN SOBRE VULNERABILIDADES Las formas de conseguir información sobre vulnerabilidades son las siguientes:  Investigación sobre el funcionamiento de productos  Investigación del funcionamiento de código malicioso que se aprovechan de vulnerabilidades  A través de informes que revelan ese tipo de información. Los dos aspectos fundamentales a estudiar sobre el tratamiento de la información sobre vulnerabilidades son:  Como se difunde esa información (transmisión de la información)  Como se gestiona para tener toda la información disponible (Gestión de la información) TRANSMISIÓN DE LA INFORMACIÓN Supongamos que alguien no implicado en un producto descubre una vulnerabilidad. Este puede tomar 4 opciones principales:  No hacer nada  Utilizarla y aprovechar dicha vulnerabilidad para vulnerar la seguridad del sistema.  Intentar venderla a alguien interesado. Este es el punto de partida del llamado mercado de vulnerabilidades.  Revelarla de forma pública y extensiva. Los tres primeros casos podríamos agruparlos diciendo que adoptan una política de revelación basada en no revelar públicamente la información (cada uno por motivos distintos). En el último caso el individuo se enfrentaría a tomar una decisión sobre qué política de revelación pública de la información quiere usar. FECHA DE REVELACIÓN La fecha de revelación es la fecha en la que se describe por primera vez la vulnerabilidad en un canal con las siguientes características:  Libremente disponible al público  La información es publicada por una fuente confiable e independiente. Se suele considerar un canal confiable cuando es una fuente aceptada de información de seguridad en la industria (Ej CERT/CC, Security Focus, Secunia, Microsoft Security Bulletin, USCERT y FrSIRT)


La vulnerabilidad ha sido sometida al análisis de expertos que evalúan el riesgo de la revelación. Esto garantiza la calidad de la información divulgada y asegura que aporta suficientes detalles para permitir determinar el riesgo propio. POLÍTICA DE REVELACIÓN Si el sujeto quiere revelar públicamente la información sobre la vulnerabilidad, se enfrenta a una compleja pregunta: ¿Cómo revelar la información sobre dicha vulnerabilidad?. La información sobre vulnerabilidades, cuando se revela, puede obligar al proveedor del producto a tomar acciones rápidamente para arreglar el defecto que lo hace posible; Sin embargo, esta misma información puede amplificar los riesgos para los usuarios y dar poder a aquellos que con malas intenciones quieren explotar la vulnerabilidad antes de que sea arreglada. La política a tomar es un tema controvertido y no sólo es exclusivo del mundo informático. Por ejemplo en el pasado hubo controversias en el mundo de la cerrajería sobre la distribución del conocimiento de las vulnerabilidades que tenían las cerraduras. Teniendo en cuenta los diversos factores (Ej costes, beneficios, riesgos) se han propuesto distintos tipos de prácticas y políticas para la revelación de la información sobre vulnerabilidades. Las propuestas podríamos clasificarlas en 3 tipos: No revelar, revelación completa y prácticas a medio camino entre una otra (revelación parcial). POLÍTICA DE NO REVELACIÓN DE VULNERABILIDADES Podríamos considerar que la no revelación pública (extensiva) de la información sobre la vulnerabilidad es en si misma una política de revelación. La información se mantiene en secreto. Este enfoque se basa en dar prioridad a mantener en secreto la vulnerabilidad frente a dar publicidad a la información para podernos proteger frente a ella. Algunas veces en lugar de una no revelación absoluta, la información sobre la vulnerabilidad se comparte de forma restringida (pseudosecreto). Cuanto más amplio sea el número de personan que conocen la vulnerabilidad se incrementa el riesgo para los usuarios finales. La información puede revelarse por ejemplo a:  El proveedor del sistema para que arregle la vulnerabilidad  Otros investigadores (hackers).  Alguien que compra esa información. De esta forma se establece un mercado de vulnerabilidades. Muchas veces el descubridor de la vulnerabilidad toma esta política y la información se va divulgando por canales privados hasta que llega a cierta organización o persona que decide publicarla para evitar daños mayores. REVELACIÓN COMPLETA La estrategia de revelación completa, revelación total o divulgación masiva (en inglés full disclosure) consiste en revelar a toda la comunidad (divulgación masiva) toda la información disponible sobre un problema de seguridad en cuanto este es conocido. Por ejemplo se puede dar información de como se encontró el fallo, qué sistemas son vulnerables, como explotar la seguridad o como protegerse frente al fallo. Se revelan todo tipo de detalles sobre el fallo y esta información tan detallada puede ser usada por hackers malintencionados para desarrollar exploits que permitan aprovechar la vulnerabilidad a cualquiera que lo utilice, aunque no entiendan el funcionamiento del mismo (script kiddies).


REVELACIÓN PARCIAL La políticas de revelación revelación parcial (en inglés partial disclosure) intentan establecerse como punto intermedio entre la política de seguridad por oscuridad y las política de revelación completa. Intentan aprovechar buenas ideas de una y otra política para situarse en un punto intermedio con mejores características. Se han desarrollado distintos modelos pero cada uno tiene sus inconvenientes considerándose el problema de la política de revelación como un problema abierto y pendiente de solución. MERCADO DE VULNERABILIDADES Alrededor del mundo de los agujeros de seguridad se ha ido creando una importante actividad económica, dando lugar a negocios a veces muy lucrativos. El activo con el que se negocia es la información sobre la vulnerabilidad. El negocio suele estar en:  La compra/venta de información sobre vulnerabilidades. El negocio puede ser con dinero o en especie (Ej publicidad sobre el descubridor o recompensando con un servicio de pago de forma gratuita). Puede haber intermediarios. Puede haber varias formas de realizar la compra/venta. Ejemplos: venta directa en exclusiva, venta directa sin exclusividad (lo mismo se puede vender a varios), subastas tradicionales, subastas con más de un ganador. El problema de las subastas es la habilidad de comunicar la calidad de la vulnerabilidad si divulgar la información sobre la vulnerabilidad. Esto se intenta conseguir dando unos mínimos detalles sobre la vulnerabilidad o el establecimiento de intermediarios de confianza que permitan establecer la calidad de la vulnerabilidad manteniendo la información en riguroso secreto (este tipo de intermediarios están apareciendo en el mercado underground).  La contratación de personas/equipos que se dedican a la búsqueda de vulnerabilidades ya sea de forma interna o externa a la propia organización. Por ejemplo hay multitud de empresas que se dedican a la auditoría de seguridad.  La venta de productos (Ej. antivirus, IDS´s, IPS´s o cortafuegos) que detectan, solucionan o mitigan el impacto de vulnerabilidades.  Proveedores de productos que permiten detectar o aprovechar vulnerabilidades de otros productos. Se ha propuesto que la existencia de un mercado de vulnerabilidades puede ser una buena idea para incentivar a los proveedor de sistemas para que se preocupen más en mejorar la seguridad de sus productos y en arreglar rápidamente las vulnerabilidades que se vayan encontrando. MOTIVACIONES Las motivaciones para la existencia de este tipo de mercado son, en última instancia:  Conseguir ganancia económica. Este es el principal motivo para la existencia de este mercado.  Consecución de una herramienta defensiva u ofensiva para poderla utilizar en cierto tipo de conflictos (netwar y ciberguerra). 

ACTORES Los actores en este mercado son:  Productores de información:  Hackers


investigadores Consumidores:  Gobiernos (netwar, ciberguerra)  Proveedores de sistemas objeto de los ataques.  Proveedores de sistemas que protegen frente a ataques  Atacantes maliciosos Intermediarios

MERCADO DE VULNERABILIDADES Y PROVEEDORES DE PRODUCTOS Los proveedores de productos juegan un papel especial en este mercado ya que el mercado se basa en la existencia de fallos en sus productos, lo que les puede provocar la pérdida de confianza y finalmente la pérdida de clientes. La existencia de un mercado de vulnerabilidades no les beneficia ya que:  Desincentiva que investigadores les revelen la información sin pagar  Cuanto más mercado haya más competencia por obtener la información, más vale esa información y por tanto será más difícilmente accesible para los proveedores.  Cuanto más mercado haya más competencia por obtener la información, más vale esa información y por tanto más se incentiva al descubrimiento de estas vulnerabilidades. Por tanto intentan no fomentarlo aunque están siendo obligados por su crecimiento a entrar poco a poco en él para no verse excluidos cada vez más del conocimiento de las vulnerabilidades de sus propios productos. Por ejemplo cada vez es más frecuente la convocatoria de concursos remunerados para la búsqueda de vulnerabilidades. Para fomentar la revelación de la información sin pagar están tomando una serie de iniciativas como por ejemplo:  Facilitar el contacto para la comunicación de vulnerabilidades (Ej direcciones de email o formularios web en su sitios web)  Dedicación de recursos para la pronta respuesta y colaboración con los descubridores de vulnerabilidades  Establecimiento de buenas relaciones con investigadores para fomentar que les revelen la información. Ejemplos:  Participación en conferencias de hackers e investigadores (Ej. Black Hat Briefings)  Crear sus propias conferencias (Ej. Blue Hat)  Invitar a sus dependencias a investigadores para que les enseñen como consiguen encontrar vulnerabilidades en sus productos.  agradecimiento público de las colaboraciones con los descubridores. de esta forma se da reputación a los investigadores. TIPOS DE MERCADO Podemos hablar de dos mercados de vulnerabilidades claramente diferenciados: el lícito y el ilícito. Al ser una diferencia puramente legal, dependerá de la jurisdicción del país en el que estemos el que ciertos negocios pertenezcan a uno u otro mercado. Por este motivo las contrataciones de hackers con propósitos más controvertidos se realiza en países con legislación no muy restrictiva por ejemplo: Brasil, Rusia y Ucrania. Para que el mercado lícito sea realmente efectivo tiene que:  Atraer a los investigadores de vulnerabilidades. Para ello:


Los precios tienen que ser comparables o superiores a los que da el mercado negro y ser lo suficientemente altos para que merezca la pena el esfuerzo. Hay que tener en cuenta que el mercado underground facilita la venta a múltiples compradores la misma información. En 2006 se estimaba11 que lo que pagaban a los investigadores empresas lícitas dedicadas a este negocio era equivalente a vender el producto a 3 actores maliciosos en el mercado underground. Lo que pagaban a los investigadores empresas proveedoras de productos era equivalente a vender el producto a 1 actor maliciosos en el mercado underground.  Atraer la confianza de los investigadores. Para ello es habitual anunciarse en los entornos de los investigadores como las conferencias Blackhat y DEF CON de Estados Unidos o Rootedcon de España. Ganar aceptación en la industria y por tanto clientes para sus productos. El objetivo es implantar la idea de que esta industria permite protegerse frente a vulnerabilidades que posiblemente ya circulan en el mercado ilícito. Para ello suelen utilizar políticas de revelación responsable y colaboran de forma activa para la corrección de dichas vulnerabilidades. También se suele pedir que el propio proveedor dé cierta publicidad al descubridor de la vulnerabilidad. Desarrollar el negocio de forma que permita obtener beneficios. El objetivo es crear productos (Ej boletines de información, productos software como antivirus, IDS´s, IPS´s o cortafuegos) que permitan protegerse frente a las vulnerabilidades antes de que el proveedor arregle la vulnerabilidad.

INCONVENIENTES Los principales inconvenientes de este tipo de mercado tienen que ver con la revelación de la información, la incentivación a los investigadores y el aumento de los precios de las vulnerabilidades REVELACIÓN DE LA INFORMACIÓN La existencia del mercado de vulnerabilidades provoca una resistencia a que los agujeros de seguridad sean revelados para que puedan ser arreglados. La información sobre la vulnerabilidad pierde valor cuanto más gente la conoce y pierde totalmente el valor cuando el problema es arreglado y ya no existe. Por tanto hay una tendencia, para proteger el valor de la información, a mantener la información oculta. Todo esto repercute en una menor seguridad de los productos. En general las más importantes empresas que se dedican a este negocio están comunican a los proveedores sobre las vulnerabilidades que encuentran. Sin embargo hay algunas compañías pequeñas que no lo hacen. Esta política de no revelación de vulnerabilidades es muy criticada pero no se suele considerar ilegal ya que la información es vendida con descargo de responsabilidad diciendo que esa información debería ser usado para pruebas internas, no para burlar la ley. Los gobiernos, dependen del tipo de vulnerabilidad que encuentren, informan al proveedor del producto o no. Si se trata de un punto débil de sistemas que ellos mismos usan entonces comunicarán al proveedor. Si por ejemplo se trata de una vulnerabilidad utilizada en una herramienta ofensiva, entonces no revelará al proveedor la información sobre dicha vulnerabilidad MOTIVA LA BÚSQUEDA DE VULNERABILIDADES


La existencia de un mercado donde vender las vulnerabilidades provoca que haya una mayor investigación de vulnerabilidades, lo que provoca que se descubran más y por tanto haya un conjunto más amplio de vulnerabilidades activas que causas inseguridad a los usuarios AUMENTO DE LOS PRECIOS DE LAS VULNERABILIDADES La existencia de un mercado cada vez más amplio de vulnerabilidades provoca que los precios suban. Esto provoca que la información sea menos accesibles a los proveedores que en definitiva son los que arreglan la vulnerabilidad para todos sus clientes. Ejemplos Ejemplos de negocios en el mundo de las vulnerabilidades:  Casi desde el principio de los sistemas de información ha habido, y sigue habiendo, un mercado negro o mercado underground e ilícito de vulnerabilidades en el que los atacantes venden información no revelada públicamente sobre vulnerabilidades para que otros puedan aprovecharlas de forma ilícita (Ej robar dinero, causar daños, espionaje, recopilar información para chantaje, divulgación de información falsa como verdadera (para por ejemplo hacer pump and dump) o adware indeseado. Un ejemplo contrastado de uso del mercado underground para la venta de información sobre vulnerabilidades es el caso de la vulnerabilidad del Microsoft Windows WMF rendering fue vendida en el mercado ilícito.12 Hay dos tipos de negocios relacionados con este tipo de mercado: La contratación para atacar un objetivo específico (Ej persona u organización) y por otro lado la compra de productos ya elaborados y listos para ser usados (exploits). Para ponerse en contacto, las partes de este tipo de mercado usan canales de IRC y sitios web(Ej http://web-hack.ru) específicos. Al ser un mercado ilícito los negocios no son públicos y esto facilita la venta del mismo producto a distintos compradores y así sacar un mayor beneficio.  TippingPoint, una división de 3Com, ofrece sistemas de detección de intrusos para protegerse contra vulnerabilidades. Esta compañía aplica una política de seguridad de revelación responsable.  iDefense, una compañía de Verisign, se dedica a la venta de información sobre vulnerabilidades. Dispone de un servicio de suscripción en el cual los miembros pagan por recibir notificaciones sobre las vulnerabilidades y sobre soluciones o formas de mitigar el impacto de dichas vulnerabilidades hasta que el proveedor provea una solución. Esta compañía aplica una política de seguridad de revelación responsable.  Algunos proveedores de productos convocan Bug Bounty's que son convocatorias para que hackers e investigadores sobre seguridad investiguen sus productos y, si encuentran e informan sobre vulnerabilidades se les gratifica por ello. Algunas de las organizaciones que han convocado este tipo de concursos son Mozilla, Microsoft, Google o Facebook.13  Muchos gobiernos tienen programas en los que vulnerabilidades que no son públicas pueden ser usados de forma defensiva u ofensiva con el objetivo de defender los intereses de los que detentan el poder. En 2001 ya se pensaba 14 que más de 20 países tenían o estaban desarrollado capacidades para desarrollar ataques informáticos (netwar y ciberguerra).  Wabisabi Labi era un site que permitía la adquisición de vulnerabilidades. Permitía cuatro tipo de transacciones: Subastas tradicionales, subastas con más de un ganador, compras inmediatas y compras de un comprador exclusivo.  Argeniss, Inmunity y GLEG Ltd son pequeñas compañías que contratan a sus propios investigadores y venden suscripciones a sus servicios para proveer información sobre las


vulnerabilidades que encuentran. Esta información no la comunican a los proveedores de los productos a que se refieren. De esta forma incrementan el valor y el tiempo de vida de las vulnerabilidades con las que comercian. Le dan a la información un carácter privado. Esto ha tenido importantes críticas desde el punto de vista ético. GESTIÓN DE LA INFORMACIÓN Hay distintas iniciativas cuyo propósito es gestionar información sobre vulnerabilidades. Desde el gobierno de Estados Unidos destacan:  Security Content Automation Protocol.- Se ocupa de vulnerabilidades y debilidades en las configuraciones. Incluye el Common Vulnerabilities and Exposures, un catálogo de vulnerabilidades.  Common Weakness Enumerator  Common Malware Enumerator  Common Weakness Scoring System  Common Attack Pattern Enumeration and Classification CASOS FAMOSOS  En junio de 2005, un servidor de mantenimiento de tarjetas de crédito, fue crackeado por un grupo de personas, aprovechando un error en el código de verificación. Esto generó pérdidas por 10.000.000 de dólares estadounidenses.  El FBI, sufrió un ataque de un usuario que usó cuentas de correo, obtuvo contraseñas y otros datos de relevancia, a través de un puerto que estaba abierto en el código web.  En Windows 98, ciertas contraseñas de usuario se exponen en las carpetas, que pueden ser leídas en MS-DOS PACKET STORM 

Packet Storm Security es una popular web de información sobre seguridad que ofrece antiguas y actuales herramientas, exploit y avisos de seguridad. Esta dirigida por un grupo de entusiastas en la seguridad que publican nueva información actualizada 1 y ofrece herramientas con fines educativos y de testing. Información general Este sitio web fue creado por Ken Williams en 1998 y un año más tarde, en 1999, lo vendió a Kroll O'Gara. Bajo la dirección de Kroll O'Gara, Packet Storm Security ganó 10.000 dólares en el concurso llamado Mixter por la prevención de ataque de denegación del servicio. Actualmente, ofrecen servicios de consultoría 2 y el sitio web es referenciado por cientos de libros.3 En 2013, Packet Storm decidió recompensar a cualquier usuario que encontrase problemas de vulnerabilidad en la red. 4 En ese mismo año, trabajaron con un investigador de seguridad para ayudar a exponer un problema a gran escala que estaba a la sombra de Facebook y lo llamaron Sombrero blanco (seguridad informática).5 Después de que Facebook anunciara de que solo 6 millones de personas fueron afectadas, test adicionales hechos por Packet Storm descubrieron que más personas de las publicadas estuvieron afectadas


¿QUÉ SON LOS HOLOGRAMAS EN 7D?

MURAT YAŞAR / YOUTUBE PUBLICADO POR:WILBERTO PACHECO Los hologramas no son algo nuevo, de hecho, desde el siglo pasado en que el científico húngaro Dennis Gabor lo descubrió, han tenido presencia tanto en películas de ciencia ficción como en la realidad. La holografía no es más que una técnica avanzada de fotografía en donde se crean imágenes tridimensionales usando un rayo láser que graba microscópicamente una película fotosensible que impactada desde cierto ángulo proyecta la imagen en 3D. Gracias al desarrollo de los láseres a través de los años se han grandes avances en esta tecnología hasta el punto en que en la actualidad se crean avatares holográficos en algunas tiendas anunciando productos como es el caso de http://Mondivirtuali.it. Si proyectamos una secuencia de estas imágenes entonces tendremos una película holográfica muy realista como los recientes cortos del grupo de científicos japoneses liderados por Yoichi Ochiai que han desarrollado hologramas seguros de tocar, o sea, el nivel de potencia de los láseres usados no causa quemaduras y con el uso de cámaras y espejos es posible llegar a una resolución de 200000 píxeles volumétricos por segundos. TECNOLOGÍA 7D Gracias a los avances en los hologramas es que hoy podemos hablar de su aplicaicon en películas 7D, o sea, una película en 3D con el agregado de más efectos especiales, por ejemplo, condiciones del tiempo, acercamiento de objetos, olores incorporados con el objetivo de volver la proyección mucho más realista para el público observador. Una claro ejemplo de lo que se puede obtener con esto fue la muestra de un cortovideo en 7D que se exhibió en un supermercado de Dubai y que ahora dejo a tu consideración.


VENTAJAS DE LOS HOLOGRAMAS 7D SOBRE EL 3D La más importante es que el usuario no necesita de ningún dispositivo o visor para ver este tipo de películas contrario al formato 3D por lo cual es un tipo de tecnología ideal para montar en parques temáticos o usarla en películas interactivas. PROYECCIONES FUTURAS En algunos años, la tecnología 7D bien podría estar fusionada en los televisores para proyectar películas 7D en casa ofreciendo una experiencia única para el televidente, sin embargo, hay quienes ven peligro en algunas aplicaciones como la industria militar donde se pueden usar para crear conspiraciones, puesta en escena de accidentes que generen otros conflictos.  Quizás te interese: «¿Cómo funciona la tecnología 3D?» Por último queda la duda de que tan portable es esta tecnología actualmente, ¿será posible crear un buen ambiente para imitar variables como el estado del tiempo en pequeña escala? Dejo abierta la discusión. LA NUEVA TECNOLOGÍA 7D QUE IMPACTA AL VERLA POR PRIMERA VEZ La tecnología pretende innovar en el mundo de la realidad virtual gracias al aumento de interacción entre usuarios. Cuando pensabas que las imágenes en 4D eran lo último en innovación, llega al mercado la tecnología 7D. Basada en realidad virtual, pretende hacer que las personas vivan una experiencia inolvidable a través de la interacción. Creada por la empresa Magic Leap, consiste en proyectar hologramas con movimiento y color tan perfectos que logran una imagen hiperrealista. Pero no sólo es imagen, sino que también incorpora olores, sonido surround y sensaciones como humo.

Nave de la NASA logra sorprendente foto de la Tierra desde los anillos de Saturno Y no es sólo un proyecto, sino que países como Japón o la ciudad de Dubai ya usan esta tecnología hace un tiempo en espacios públicos. Tal es el caso que en el país nipón existe un zoológico donde no hay animales reales, sino que todos son proyecciones 7D. En este zoológico virtual los visitantes pueden interactuar con los animales en espacios que imitan su hábitat natural. Se puede observar su aspecto y movimientos de tal manera que crea la sensación de estar frente a ellos.


Esta situación ha planteado la posibilidad de que los zoológicos actuales terminen y pasen a ser virtuales. HOLOGRAFIA

Holografía que introduce presentaciones en el 8.º Congreso de la Innovación y Tecnología Educativa en el Instituto Tecnológico y de Estudios Superiores de Monterrey. La holografía o visión grafica es una técnica avanzada de fotografía que consiste en crear imágenes tridimensionales basada en el empleo de la luz. Para esto se utiliza un rayo láser que graba microscópicamente una película fotosensible. La interferencia que se produce entre dos haces de luz coherentes hace posible que la luz de uno de estos se reflecte en el objeto. Esta, al recibir una luz puntual desde la perspectiva adecuada, proyecta una imagen en tres dimensiones. Además, procesadas e iluminadas de manera precisa, las imágenes pueden aparecer saliéndose de sus límites, hacia fuera o hacia dentro del marco, y el observador, sin tener la necesidad de ningún accesorio, las puede ver sin discontinuidades y variando las perspectivas dependiendo de su posición. La utilización de las técnicas holográficas en sistemas de vídeo es un proceso complejo que supone un gran reto a nivel tecnológico. Si se pueden resolver estos retos, se podría convertir en el sistema que se utilizaría en una futura televisión tridimensional VISIÓN HISTÓRICA DE LA HOLOGRAFÍA La holografía fue inventada en 1948 por el físico húngaro Dennis Gabor, que recibió por esto el premio Nobel de Física en 1971. Recibió la patente GB685286 por su invención. Sin embargo, se perfeccionó años más tarde con el desarrollo del láser, pues los hologramas de Gabor eran muy primitivos a causa de no haberse perfeccionado lo suficiente sus aparatos. Originalmente, Gabor sólo quería encontrar una manera para mejorar la resolución y definición de las imágenes del microscopio electrónico. Planteó un problema interesante: cuando se ilumina una rendija con luz de un solo color, se obtiene una figura de franjas que permite conocer la forma y dimensiones de la rendija. Gabor describió el proceso de descodificación de la información fotografiada, hacia falta encontrar la manera de registrar la inclinación de los rayos de luz que llegaban a la película fotográfica. Llamó a este proceso «holografía», del griego «holos»(completo), ya que los hologramas mostraban un objeto completamente y no sólo una perspectiva. Los primeros hologramas que verdaderamente representaban un objeto tridimensional bien definido fueron hechos por Emmett Leith y Juris Upatnieks en Estados Unidos en 1963, y por Yuri Denisyuk en la Unión Soviética. Uno de los avances más prometedores hechos recientemente ha sido su uso para los reproductores de DVD y otras aplicaciones. También se utiliza actualmente en tarjetas de crédito, billetes de banco, etiquetas de seguridad, embalajes,


certificados, pasaportes y documentos de identidad, así como discos compactos y otros productos, además de su uso como símbolo de originalidad y seguridad.1 PRINCIPIO DE FUNCIONAMIENTO DE UN HOLOGRAMA NOTA: Para comprender el principio de funcionamiento de un holograma se describe el grabado en un holograma fino de una escena que sólo contiene un punto que refleja la luz. Esta descripción es solamente esquemática y no respeta la escala entre los objetos y la longitud de onda. Sólo sirve para comprender el principio. GRABADO DE UN HOLOGRAMA

En la imagen se alumbra la escena con ondas planas que vienen de la izquierda. Una parte de la luz se refleja en el punto, representado como un círculo blanco. Sólo está representada la luz reflejada hacia la derecha. Esas ondas esféricas se alejan del punto y se adicionan a las ondas planas que alumbran la escena. En los sitios donde las crestas coinciden con crestas y los valles con valles habrá máximos de amplitud. Simétricamente, donde las crestas coinciden con valles y los valles con crestas la amplitud será mínima. Hay sitios del espacio donde siempre la amplitud es máxima y sitios donde la amplitud siempre es mínima. La superficie de una placa fotosensible ubicada en el sitio punteado de la imagen estará lo más expuesta en donde la amplitud es máxima y lo menos expuesta en los sitios donde la amplitud es mínima. Después de un tratamiento adecuado, las zonas más expuestas resultarán más transparentes y las zonas menos expuestas más opacas. Es interesante señalar, que si durante la exposición, la placa se mueve media longitud de onda (un cuarto de micrón), una buena parte de las zonas habrá pasado de las más expuestas a las menos expuestas y el grabado del holograma habrá fracasado. OBSERVACIÓN DEL HOLOGRAMA Alumbramos el holograma con ondas planas que vienen de la izquierda. La luz pasa por los "espacios" transparentes del holograma y cada "espacio" crea ondas semiesféricas que se propagan hacia la derecha. En la imagen a la derecha solo hemos dibujado la parte interesante de la cresta de las ondas. Se aclara que las ondas que salen de los "espacios" de la placa se adicionan para dar frentes de onda semiesféricos similares a los frentes


producidos por la luz reflejada por el punto de la escena. Un observador situado a la derecha de la placa ve luz que parece salir de un punto situado en el sitio donde estaba el punto de la escena. Eso es debido al hecho que el holograma deja pasar – o favorece – la luz que tiene la "buena" fase en el "buen" sitio. OBJETO EN LUGAR DE UN PUNTO ÚNICO En realidad, la luz reflejada por una pequeña parte de un objeto (el punto del ejemplo precedente) es débil y solo puede contribuir a que zonas del holograma sean un poco más oscuras o más claras. Eso no impide la formación de frentes de onda semiesféricos durante la lectura del holograma. El observador encontrará solamente, que el punto es poco brillante. Un segundo punto luminoso añade, al grabado del holograma, sus propias zonas un poco más claras u oscuras. A la observación, el segundo juego de zonas claras y oscuras crea otro conjunto de frentes de onda que parece originarse de la posición donde se encontraba el segundo punto. Si el punto se encontraba más lejos, se le "verá" más lejos y viceversa. El holograma graba la información tridimensional de la posición de los puntos. Un objeto grande no es otra cosa que un conjunto de puntos. Cada zona puntual del objeto crea zonas más o menos grises que se adicionan en la placa. Cada conjunto de zonas grises crea, a la observación, ondas semiesféricas que parecen salir del "buen" sitio del espacio: y así vemos una imagen (virtual) del objeto. En la práctica, este tipo de holograma – fino y con alumbrado perpendicular – es poco utilizado, ya que las emulsiones sensibles son más espesas que la longitud de onda. Además los hologramas con alumbrado perpendicular dan también imágenes más reales (en el sentido óptico de la palabra) inoportunas en la observación.

Ejemplo de holograma en un billete APLICACIONES  En los reproductores DVD, en las tarjetas de crédito, en los discos compactos y en los billetes.  Símbolo de originalidad y seguridad.  Reproducción de imagen y vídeo tridimensional: múltiples aplicaciones en sectores como la televisión, el diseño industrial, la medicina, la educación, la investigación, las comunicaciones...3 EJEMPLOS DE DISPOSITIVOS HOLOGRÁFICOS


CHEOPTICS 360 El dispositivo "Cheoptics 360" desarrollado por las empresas viZoo y Ramboll es un sistema de vídeo holográfico. Es un proyector de vídeoformado por una pirámide invertida que es capaz de generar imágenes tridimensionales dentro de su espacio de proyección. La imagen proyectada se ve totalmente en 3D desde cualquier ángulo de observación. Hay proyectores en cada extremo del aparato que se combinan para generar la imagen en el centro dando una sensación de total realismo al espectador. Se pueden proyectar imágenes desde 1,5 hasta 30 metros de altura con cualquier condición lumínica ambiental (interior o exterior). También permite reproducir vídeos de películas o desde el ordenador personal. 4 HELIODISPLAY

Imagen del Heliodisplay El Heliodisplay es una tecnología creada por la empresa IO2Technology que reproduce hologramas en 2-D sin utilizar un medio físico como una pantalla. Permite proyectar una imagen estática o en movimiento en el aire con una cierta calidad, de unas 27 pulgadas, sin requerir medios alternativos como humo o agua y puede ser utilizado en cualquier entorno sin instalaciones adicionales. Se puede describir el dispositivo como una caja que se puede enchufar a un conector USB, a una fuente de vídeo o de imagen como puede ser un DVD o un ordenador personal, por ejemplo. Utiliza aire normal para funcionar. Lo que hace es convertir las propiedades del reflejo del aire. El aire es capturado, convertido instantáneamente y vuelto a expulsar. La imagen se proyecta sobre el aire convertido. Otra característica importante es que la imagen generada es interactiva. Vale decir que la sensación de la imagen que se proyecta no es totalmente tridimensional. La sensación 3D sólo es frontal, ya que vista de lado la imagen se ve plana. MARK II Es un proyecto de vídeo holográfico que se está desarrollando en el Massachusetts Institute of Technology (MIT) por un grupo de investigadores dirigidos por el profesor S. Benton. Este sistema se basa en el cálculo mediante ordenador de las franjas de interferencia que producirían imágenes sintéticas. Al sintetizar estas franjas mediante complejos modelos matemáticos, se consigue una reducción importante en el número de muestras de los hologramas sintéticos restringiendo el paralaje de movimiento en las direcciones con más interés. En este dispositivo, únicamente se codifica la información de parallaje horizontal porque se supone que será el movimiento más realizado por el espectador. Con ello, se reduce el número de muestras de las franjas de interferencia en un factor de 100. El sistema se basa en la construcción de las imágenes mediante una exploración conjunta de varios haces láser cuya amplitud se modula en concordancia con las franjas de


interferencias del holograma calculado previamente. La exploración se realiza mediante un conjunto de moduladores acusticoòptics que barren diferentes franjas horizontales de la imagen. Se pueden presentar imágenes de 150 x 75 x 150 mm, con un ángulo de visión horizontal de 36 grados, y es capaz de mostrar una imagen por segundo. MARK III El sistema denominado Mark III es una evolución de los dispositivos holográficos desarrollados por el MIT durante la década de los 80. Los sistemas anteriores eran muy complejos y voluminosos y necesitaban hardware especializado para generar la señal de vídeo. El objetivo del proyecto es el de desarrollar un sistema de visualización holográfico de ámbito doméstico. Formará imágenes monocromáticas en 3D con unas dimensiones similares al cubo de Rubik. Para crear un vídeo holográfico, se debe producir un modelo tridimensional en tiempo real de los objetos dentro de una escena. A partir de éste, se calcula el patrón de difracciónnecesario para formar la imagen. El procesado es muy complejo, pero se ha optimizado para que trabaje con las tarjetas gráficas domésticas. La señal de vídeo generado se envía a un modulador de luz, que es, básicamente una guía de ondas cubierta de un material piezoeléctrico que según la señal recibida se deforma más o menos. La onda de luz está acompasada de diferentes intensidades y frecuencias. De proyectarse sobre un cristal translúcido, las diferentes ondas interfieren generando un escena tridimensional. Este nuevo modulador permite emitir luz en vertical y horizontal, evitando así el uso de muchas lentes y espejos. INTERACTIVE 360° LIGHT FIELD DISPLAY Es un dispositivo de vídeo holográfico desarrollado en conjunto por Sony, Fake Space Lab y la Universidad del Sur de California, presentado en el SIGGRAPH 2007. El sistema presentado consta de un videoproyector de alta velocidad, un espejo rotatorio cubierto por un difusor holográfico y un circuito semiconductor FPGA (Field Programmable Gate Array), que se encarga de decodificar la señal DVI. Se utiliza una tarjeta gráfica programable y estándar que puede renderizar más de 5.000 imágenes por segundo y proyectar vistas en 360 grados con separación de 1,25 grados. Algunas características:  No requiere gafas especiales.  Es omnidireccional: visión en 3D en 360 grados.  No reproduce color.  Permite la interactividad con la imagen holográfica. PRINCIPIO HOLOGRÁFICO El principio holográfico es un principio de las teorías de supercuerdas acerca de las teorías de la gravedad cuántica propuesta en 1993 por Gerard 't Hooft, y mejorada y promovida por Leonard Susskind en 1995. Postula que toda la información contenida en cierto volumen de un espacio concreto se puede conocer a partir de la información codificable sobre la frontera de dicha región. Una importante consecuencia es que la cantidad máxima de información que puede contener una determinada región de espacio rodeada por una superficie diferenciable está limitada por el área total de dicha superficie. Por ejemplo, se pueden modelar todos los eventos que ocurran en un cuarto o habitación creando una teoría en la que sólo tome en cuenta lo que suceda en sus paredes. En el principio holográfico también se afirma que por cada cuatro unidades de


Planck existe al menos un grado de libertad (o una unidad constante de Boltzmann k de máxima entropía). Esto se conoce como frontera Bekenstein: donde S es la entropía y A es la unidad de mensura considerada. En unidades convencionales la fórmula anterior se escribe: donde:  es la constante de Boltzmann.  es la velocidad de la luz.  es la constante de la gravitación universal.  es la constante de Planck racionalizada.  es la longitud de Planck. RELACIÓN ENTRE EL PRINCIPIO HOLOGRÁFICO Y LA ESTRUCTURA DEL UNIVERSO En un sentido más amplio y más especulativo, la teoría sugiere que el universo entero puede ser visto como una estructura de información de dos dimensiones "pintada" en el horizonte cosmológico, de tal manera que las tres dimensiones que observamos serían sólo una descripción eficaz a escalas macroscópicas y en bajas energías; por lo que entonces el universo sería en realidad un holograma. El principio holográfico no se ha hecho aún matemáticamente preciso, en parte debido a que el horizonte cosmológico tiene un área finita y crece con el tiempo. EXPLICACIÓN Dada cualquier región compacta (cerrada, es decir, que contiene a su frontera y acotada, es decir que puede meterse dentro de otra región, por ejemplo una caja de las mismas dimensiones que la región acotada en cuestión) de espacio finita, por ejemplo una esfera, en su interior hay materia y energía. Si la energía sobrepasa una densidad crítica, la teoría de la relatividad general predice que dicha región colapsará en un agujero negro (u hoyo negro). Teóricamente, el agujero negro resultante posee entropía.3 Esto último se desprende de los trabajos de J. Bekenstein y S. Hawking en la década de 1970, que demostraron que dicha entropía es directamente proporcional al área de la superficie del horizonte de sucesos del agujero negro. Diversos argumentos físicos, permiten establecer que los agujeros negros son objetos de entropía máxima,4 así que la entropía contenida en determinada región del «espacio» no puede ser mayor que la entropía del agujero negro más grande que pueda caber en tal volumen. Este límite se conoce como frontera Bekenstein. El «horizonte de sucesos» de un agujero negro encierra un volumen. Obviamente, los horizontes de sucesos de agujeros negros de mayor masa son más grandes y encierran mayores volúmenes. El agujero negro de mayor masa que puede caber en una región dada es aquél cuyo horizonte de sucesos corresponda exactamente a la frontera de la región dada. Una mayor masa de un agujero implicará que dicho agujero tendrá mayor entropía. Por lo tanto, el límite máximo de la entropía de una región ordinaria del espacio es directamente proporcional al área superficial de ésta, no a su volumen. Pero este resultado es contraintuitivo, debido a que la entropía es una magnitud extensiva, por lo que se esperaría que fuera directamente proporcional a la masa, la cual es proporcional al volumen. Si la entropía (que puede entenderse como el número de estados microscópicos que forman un estado macroscópico dado) de una masa ordinaria (no sólo de agujeros negros) es también proporcional a su área superficial, implica que de algún modo el volumen en sí mismo sea ilusorio: que la masa ocupe área, no volumen, y que entonces el universo sea en realidad un holograma, el cual es isomórfico a la información inscrita en sus fronteras.5 El trabajo


de Juan Maldacena sugirió que en cromodinámica cuántica hay sistemas reales que efectivamente satisfacen esta propiedad holográfica, lo cual es interpretada por Susskind y otros proponentes del principio holográfico como una evidencia en favor de que la gravedad cuántica podría presentar igualmente esa propiedad. LÍMITE DE DENSIDAD INFORMATIVA Considerada como información, en última instancia la entropía se puede cuantificar en bits o nats. Un nat corresponde a cerca de 1.44 bits, y a cuatro unidades de Planck . La cantidad total de bits se relaciona con el total de grados de libertad de la materia/energía. Los bits mismos codificarían la información acerca de los estados que esté ocupando esa materia/energía. En un volumen dado hay un límite superior a la densidad de la información acerca del lugar de todas las partículas que compongan la materia en ese volumen. Sugiriendo que la materia en sí misma no se puede subdividir infinitas veces, debe haber un último nivel de partículas fundamentales. Es decir, siendo una partícula integrada por subpartículas, los grados de libertad de cada partícula serían producto de todos los grados de libertad de sus subpartículas. Si estas subpartículas también están divididas en subpartículas (infrapartículas), y así indefinidamente, los grados de libertad de la partícula original deberían ser infinitos, lo cual violaría el límite máximo de la densidad de entropía. El principio holográfico implica así que las subdivisiones deben detenerse en cierto nivel, y que la partícula fundamental es un bit (1 o 0) de la información. La realización más rigurosa del principio holográfico (hasta el año 2009) es la correspondencia AdS/CFT de Juan Maldacena. Sin embargo, J. D. Brown y Marc Henneauxdemostraron rigurosamente, ya en 1986, que la simetría asintótica de 2 + 1 g dimensiones da lugar a una álgebra de Virasoro, cuya correspondiente teoría cuántica es una teoría de «bidimensional conforme de campos». Hay que entender el principio holográfico como un cubo, o bien como habitación, tal como se describe en la introducción. Si a un cubo se le representa en un eje de coordenadas resultarían tres cuadrados. Cada partícula tiene carga eléctrica, momento angular, etcétera. Todo ello constituye valores matemáticos representables no en tres, sino en muchos más ejes. En eso consistiría la información de la citada partícula. También se entiende que cuando la densidad de tal información es enorme acaba siendo un agujero negro (información/partículas en demasía por el espacio definido): a más información más horizonte de sucesos, o límite exterior del hoyo negro. Como tal, la información se puede dividir en bits, y estos bits se plasman en una unidad de Planck. En palabras sencillas la parte de algo contiene la información del todo. Por ejemplo, si tomamos una manzana y lo convertimos en mil pedazos, cada pedazo tiene la información de la manzana completa. MECÁNICA CUÁNTICA


Imagen ilustrativa de la dualidad onda-partícula, donde se aprecia cómo un mismo fenómeno puede ser percibido de dos modos distintos. La mecánica cuántica es una disciplina de la física encargada de brindar una descripción fundamental de la naturaleza a escalas espaciales pequeñas. Surge tímidamente en los inicios del siglo XX dentro de las tradiciones más profundas de la física para dar una solución a problemas para los que las teorías conocidas hasta el momento habían agotado su capacidad de explicar, como la llamada catástrofe ultravioleta en la radiación de cuerpo negro predicha por la física estadística clásica y la inestabilidad de los átomos en el modelo atómico de Rutherford. La primera propuesta de un principio propiamente cuántico se debe a Max Planck en 1900, para resolver el problema de la radiación de cuerpo negro, que será duramente cuestionado, hasta que Albert Einstein lo convierte en el principio que exitosamente pueda explicar el efecto fotoeléctrico. Las primeras formulaciones matemáticas completas de la mecánica cuántica no se alcanzan hasta mediados de la década de 1920, sin que hasta el día de hoy se tenga una interpretación coherente de la teoría, en particular del problema de la medición. La mecánica cuántica propiamente dicha no incorpora a la relatividad en su formulación matemática. La parte de la mecánica cuántica que incorpora elementos relativistas de manera formal para abordar diversos problemas se conoce como mecánica cuántica relativistao ya, en forma más correcta y acabada, teoría cuántica de campos (que incluye a su vez a la electrodinámica cuántica, cromodinámica cuántica y teoría electrodébil dentro del modelo estándar)1 y más generalmente, la teoría cuántica de campos en espacio-tiempo curvo. La única interacción elemental que no se ha podido cuantizar hasta el momento ha sido la interacción gravitatoria. Este problema constituye entonces uno de los mayores desafíos de la física del siglo XXI. La mecánica cuántica proporciona el fundamento de la fenomenología del átomo, de su núcleo y de las partículas elementales (lo cual requiere necesariamente el enfoque relativista). También su impacto en teoría de la información, criptografía y química ha sido decisivo entre esta misma. Contexto histórico La mecánica cuántica es, cronológicamente hablando, la última de las grandes ramas de la física. Se formuló a principios del siglo XX, casi al mismo tiempo que la teoría de la relatividad, aunque el grueso de la mecánica cuántica se desarrolló a partir de 1920 (siendo la teoría de la relatividad especial de 1905 y la teoría general de la relatividad de 1915).


Además al advenimiento de la mecánica cuántica existían diversos problemas no resueltos en la electrodinámica clásica. El primero de estos problemas era la emisión de radiación de cualquier objeto en equilibrio, llamada radiación térmica, que es la que proviene de la vibración microscópica de las partículas que lo componen. Usando las ecuaciones de la electrodinámica clásica, la energía que emitía esta radiación térmica tendía al infinito si se suman todas las frecuencias que emitía el objeto, con ilógico resultado para los físicos. También la estabilidad de los átomos no podía ser explicada por el electromagnetismo clásico, y la noción de que el electrón fuera o bien una partícula clásica puntual o bien una cáscara esférica de dimensiones finitas resultaban igualmente problemáticas para esto. RADIACIÓN ELECTROMAGNÉTICA El problema de la radiación electromagnética de un cuerpo negro fue uno de los primeros problemas resueltos en el seno de la mecánica cuántica. Es en el seno de la mecánica estadística donde surgen por primera vez las ideas cuánticas en 1900. Al físico alemán Max Planck se le ocurrió un artificio matemático: si en el proceso aritmético se sustituía la integral de esas frecuencias por una suma no continua (discreta), se dejaba de obtener infinito como resultado, con lo que se eliminaba el problema; además, el resultado obtenido concordaba con lo que después era medido. Fue Max Planck quien entonces enunció la hipótesis de que la radiación electromagnética es absorbida y emitida por la materia en forma de «cuantos» de luz o fotones de energía cuantizados introduciendo una constante estadística, que se denominó constante de Planck. Su historia es inherente al siglo XX, ya que la primera formulación cuántica de un fenómeno fue dada a conocer por el mismo Planck el 14 de diciembre de 1900 en una sesión de la Sociedad Física de la Academia de Ciencias de Berlín.2 La idea de Planck habría permanecido muchos años solo como hipótesis sin verificar por completo si Albert Einstein no la hubiera retomado, proponiendo que la luz, en ciertas circunstancias, se comporta como partículas de energía (los cuantos de luz o fotones) en su explicación del efecto fotoeléctrico. Fue Albert Einstein quien completó en 1905 las correspondientes leyes del movimiento su teoría especial de la relatividad, demostrando que el electromagnetismo era una teoría esencialmente no mecánica. Culminaba así lo que se ha dado en llamar física clásica, es decir, la física no-cuántica. Usó este punto de vista llamado por él «heurístico», para desarrollar su teoría del efecto fotoeléctrico, publicando esta hipótesis en 1905, lo que le valió el Premio Nobel de Física de 1921. Esta hipótesis fue aplicada también para proponer una teoría sobre el calor específico, es decir, la que resuelve cuál es la cantidad de calor necesaria para aumentar en una unidad la temperatura de la unidad de masa de un cuerpo. El siguiente paso importante se dio hacia 1925, cuando Louis De Broglie propuso que cada partícula material tiene una longitud de onda asociada, inversamente proporcional a su masa, y a su velocidad. Así quedaba establecida la dualidad onda/materia. Poco tiempo después Erwin Schrödinger formuló una ecuación de movimiento para las «ondas de materia», cuya existencia había propuesto De Broglie y varios experimentos sugerían que eran reales. La mecánica cuántica introduce una serie de hechos contraintuitivos que no aparecían en los paradigmas físicos anteriores; con ella se descubre que el mundo atómico no se comporta como esperaríamos. Los conceptos de incertidumbre o cuantización son introducidos por primera vez aquí. Además la mecánica cuántica es la teoría científica que ha proporcionado las


predicciones experimentales más exactas hasta el momento, a pesar de estar sujeta a las probabilidades. INESTABILIDAD DE LOS ÁTOMOS CLÁSICOS El segundo problema importante que la mecánica cuántica resolvió a través del modelo de Bohr, fue el de la estabilidad de los átomos. De acuerdo con la teoría clásica un electrón orbitando alrededor de un núcleo cargado positivamente debería emitir energía electromagnética perdiendo así velocidad hasta caer sobre el núcleo. La evidencia empírica era que esto no sucedía, y sería la mecánica cuántica la que resolvería este hecho primero mediante postulados ad hoc formulados por Bohr y más tarde mediante modelos como el modelo atómico de Schrödinger basados en supuestos más generales. A continuación se explica el fracaso del modelo clásico. En mecánica clásica, un átomo de hidrógeno es un tipo de problema de los dos cuerpos en que el protón sería el primer cuerpo que tiene más del 99% de la masa del sistema y el electrón es el segundo cuerpo que es mucho más ligero. Para resolver el problema de los dos cuerpos es conveniente hacer la descripción del sistema, colocando el origen del sistema de referencia en el centro de masa de la partícula de mayor masa, esta descripción es correcta considerando como masa de la otra partícula la masa reducida que viene dada por la masa del protón y la masa del electrón. En ese caso el problema del átomo de hidrógeno parece admitir una solución simple en la que el electrón se moviera en órbitas elípticas alrededor del núcleo atómico. Sin embargo, existe un problema con la solución clásica, de acuerdo con las predicciones de electromagnetismo partícula eléctrica que sigue un movimiento acelerado, como sucedería al describir una elipse debería emitir radiación electromagnética, y por tanto perder energía cinética, la cantidad de energía radiada sería de hecho: Ese proceso acabaría con el colapso del átomo sobre el núcleo en un tiempo muy corto dadas las grandes aceleraciones existentes. A partir de los datos de la ecuación anterior el tiempo de colapso sería de 10-8 s, es decir, de acuerdo con la física clásica los átomos de hidrógeno no serían estables y no podrían existir más de una cienmillonésima de segundo. Esa incompatibilidad entre las predicciones del modelo clásico y la realidad observada llevó a buscar un modelo que explicara fenomenológicamente el átomo. El modelo atómico de Bohr era un modelo fenomenológico y provisorio que explicaba satisfactoriamente aunque de manera heurística algunos datos, como el orden de magnitud del radio atómico y los espectros de absorción del átomo, pero no explicaba cómo era posible que el electrón no emitiera radiación perdiendo energía. La búsqueda de un modelo más adecuado llevó a la formulación del modelo atómico de Schrödinger en el cual puede probarse que el valor esperado de la aceleración es nulo, y sobre esa base puede decirse que la energía electromagnética emitida debería ser también nula. Sin embargo, al contrario del modelo de Bohr, la representación cuántica de Schrödinger es difícil de entender en términos intuitivos. HISTORIA DE LA MECÁNICA CUÁNTICA La teoría cuántica fue desarrollada en su forma básica a lo largo de la primera mitad del siglo XX. El hecho de que la energía se intercambie de forma discreta se puso de relieve por hechos


experimentales como los siguientes, inexplicables con las herramientas teóricas anteriores de la mecánica clásica o la electrodinámica:

Fig. 1: La función de onda del electrón de un átomo de hidrógeno posee niveles de energía definidos y discretos denotados por un número cuántico n=1, 2, 3,... y valores definidos de momento angular caracterizados por la notación: s, p, d,... Las áreas brillantes en la figura corresponden a densidades elevadas de probabilidad de encontrar el electrón en dicha posición.  Espectro de la radiación del cuerpo negro, resuelto por Max Planck con la cuantización de la energía. La energía total del cuerpo negro resultó que tomaba valores discretos más que continuos. Este fenómeno se llamó cuantización, y los intervalos posibles más pequeños entre los valores discretos son llamados quanta (singular: quantum, de la palabra latina para «cantidad», de ahí el nombre de mecánica cuántica). La magnitud de un cuanto es un valor fijo llamado constante de Planck, y que vale: 6.626 ×10-34 julios por segundo.  Bajo ciertas condiciones experimentales, los objetos microscópicos como los átomos o los electrones exhiben un comportamiento ondulatorio, como en la interferencia. Bajo otras condiciones, las mismas especies de objetos exhiben un comportamiento corpuscular, de partícula, («partícula» quiere decir un objeto que puede ser localizado en una región concreta del espacio), como en la dispersión de partículas. Este fenómeno se conoce como dualidad onda-partícula.  Las propiedades físicas de objetos con historias asociadas pueden ser correlacionadas, en una amplitud prohibida para cualquier teoría clásica, sólo pueden ser descritos con precisión si se hace referencia a ambos a la vez. Este fenómeno es llamado entrelazamiento cuántico y la desigualdad de Bell describe su diferencia con la correlación ordinaria. Las medidas de las violaciones de la desigualdad de Bell fueron algunas de las mayores comprobaciones de la mecánica cuántica.  Explicación del efecto fotoeléctrico, dada por Albert Einstein, en que volvió a aparecer esa "misteriosa" necesidad de cuantizar la energía.  Efecto Compton.


El desarrollo formal de la teoría fue obra de los esfuerzos conjuntos de varios físicos y matemáticos de la época como Schrödinger, Heisenberg, Einstein, Dirac, Bohr y Von Neumann entre otros (la lista es larga). Algunos de los aspectos fundamentales de la teoría están siendo aún estudiados activamente. La mecánica cuántica ha sido también adoptada como la teoría subyacente a muchos campos de la física y la química, incluyendo la física de la materia condensada, la química cuántica y la física de partículas. La región de origen de la mecánica cuántica puede localizarse en la Europa central, en Alemania y Austria, y en el contexto histórico del primer tercio DEL SIGLO XX. SUPOSICIONES MÁS IMPORTANTES Artículo principal: Interpretaciones de la Mecánica cuántica Las suposiciones más importantes de esta teoría son las siguientes:  Al ser imposible fijar a la vez la posición y el momento de una partícula, se renuncia al concepto de trayectoria, vital en mecánica clásica. En vez de eso, el movimiento de una partícula puede ser explicado por una función matemática que asigna, a cada punto del espacio y a cada instante, la probabilidad de que la partícula descrita se halle en tal posición en ese instante (al menos, en la interpretación de la Mecánica cuántica más usual, la probabilística o interpretación de Copenhague). A partir de esa función, o función de ondas, se extraen teóricamente todas las magnitudes del movimiento necesarias.  Existen dos tipos de evolución temporal, si no ocurre ninguna medida el estado del sistema o función de onda evolucionan de acuerdo con la ecuación de Schrödinger, sin embargo, si se realiza una medida sobre el sistema, éste sufre un «salto cuántico» hacia un estado compatible con los valores de la medida obtenida (formalmente el nuevo estado será una proyección ortogonal del estado original).  Existen diferencias perceptibles entre los estados ligados y los que no lo están.  La energía no se intercambia de forma continua en un estado ligado, sino en forma discreta lo cual implica la existencia de paquetes mínimos de energía llamados cuantos, mientras en los estados no ligados la energía se comporta como un continuo. DESCRIPCIÓN DE LA TEORÍA INTERPRETACIÓN DE COPENHAGUE Para describir la teoría de forma general es necesario un tratamiento matemático riguroso, pero aceptando una de las tres interpretaciones de la mecánica cuántica (a partir de ahora la Interpretación de Copenhague), el marco se relaja. La mecánica cuántica describe el estado instantáneo de un sistema (estado cuántico) con una función de onda que codifica la distribución de probabilidad de todas las propiedades medibles, u observables. Algunos observables posibles sobre un sistema dado son la energía, posición, momento y momento angular. La mecánica cuántica no asigna valores definidos a los observables, sino que hace predicciones sobre sus distribuciones de probabilidad. Las propiedades ondulatorias de la materia son explicadas por la interferencia de las funciones de onda. Estas funciones de onda pueden variar con el transcurso del tiempo. Esta evolución es determinista si sobre el sistema no se realiza ninguna medida aunque esta evolución es estocástica y se produce mediante colapso de la función de onda cuando se realiza una medida sobre el sistema (Postulado IV de la MC). Por ejemplo, una partícula moviéndose sin interferencia en el espacio vacío puede ser descrita mediante una función de onda que es un paquete de ondas centrado alrededor de alguna posición media. Según pasa el tiempo, el


centro del paquete puede trasladarse, cambiar, de modo que la partícula parece estar localizada más precisamente en otro lugar. La evolución temporal determinista de las funciones de onda es descrita por la Ecuación de Schrödinger. Algunas funciones de onda describen estados físicos con distribuciones de probabilidad que son constantes en el tiempo, estos estados se llaman estacionarios, son estados propios del operador hamiltoniano y tienen energía bien definida. Muchos sistemas que eran tratados dinámicamente en mecánica clásica son descritos mediante tales funciones de onda estáticas. Por ejemplo, un electrón en un átomo sin excitar se dibuja clásicamente como una partícula que rodea el núcleo, mientras que en mecánica cuántica es descrito por una nube de probabilidad estática que rodea al núcleo. Cuando se realiza una medición en un observable del sistema, la función de ondas se convierte en una del conjunto de las funciones llamadas funciones propias o estados propios del observable en cuestión. Este proceso es conocido como colapso de la función de onda. Las probabilidades relativas de ese colapso sobre alguno de los estados propios posibles son descritas por la función de onda instantánea justo antes de la reducción. Considerando el ejemplo anterior sobre la partícula en el vacío, si se mide la posición de la misma, se obtendrá un valor impredecible x. En general, es imposible predecir con precisión qué valor de x se obtendrá, aunque es probable que se obtenga uno cercano al centro del paquete de ondas, donde la amplitud de la función de onda es grande. Después de que se ha hecho la medida, la función de onda de la partícula colapsa y se reduce a una que esté muy concentrada en torno a la posición observada x. La ecuación de Schrödinger es en parte determinista en el sentido de que, dada una función de onda a un tiempo inicial dado, la ecuación suministra una predicción concreta de qué función tendremos en cualquier tiempo posterior. Durante una medida, el eigen-estado al cual colapsa la función es probabilista y en este aspecto es no determinista. Así que la naturaleza probabilista de la mecánica cuántica nace del acto de la medida. POSTULADOS DE LA MECÁNICA CUÁNTICA Y NOTACIÓN BRAKET. En la formulación matemática rigurosa, desarrollada por Dirac y von Neumann, los estados posibles de un sistema cuántico están representados por vectores unitarios (llamados estados) que pertenecen a un Espacio de Hilbert complejo separable (llamado el espacio de estados). Qué tipo de espacio de Hilbert es necesario en cada caso depende del sistema; por ejemplo, el espacio de estados para los estados de posición y momento es el espacio de funciones de cuadrado integrable

, mientras que la descripción de un sistema sin traslación pero con

un espín es el espacio . La evolución temporal de un estado cuántico queda descrita por la ecuación de Schrödinger, en la que el hamiltoniano, el operador correspondiente a la energía total del sistema, tiene un papel central. Cada magnitud observable queda representada por un operador lineal hermítico definido sobre un dominio denso del espacio de estados. Cada estado propio de un observablecorresponde a un eigenvector del operador, y el valor propio o eigenvalor asociado corresponde al valor del observable en aquel estado propio. El espectro de un operador puede ser continuo o discreto. La medida de un observable representado por un operador con espectro discreto sólo puede tomar un conjunto numerable de posibles valores, mientras que los operadores con espectro continuo presentan medidas posibles en intervalos reales completos. Durante una medida, la


probabilidad de que un sistema colapse a uno de los eigenestados viene dada por el cuadrado del valor absoluto del producto interior entre el estado propio o auto-estado (que podemos conocer teóricamente antes de medir) y el vector estado del sistema antes de la medida. Podemos así encontrar la distribución de probabilidad de un observable en un estado dado computando la descomposición espectraldel operador correspondiente. El principio de incertidumbre de Heisenberg se representa por la aseveración de que los operadores correspondientes a ciertos observables no conmutan. RELATIVIDAD Y LA MECÁNICA CUÁNTICA El mundo moderno de la física se funda notablemente en dos teorías principales, la relatividad general y la mecánica cuántica, aunque ambas teorías usan principios aparentemente incompatibles. Los postulados que definen la teoría de la relatividad de Einstein y la teoría del quántum están apoyados por rigurosa y repetida evidencia empírica. Sin embargo, ambas se resisten a ser incorporadas dentro de un mismo modelo coherente. Desde mediados del siglo XX, aparecieron teorías cuánticas relativistas del campo electromagnético (electrodinámica cuántica) y las fuerzas nucleares (modelo electrodébil, cromodinámica cuántica), pero hasta la fecha (2017) no se tiene una teoría cuántica relativista del campo gravitatorio que sea plenamente consistente y válida para campos gravitatorios intensos (existen aproximaciones en espacios asintóticamente planos). Todas las teorías cuánticas relativistas consistentes usan los métodos de la teoría cuántica de campos. En su forma ordinaria, la teoría cuántica abandona algunos de los supuestos básicos de la teoría de la relatividad, como por ejemplo el principio de localidad usado en la descripción relativista de la causalidad. El mismo Einstein había considerado absurda la violación del principio de localidad a la que parecía abocar la mecánica cuántica. La postura de Einstein fue postular que la mecánica cuántica si bien era consistente era incompleta. Para justificar su argumento y su rechazo a la falta de localidad y la falta de determinismo, Einstein y varios de sus colaboradores postularon la llamada paradoja de Einstein-Podolsky-Rosen (EPR), la cual demuestra que medir el estado de una partícula puede instantáneamente cambiar el estado de su socio enlazado, aunque las dos partículas pueden estar a una distancia arbitrariamente grande. Modernamente el paradójico resultado de la paradoja EPR se sabe es una consecuencia perfectamente consistente del llamado entrelazamiento cuántico. Es un hecho conocido que si bien la existencia del entrelazamiento cuántico efectivamente viola el principio de localidad, en cambio no viola la causalidad definido en términos de información, puesto que no hay transferencia posible de información. Si bien en su tiempo, parecía que la paradoja EPR suponía una dificultad empírica para mecánica cuántica, y Einstein consideró que la mecánica cuántica en la interpretación de Copenhague podría ser descartada por experimento, décadas más tarde los experimentos de Alain Aspect (1981) revelaron que efectivamente la evidencia experimental parece apuntar en contra del principio de localidad. 3 Y por tanto, el resultado paradójico que Einstein rechazaba como "sin sentido" parece ser lo que sucede precisamente en el mundo real. COMPUTACIÓN CUÁNTICA


La esfera de Bloch es una representación de un cúbit, el bloque de construcción fundamental de los computadores cuánticos. La computación cuántica es un paradigma de computación distinto al de la computación clásica. Se basa en el uso de cúbits en lugar de bits, y da lugar a nuevas puertas lógicas que hacen posibles nuevos algoritmos. Una misma tarea puede tener diferente complejidad en computación clásica y en computación cuántica, lo que ha dado lugar a una gran expectación, ya que algunos problemas intratables pasan a ser tratables. Mientras que un computador clásico equivale a una máquina de Turing, un computador cuántico equivale a una máquina de Turing cuántica. ORIGEN DE LA COMPUTACIÓN CUÁNTICA A medida que evoluciona la tecnología y se reduce el tamaño de los transistores para producir microchips cada vez más pequeños, esto se traduce en mayor velocidad de proceso. Sin embargo, no se pueden hacer los chips infinitamente pequeños, ya que hay un límite tras el cual dejan de funcionar correctamente. Cuando se llega a la escala de nanómetros, los electrones se escapan de los canales por donde deben circular. A esto se le llama efecto túnel. Una partícula clásica, si se encuentra con un obstáculo, no puede atravesarlo y rebota. Pero con los electrones, que son partículas cuánticas y se comportan como ondas, existe la posibilidad de que una parte de ellos pueda atravesar las paredes si son los suficientemente delgadas; de esta manera la señal puede pasar por canales donde no debería circular. Por ello, el chip deja de funcionar correctamente. En consecuencia, la computación digital tradicional no tardaría en llegar a su límite, puesto que ya se ha llegado a escalas de sólo algunas decenas de nanómetros. Surge entonces la necesidad de descubrir nuevas tecnologías y es ahí donde la computación cuántica entra en escena. La idea de computación cuántica surge en 1981, cuando Paul Benioff expuso su teoría para aprovechar las leyes cuánticas en el entorno de la computación. En vez de trabajar a nivel de voltajes eléctricos, se trabaja a nivel de cuanto. En la computación digital, un bit sólo puede tomar dos valores: 0 o 1. En cambio, en la computación cuántica, intervienen las leyes de la mecánica cuántica, y la partícula puede estar en superposición coherente: puede ser 0, 1 y puede ser 0 y 1 a la vez (dos estados ortogonales de una partícula subatómica). Eso permite que se puedan realizar varias operaciones a la vez, según el número de cúbits. El número de cúbits indica la cantidad de bits que pueden estar en superposición. Con los bits convencionales, si se tenía un registro de tres bits, había ocho valores posibles y el registro sólo podía tomar uno de esos valores. En cambio, si se tenía un vector de tres cúbits, la partícula


puede tomar ocho valores distintos a la vez gracias a la superposición cuántica. Así, un vector de tres cúbits permitiría un total de ocho operaciones paralelas. Como cabe esperar, el número de operaciones es exponencial con respecto al número de cúbits. Para hacerse una idea del gran avance, un computador cuántico de 30 cúbits equivaldría a un procesador convencional de 10 teraflops (10 millones de millones de operaciones en coma flotante por segundo), cuando actualmente las computadoras trabajan en el orden de gigaflops (miles de millones de operaciones). PROBLEMAS DE LA COMPUTACIÓN CUÁNTICA Uno de los obstáculos principales para la computación cuántica es el problema de la decoherencia cuántica, que causa la pérdida del carácter unitario (y, más específicamente, la reversibilidad) de los pasos del algoritmo cuántico. Los tiempos de decoherencia para los sistemas candidatos, en particular el tiempo de relajación transversal (en la terminología usada en la tecnología de resonancia magnética nuclear e imaginería por resonancia magnética) está típicamente entre nanosegundos y segundos, a temperaturas bajas. Las tasas de error son típicamente proporcionales a la razón entre tiempo de operación frente a tiempo de decoherencia, de forma que cualquier operación debe ser completada en un tiempo mucho más corto que el tiempo de decoherencia. Si la tasa de error es lo bastante baja, es posible usar eficazmente la corrección de errores cuántica, con lo cual sí serían posibles tiempos de cálculo más largos que el tiempo de decoherencia y, en principio, arbitrariamente largos. Se cita con frecuencia una tasa de error límite de 10–4, por debajo de la cual se supone que sería posible la aplicación eficaz de la corrección de errores cuánticos. Otro de los problemas principales es la escalabilidad, especialmente teniendo en cuenta el considerable incremento en cúbits necesarios para cualquier cálculo que implica la corrección de errores. Para ninguno de los sistemas actualmente propuestos es trivial un diseño capaz de manejar un número lo bastante alto de cúbits para resolver problemas computacionalmente interesantes hoy en día. HARDWARE PARA COMPUTACIÓN CUÁNTICA Aún no se ha resuelto el problema de qué hardware sería el ideal para la computación cuántica. Se ha definido una serie de condiciones que debe cumplir, conocida como la lista de Di Vincenzo, y hay varios candidatos actualmente. Condiciones a cumplir  El sistema ha de poder inicializarse, esto es, llevarse a un estado de partida conocido y controlado.  Ha de ser posible hacer manipulaciones a los cúbits de forma controlada, con un conjunto de operaciones que forme un conjunto universal de puertas lógicas (para poder reproducir cualquier otra puerta lógica posible).  El sistema ha de mantener su coherencia cuántica a lo largo del experimento.  Ha de poder leerse el estado final del sistema, tras el cálculo.  El sistema ha de ser escalable: tiene que haber una forma definida de aumentar el número de cúbits, para tratar con problemas de mayor coste computacional. Candidatos  Espines nucleares de moléculas en disolución, en un aparato de RMN.  Flujo eléctrico en SQUIDs.  Iones suspendidos en vacío .  Puntos cuánticos en superficies sólidas.


  

Imanes moleculares en micro-SQUIDs. Computadora cuántica de Kane. Computación adiabática, basada en el teorema adiabático. Procesadores En 2004, científicos del Instituto de Física aplicada de la Universidad de Bonn publicaron resultados sobre un registro cuántico experimental. Para ello utilizaron átomos neutros que almacenan información cuántica, por lo que son llamados cúbits por analogía con los bits. Su objetivo actual es construir una puerta cuántica, con lo cual se tendrían los elementos básicos que constituyen los procesadores, que son el corazón de los computadores actuales. Cabe destacar que un chip de tecnología VLSI contiene actualmente más de 100 000 puertas, de manera que su uso práctico todavía se presenta en un horizonte lejano. Transmisión de datos Científicos de los laboratorios Max Planck y Niels Bohr publicaron en la revista Nature en noviembre de 2004, resultados sobre la transmisión de información cuántica a distancias de 100 km usando la luz como vehículo. 2 obteniendo niveles de éxito del 70 %, lo que representa un nivel de calidad que permite utilizar protocolos de transmisión con autocorrección. Actualmente se trabaja en el diseño de repetidores, que permitirían transmitir información a distancias mayores a las ya alcanzadas. PROGRAMAS DE COMPUTACIÓN ALGORITMOS CUÁNTICOS Los algoritmos cuánticos se basan en un margen de error conocido en las operaciones de base y trabajan reduciendo el margen de error a niveles exponencialmente pequeños, comparables al nivel de error de las máquinas actuales.  Algoritmo de Shor  Algoritmo de Grover  Algoritmo de Deutsch-Jozsa Modelos  Computadora cuántica de Benioff  Computadora cuántica de Feynman  Computadora cuántica de Deutsch Complejidad La clase de complejidad BQP estudia el costo de los algoritmos cuánticos con bajo margen de error. Problemas propuestos Se ha sugerido el uso de la computación cuántica como alternativa superior a la computación clásica para varios problemas, entre ellos:  Factorización de números enteros  Logaritmo discreto  Simulación de sistemas cuánticos: Richard Feynman conjeturó en 1982 que los ordenadores cuánticos serían eficaces como simuladores universales de sistemas cuánticos, y en 1996 se demostró que la conjetura era correcta.34 Cronología Años 80


A comienzos de la década de los 80, empezaron a surgir las primeras teorías que apuntaban a la posibilidad de realizar cálculos de naturaleza cuántica. 1981 - Paul Benioff Las ideas esenciales de la computación cuántica surgieron de la mente de Paul Benioff que trabajaba en el Argone National Laboratory en Illinois (EE. UU.). Teorizó un ordenador tradicional (máquina de Turing) operando con algunos principios de la mecánica cuántica. 1981-1982 Richard Feynman El Dr. Richard Feynman, físico del California Institute of Technology en California (EE. UU.) y ganador del premio Nobel en 1965 realizó una ponencia durante la Primera Conferencia sobre la Física de la Computación realizado en el Instituto Tecnológico de Massachusetts (EE. UU.) Su charla, bajo el título de Simulando la física con computadoras(Simulating Physics With Computers) proponía el uso de fenómenos cuánticos para realizar cálculos computacionales y exponía que dada su naturaleza algunos cálculos de gran complejidad se realizarían más rápidamente en un ordenador cuántico. 1985 - David Deutsch Este físico israelí de la Universidad de Oxford, Inglaterra, describió el primer computador cuántico universal, es decir, capaz de simular cualquier otro computador cuántico (principio de Church-Turing ampliado). De este modo surgió la idea de que un computador cuántico podría ejecutar diferentes algoritmos cuánticos. Años 90 En esta época la teoría empezó a plasmarse en la práctica: aparecieron los primeros algoritmos cuánticos, las primeras aplicaciones cuánticas y las primeras máquinas capaces de realizar cálculos cuánticos. 1993 - Dan Simon Desde el departamento de investigación de Microsoft (Microsoft Research), surgió un problema teórico que demostraba la ventaja práctica que tendría un computador cuántico frente a uno tradicional. Comparó el modelo de probabilidad clásica con el modelo cuántico y sus ideas sirvieron como base para el desarrollo de algunos algoritmos futuros (como el de Shor). 1993 - Charles Benett Este trabajador del centro de investigación de IBM en Nueva York descubrió el teletransporte cuántico y que abrió una nueva vía de investigación hacia el desarrollo de comunicaciones cuánticas. 1994-1995 Peter Shor Este científico estadounidense de AT&T Bell Laboratories definió el algoritmo que lleva su nombre y que permite calcular los factores primos de números a una velocidad mucho mayor que en cualquier computador tradicional. Además su algoritmo permitiría romper muchos de los sistemas de criptografía utilizados actualmente. Su algoritmo sirvió para demostrar a una gran parte de la comunidad científica que observaba incrédula las posibilidades de la computación cuántica, que se trataba de un campo de investigación con un gran potencial. Además, un año más tarde, propuso un sistema de corrección de errores en el cálculo cuántico. 1996 - Lov Grover Inventó el algoritmo de búsqueda de datos que lleva su nombre "Algoritmo de Grover". Aunque la aceleración conseguida no es tan drástica como en los cálculos factoriales o en simulaciones


físicas, su rango de aplicaciones es mucho mayor. Al igual que el resto de algoritmos cuánticos, se trata de un algoritmo probabilístico con un alto índice de acierto. 1997 - Primeros experimentos En 1997 se iniciaron los primeros experimentos prácticos y se abrieron las puertas para empezar a implementar todos aquellos cálculos y experimentos que habían sido descritos teóricamente hasta entonces. El primer experimento de comunicación segura usando criptografía cuántica se realiza con éxito a una distancia de 23 Km. Además se realiza el primer teletransporte cuántico de un fotón. 1998 - 1999 Primeros cúbits Investigadores de Los Álamos y el Instituto Tecnológico de Massachusetts consiguen propagar el primer cúbit a través de una solución de aminoácidos. Supuso el primer paso para analizar la información que transporta un cúbit. Durante ese mismo año, nació la primera máquina de 2 cúbits, que fue presentada en la Universidad de Berkeley, California (EE. UU.) Un año más tarde, en 1999, en los laboratorios de IBM-Almaden, se creó la primera máquina de 3 cúbits y además fue capaz de ejecutar por primera vez el algoritmo de búsqueda de Grover. Año 2000 hasta ahora 2000 - Continúan los progresos De nuevo IBM, dirigido por Isaac Chuang (Figura 4.1), creó un computador cuántico de 5 cúbits capaz de ejecutar un algoritmo de búsqueda de orden, que forma parte del Algoritmo de Shor. Este algoritmo se ejecutaba en un simple paso cuando en un computador tradicional requeriría de numerosas iteraciones. Ese mismo año, científicos de Los Álamos National Laboratory (EE. UU.) anunciaron el desarrollo de un computador cuántico de 7 cúbits. Utilizando un resonador magnético nuclear se consiguen aplicar pulsos electromagnéticos y permite emular la codificación en bits de los computadores tradicionales. 2001 - El algoritmo de Shor ejecutado IBM y la Universidad de Stanford, consiguen ejecutar por primera vez el algoritmo de Shor en el primer computador cuántico de 7 cúbits desarrollado en Los Álamos. En el experimento se calcularon los factores primos de 15, dando el resultado correcto de 3 y 5 utilizando para ello 1018 moléculas, cada una de ellas con siete átomos. 2005 - El primer Qbyte El Instituto de “Quantum Optics and Quantum Information” en la Universidad de Innsbruck (Austria) anunció que sus científicos habían creado el primer qbyte, una serie de 8 cúbits utilizando trampas de iones. 2006 - Mejoras en el control del cuanto Científicos en Waterloo y Massachusetts diseñan métodos para mejorar el control del cuanto y consiguen desarrollar un sistema de 12 cúbits. El control del cuanto se hace cada vez más complejo a medida que aumenta el número de cúbits empleados por los computadores. 2007 - D-Wave La empresa canadiense D-Wave Systems había supuestamente presentado el 13 de febrero de 2007 en Silicon Valley, una primera computadora cuántica comercial de 16 cúbits de propósito general; luego la misma compañía admitió que tal máquina, llamada Orion, no es realmente una computadora cuántica, sino una clase de máquina de propósito general que usa algo de mecánica cuántica para resolver problemas. 2007 - Bus cuántico


En septiembre de 2007, dos equipos de investigación estadounidenses, el National Institute of Standards (NIST) de Boulder y la Universidad de Yale en New Haven consiguieron unir componentes cuánticos a través de superconductores. De este modo aparece el primer bus cuántico, y este dispositivo además puede ser utilizado como memoria cuántica, reteniendo la información cuántica durante un corto espacio de tiempo antes de ser transferido al siguiente dispositivo. 2008 - Almacenamiento Según la Fundación Nacional de Ciencias (NSF) de los EE. UU., un equipo de científicos consiguió almacenar por primera vez un Qubit en el interior del núcleo de un átomo de fósforo, y pudieron hacer que la información permaneciera intacta durante 1.75 segundos. Este periodo puede ser expansible mediante métodos de corrección de errores, por lo que es un gran avance en el almacenamiento de información. 2009 - Procesador cuántico de estado sólido El equipo de investigadores estadounidense dirigido por el profesor Robert Schoelkopf, de la Universidad de Yale, que ya en 2007 había desarrollado el Bus cuántico, crea ahora el primer procesador cuántico de estado sólido, mecanismo que se asemeja y funciona de forma similar a un microprocesador convencional, aunque con la capacidad de realizar sólo unas pocas tareas muy simples, como operaciones aritméticas o búsquedas de datos. Para la comunicación en el dispositivo, esta se realiza mediante fotones que se desplazan sobre el bus cuántico, circuito electrónico que almacena y mide fotones de microondas, aumentando el tamaño de un átomo artificialmente. 2011 - Primera computadora cuántica vendida La primera computadora cuántica comercial es vendida por la empresa D-Wave Systems, fundada en 1999, a Lockheed Martin por 10 millones de dólares.5 2012 - Avances en chips cuánticos IBM anuncia que ha creado un chip lo suficientemente estable como para permitir que la informática cuántica llegue a hogares y empresas. Se estima que en unos 10 o 12 años se puedan estar comercializando los primeros sistemas cuánticos. 2013 - Computadora cuántica más rápida que un computador convencional En abril la empresa D-Wave Systems lanza el nuevo computador cuántico D-Wave Two el cual es 500 000 veces superior a su antecesor D-Wave One, con un poder de cálculo de 439 cúbits. Realmente el D-Wave Two tuvo graves problemas finalmente, dado que no tenía las mejoras de procesamiento teóricas frente al D-Wave One. Éste fue comparado con un computador basado en el microprocesador Intel Xeon E5-2690 a 2.9 GHz, teniendo en cuenta que lo obteniendo, es decir, el resultado en promedio de 4000 veces superior. En 2016, Intel trabaja en el dominio del silicio por el primer ordenador cuántico En mayo de 2017, IBM presenta un nuevo procesador cuántico comercial, el más potente hasta la fecha de 17 cúbits. CRIPTOGRAFÍA CUÁNTICA La criptografía cuántica es la criptografía que utiliza principios de la mecánica cuántica para garantizar la absoluta confidencialidad de la información transmitida. Las actuales técnicas de la criptografía cuántica permiten a dos personas crear, de forma segura, una propiedad única de la física cuántica para cifrar y descifrar mensajes.


La criptografía cuántica como idea se propuso en 1970, pero no es hasta 1984 que se publica el primer protocolo. Una de las propiedades más importantes de la criptografía cuántica es que si un tercero intenta hacer eavesdropping durante la creación de la clave secreta, el proceso se altera advirtiéndose al intruso antes de que se transmita información privada. Esto es una consecuencia del principio de incertidumbre de Heisenberg, que nos dice que el proceso de medir en un sistema cuántico perturba dicho sistema. La seguridad de la criptografía cuántica descansa en las bases de la mecánica cuántica, a diferencia de la criptografía de clave pública tradicional la cual descansa en supuestos de complejidad computacional no demostrada de ciertas funciones matemáticas. La criptografía cuántica está cercana a una fase de producción masiva, utilizando láseres para emitir información en el elemento constituyente de la luz, el fotón, y conduciendo esta información a través de fibras ópticas. Conceptos básicos La criptografía es la disciplina que trata de la transmisión y almacenamiento de datos de manera que no puedan ser comprendidos ni modificados por terceros. Los diferentes métodos de criptografía actualmente utilizados necesitan que dos personas que deseen comunicar información intercambien de forma segura una o más claves; una vez que las claves han sido intercambiadas, los interlocutores pueden transferir información con un nivel de seguridad conocido. Pero esta forma de trabajar basa la seguridad de las transmisiones exclusivamente en el intercambio de claves. La forma más segura de realizar este intercambio de claves es de manera presencial, pero ello no es posible en la mayoría de los casos, dado el múltiple número de interlocutores con los que se desea intercambiar información confidencial (bancos, tiendas en Internet, colegas de trabajo en sedes distantes, etcétera). De manera que el punto donde hay menor seguridad en el intercambio de información confidencial está en el proceso de intercambio y transmisión de las claves. La mecánica cuántica describe la dinámica de cada partícula cuántica (fotones, electrones, etc.) en términos de estados cuánticos, asignando una probabilidad a cada posible estado de la partícula por medio de una función. Algunos aspectos a considerar de la mecánica cuántica:  Superposición: Una partícula puede poseer más de un estado a la vez, en otras palabras, se encuentra en realidad "repartida" entre todos los estados que le sean accesibles.  La medición no es un proceso pasivo como se suponía en la mecánica clásica, ya que altera al sistema.  Colapso de estados: Una partícula que se encuentra repartida entre todos sus estados accesibles, al ser medida se altera su estado superpuesto determinando en qué estado particular, de entre una variedad de estados posibles, se encuentra.  Incertidumbre: En la teoría cuántica, algunos pares de propiedades físicas son complementarias (por ejemplo, la posición y el momentum), en el sentido de que es imposible saber el valor exacto de ambas. Si se mide una propiedad, necesariamente se altera la complementaria, perdiéndose cualquier noción de su valor exacto. Cuanto más precisa sea la medición sobre una propiedad, mayor será la incertidumbre de la otra propiedad.  Entrelazamiento: Dos partículas cuánticas pueden tener estados fuertemente correlacionados, debido a que se generaron al mismo tiempo o a que interactuaron, por


ejemplo, durante un choque. Cuando esto ocurre se dice que sus estados están entrelazados, lo que provoca que la medición sobre una de ellas determina inmediatamente el estado de la otra, sin importar la distancia que las separe. Este fenómeno se explica aplicando las leyes de conservación del momento y de la energía. (ver Paradoja EPR) Las partículas utilizadas habitualmente en la criptografía cuántica son los componentes de la luz o fotones, y los estados que se utilizan para ser entrelazados o superpuestos entre sí son sus dos estados de polarización, que es una de las características conocidas de la luz, aunque no sea directamente perceptible. Un fotón puede ser polarizado artificialmente en una dirección en particular con respecto a su dirección de desplazamiento. Dicha polarización puede ser detectada mediante el uso de filtros, orientados en el mismo sentido en el que la luz fue polarizada. Estos filtros dejan pasar los fotones polarizados en un estado y absorben los polarizados en el otro. INTERCAMBIO DE CLAVES CUÁNTICAS Como se dijo anteriormente, las técnicas actuales de la criptografía cuántica permiten la construcción de una clave secreta compartida que puede ser usada como llave para cifrar y descifrar mensajes. DOS PROTOCOLOS DISTINTOS BB84 Este protocolo se publicó en 1984 por Charles Bennett y Gilles Brassard y con él se produce el nacimiento de la criptografía cuántica. En este protocolo, la transmisión se logra utilizando fotones polarizados enviados entre el emisor (tradicionalmente de nombre Alice (en el lado A)) y el receptor (de nombre Bob (en el lado B)) mediante un canal cuántico, por ejemplo, una fibra óptica. Por otro lado, también se necesita la existencia de un canal público (no necesariamente cuántico) entre Alice y Bob, como por ejemplo Internet u ondas de radio, el cual se usa para mandar información requerida para la construcción la clave secreta compartida. Ninguno de los canales necesita ser seguro, es decir, se asume que un intruso (de nombre Eve) puede intervenirlos con el fin de obtener información. Cada fotón representa un bit de información, cero o uno y la información se logra mediante la codificación de estados no-ortogonales, por ejemplo rectilíneamente (horizontal y vertical) o bien diagonalmente (en ángulos de 45º y 135º), como se muestra en la tabla de abajo. También se puede ocupar una polarización circular (horario o antihoraria). Tanto Alice como Bob, pueden emitir fotones polarizados. Bases 0 1 Primer paso: El protocolo comienza cuando Alice decide enviar una secuencia de fotones polarizados a Bob. Para ello, Alice genera una secuencia aleatoria de bases, por ejemplo, entre rectilíneas (+) y diagonales (x), la cual es X almacenada momentáneamente. Una vez hecho esto, Alice usa el canal cuántico para emitir a Bob un fotón polarizado al azar usando las bases que ella generó (un fotón por cada base), registrando la polarización con la que fue emitido. Alice tiene entonces la secuencia de bases utilizadas y la polarización de los fotones emitidos. La mecánica cuántica dice que no es posible realizar una medición que distinga entre 4 estados de polarización distintos si es que estos no son ortogonales entre sí, en otras palabras, la única medición posible es entre dos estados ortogonales (base). Es así que por ejemplo, si se mide en una base rectilínea, los únicos resultados posibles son horizontal o vertical. Si el fotón fue


creado con una polarización horizontal o vertical (con un generador de estados rectilíneo), entonces esta medición arrojará el resultado correcto. Pero si el fotón fue creado con una polarización de 45º o 135º (generador diagonal), entonces la medición rectilínea arrojara un resultado de horizontal o vertical al azar. Es más, después de esta medición, el fotón quedará polarizado en el estado en el cual fue medido (horizontal o vertical), perdiéndose toda la información inicial de la polarización. Segundo paso: Como Bob no sabe las bases que ocupó Alice para generar los fotones, no le queda otra opción más que medir la polarización de los fotones usando una base aleatoria generada por él (rectilínea o diagonal). Bob registra las bases que utilizó para medir los fotones y también los resultados de cada medición. Tercer paso: Alice y Bob se contactan por medio del canal público para comunicarse las bases que utilizaron para generar y leer respectivamente: Bob envía las bases que él usó y Alice envía las bases que ella usó. Ambos descartan las mediciones (bits) en donde no coincidieron en las bases (en promedio se descarta la mitad de los bits). Los bits que quedaron fueron generados y medidos con la misma base, por lo que la polarización registrada es la misma para Alice y para Bob. Hasta este paso, en una comunicación ideal, Alice y Bob ya tienen una clave secreta compartida determinada por los bits que quedaron. Bits aleatorios de Alice 0 1 1 0 1 Bases de Alice

X

X

Fotones enviados por Alice Bases aleatorias con las que mide Bob

X

X

X

Mediciones de Bob INTERCAMBIO PUBLICO DE BASES Clave secreta compartida 0 1 Cuarto paso: Dado que puede existir alguna impureza en el canal cuántico o, peor aun, un intruso pudo haber interceptado la transmisión de fotones, la polarización de los fotones pudo haber sido alterada por lo que Alice y Bob deben comprobar que efectivamente los bits que no fueron descartados coinciden en su valor. Si un intruso intenta medir los fotones que mandó Alice, al igual que Bob no sabe con qué base se generaron, por lo que tiene que realizar sus mediciones usando bases al azar lo que inevitablemente introduciría una perturbación en los fotones enviados por Alice si es que no coinciden en la base. Tampoco podría generar los fotones originales de Alice ya que el teorema de no-clonación garantiza que es imposible reproducir (clonar) la información transmitida sin conocer de antemano el estado cuántico que describe la luz. Si un intruso intentó obtener información de los fotones entonces, con una alta probabilidad, la secuencias de bits de Alice y Bob no coinciden. Con el fin de detectar la presencia del intruso, Alice y Bob revelan segmentos de la clave generada. Si difieren en una cantidad superior a un mínimo determinado, entonces se asume la existencia de un intruso y se aborta la comunicación.


Existen técnicas para que la información revelada de la clave sea lo menor posible (por ejemplo usando funciones de Hash). También existen técnicas para poder reparar la secuencia de bits en caso de que no haya habido un calce total (por ejemplo, en el caso de una interferencia). Quinto paso: Para codificar un mensaje se puede utilizar el mismo canal cuántico con fotones polarizados, o utilizar el canal público cifrando el mensaje con un algoritmo de cifrado, ya que la clave para el cifrado se ha transmitido de manera absolutamente segura. Fotones Entrelazados E91 El esquema de criptografía cuántica basada en pares de fotones entrelazados fue propuesto por Artur Ekert en 1991. El esquema de comunicación es similar al del protocolo BB84. La diferencia es que se necesita además una fuente que produzca una serie de pares de fotones entrelazados. Dicha fuente puede estar en manos de Alice, Bob o algún tercero, lo importante es que de cada par de fotones entrelazados producido, un fotón llegue a Alice y el otro a Bob. Si Alice y Bob miden para ver qué tipo de polarización rectilínea tienen sus respectivos fotones (ambos miden en la misma base), obtendrán siempre respuestas opuestas (anticorrelación). Previo a la medición es imposible predecir que estado obtendrá cada fotón, por lo que Alice y Bob miden independientemente con una base aleatoria. Si ambas bases no coinciden, entonces la anticorrelación se pierde y el resultado de la medición no servirá. Debido a esto y análogamente al protocolo BB84, Alice y Bob se intercambian las bases que utilizaron para medir sus respectivos fotones, para saber qué bits son los que corresponden a la clave generada. Si un intruso intentase medir de alguna forma alguno de los fotones entrelazados, no podrá saber de antemano las bases de Alice y Bob por lo que no tiene otra opción más que medir con una base aleatoria, esto provocará que su intento de medición alterará el resultado de Alice y Bob. Al igual que en el protocolo BB84, también se necesita verificar parte de la clave secreta con el fin de saber si alguien estuvo interceptando la comunicación y de reparar la clave en caso de interferencia o errores de transmisión. La ventaja de este protocolo, es que la clave se genera "naturalmente al azar" ya que es imposible saber de antemano qué polarización tendrá cada fotón. Implementación de la criptografía cuántica Basado en estos principios, se definen protocolos de comunicación que utilizan la polarización de los fotones para codificar información binaria que conformará la clave secreta. Estos protocolos incluyen mecanismos de corrección en caso de errores de transmisión. Los primeros productos comerciales de criptografía cuántica salieron al mercado en 2002. Desde entonces los avances no dejan de producirse y la adopción de esta tecnología, si bien lenta al principio, tiende a acelerarse. ELECTRÓNICA MOLECULAR La electrónica molecular, de igual modo conocida como moletrónica, es la rama de la ciencia encargada del estudio y aplicación de bloques de construcción moleculares para la fabricación de componentes electrónicos.1 Se acentúa el uso de moléculas orgánicas para esta tecnología. Es un área interdisciplinaria en la cual se involucra la física, química, la ciencia de materiales, entre otras. La principal característica que une a estas ciencias es el uso de los bloques


moleculares que permiten la elaboración de componentes electrónicos. Debido a la visión forjada en cuanto a la reducción de escalas ofrecida entre las propiedades de la electrónica molecular, la moletrónica ha generado expectativas altas. La electrónica molecular proveerá los medios suficientes para sobrepasar a la Ley de Moore, y extenderla mucho más allá de los límites visibles dentro de los sistemas de circuitos integrados a escala pequeña de silicio. Los primeros trabajos registrados acerca de la transferencia de cargas eléctricas entre moléculas fueron realizados por Robert Mulliken y Albert Szent-Gyorgi en 1940, en su discusión del complejo de transferencia de carga “donante-aceptor”. Sin embargo, el primer dispositivo moletrónico no fue desarrollado hasta 1974, año en el que Ari Aviram y Mark Ratner ilustraron un rectificador (diodo) molecular teórico.2 En 1988, Aviram, describió una molécula capaz de actuar como un transistor de efecto campo (FET). Más adelante, conceptos como los propuestos por Forrest Carter del Laboratorio de Investigación Naval de los Estados Unidos, incluían compuertas lógicas unimoleculares. Entre un amplio rango de ideas discutidas en su conferencia “Dispositivos para Electrónica Molecular” de 1988. Estos eran ideas teóricas, no construidas, sobre posibles aplicaciones que se les podían atribuir al campo de la moletrónica. LA ELECTRÓNICA A ESCALA MOLECULAR La electrónica convencional (electrónica del silicio), desde sus orígenes en 1958, se ha caracterizado por trabajar con materiales en estado a granel. Fue entonces, que la periódica miniaturización en la elaboración, la complejidad y desempeño de los circuitos integrados iban creciendo de manera exponencial, que la ley de Moore se propuso. Y a partir de ahí, los componentes embebidos se han ido fabricando acorde a dicha ley. Los recientes avances en nanotecnología, y el descubrimiento de polímeros conductores y semiconductores(merecedor del premio Nobel de Química del año 2000), han permitido avances espectaculares en la materia. Como se van reduciendo en tamaño las dimensiones de las estructuras de trabajo, la sensibilidad en la desviación incrementa, también. Hasta hoy, la gran mayoría de las técnicas empleadas en la fabricación de componentes electrónicos ha sido de Top-down(fotolitografía), mientras que los acercamientos BottomUp han ido ganando terreno poco a poco. En la moletrónica, el material a granel es reemplazado por un sistema molecular. Es decir, en lugar de tomar un sustrato y llevarlo a un maquinado de grabado, los átomos son unidos mediante reacciones químicas en un laboratorio. Tomando en cuenta que las moléculas son las estructuras estables más pequeñas imaginables a la actualidad, la miniaturización en procesos es la meta máxima para los circuitos electrónicos. La moletrónica es un área real y en desarrollo, pero de momento, su factibilidad es muy limitada. La moletrónica basa sus principios en materiales de la química orgánica, y éstos, en ocasiones, no son lo suficientemente estables para poder albergar o incorporarse debidamente a un sistema eléctrico complejo. Base teórica La electrónica molecular opera dentro del rango cuántico, esto es, en dimensiones menores a los 100 nanómetros. Este tipo de escalamiento hace que los efectos cuánticos sean los que rijan las propiedades del material. Como un ejemplo tenemos al flujo de electrones, en donde componentes de electrónica convencional requieren el paso continuo de éstos para el ensanchamiento y apertura de canales; a diferencia de los sistemas moletrónicos, donde la transferencia de un solo electrón puede provocar una alteración significante en el sistema, ionizando la molécula y haciendo más difícil que otro más se transfiera (bloqueo de Coulomb). La teoría de la electrónica molecular se basa en un sistema cuántico en condiciones de no-


equilibrio (conducidas por voltaje). Cuando el régimen de sesgo en el voltaje es demasiado pequeño, el estado de no-equilibrio puede ignorarse; no así, cuando el sesgo de la señal es más alto, el cual requiere de un tratamiento más sofisticado, debido que ya no existe un principio variacional. Más, el conectado de moléculas para circuitos a mayor escala se ha mostrado un gran reto, y es un obstáculo mayúsculo para su comercialización. Ejemplos En la moletrónica, los sistemas conjugados (alternaciones entre enlaces sencillos y dobles) son predominantes. La razón es para posibilitar el flujo libre de electrones a lo largo del sistema. Cables Como su categoría lo dice, son materiales inactivos, cuyo único propósito es el de conectar distintas partes dentro del circuito. Los cables no están funcionalizados, y son repeticiones del mismo bloque de construcción. Como ejemplo de cables está el nanotubo de carbono, que aunque algo largo al lado de otras sugerencias, muestra propiedades electrónicas más prometedoras. Transistores Los transistores de una sola molécula son diferentes, fundamentalmente, a los que están hechos en la electrónica de mayor escala. La compuerta en un FET convencional determina la conductancia entre los electrodos de fuente y de drenado controlando la densidad de carga entre ellos. Por otro lado, la compuerta de un transistor unimolecular controla la posibilidad de que un solo electrón salte dentro y fuera de la molécula modificando la energía del orbital molecular. Este efecto crea que el sistema actúe de manera casi binaria, o está encendido o se encuentra apagado. Es la cuantización de la carga en los electrones la responsable por la diferencia tan marcada en su comportamiento. Debido a que se trata solamente con moléculas, es la transferencia de un solo electrón la que termina determinando si el sistema se inicia o apaga. Para que esto suceda, los orbitales moleculares en los electrodos no pueden estar muy integrados con los orbitales de la molécula-transistor. De no ser así, no se sabría si el electrón está en el electrodo o el transistor, y haría trabajar al transistor como un cable. Un grupo popular de moléculas que pueden funcionar como material de canal para el semiconductor es el de los oligopolifenilenvinilenos (OPVs) y los fulerenos, que trabajan por medio del bloqueo de Coulomb cuando se colocan entre la fuente y el drenado. El tamaño de las moléculas y la baja temperatura en que las medidas son tomadas, hace que los estados mecánicos cuánticos se encuentren bien definidos. Las propiedades mecánicas cuánticas pueden, entonces, ser ocupadas para aplicaciones con mayor propósito al de sólo transistores. Rectificadores Los rectificadores moleculares (Aviram y Ratner), son mímicas de sus contrapartes a granel. Y tienen una construcción asimétrica para promover el paso del electrón por un lado, más evitarlo por el otro. Estas moléculas tienen un extremo donador de electrones (D), y un extremo aceptor de electrones (A), y el resultado es una corriente eléctrica que puede ser acarreada a lo largo de la molécula. Técnicas Uno de los problemas principales que enfrenta la medición molecular es el de establecer un contacto eléctrico reproducible con una molécula sin crear corto circuito entre los electrones. De momento no existe una metodología que permita crear espacios lo suficientemente


pequeños para contactar ambos lados de las moléculas probadas. Estrategias alternativas son puestas en uso. ESPACIADO MOLECULAR Una manera de producir electrodos con un espaciado molecular entre ellos es rompiendo enlaces, donde un electrodo delgado es estirado hasta que se rompe. También está la electromigración, donde la corriente es conducida a través de un cable delgado que se derrite y los átomos emigran para producir la vacante. El alcance de la fotolitografía actual puede mejorarse con el grabado químico o la deposición metálica en el electrodo. La manera más sencilla para efectuar medidas en algunas moléculas, posiblemente, es por medio de Microscopio de efecto túnel (STM), el cual contacta moléculas adheridas al otro extremo del substrato metálico. ANCLAJE Tomando provecho de la alta afinidad del azufre hacia el oro, es posible anclar moléculas a los electrodos. En esta configuración se agrega al extremo de las moléculas átomos de azufre que emularán ser pinzas caimán conectándose a los electrodos de oro. Esta técnica no es específica, pues el anclaje termina adhiriendo las moléculas a cualquier superficie de oro. La resistencia del contacto es altamente dependiente de la geometría atómica alrededor del sitio de anclaje y compromete la reproducibilidad de la conexión. Los fulerenos se han mostrado como una alternativa viable, debido a que su conjugación π puede contactar más átomos que el azufre. NANOELECTRÓNICA DEL CARBONO La mayoría de la moléculas poliméricas alcanzan son aislantes eléctricos cuando exceden ciertos nanómetros. Aun así, el carbono natural (grafito) es conductor. Viéndolo de un punto de vista teórico, el grafeno es un semi-metal, una categoría que recae entre los metales y los semiconductores. Posee una estructura de capas, donde cada capa es de un átomo de grueso. Entre cada capa, las interacciones son lo suficientemente débiles que permiten escisión manual.3 Los Buckminsterfullereno, descubiertos al cierre del siglo XX, son objetos grafíticos redondos hechos con el “número mágico” 60. Estos clústers de carbono caracterizado por el grupo de Richard Smalley, y después analizada su estructura por Harry Kroto, sugieren que la estructura tiene la exacta simetría de una pelota de fútbol soccer. Estos objetos rápidamente se catapultaron como bloques de construcción para la electrónica molecular. Obstáculos Artefactos encontrados Cuando se trata de medir las características electrónicas de las moléculas, ocurren fenómenos artificiales que pueden ser difíciles de distinguir de un comportamiento molecular. Antes de ser descubiertos, este tipo de artefactos se encontraban caracterizados como propiedades pertinentes a las moléculas en cuestión. Comercialización Una de las principales dificultades para la electrónica molecular es la de ser comercialmente explotada, pues no existen de momento técnicas que permitan la fabricación en masa de éste tipo de tecnologías. También, se encuentra el hecho de que las temperaturas empleadas en la mayoría de las propuestas son a casi cero absoluto (273 K), lo que demanda el consumo de mucha energía. Actualmente, se ha presentado una nueva técnica para la introducción de la electrónica molecular en el mercado. Ésta se basa en la hibridaciónentre los dispositivos


electrónicos de silicio, y las propuestas de la moletrónica, de manera que el cliente pueda familiarizarse poco a poco con los principios que ofrece esta área. Las hibridaciones ya se encuentran en marcha, pues existen empresas que empiezan a investigar y realizar éste tipo de pruebas.4 Aplicación y visión Entre las distintas investigaciones hechas, y factibles aplicaciones para dispositivos creados con la electrónica molecular, podemos observar: Dispositivos como los diodos orgánicos emisores de luz (OLED por sus siglas en inglés), transistores orgánicos de efecto campo (OFET por sus siglas en inglés) o paneles solares orgánicos son ya conocidos en la industria. Interruptores quiral-ópticos dipolares hechos a base de quiropticeno, que almacenan la información de manera óptica.5 Existen empresas que se han fundado con la electrónica molecular, casos como Molecular Electronics Corp (MEC), Nanosys, Inc., Nantero, ZettaCore, Coatue Corp., Molecular Nanosystems, y más. Así también, se encuentran en investigación y adaptación para sistemas híbridos entre la moletrónica y la electrónica convencional compañías transnacionales como HP, IBM, Motorola. Aunque paulatino, la rama de la moletrónica está en desarrollo. El cofundador de Intel y creador de la Ley de Moore, Gordon Moore, ha dicho que la electrónica convencional se acerca a sus límites físicos. Con respecto a su postulación de la ley con su nombre, dice: “si extrapolamos las todas las curvas juntas… nos quedamos sin gas, haciendo esto, para el año 2017.” Quizás, estos límites que afronta ahora la electrónica del silicio se conviertan en una verdadera oportunidad para el crecimiento y desarrollo de la electrónica molecular. ENTRELAZAMIENTO CUÁNTICO El entrelazamiento cuántico (Quantenverschränkung, originariamente en alemán) es una propiedad predicha en 1935 por Einstein, Podolsky y Rosen (en lo sucesivo EPR) en su formulación de la llamada paradoja EPR. El término fue introducido en 1935 por Erwin Schrödinger para describir un fenómeno de mecánica cuántica que se demuestra en los experimentos, pero inicialmente no se comprendió bien su relevancia para la física teórica. Un conjunto de partículas entrelazadas (en su término técnico en inglés: entangled) no pueden definirse como partículas individuales con estados definidos, sino como un sistema con una función de onda única para todo el sistema. El entrelazamiento es un fenómeno cuántico, sin equivalente clásico, en el cual los estados cuánticos de dos o más objetos se deben describir mediante un estado único que involucra a todos los objetos del sistema, aún cuando los objetos estén separados espacialmente. Esto lleva a correlaciones entre las propiedades físicas observables. Por ejemplo, es posible preparar (enlazar) dos partículas en un solo estado cuántico de espín nulo, de forma que cuando se observe que una gira hacia arriba, la otra automáticamente recibirá una «señal» y se mostrará como girando hacia abajo, pese a la imposibilidad de predecir, según los postulados de la mecánica cuántica, qué estado cuántico se observará. Esas fuertes correlaciones hacen que las medidas realizadas sobre un sistema parezcan estar influyendo instantáneamente otros sistemas que están enlazados con él, y sugieren que alguna influencia se tendría que estar propagando instantáneamente entre los sistemas, a pesar de la separación entre ellos. No obstante, no parece que se pueda transmitir información clásica a velocidad superior a la de la luz mediante el entrelazamiento porque no se puede transmitir ninguna información útil a más velocidad que la de la luz. Sólo es posible la transmisión de información usando un


conjunto de estados entrelazados en conjugación con un canal de información clásico, también llamado teleportación cuántica. Mas, por necesitar de ese canal clásico, la información útil no podrá superar la velocidad de la luz. El entrelazamiento cuántico fue en un principio planteado por sus autores (Einstein, Podolsky y Rosen) como un argumento en contra de la mecánica cuántica, en particular con vistas a probar su incompletitud puesto que se puede demostrar que las correlaciones predichas por la mecánica cuántica son inconsistentes con el principio del realismo local, que dice que cada partícula debe tener un estado bien definido, sin que sea necesario hacer referencia a otros sistemas distantes. Con el tiempo se ha acabado definiendo como uno de los aspectos más peculiares de esta teoría, especialmente desde que el físico norirlandés John S. Bell diera un nuevo impulso a este campo en los años 60 gracias a un refinado análisis de las sutilezas que involucra el entrelazamiento. La propiedad matemática que subyace a la propiedad física de entrelazamiento es la llamada no separabilidad. Además, los sistemas físicos que sufren entrelazamiento cuántico son típicamente sistemas microscópicos (casi todos los que se conocen de hecho lo son), pues, según se entendía, esta propiedad se perdía en el ámbito macroscópico debido al fenómeno de la Decoherencia cuántica. Sin embargo más recientemente, un experimento1 ha logrado el citado entrelazamiento en diamantes milimétricos, llevando así este fenómeno al nivel de lo macroscópico. El entrelazamiento es la base de tecnologías en fase de desarrollo, tales como la computación cuántica o la criptografía cuántica, y se ha utilizado en experimentos de teleportación cuántica. Motivación y antecedentes históricos En el contexto original del artículo de EPR, el entrelazamiento se postula como una propiedad estadística del sistema físico formado por una pareja de electrones que provienen de una fuente común y están altamente correlacionados debido a la ley de conservación del momento lineal. Según el argumento de EPR, si, transcurrido un cierto tiempo desde la formación de este estado de dos partículas, realizásemos la medición simultánea del momento lineal en uno de los electrones y de la posición en el otro, habríamos logrado sortear las limitaciones impuestas por el principio de incertidumbre de Heisenberg a la medición de ambas variables físicas, ya que la alta correlación nos permitiría inferir las propiedades físicas correlativas de una partícula (posición o momento) respecto de la otra. Si esto no fuera así, tendríamos que aceptar que ambas partículas transmiten instantáneamente algún tipo de perturbación que a la larga (cuando se recopilan los datos estadísticos) tendría el efecto de alterar las distribuciones estadísticas de tal forma que el principio de Heisenberg quedase salvaguardado (haciendo más indefinida la posición de una de las partículas cuando se mide el momento lineal de la otra, y viceversa). Es importante señalar que los términos simultáneamente o instantáneamente, que acabamos de usar, no tienen en realidad significado preciso dentro del contexto de la teoría de la relatividad especial, que es el esquema universalmente aceptado para la representación de sucesos en el espacio-tiempo. Debe interpretarse por lo tanto que las mediciones antes mencionadas se hacen en un intervalo temporal tan breve que es imposible que los sistemas se comuniquen con una celeridad menor o igual que la establecida por el límite que impone la velocidad de la luz o velocidad máxima de propagación de las interacciones. PLANTEAMIENTO ACTUAL EN TÉRMINOS DE FOTONES


Hoy día se prefiere plantear todas las cuestiones relativas al entrelazamiento usando fotones (en lugar de electrones) como sistema físico a estudiar y considerando sus espinescomo variables físicas a medir. El motivo es doble: por una parte es experimentalmente más fácil preparar estados coherentes de dos fotones (o más) altamente correlacionados mediante técnicas de conversión paramétrica a la baja que preparar estados de electrones o núcleos de átomos (en general materia leptónica o bariónica) de análogas propiedades cuánticas; y por otra parte es mucho más fácil hacer razonamientos teóricos sobre un observable de espectro discreto como el espín que sobre uno de espectro continuo, como la posición o el momento lineal. De acuerdo con el análisis estándar del entrelazamiento cuántico, dos fotones (partículas de luz) que nacen de una misma fuente coherente estarán entrelazados; es decir, ambas partículas serán la superposición de dos estados de dos partículas que no se pueden expresar como el producto de estados respectivos de una partícula. En otras palabras: lo que le ocurra a uno de los dos fotones influirá de forma instantánea a lo que le ocurra al otro, dado que sus distribuciones de probabilidad están indisolublemente ligadas con la dinámica de ambas. Este hecho, que parece burlar el sentido común, ha sido comprobado experimentalmente, e incluso se ha conseguido el entrelazamiento triple, en el cual se entrelazan tres fotones. FORMULACIÓN MATEMÁTICA NO SEPARABILIDAD Desde el punto de vista matemático, la no separabilidad se reduce a que no es posible factorizar la distribución de probabilidad estadística de dos variables estocásticas como producto de distribuciones independientes respectivas: Esto es equivalente a la condición de dependencia estadística (no independencia) de ambas variables. Para cualquier sistema físico que se halle en un estado puro, la mecánica cuántica postula la existencia de un objeto matemático denominado función de onda, que codifica todas sus propiedades físicas en forma de distribuciones de probabilidad de observar valores concretos de todas las variables físicas relevantes para la descripción de su estado físico. Dado que en mecánica cuántica la distribución de probabilidad de cualquier observable

se obtiene, en notación de Dirac, como el producto:

cualquier estado de dos partículas que se exprese como una superposición lineal de dos o más estados que no sea factorizable como producto de estados independientes hará que las distribuciones de probabilidad para observables de ambas partículas sean en general dependientes: Visto así, parecería que la condición de entrelazamiento sería la más común y de hecho la factorizabilidad de los estados la menos habitual. El motivo de que no sea así es que la mayoría de los estados que observamos en la naturaleza son estados mezcla estrictos.


El estado singlete[editar] El estado de espín 1/2: Estados de más de dos fotones Intercambio de entrelazamiento El intercambio de entrelazamiento hace posible enredar dos partículas sin que estas hayan interactuado previamente. Vea Intercambio de entrelazamiento. Perspectivas Hoy en día se buscan aplicaciones tecnológicas para esta propiedad cuántica. Una de ellas es la llamada teleportación de estados cuánticos, si bien parecen existir limitaciones importantes a lo que se puede conseguir en principio con dichas técnicas, dado que la transmisión de información parece ir ligada a la transmisión de energía (lo cual en condiciones superlumínicas implicaría la violación de la causalidad relativista). Es preciso entender que la teleportación de estados cuánticos está muy lejos de parecerse a cualquier concepto de teleportación que se pueda extraer de la ciencia ficción y fuentes similares. La teleportación cuántica sería más bien un calco exacto transmitido instantáneamente (dentro de las restricciones impuestas por el principio de relatividad especial) del estado atómico o molecular de un grupo muy pequeño de átomos. Piénsese que si las dificultades para obtener fuentes coherentes de materia leptónica son grandes, aún lo serán más si se trata de obtener fuentes coherentes de muestras macroscópicas de materia, no digamos ya un ser vivo o un chip con un estado binario definido, por poner un ejemplo. El estudio de los estados entrelazados tiene gran relevancia en la disciplina conocida como computación cuántica, cuyos sistemas se definirían por el entrelazamiento. Luego de establecer la primera versión de la mecánica cuántica, Werner Heisenberg propone el denominado principio de indeterminación de Heisenberg, que describe cuantitativamente la limitación de la exactitud con que pueden medirse simultáneamente variables tales como posición y cantidad de movimiento, o bien energía y tiempo. Lo sorprendente del caso es que esta imposibilidad no se relaciona con la aptitud del hombre para realizar mediciones, sino que sería una indeterminación inherente a la propia realidad física. En esa época (década de los 20) comienzan las discusiones entre Albert Einstein y Niels Böhr. El primero supone que, subyacente a las probabilidades que aparecen en las ecuaciones de la mecánica cuántica, existen variables subcuánticas, o variables ocultas, que permitirán, alguna vez, establecer una descripción determinista del mundo cuántico. Por el contrario, Böhr estimaba que las probabilidades eran el aspecto predominante del último peldaño de la escala atómica.


En 1932 aparece un artículo de John von Neumann en el que demuestra, a nivel teórico, la imposibilidad de que existan variables ocultas como sustento del mundo atómico. En 1935 aparece un artículo de Einstein, Podolsky y Rosen que sería luego conocido como la paradoja EPR en el cual se pretende demostrar que el principio de indeterminación de Heisenberg presenta excepciones en su aplicación. Se supone que si tenemos dos partículas que se dispersan luego de una colisión y viajan en direcciones opuestas, podremos hacer mediciones en una de ellas y así, indirectamente, podremos tener información de la otra sin realizar sobre ella ninguna medición. Se supone que existe la propiedad de la localidad, en el sentido de que algo que ocurre en un lugar no debería afectar a cualquier cosa que suceda en un lugar lejano, a no ser que se envíe una señal de un lugar a otro (como máximo a la velocidad de la luz) que pueda producir un cambio en este último. La otra posibilidad, la no localidad, implica que ambas partículas siguen vinculadas (entrelazadas) con una información que se transmitiría, posiblemente, a velocidades mayores que la de luz. El artículo EPR fue un importante incentivo para la investigación del entrelazamiento. Respecto de este fenómeno, Erwin Schrödinger escribe: “Cuando dos sistemas, de los que conocemos sus estados por su respectiva representación, entran en interacción física temporal debido a fuerzas conocidas entre ellos y tras de un tiempo de influencia mutua se separan otra vez, entonces ya no pueden describirse como antes, esto es, dotando a cada uno de ellos de una representación propia. Yo no llamaría esto «un» sino «el» rasgo característico de la mecánica cuántica”. Las partículas entrelazadas surgirían de algunas posibles maneras, tales como: 1. Electrón que desciende dos niveles energéticos dentro del átomo, generando dos fotones entrelazados. 2. Colisión electrón- positrón, que genera dos fotones entrelazados En cuanto a las mediciones posibles en dos partículas entrelazadas: 1. Cantidad de movimiento y posición de ambas (EPR) 2. Spines de ambas (David Bohm) El teorema de von Neumann no permite establecer verificación experimental alguna, mientras que John S. Bell, cuando establece las “desigualdades de Bell”, vislumbra la posibilidad de una verificación experimental. Este nuevo teorema permitiría aclarar las cosas, ya sea a favor de Einstein o a favor de Böhr y de la no localidad. La no localidad implica la existencia del entrelazamiento de partículas y vendría a ser un vínculo que se prolonga en el tiempo aún cuando dos o tres partículas se encuentren en distintas posiciones en el espacio. Varios físicos tratan de verificar las desigualdades de Bell, siendo Alain Aspect quien tiene mayor éxito, resultando una confirmación de la existencia del entrelazamiento y de la postura de Niels Böhr. CUANTIFICACIÓN Al considerarse al entrelazamiento cuántico como un recurso que puede ser consumido para llevar a cabo ciertas tareas, surgió la idea de definir una magnitud para cuantificarlo.2 Esta no es


una tarea trivial, y el resultado aún no está bien definido. Sin embargo, algunos puntos sí han sido bien establecidos. Se ha determinado que existen estados que están máximamente entrelazados, por ejemplo, un sistema de dos qubits en un estado de Bell como tiene el entrelazamiento máximo posible para un sistema de dos qubits. En el otro extremo, los estados separables no están entrelazados en absoluto. Otra condición fundamental es que no es posible incrementar el entrelazamiento únicamente mediante operaciones locales y comunicación de información clásica. En otras palabras, para aumentar el entrelazamiento entre dos qubits hay que acercarlos y dejar que interactúen directamente. Partiendo de estas condiciones, se han establecido una serie de posibles definiciones y de funciones para cuantificar el entrelazamiento, entre ellas la entropía. Volver arriba↑ El entrelazamiento de partículas es un fenómeno esencial para desarrollar futuros ordenadores cuánticos que sean mucho más veloces que los actuales, tales como los que se estudian y proyectan en del Instituto de Física Experimental de la Universidad de Innsbruck. Entrelazando bits cuánticos individuales, un ordenador cuántico podría resolver problemas mucho más velozmente que uno de memoria digital magnética binaria. Sin embargo, afirma Thomas Monz, resulta muy difícil comprender el entrelazamiento cuando se trata de más de dos partículas. En abril de 2011, Monz, con sus colegas del equipo dirigido por Rainer Blatt, estaba realizando un experimento con varias partículas entrelazadas, lo que aporta una nueva perspectiva de este fenómeno. A partir del año 2005, el equipo dirigido por Rainer Blatt ha estado superando su propio récord de entrelazamiento de bits cuánticos; en abril de 2011 han superado el límite de 8 bits cuánticos, casi duplicándolo: hasta esa fecha no se había logrado controlar el entrelazamiento de ocho partículas, lo que significa un byte cuántico. Desde la fecha citada casi han duplicado ese límite; para esto confinaron 14 átomos de calcio dirigiéndolos con haces de láser en una trampa de iones; de este modo los estados internos de cada átomo constituyen qubits y por este método en abril de 2011 han producido un registro cuántico de 14 qubits, lo cual bien podría ser la base de un próximo ordenador cuántico. Por otra parte estos investigadores han descubierto que cuando hay varias partículas entrelazadas la sensibilidad del sistema aumenta de modo significativo. Tal proceso raramente se había observado en procesos cuánticos y resulta importante no sólo para construir ordenadores cuánticos, sino también para hacer relojes atómicos de extrema precisión y para realizar simulaciones cuánticas TELEPORTACIÓN CUÁNTICA La teleportación es una tecnología cuántica única que transfiere un estado cuántico a una localización arbitrariamente alejada usando un estado de entrelazamiento cuánticodistribuido y la transmisión de cierta información clásica. La teleportación cuántica aún no transporta energía o materia, ni permite la comunicación de información a velocidad superior a la de la luz, pero es útil en comunicación y computación cuánticas.

REALIZACIÓN El objetivo de esta técnica es transmitir un qubit entre Alice (emisor) y Bob (receptor) mediante el envío de dos bits clásicos. Previamente, Alice y Bob deberán compartir un estado entrelazado (entangled). Los pasos a seguir por Alice y Bob son los siguientes:


 

Alice y Bob preparan un estado entrelazado como el que sigue: . Alice y Bob se separan. Alice se queda con el primer qubit del par entrelazado y Bob se lleva el segundo.

Alice desea ahora transmitir el qubit a Bob. Alice operará sobre dos qubits: el primero es el qubit que quiere transmitir y el segundo es el primer qubit del par entrelazado, que ella tiene en su poder. Alice primero aplica la compuerta cuántica CNOT a sus dos qubits. Alice aplica la compuerta cuántica Hadamard al primero de sus dos qubits.

  

Alice realiza una medición sobre ambos qubits y obtiene los dos bits clásicos envía a Bob por un canal de comunicación clásico.

Bob

aplica

la

transformación

sobre

su

recibidos donde es la matriz de Pauli resultado obtenido por Bob en su qubit será . Formulación

qubit, y

de

acuerdo

a

la matriz de Pauli

, que los

bits . El

Esquema de la teleportación cuántica. El esquema completo de la teleportación cuántica se muestra en la figura de la derecha, donde es el qubit a teleportar y es el estado entrelazado auxiliar. Veamos, la entrada al circuito es: que puede escribirse: Esta entrada pasa a través de una puerta CNOT, cuya función es: con lo que en nuestro circuito obtenemos: A continuación atraviesa la puerta de Hadamard (bloque H en la figura), cuya función es,con lo cual en la figura obtenemos: Ahora Alice hace la medición de sus dos qubits y obtiene uno de los cuatro b1b2 posibles. El sistema colapsa al estado Alice envía la información que obtiene en la medición ( ) a Bob, que sabrá cuál de los cuatro términos es realmente el que tiene en su poder (estos términos varían en el signo de los sumandos o tienen los coeficientes intercambiados). Bob convertirá los signos negativos en


positivos y reordenará los coeficientes aplicando, según la tabla de abajo, y así obtendrá el estado original

. Bits recibidos Compuerta a aplicar Operación 00

I

01

X

10

Z

11

ZX

Donde es la matriz de identidad. INTERCAMBIO DE ENTRELAZAMIENTO El entrelazamiento cuántico puede ser aplicado no sólo a estados puros, sino también a estados mezcla, o inclusive a un estado no definido de una partícula entrelazada. El "intercambio de entrelazamiento" es un ejemplo simple e ilustrativo. Supongamos que dos partes, Alice y Carol, necesitan crear un canal de teleportación pero carecen de un par de partículas entrelazadas, lo cual hace que esta tarea sea imposible. Además, supongamos que Alice tiene en su poder una partícula que está entrelazada con una partícula que pertenece a una tercera parte, Bob. Si Bob teletransporta su partícula a Carol, hará que la partícula de Alice se enlace automáticamente con la de Carol. Un forma más simétrica de explicar la situación es la siguiente: Alice tiene una partícula, Bob tiene dos, y Carol una. La partícula de Alice y la primera de Bob están entrelazadas, de la misma manera que la segunda de Bob está entrelazada con la de Carol. ___ / \ Alice-:-:-:-:-:-Bob1 -:- Bob2-:-:-:-:-:-Carol \___/ Ahora: si Bob realiza una medición proyectiva sobre sus dos partículas en una base de Bell (ver Analizador de Estado de Bell), y luego comunica el resultado a Carol, tal como lo describe el esquema de arriba, el estado de la primera partícula de Bob puede ser enviado por teleportación a Carol. Si bien Alice y Carol nunca interactuaron entre sí, sus partículas están ahora entrelazadas. TERAPIA GÉNICA La terapia génica consiste en la inserción de elementos funcionales ausentes en el genoma de un individuo. Se realiza en las células y tejidos con el objetivo de tratar una enfermedad o realizar un marcaje.


La técnica todavía está en desarrollo, motivo por el cual su aplicación se lleva a cabo principalmente dentro de ensayos clínicos controlados, y para el tratamiento de enfermedades severas o bien de tipo hereditario o adquirido. Al principio se planteó sólo para el tratamiento de enfermedades genéticas, pero hoy en día se plantea ya para casi cualquier enfermedad. Entre los criterios para elegir este tipo de terapia se encuentran:  Enfermedad letal sin tratamiento.  La causa sea un único gen que esté ya clonado.  La regulación del gen sea precisa y conocida. APLICACIONES  Marcaje génico: El marcaje génico tiene como objetivo, no la curación del paciente, sino hacer un seguimiento de las células, es decir, comprobar si en un determinado sitio del cuerpo están presentes las células específicas que se han marcado. Un ejemplo de ello sería la puesta a punto de vectores para ensayos clínicos, permitiendo, por ejemplo, que en ocasiones en las que un paciente de cáncer (leucemia) y al que se le ha realizado un autotransplante recae se pueda saber de donde proceden las células, si son de células trasplantadas o si son células que han sobrevivido al tratamiento.  Terapia de enfermedades monogénicas hereditarias: Se usa en aquellas enfermedades en las que no se puede realizar o no es eficiente la administración de la proteína deficitaria. Se proporciona el gen defectivo o ausente.  Terapia de enfermedades adquiridas: Entre este tipo de enfermedades la más destacada es el cáncer. Se usan distintas estrategias, como la inserción de determinados genes suicidas en las células tumorales o la inserción de antígenos tumorales para potenciar la respuesta inmune. TIPOS DE TERAPIA GÉNICA  Terapia génica somática: se realiza sobre las células somáticas de un individuo, por lo que las modificaciones que implique la terapia sólo tienen lugar en dicho paciente.  Terapia in vivo: la transformación celular tiene lugar dentro del paciente al que se le administra la terapia. Consiste en administrarle al paciente un gen a través de un vehículo (por ejemplo un virus), el cual debe localizar las células a infectar. El problema que presenta esta técnica es que es muy difícil conseguir que un vector localice a un único tipo de células diana.  Terapia ex vivo: la transformación celular se lleva a cabo a partir de una biopsia del tejido del paciente y luego se le trasplantan las células ya transformadas. Como ocurre fuera del cuerpo del paciente, este tipo de terapia es mucho más fácil de llevar a cabo y permite un control mayor de las células infectadas. Esta técnica está casi completamente reducida a células hematopoyéticas pues son células cultivables, constituyendo así un material trasplantable.  Terapia génica germinal: se realizaría sobre las células germinales del paciente, por lo que los cambios generados por los genes terapéuticos serían hereditarios. No obstante, por cuestiones éticas y jurídicas, ésta clase de terapia génica no se lleva a cabo hoy en día. PROCEDIMIENTO Aunque se han utilizado enfoques muy distintos, en la mayoría de los estudios de terapia génica, una copia del gen funcional se inserta en el genoma para compensar el defectivo. Si ésta copia simplemente se introduce en el huésped, se trata de terapia génica de adición. Si


tratamos, por medio de la recombinación homóloga, de eliminar la copia defectiva y cambiarla por la funcional, se trata de terapia de sustitución. Actualmente, el tipo más común de vectores utilizados son los virus, que pueden ser genéticamente alterados para dejar de ser patógenos y portar genes de otros organismos. No obstante, existen otros tipos de vectores de origen no vírico que también han sido utilizados para ello. Así mismo, el ADN puede ser introducido en el paciente mediante métodos físicos (no biológicos) como electroporación, biobalística... Las células diana del paciente se infectan con el vector (en el caso de que se trate de un virus) o se transforman con el ADN a introducir. Este ADN, una vez dentro de la célula huésped, se transcribe y traduce a una proteína funcional, que va a realizar su función, y, en teoría, a corregir el defecto que causaba la enfermedad. VECTORES EN TERAPIA GÉNICA VECTOR GÉNICO La gran diversidad de situaciones en las que podría aplicarse la terapia génica hace imposible la existencia de un solo tipo de vector adecuado. Sin embargo, pueden definirse las siguientes características para un "vector ideal" y adaptarlas luego a situaciones concretas:  Que sea reproducible.  Que sea estable.  Que permita la inserción de material genético sin límite de tamaño.  Que permita la transducción tanto en células en división como en aquellas que no están proliferando.  Que posibilite la integración del gen terapéutico en un sitio específico del genoma.  Que se integre una vez por célula, para poder controlar la dosis.  Que reconozca y actúe sobre células específicas.  Que la expresión del gen terapéutico pueda ser regulada.  Que carezca de elementos que induzcan una respuesta inmune.  Que pueda ser caracterizado completamente.  Que sea inocuo o que sus posibles efectos secundarios sean mínimos.  Que sea fácil de producir y almacenar.  Que todo el proceso de su desarrollo tenga un coste razonable. Los vectores van a contener los elementos que queramos introducir al paciente, que no van a ser sólo los genes funcionales, sino también elementos necesarios para su expresión y regulación, como pueden ser promotores, potenciadores o secuencias específicas que permitan su control bajo ciertas condiciones. Podemos distinguir dos categorías principales en vectores usados en terapia génica: virales y no virales. VECTOR VIRAL VIRUS Todos los virus son capaces de introducir su material genético en la célula huésped como parte de su ciclo de replicación. Gracias a ello, pueden producir más copias de sí mismos, e infectar a otras células. Algunos tipos de virus insertan sus genes físicamente en el genoma del huésped, otros pasan por varios orgánulos celulares en su ciclo de infección y otros se replican


directamente en el citoplasma, por lo que en función de la terapia a realizar nos puede interesar uno u otro. Algo común a la mayoría de estrategias con virus es la necesidad de usar líneas celulares "empaquetadoras" o virus helpers, que porten los genes que les eliminamos a nuestros vectores y que permiten la infección. RETROVIRUS El genoma de los retrovirus está constituido por ARN de cadena sencilla, en el cual se distinguen tres zonas claramente definidas: una intermedia con genes estructurales, y dos flanqueantes con genes y estructuras reguladoras. Cuando un retrovirus infecta a una célula huésped, introduce su ARN junto con algunas enzimas que se encuentran en la matriz, concretamente una proteasa, una transcriptasa inversa y una integrasa. La acción de la retrotranscriptasa permite la síntesis del ADN genómico del virus a partir del ARN. A continuación, la integrasa introduce este ADN en el genoma del huésped. A partir de este punto, el virus puede permanecer latente o puede activar la replicación masivamente. Para usar los retrovirus como vectores víricos para terapia génica inicialmente se eliminaron los genes responsables de su replicación y se reemplazaron estas regiones por el gen a introducir seguido de un gen marcador. Del genoma vírico quedaban las secuencias LTR; y los elementos necesarios para producir los vectores a gran escala y para transformar las células son aportados desde otros vectores, bien plasmídicos o bien en líneas celulares específicas. En el caso de usar vectores plasmídicos, estrategias como cotransformar con varios plásmidos distintos que codifiquen para las proteínas del retrovirus, y que la transcripción de sus secuencias esté sometida a promotores eucariotas puede contribuir a minimizar el riesgo de que por recombinación se generen virus recombinantes.1 Actualmente se buscan estrategias como la anterior para conseguir una mayor seguridad en el proceso. La adición de colas de poliadenina al transgén para evitar la transcripción de la segunda secuencia LTR es un ejemplo de esto. Los retrovirus como vector en terapia génica presentan un inconveniente considerable, y es que la enzima integrasa puede insertar el material genético en cualquier zona del genoma del huésped, pudiendo causar efectos deletéreos como la modificación en el patrón de la expresión (efecto posicional) o la mutagénesis de un gen silvestre por inserción. Ensayos de terapia génica utilizando vectores retrovirales para tratar la inmunodeficiencia combinada grave ligada al cromosoma X (X-SCID) representan la aplicación más exitosa de la terapia hasta la fecha. Así, más de veinte pacientes han sido tratado en Francia y Gran Bretaña, con una alta tasa de reconstitución del sistema inmunitario. Sin embargo, ensayos similares fueron restringidos en los Estados Unidos cuando se informó de la aparición de leucemia en pacientes. Hasta hoy se conocen cuatro casos de niños franceses y uno británico que han desarrollado leucemia como resultado de mutagénesis por inserción de los vectores retrovirales, y todos menos uno de estos niños respondieron bien al tratamiento convencional contra la leucemia. En la actualidad, la terapia génica para tratar SCID continúa siendo exitosa en Estados Unidos, Gran Bretaña, Italiay Japón.[ ADENOVIRUS


Los adenovirus presentan un genoma de ADN bicatenario, y no integran su genoma cuando infectan a la célula huésped, sino que la molécula de ADN permanece libre en el núcleocelular y se transcribe de forma independiente. Esto supone que el efecto posicional o la mutagénesis por inserción no se dan en estos vectores, lo cual no quiere decir que no tengan otros inconvenientes. Además, debido al hecho de que en su ciclo natural se introducen en el núcleo de la célula, pueden infectar tanto células en división como células quiescentes. A los vectores de primera generación se les eliminó parte del gen E1, básica para la replicación, y a los de 2.ª, se les eliminaron otros genes tempranos en el ciclo del virus. En ambos casos, cuando se realiza una infección con una concentración elevada de virus, se produce la expresión de otros genes que provocan una respuesta inmune considerable. Por ello, los últimos vectores basados en adenovirus prácticamente han sido desprovistos de la mayor parte de sus genes, con la excepción de las regiones ITR (regiones repetidas de forma invertida), y la zona necesaria para la encapsidación. VIRUS ADENOASOCIADOS (AAV) Los AAV son virus pequeños con un genoma de ADN monocatenario. Pueden integrarse específicamente en el cromosoma 19 con una alta probabilidad. Sin embargo, el VAA recombinante que se usa como vector y que no contiene ningún gen viral, solo el gen terapéutico, no se integra en el genoma. En su lugar, el genoma vírico recombinante fusiona sus extremos a través del ITR (repeticiones terminales invertidas), apareciendo recombinación de la forma circular y episomal que se predice que pueden ser la causa de la expresión génica a largo plazo. Las desventajas de los sistemas basados en AAV radican principalmente en la limitación del tamaño de DNA recombinante que podemos usar, que es muy poco, dado el tamaño del virus. También el proceso de producción e infección resultan bastante complejos. No obstante, como se trata de un virus no patógeno en la mayoría de los pacientes tratados no aparecen respuestas inmunes para eliminar el virus ni las células con las que han sido tratados. Muchos ensayos con VAA están en curso o en preparación, principalmente en el tratamiento de músculos y enfermedades oculares, los dos tejidos donde el virus parece ser particularmente útil. Sin embargo, se están comenzando a realizar pruebas clínicas, donde vectores basados en el VAA son utilizados para introducir los genes en el cerebro[Esto es posible porque VAA pueden infectar células que no están en estado de división, tales como las neuronas. HERPES VIRUS Los herpesvirus son virus de ADN capaces de establecer latencia en sus células huésped. Son complejos genéticamente hablando, pero para su uso como vectores tienen la ventaja de poder incorporar fragmentos de DNA exógeno de gran tamaño (hasta unas 30 kb). Además, aunque su ciclo lítico lo realizan en el lugar de infección, establecen la latencia en neuronas, las cuales están implicadas en numerosas enfermedades del sistema nervioso, y son por ello dianas de gran interés. Los vectores herpesvíricos puestos en marcha han usado dos estrategias principales:


- La recombinación homóloga entre el genoma del virus completo y el contenido en un plásmido que llevaba el transgén en la zona que codifica para genes no esenciales en lo que se refiere a replicación e infección. - El uso de vectores con orígenes de replicación del virus así como las correspondientes secuencias de empaquetamiento, y su introducción en estirpes celulares bien coinfectadas con virus silvestres o bien portadoras del resto de genes del mismo implicados en la encapsidación y replicación, para permitir la formación de partículas virales recombinantes con las que realizar el tratamiento. No obstante, el uso de vectores basados en el HSV (virus del herpes simple), sólo puede llevarse a cabo en pacientes que no hayan sido infectados previamente por él, pues pueden presentar inmunidad. PROTEÍNA "PSEUDOTYPING" DE VECTORES VIRALES Los vectores virales descritos anteriormente tienen poblaciones naturales de células huésped que ellos infectan de manera eficiente. Sin embargo, algunos tipos celulares no son sensibles a la infección por estos virus. La entrada del virus a la célula está mediada por proteínas de su superficie externa (que pueden formar parte de una cápside o de una membrana). Estas proteínas interaccionan con receptores celulares que pueden inducir cambios estructurales en el virus y contribuir a su entrada en la célula por endocitosis. En cualquier caso, la entrada en las células huésped requiere una interacción favorable entre una proteína de la superficie del virus, y una proteína de la superficie de la célula. Según la finalidad de una determinada terapia génica, se podría limitar o expandir el rango de células susceptibles a la infección por un vector. Por ello, se han desarrollado vectores conocidos como "pseudotyped", en los cuales la cubierta vírica de proteínas silvestre ha sido remplazada por péptidos de otros virus, o por proteínas quiméricas, que constan de las partes de la proteína vírica necesarias para su incorporación en el virión, así como las secuencias que supuestamente a interaccionar con receptores específicos de proteínas celulares. Por ejemplo, el vector retrovírico más popular para el uso en pruebas de terapia génica ha sido el virus de la inmunodeficiencia en simios revestido con la cubierta de proteínas G del virus de la estomatitis vesicular. Este vector se conoce como VSV y puede infectar a casi todas las células, gracias a la proteína G con la cual este vector es revestido [cita requerida]. Se ha intentado en numerosas ocasiones limitar el tropismo (capacidad de infectar a muchas células) de los vectores virales. Este avance podría permitir la administración sistemática de una cantidad relativamente pequeña del vector. La mayoría de los intentos han utilizado proteínas quiméricas para la envuelta, las cuales incluían fragmentos de anticuerpos. MÉTODOS NO VIRALES Estos métodos presentan ciertas ventajas sobre los métodos virales, tales como facilidades de producción a gran escala y baja inmunogenicidad. Anteriormente, los bajos niveles de transfección y expresión del gen mantenían a los métodos no virales en una situación menos ventajosa; sin embargo, los recientes avances en la tecnología de vectores han producido moléculas y técnicas de transfección con eficiencias similares a las de los virus. ADN DESNUDO


Éste es el método más simple de la transfección no viral. Consiste en la aplicación localizada de, por ejemplo, un plásmido con ADN desnudo. Varios de estos ensayos dieron resultados exitosos[cita requerida]. Sin embargo, la expresión ha sido muy baja en comparación con otros métodos de transformación. Además de los ensayos con plásmidos, se han realizado ensayos con productos de PCR, y se ha obtenido un éxito similar o superior. Este logro, sin embargo, no supera a otros métodos, lo que ha llevado a una investigación con métodos más eficientes de transformación, tales como la electroporación, la sonicación, o el uso de la biobalística, que consiste en disparar partículas de oro recubiertas de ADN hacia las células utilizando altas presiones de gas. OLIGONUCLEÓTIDOS El uso de oligonucleótidos sintéticos en la terapia génica tiene como objetivo la inactivación de los genes implicados en el proceso de la enfermedad. Existen varias estrategias para el tratamiento con oligonucleótidos Una estrategia, la terapia "antisentido" utiliza oligonucleótidos con la secuencia complementaria al RNAm del gen diana, lo que activa un mecanismo de silenciamiento génico. También se puede usar para alterar la transcripción del gen defectuoso, modificando por ejemplo su patrón de edición de intrones y exones. También se hace uso de moléculas pequeñas de RNAi para activar un mecanismo de silenciamiento génico similar al de la terapia antisentido Otra posibilidad es utilizar oligodesoxinucleótidos como un señuelo para los factores que se requieren en la activación de la transcripción de los genes diana. Los factores de transcripción se unen a los señuelos en lugar de al promotor del gen defectuoso, lo que reduce expresión de los genes diana. Además, oligonucleótidos de ADN monocatenario han sido utilizados para dirigir el cambio de una única base dentro de la secuencia de un gen mutante. Al igual que los métodos de ADN desnudo, requieren de técnicas de transformación para introducirse en la célula. CROMOSOMAS ARTIFICIALES La creación de cromosomas humanos artificiales (HACs) estables es una de las posibilidades que se baraja en la actualidad como una de las formas de introducir ADN permanentemente en células somáticas para el tratamiento de enfermedades mediante el uso de la terapia génica. Presentan una elevada estabilidad, además de permitir introducir grandes cantidades de información genética. LIPOPLEXES Y POLIPLEXES El vector de ADN puede ser cubierto por lípidos formando una estructura organizada, como una micela o un liposoma. Cuando la estructura organizada forma un complejo con el ADN entonces se denomina lipoplexe. Hay tres tipos de lípidos: aniónicos, neutros, o catiónicos. Inicialmente, lípidos aniónicos y neutros eran utilizados en la construcción de lipoplexes para vectores sintéticos. Sin embargo, estos son relativamente tóxicos, incompatibles con fluidos corporales y presentan la posibilidad de adaptarse a permanecer en un tejido específico. Además, son complejos y requieren tiempo para producirlos, por lo que la atención se dirigió a las versiones


catiónicas. Éstos, debido a su carga positiva, interaccionan con el ADN, que presenta carga negativa, de tal forma que facilita la encapsulación del ADN en liposomas. Más tarde, se constató que el uso de lípidos catiónicos mejoraba la estabilidad de los lipoplexes. Además, como resultado de su carga, los liposomas catiónicos interactúan también con la membrana celular, y se cree que la endocitosis es la principal vía por la que las células absorben los lipoplexes. Los endosomas se forman como resultado de la endocitosis. Sin embargo, si los genes no pueden liberarse al citoplasma por rotura de la membrana del endosoma, los liposomas y el ADN contenido serán destruidos. La eficiencia de ese "escape endosomal" en el caso de liposomas constituidos solo por lípidos catiónicos es baja. Sin embargo, cuando “lípidos de ayuda” (normalmente lípidos electroneutrales, tales como DOPE) son añadidos, la eficacia es bastante mayor. Además, ciertos lípidos (lípidos fusogénicos) tienen la capacidad de desestabilizar la membrana del endosoma. El uso de ciertos compuestos químicos, como la cloroquina, permite al ADN exógeno escapar del lisosoma, si bien deben usarse con precaución, ya que es tóxico y debe usarse en dosis pequeñas para no afectar a la célula diana de transfección. No obstante, los lípidos catiónicos presentan efectos tóxicos dependientes de dosis, lo que limita la cantidad que de ellos se puede usar y por tanto la terapia en sí. El uso más común de los lipoplexes es la transferencia de genes en células cancerosas, donde los genes suministrados activan genes supresores del tumor en la célula y disminuyen la actividad de los oncogenes. Estudios recientes han mostrado que lipoplexes son útiles en las células epiteliales del sistema respiratorio [cita requerida], por lo que pueden ser utilizados para el tratamiento genético de las enfermedades respiratorias como la fibrosis quística. Los complejos de polímeros de ADN se denominan poliplexes y la mayoría consisten en polímeros catiónicos, regulados por interacciones iónicas. Una gran diferencia entre los métodos de acción de poliplexes y lipoplexes es que algunos poliplexes no pueden liberar su ADN cargado al citoplasma, por lo que requieren de la contransfección con agentes que contribuyan a la liss del endosoma. Existen otros elementos formadores de poliplexes, como el quitosano o la polietilamina, que si son capaces de liberarse del endosoma. MÉTODOS HÍBRIDOS Debido a las deficiencias de muchos de los sistemas de transferencia génica se han desarrollado algunos métodos híbridos que combinan dos o más técnicas. los virosomas son un ejemplo, y combinan liposomas con el virus inactivado vih o el virus de la gripe. DENDRÍMEROS Un dendrímero es una macromolécula muy ramificada con forma esférica o variable. Su superficie puede ser funcional de muchas formas y de ésta derivan muchas de sus propiedades. Además, su tamaño, en la escala nano-, permite su uso en biomedicina. En particular, es posible construir un dendrímero catiónico, es decir, con carga superficial positiva. De esta forma, interacciona con el ácido nucleico, cargado negativamente, y forma un complejo que puede entrar por endocitosis en la célula. Esto es útil en terapia génica, para introducir genes exógenos.


Los costes de producción son elevados, pero se están desarrollando técnicas que permiten abaratarlo, puesto que se trata de una técnica con una toxicidad muy baja, y su principal desventaja es a nivel productivo. CÉLULAS DIANA Las células diana se seleccionan en función del tipo de tejido en el que deba expresarse el gen introducido, y deben ser además células con una vida media larga, puesto que no tiene sentido transformar células que vayan a morir a los pocos días. Igualmente, se debe tener en cuenta si la diana celular es una célula en división o quiescente, porque determinados vectores virales, como los retrovirus, sólo infectan a células en división. En función de estas consideraciones, las células diana ideales serían las células madre, puesto que la inserción de un gen en ellas produciría un efecto a largo plazo. Debido a la experiencia en trasplante de médula ósea, una de las dianas celulares más trabajadas son las células madre hematopoyéticas. La terapia génica en estas células es técnicamente posible y es un tejido muy adecuado para la transferencia ex vivo. Otras dianas celulares con las que se ha trabajado son:  Linfocitos: son células de larga vida media y fácil acceso (se encuentran en la sangre periférica). Constituyen un blanco para terapias ex vivo de melanomas e inmunodeficiencias.  Epitelio respiratorio: son células de división muy lenta y en ellas no es posible la transferencia ex vivo, pero sí su transformación mediante adenovirus y lipoplexes.  Hepatocitos: su transformación en posible tanto ex vivo (es factible cultivar las células y transplantarlas por la circulación portal) como in vivo (se están desarrollando receptores proteicos específicos de hepatocitos).  Fibroblastos dérmicos: son células de fácil acceso y cultivo, y pueden transformarse tanto ex vivo como in vivo, pero suelen tener efectos transitorios.  Células musculares: pueden transformarse mediante inyección in vivo de ADN y también mediante adenovirus, pero con un éxito muy limitado en este último caso. Principales acontecimientos en el desarrollo de la terapia génica La terapia génica apareció a partir de la década de 1970 para intentar tratar y paliar enfermedades de carácter genético y se dieron las primeras pruebas con virus, las cuales fracasaron. Años más tarde, en la década de 1980, se intentó tratar la talasemia usando betaglobina. En este caso fue un éxito en modelos animales aunque no se pudo usar en humanos. En 1990, W. French Anderson propone el uso de células de médula ósea tratadas con un vector retroviral que porta una copia correcta del gen que codifica para la enzima adenosina desaminasa,2 la cual se encuentra mutada. Es una enfermedad que forma parte del grupo de las inmunodeficiencias severas combinadas (SCID). Realizó la transformación ex-vivo con los linfocitos T del paciente, que luego se volvieron a introducir en su cuerpo. Cinco años más tarde, publicaron los resultados de la terapia, 3 que contribuyó a que la comunidad científica y la sociedad consideraran las posibilidades de esta técnica. No obstante, el apoyo a la terapia fue cuestionado cuando algunos niños tratados para SCID desarrollaron leucemia.4 Las pruebas clínicas se interrumpieron temporalmente en el 2002, a causa del impacto que suposo el caso de Jesse Gelsinger, la primera persona reconocida públicamente como fallecida a causa de la terapia génica. Su muerte se debió al uso del vector adenoviral para la transducción del gen necesario para tratar su enfermedad, lo cual


causó una excesiva respuesta inmune, con un fallo multiorgánico y muerte cerebral. Existe una bibliografía numerosa sobre el tema, y es destacable el informe que la FDA emitió señalando el conflicto de intereses de algunos de los médicos implicados en el caso así como los fallos en el procedimiento. En el año 2002, cuatro ensayos en marcha de terapia génica se paralizaron al desarrollarse en un niño tratado una enfermedad similar a la leucemia.5 Posteriormente, tras una revisión de los procedimientos, se reanudaron los proyectos en marcha. 2003 Un equipo de investigadores de la Universidad de California, en Los Ángeles, insertó genes en un cerebro utilizando liposomas recubiertos de 6 un polímero llamado polietilenglicol(PEG). La transferencia de genes en este órgano es un logro significativo porque los vectores virales son demasiado grandes para cruzar la barrera hematoencefálica. Este método tiene el potencial para el tratamiento de la enfermedad del Parkinson. También en ese año se planteó la interferencia por ARN para tratar la enfermedad de Huntington.7 2006 Científicos del NIH tratan exitosamente un melanoma metastásico en dos pacientes, utilizando células T para atacar a las células cancerosas. Este estudio constituye la primera demostración de que la terapia génica puede ser efectivamente un tratamiento contra el cáncer.8 En marzo de 2006, un grupo internacional de científicos anunció el uso exitoso de la terapia génica para el tratamiento de dos pacientes adultos contagiados por una enfermedad que afecta a las células mieloides. El estudio,9 publicado en Nature Medicine, es pionero en mostrar que la terapia génica puede curar enfermedades del sistema mieloide. En mayo de 2006, un equipo de científicos dirigidos por el Dr. Luigi Naldini y el Dr. Brian Brown del Instituto de San Raffaele Telethon para la Terapia Génica (HSR-TIGET) en Milán, informaron del desarrollo de una forma de prevenir que el sistema inmune pueda rechazar la entrada de genes.10 Los investigadores del Dr. Naldini observaron que se podía utilizar la función natural de los microRNA para desactivar selectivamente los genes terapéuticos en las células del sistema inmunológico. Este trabajo tiene implicaciones importantes para el tratamiento de la hemofilia y otras enfermedades genéticas. En noviembre del mismo año, Preston Nix de la Universidad de Pensilvania informó sobre VRX496,11 una inmunoterapia para el tratamiento del HIV que utiliza un vector lentiviral para transportar un DNA antisentido contra la envuelta del HIV. Fue la primera terapia con un vector lentiviral aprobada por la FDA para ensayos clínicos. Los datos de la fase I/II ya están disponibles.12 2007 El 1 de mayo de 2007, el hospital Moorfields Eye y la universidad College London´s Institute of Ophthalmology, un año después el Hospital de Niños de Filadelfia anunciaron el primer ensayo de terapia génica para la enfermedad hereditaria de retina. La primera operación (en Inglaterra) se llevó a cabo en un varón británico de 23 años de edad, Robert Johnson, a principios de este año.13 Mientras que en Filadelfia Corey Haas fue el primer niño en obtener este tipo de terapeutica. La Amaurosis congénita de Leber es una enfermedad hereditaria que causa la ceguera por mutaciones en el gen RPE65. Los resultados de la


Moorfields/UCL se publicaron en New England Journal of Medicine. Se investigó la transfección subretiniana por el virus recombinante adeno-asociado llevando el gen RPE65, y se encontraron resultados positivos. Los pacientes mostraron incremento de la visión, y no se presentaron efectos secundarios aparentes. 14 Los ensayos clínicos de esta terapia se encuentran en fase II.15 Una de las etapas a realizar es la determinación del tipo molecular que atiñe cada enfermedad (o http://es.wikipedia.org/wiki/Distrofias_de_la_retina). A nivel retiniano se realiza en América Latina por la corporación Virtual Eye Care MD, conocida y de renombre por su calidad a realizar este trabajo de relación entre fenotipo y genotipo. www.virtualeyecaremd.com 2008 Investigadores de la Universidad de Míchigan en Ann Arbor (Estados Unidos) desarrollaron una terapia genética que ralentiza y recupera las encías ante el avance de la enfermedad periodontal, la principal causa de pérdida de dientes en adultos. Los investigadores descubrieron una forma de ayudar a ciertas células utilizando un virus inactivado para producir más cantidad de una proteína denominada receptor TNF. Este factor se encuentra en bajas cantidades en los pacientes con periodontitis. La proteína administrada permite disminuir los niveles excesivos de TNF, un compuesto que empeora la destrucción ósea inflamatoria en pacientes que sufren de artritis, deterioro articular y periodontitis. Los resultados del trabajo mostraron que entre el 60 y el 80 por ciento de los tejidos periodontales se libraban de la destrucción al utilizar la terapia génica. 2009 En septiembre de 2009, se publicó en Nature que unos investigadores de la Universidad de Washington y la Universidad de Florida fueron capaces de proporcionar visión tricromática a monos ardilla usando terapia génica.17 En noviembre de ese mismo año, la revista Science publicó resultados alentadores sobre el uso de terapia génica en una enfermedad muy grave del cerebro, la adrenoleucodistrofia, usando un vector retroviral para el tratamiento. 2012 El 2 de noviembre la Comisión Europea autorizo a Glybera, una empresa alemana(Amsterdam), a lanzar un tratamiento para un extraño desorden genético - la deficiencia de lipoproteinlipasa(LPL). PORCENTAJES DE ENSAYOS DE TERAPIA GÉNICA EN LA ACTUALIDAD



ENFERMEDADES Y TERAPIA GÉNICA Son numerosas las enfermedades objeto de la terapia génica, siendo las más características las tratadas a continuación: ADA El primer protocolo clínico aprobado por la FDA para el uso de la terapia génica fue el utilizado en el tratamiento de la deficiencia en adenosín deaminasa (ADA) que provoca un trastorno de la inmunidad, en 1990. En estos pacientes no se ha podido retirar el tratamiento enzimático exógeno necesario para su supervivencia, sino sólo disminuirlo a la mitad y se ha detectado la persistencia en la expresión del gen aún después de cuatro años de iniciado el protocolo. Aunque no se haya logrado la completa curación de los pacientes (que consistiría en retirar todo el aporte enzimático exógeno) este constituye un hecho inédito en la historia terapéutica. En 2009 se hace un nuevo experimento en el que extraen células hematopoyéticas de la médula ósea para la introducción del gen ADA ex vivo mediante un retrovirus modificado (GIADA). Las células modificadas se vuelven a introducir en el paciente. Los resultados de este experimento fueron exitosos porque ninguno de los pacientes desarrollo leucemia (como si había ocurrido con el empleo de retrovirus). Además, todos los pacientes desarrollaron una expresión correcta del gen ADA durante los años de seguimiento que se les hizo y consiguieron un aumento de células sanguíneas. De esta manera 8 de los nueve pacientes no necesita tratamiento enzimático exógeno para complementar la terapia génica. CÁNCER El tratamiento del cáncer hasta el momento ha implicado la destrucción de las células cancerosas con agentes quimioterapéuticos, radiación o cirugía. Sin embargo, la terapia génica es otra estrategia que en algunos casos ha logrado que el tamaño de tumores sólidos disminuya en un porcentaje significativo. Los principales métodos que utiliza la terapia génica en el cáncer son: 1. Aumento de la respuesta inmune celular antitumoral (terapia inmunogénica). Está basada en la habilidad del sistema inmune para atacar contra el cáncer. Para ello, se


2.

3.

4.

5.

introducen antígenos en células tumorales permitiendo que las células inmunes puedan reconocer a las células tumorales. Así, se puede transformar las células tumorales con la proteína CD80, glicoproteína de membrana de células presentadoras de antígenos que se une a linfocitos T potenciando la respuesta inmune. Introducción de genes activadores de drogas dentro de las células tumorales o terapia de genes suicidas. Consiste en la introducción selectiva de genes en células tumorales y no en las demás, que codifican para la susceptibilidad a drogas que de otra manera no serían tóxicas. Esto lleva a la inserción de enzimas; como por ejemplo HSV-tk [Herpex simplex virus timidina kinasa]) y citosina desaminasa, que son enzimas inofensivas para las células de mamíferos y convierten prodrogas (vg ganciclovir y 5-fluorocitosina) en metabolitos citotóxicos que destruyen a las células tumorales en proliferación. Normalización del ciclo celular. Consiste en la inactivación de oncogenes mutados, como el ras, o en la reexpresión de antioncogenes o genes supresores de tumor inactivos como el p53. Se han llevado a cabo ensayos clínicos en los que se inyecta en células tumorales retrovirus que expresan p53. El problema es que se necesitan grandes cantidades de virus para tratar los tumores muy extendidos y los retrovirus presentan una baja eficiencia de trasfección. Manipulación de las células de la médula ósea. Es utilizada principalmente en la terapia génica de desórdenes hematológicos, y consiste en transferir a las células progenitoras hematopoyéticas genes de quimioprotección o de quimiosensibilización, entre otros. Este es el caso del gen MDR1 estudiado en el cáncer de mama que, trasplantado en células precursora de linfocitos T y NKs ( células CD34 positivas), hace que las células transfectadas sean más resistentes a altas dosis de quimioterapia. Uso de ribozimas y tecnología antisentido o "antisense". Las ribozimas son ARN con actividad catalítica que actuarían incrementando la degradación del ARN recién traducido, disminuyendo proteínas específicas no deseadas, factor que a veces se asocia a alteraciones tumorales. La tecnología antisentido se refiere a oligonucleótidos de ARN que no tienen actividad catalítica, sino que son complementarios a una secuencia génica y que pueden actuar bloqueando el procesamiento del RNA, impidiendo el transporte del mRNA o bloqueando el inicio de la traducción.

6. SÍNDROME DE WISKOTT-ALDRICH (WAS) El síndrome de Wiskott-Aldrich (WAS) es una enfermedad recesiva ligada al cromosoma X caracterizada por eczema, trombocitopenia, infecciones recurrentes, inmunodeficiencia así como una gran tendencia a los linfomas y a las enfermedades autoinmunes. También hay una versión más suave de esta enfermedad conocida como trombocitopenia ligada al cromosoma X o XLT caracterizada por microtrombocitopenia congénita con plaquetas de pequeño tamaño. Ambas enfermedades están producidas por mutaciones en el gen WAS que codifica para una proteína multidominio que sólo se expresa en células hematopoyéticas, WASP. Por lo tanto, la mayoría de los que padecen este síndrome sufren una muerte prematura debido a una infección, hemorragia, cáncer o anemia grave


autoinmune. Actualmente, se han realizado tratamientos eficaces en pacientes con el síndrome de Wiskott-Aldrich por medio de trasplantes de médula ósea o sangre del cordón umbilical de un donante HLA idéntico o compatible. En 2010 se publica un estudio que muestra importante mejoras en dos niños diagnosticados con la enfermedad. La terapia consistió en extraer las células madre hematopoyéticas y volvérselas a trasferir tras integrarles el gen WAS en el genoma. Tras la terapia génica, detectaron niveles significativos de la proteína WASP en las diferentes células del sistema inmune de los pacientes. El resultado fue que los pacientes tuvieron varias mejoras significativas: uno de ellos se recuperó por completo de la anemia autoinmune y el otro paciente redujo el eczema que sufría. BETA TALASEMIA La β-talasemia constituye un desorden genético con mutaciones en el gen de la β-globulina que reduce o bloquea la producción de esta proteína. Los pacientes con esta enfermedad padecen anemia severa y requieren trasfusiones de sangre a lo largo de toda su vida. La terapia génica tiene como objetivo sanar las células madre de la médula ósea mediante la transferencia de la β-globina normal o gen de β-globina en células madre hematopoyéticas (CMH) para producir de forma permanente los glóbulos rojos normales. Para llevarlo a cabo se pretende emplear lentivirus porque varios estudios muestran la corrección de la βtalasemia en modelos animales. Los objetivos de la terapia génica con esta enfermedad son: optimizar la transferencia de genes, la introducción de una gran cantidad de CMH modificadas genéticamente y reducir al mínimo las consecuencias negativas que pueden derivarse de la integración al azar de los vectores en el genoma. PROBLEMAS DE LA TERAPIA GÉNICA Y DE SUS APLICACIONES Un concepto muy importante del que radican algunos aspectos de la seguridad de la terapia génica es el de la barrera Weismann. Se refiere al hecho de que la información hereditaria sólo va de células germinales a células somáticas, y no al revés. La terapia génica en células germinales es mucho más controvertida que en células somáticas, pero aun así, si la barrera Weismann fuera permeable a algún intercambio de información, como algunos autores señalan, 19 incluso la terapia en células somáticas podría tener problemas éticos y de seguridad que antes no habrían sido considerados. La naturaleza de la propia terapia génica y sus vectores, implica que en muchas ocasiones los pacientes deben repetir la terapia cada cierto tiempo porque ésta no es estable y su expresión es temporal. La respuesta inmune del organismo ante un agente extraño como un virus o una secuencia de ADN exógena. Además, esta respuesta se refuerza en las sucesivas aplicaciones de un mismo agente. Problemas relacionados los vectores virales. Podrían contaminarse tanto por sustancias químicas como por virus con capacidad de generar la enfermedad. Implican también riesgos de respuesta inmune Trastornos multigénicos: representan un reto muy grande para este tipo de terapia, ya que se trata de enfermedades cuyo origen reside en mutaciones en varios genes, y aplicar el tratamiento se encontraría con las dificultades clásicas de la terapia multiplicadas por el número de genes a tratar.


Posibilidad de inducir un tumor por mutagénesis. Esto puede ocurrir si el ADN se integra por ejemplo en un gen supresor tumoral. Se ha dado este caso en los ensayos clínicos para SCID ligada al cromosoma X, en los cuales 3 de 20 pacientes desarrollaron leucemia. 20 Terapia génica en otros animales El primer ejemplo de terapia génica en mamíferos fue la corrección de la deficiencia en la producción de la hormona del crecimiento en ratones.[cita requerida] La mutación recesiva little (lit) produce ratones enanos. A pesar de que estos presentan un gen de la hormona del crecimiento aparentemente normal, no producen mARN a partir de este gen. El primer paso en la corrección del defecto consistió en la inyección de cinco mil copias de un fragmento de ADN lineal portador de la región estructural del gen de la hormona del crecimiento de la rata fusionado al promotor del gen de la metalotioneína de ratón, en huevos lit. La función normal de la metalotioneína es la destoxificación de los metales pesados, por lo que la región reguladora responde a la presencia de metales pesados en el animal. Los huevos inyectados fueron implantados en hembras. El 1% de los ratones de la descendencia resultaron ser transgénicos, y alcanzaron mayor tamaño. Se ha creado una tecnología similar para generar variedades transgénicas de salmón del Pacífico con una tasa rápida de crecimiento y, los resultados han sido espectaculares.Se microinyectó en huevos de salmón un plásmido portador del gen de la hormona del crecimiento regulado por el promotor de la metalotioneína y una pequeña porción de peces resultantes fueron transgénicos, pesando once veces más que los no transgénicos. TERAPIA GÉNICA EN LA CULTURA POPULAR En series de televisión como Dark Angel, el tema de la terapia génica se menciona como una de las prácticas realizadas en niños transgénicos y sus madres. También en la serie Alias, aparece la terapia génica molecular como explicación a dos individuos idénticos. Es un elemento fundamental en la trama de videojuegos como Bioshock o Metal Gear Solid, y desempeña un papel importante en la trama de películas como Muere otro día, de James Bond o Soy leyenda, de Will Smith, entre otras muchas. Genes que curan genes PALOMA GUINEA SEVILLA. Para una persona sana resulta difícil de entender. Las mejoras en las terapias de determinadas enfermedades como la ceguera, residen en una diferencia aparentemente tan reducida, que en muchas ocasiones, se presume mínima, en un ojo sano, siendo de valor incalculable, para el ojo enfermo. Es el caso de la distrofia hereditaria de retina, una variante de tipo genético que en la actualidad, no dispone de fármacos efectivos. Esta enfermedad integra una de las cuestiones por las que demuestra especial interés el Programa Andaluz de Genética Clínica y Medicina Genómica, que ha presentado en las últimas semanas la Consejería de Salud, después de que un equipo internacional, liderado por científicos sevillanos del Hospital Virgen del Rocío, lograra identificar el gen causante de esta clase de distrofia, que en España afecta a una de cada 4.000 personas, provocando la ceguera a quienes la padecen. El descubrimiento del gen ha sido posible gracias al trabajo desarrollado durante 12 años, por la Unidad de Genética y Reproducción del centro, que ha liderado la investigación, en la que han participado científicos procedentes del Instituto Oftalmológico de la University College de Londres; una de las universidades con mayor prestigio de Reino Unido, que cuenta con 20 premios Nobel, entre sus graduados y profesores. Los investigadores andaluces estiman que el gen en cuestión, es el responsable del 14 por ciento


del total de las distrofias hereditarias. Los ensayos a los que dará lugar su análisis, permitirán impulsar nuevas estrategias terapéuticas, tanto para esta forma de ceguera, como para otras enfermedades no hereditarias. Sustitución genética Con el modelo de terapia génica, desarrollado por el estudio del hospital sevillano en colaboración con científicos ingleses y franceses, se persigue introducir copias de genes normales en las células de los pacientes de patologías monogénicas (aquellas que derivan de la mutación de un gen), con el fin de corregir la enfermedad, reemplazando con la dotación genética sana, la función del gen defectuoso. El equipo tiene previsto que la transferencia del material genético terapéutico en pacientes se realice, empleando como conductores, tipos de virus convenientemente modificados, que transfieran el ADN normal que sustituirá los genes defectuosos, favoreciendo que sea posible frenar e incluso, revertir la ceguera. El primer paso ha sido la caracterización del gen, a él le seguirán, el inicio de los ensayos clínicos con animales, que prevén para finales de 2008 y tras un seguimiento que confirme la efectividad del posible tratamiento, se iniciarán las pruebas en pacientes. Se trata de un proceso que implicaría diez años de investigación más, para su implantación en los tratamientos. «Estamos realizando un profundo y extenso análisis de señalización celular. Saltarse pasos, no tiene ningún sentido» explica Guillermo Antiñolo, director del Plan de Genética de Andalucía. Por otro lado, el descubrimiento del Virgen del Rocío, supone un paso importante hacia una cura para los pacientes de Retinosis Pigmentaria, que actualmente no existe. Largo camino Marisa Domínguez, de la FARPE (Federación de la Asociación de Afectados de Retinosis Pigmentaria de España) se muestra optimista, aunque observa con cierta precaución el avance: «es una gran noticia, pero queda un campo por desarrollar muy complicado ». Esta afección es la segunda causa de ceguera en nuestro país, con más de 15.000 personas que la padecen. La degeneración de la retina comienza en la infancia, y se desarrolla hasta causar la ceguera total en edades más avanzadas. El Programa Andaluz de Genética Clínica de la Consejería de Salud de la Junta continuará trabajando para que la distrofia hereditaria de retina, una variante de tipo genético que en la actualidad no dispone de fármacos efectivos, sea un mal remediable, redundando así en el bienestar y en la calidad de vida de las personas afectadas. La Unidad de Genética y Reproducción del Hospital Virgen del Rocío, en colaboración con un equipo de científicos del Reino Unido, ha descubierto el gen causante de la distrofia hereditaria de la retina, una enfermedad denominada «rara», que afecta a una de cada 4.000 personas en España ABC Especialistas del Virgen del Rocío han trabajado en esta investigación junto a ingleses y franceses.


El futuro de la medicina, en manos de la 'ingeniería genética' Una mujer, en un laboratorio científico. (GTRES) Una de las técnicas principales para la cura del cáncer o la modificación del ADN consistiría en "cortar" trozos de genes y reemplazarlos por otros dañados. Además se pretende manipular los genomas para que el tratamiento de enfermedades sea más eficaz y tenga mayores repercusiones. El principal problema está ligado al desconocimiento ya que se necesitaría realizar un estudio profundo sobre las funciones reales que tienen los genes. Todavía no se han realizado ensayos clínicos que permitan ver su eficacia. ECO Actividad social ¿QUÉ ES ESTO? 55% 14 +2 NOELIA PÉREZ 02.05.2016 - 07:17hNoeliaPerez13 La medicina genética, que se encarga de estudiar el papel que desempeñan los factores del ADN hereditario en distintas enfermedades, está avanzando progresivamente en los últimos años. Muchas han sido las pruebas que se han llevado a cabo en animales, sin embargo, todavía está por verse el efecto que producirían las mismas en seres humanos. Un ejemplo de los progresos médicos es la creación de la técnica 'CRISPR/cas9', más conocida como 'ingeniería genética', que mejoraría la calidad de vida de las personas que padecen determinadas enfermedades e incluso ayudaría a curar diversos tipos de cáncer o enfermedades hereditarias degenerativas. Hasta ahora este procedimiento solo se utilizaba para la creación de nuevas cepas (microorganismos), variedades (plantas) y razas (animales), consiguiendo productos más eficientes pero la terapia quiere trasladarse a los seres humanos. En este caso, consistiría en "'cortar' trozos de genes e intentar reinsertarlos donde hay otros que funcionan mal", tal y como explica el director de la Cátedra Interuniversitaria sobre Derecho y Genoma Humano organizada por la Universidad del País Vasco (UPV) y la Universidad de Deusto, Carlos María Romeo Casabona. No va a ser una realidad de aquí a diez años aunque hay que empezar ya a reflexionar sobre su alcance La 'CRISPR/cas9', según relata, es "una técnica muy barata, eficiente y sencilla" y que ahora se utiliza en los laboratorios "más punteros". Sin embargo, todavía no se han realizado ensayos clínicos (en humanos) que muestren su funcionamiento real, a pesar de que los avances científicos están ahondando cada vez más en el genoma humano para obtener más información


sobre él. El principal problema para comenzar con los análisis está ligado al desconocimiento y para que se realicen en un periodo corto de tiempo, primero sería necesario un estudio profundo sobre las funciones reales que tienen los genes involucrados en esas enfermedades, tanto primarias como secundarias. En este sentido, Carlos María Romeo tiene esperanzas de que se consigan pero asegura que "no va a ser una realidad de aquí a diez años aunque hay que empezar ya a reflexionar sobre su alcance y consecuencias éticas, biológicas y legales". Posibles avances y perspectivas Medicamentos personalizados: Los tratamientos y medicamentos que reciben en la actualidad los pacientes que padecen las mismas enfermedades es similar. Con la realización de nuevos estudios genéticos que analicen las características personales de cada ser humano, podría lograrse que las terapias fueran personalizadas y adaptadas según las características individuales y genéticas de cada paciente. "Un medicamento puede ir bien a una persona y mal a otra por lo que habría que buscar un medicamento adaptado a sus características biológicas", señala Romeo Casabona. Esto también podría permitir calcular las dosis necesarias en función del grado de implantación de la enfermedad o posible avance de la misma según la persona. Modificación del ADN: También denominada 'Edición de Genomas'. Esta técnica, a pesar de su nombre, no quiere decir que se editen los genomas sino que se manipulan y se transforman intentando que el tratamiento de enfermedades sea más eficaz y tenga mayores repercusiones. Esta posibilidad abriría el abanico para estudiar y cambiar o suplantar las funciones de los genes tanto en embriones como en personas ya nacidas. En embriones: Se puede utilizar en la modificación del ADN de los futuros hijos antes de la procreación modificando los gametos o modificando el cigoto —el ovocito una vez que ha sido fecundado—. Esta técnica no se ha permitido de momento en ningún país porque se correrían debido a los múltiplos efectos que todavía se desconocen. En personas ya nacidas: Ya se ha intentado con anterioridad pero nunca ha dado buen resultado a largo plazo. "Comenzó utilizándose para identificar a los 'niños burbuja' (personas que tienen que vvir en ambientes completamente estériles para evitar contagios y no suelen llegar a edad adulta). Se intentó


modificar el ADN de varios y, a priori, tuvo éxito pero a medio-largo plazo no dio resultado". Clonación: En este sentido no es que se manipule solamente un gen determinado, sino que se cambia todo un genoma por otro. "La oveja Dolly, el primer mamífero clonado, nació en 1996 y cuando murió tenía 6 años. Era vieja a pesar de ser una oveja joven", recuerda el director de la Cátedra Internacional de la Universidad de Deusto y la UPV y añade que "todos los mamíferos somos diferentes unos con otros y todos los mecanismos de funcionamiento a nivel molecular entre todos los seres humanos son diferentes". Si quitamos un gen y ponemos otro, al estar conectado con todos los demás y desconocer realmente todas sus funciones, correríamos un gran riesgoA pesar de esto, Romeo Casabona considera que "algún día se conseguirá, si no es por un procedimiento es por otro" pero es cauto porque "se necesita tener todas las vías controladas y saber que no habrá grandes efectos secundarios. Si quitamos un gen y ponemos otro, al estar conectado con todos los demás y no conocer realmente todas sus funciones, correríamos un gran riesgo. Para avanzar en este tema se requiere mucha paciencia, mucha persistencia y gran una capacidad de innovación". Cura o predicción temprana de enfermedades: Muchos tipos de cáncer o enfermedades degenerativas están provocadas precisamente por patologías que vienen de determinados genes, si estos genes pudieran suplantarse por otros nuevos podríamos decir que la cura del cáncer detectado precozmente sería inmediata. Además, "los genes dan una información predictiva sobre si una persona que está sana o un embrión va a desarrollar una enfermedad o tiene una alta probabilidad de padecerla en un futuro". Mejora del rendimiento: Tal y como hasta ahora, por ejemplo, se han transferido a los tomates genes de peces para que resistan mejor a las bajas temperaturas del invierno, a los seres humanos podría aplicarse la misma técnica. Esto podría ayudar al rendimiento tanto fístico como mental de las personas. Conocer las capacidades cognitivas y el aspecto físico de los niños antes de nacer: A través del conocimiento de la composición genética de los niños, se puede descubrir la influencia de los rasgos ambientales y de su forma de vida, así como el impacto de lo que comen, beben, el sitio en el que viven, su estilo de vida y


lo activos que son. Saber su patrón de crecimiento, su potencial atlético, pronosticar si un niño tiene tendencia genética a necesitar gafas o su grado de rendimiento de memoria, son cuestiones que pueden guiar a los padres a la hora de elegir qué deportes son mejores para su hijo, potenciar sus habilidades, o determinar los comportamientos se deben reforzar. MANIPULAR GENES PARA CURAR La semana pasada la terapia génica recibió un empujón que la devuelve al primer plano de la actualidad cuando se publicó que curó a 13 'niños burbuja'. ¿Quiere esto decir que ya se han solucionado los muchos problemas que la apartaron de la lista de los tratamientos más prometedores del siglo XXI? Hay que admitirlo: el concepto de la terapia génica es atractivo. Como sacado de un cuento de ciencia ficción, pero con la diferencia de que podría ser realidad a corto plazo. O, por lo menos, esto parecía a finales del siglo pasado. La idea de 'inyectar' un gen a las células enfermas para que éstas recuperen su función no puede ser más simple… ni más difícil de llevar a cabo.

Lo comentábamos en este blog hace un par de años: la terapia génica pasó de la noche a la mañana de joven promesa a monstruo intocable por culpa de una serie de fracasos inesperados, que acabaron con la muerte de un muchacho en uno de los primeros ensayos clínicos. Después vino una larga travesía del desierto, de la que se empezó a salir hace pocos años. Y ahora tenemos otra prueba más de que podría funcionar de verdad. La noticia son dos nuevos estudios que cuentan que 13 niños con inmunodeficiencia severa parece que se han curado gracias a la terapia génica. El problema de esta enfermedad es que el sistema inmune no funciona por culpa de un gen defectuoso, por lo que los niños tienen que vivir aislados de cualquier microbio bajo unas campanas especiales (por eso se la llama


familiarmente la enfermedad de los niños burbuja). Los dos trabajos se centran en formas diferentes de la enfermedad, cada una causada por un gen distinto. El tratamiento se basa en los dos casos en sacar células madre de la sangre, que se encuentran en la médula ósea, ponerles el gen que les falta y volverlas a trasplantar al enfermo. Allí generaran las células inmunes necesarias. ¿Quiere decir esto que la terapia génica ya está a punto para convertirse en la solución de numerosos problemas médicos, tal y como se anunció hace tiempo? No exactamente. Quizá el truco es no ser demasiado ambiciosos, por lo menos de momento. La terapia génica tiene las de ganar cuando se enfrenta a enfermedades causadas por el fallo de un solo gen. La inmunodeficiencia de los niños burbuja es un ejemplo perfecto, por esto ha estado en el punto de mira de los expertos desde los primeros años de la técnica. Además, en este caso es fácil hacer llegar el gen a las células que lo necesitan, ya que se pueden sacar del cuerpo y tratar en el laboratorio, algo casi imposible en las enfermedades que no son de la sangre. Hay más motivos para no estar demasiado eufóricos si nos fijamos en la letra pequeña. Venimos leyendo sobre la efectividad de la terapia génica en las inmunodeficiencias de origen genético desde hace más de una década, no es nada nuevo. De hecho, el primer ensayo clínico positivo ya se publicó en el 2001. Y en el 2009 hubo otro par de artículos parecidos. El problema es que en estos casos, y también en uno de los trabajos de este año, hubo niños que sufrieron una leucemia como efecto secundario del tratamiento. Por desgracia, no es algo totalmente inesperado. Las complejas técnicas que se usan en terapia génica pueden alterar accidentalmente ciertos genes de algunas células y darles así el poder de dividirse sin control. Esto puede causar cánceres como la leucemia. Dada la gravedad de su enfermedad original, de la que con toda probabilidad acabarían muriendo, la mayoría de padres prefieren correr el riesgo. Pero jugársela a ser víctima de un cáncer por culpa de un tratamiento sería impensable en enfermedades más leves. Está claro que la terapia génica aún tiene que superar una serie de obstáculos serios. De momento se puede usar con éxito en situaciones especiales, como las que hemos visto hoy, y también en algunas leucemias y cegueras. Para el resto, tendremos que esperar a que se pueda garantizar su seguridad y a superar algunos obstáculos técnicos importantes que aún quedan. MADURO ANUNCIA CREACIÓN DE CRIPTOMONEDA EN VENEZUELA


Fuente: www.telesurtv.net Esta moneda virtual de intercambio ofrecerá mayor seguridad al gestionar todas las operaciones financieras. El presidente de Venezuela, Nicolás Maduro, anunció la creación de la criptomoneda respaldada por las reservas petroleras, de oro, gas y diamantes. “Vamos a implementar un nuevo sistema de criptomoneda a partir de las reservas petroleras, para avanzar en materia de soberanía monetaria. Esto va a permitir avanzar a nuevas formas de financiamiento internacional”, explicó. “Esta criptomoneda es para realizar sus transacciones financieras y buscar nuevas formas de financiamiento. El Petro se va a llamar. Con esto nos incorporamos al mundo del siglo XXI”, agregó. Asimismo, aprobó la creación del observatorio de BlockchainBase como base institucional, política y jurídica para la elaboración de la criptomoneda nacional. El bitcoin fue la primera criptomoneda creada en el mundo en 2009 y funciona como un sistema de pagos basado en archivos de computador. Por medio de este mecanismo pueden hacerse transacciones como pagos de bienes y de servicios por Internet.

EL BANQUERO DE LOS POBRES

Esta historia comenzó hace 30 años. Un banco, dos empleados y un visionario subversivo. Muhammad Yunus inventó los microcréditos, préstamos sin aval para desfavorecidos. El sistema que ha sacado de la miseria a millones de personas e invita a soñar con el fin de la pobreza. Si alguien comienza un discurso predicando la "firme, profunda, apasionada" convicción de que "podemos crear un mundo libre de pobreza", como hace invariablemente Muhammad Yunus, podemos admirar la intención pero dudar del hombre. Si entonces nos enteramos de que es


catedrático de Economía, es posible que le escuchemos con un poco más de atención, pero nos esforzaríamos para eliminar la sospecha de que es un excéntrico bienintencionado, un quijote musulmán. Hasta que uno descubre que el orador es uno de los capitalistas más triunfadores del mundo, un hombre de negocios que hace 30 años puso en marcha un banco con tres empleados, incluido él; que hoy da trabajo a 20.000 personas, y que ha creado otras 18 empresas, entre ellas, la mayor red de teléfonos móviles del sur de Asia. Entonces, uno empieza a pensar que sus teorías utópicas quizá tengan una credibilidad ganada a pulso, que tal vez la visión de este soñador tenga su lógica. Ante todo, porque el tipo de capitalismo al que ha dedicado su vida no tiene como misión principal obtener beneficios, sino ayudar a los desdichados de la tierra. LAS MUJERES GESTIONAN MEJOR LOS PRESTAMOS Muhammad Yunus es a la pobreza lo que Bill Gates al software. Salvo que Yunus ha alcanzado objetivos inimaginables, en un ciclo irreprimible de crecimiento exponencial, en un entorno empresarial infinitamente más duro que el de la frondosa Seattle. Una de las razones que permiten creer que tal vez haya encontrado la fórmula para acabar con la maldición más antigua de la humanidad, para abordar la situación de mil millones de personas que carecen de las necesidades básicas para vivir, es que ha conseguido que funcione en las circunstancias más extremas. El laboratorio en el que lleva a cabo su experimento es Bangladesh, un país que tiene el tamaño de Andalucía y una población de 145 millones de habitantes, la mayoría de los cuales vive en una pobreza profunda. Pero Yunus, que nació en Bangladesh en 1940, cuando su país seguía siendo parte de India y todavía estaba bajo dominio británico, se ha planteado un desafío incluso mayor. Como un trapecista de circo que dijera al público "si pensaban que lo anterior era peligroso, fíjense en esto", ha escogido como objeto de su experimento a las personas más pobres entre los pobres de Bangladesh, el grupo más sometido y con más limitaciones mentales y materiales. En este país de abrumadora mayoría musulmana las mujeres : "Era una locura", dice sonriendo Nurjahan Begum al recordar los comienzos de Grameen Bank y la primera "oficina" en la que trabajó: un cobertizo con tejado de chapa de zinc, una mesa, una silla, dos bancos, y sin luz ni teléfono. Nurjahan es una de las dos estudiantes de Económicas que en 1976 ayudaron al profesor Yunus a poner en marcha el proyecto. Su cometido —a pesar de la oposición de sus padres, que querían que permaneciera encerrada en casa esperando a que le escogieran un marido— consistió en hacer el trabajo de campo preliminar, reunir datos que permitieran ver si era factible construir un banco especializado en préstamos para mujeres muy pobres. "¡Una absoluta locura!", repite, y se ríe, mientras menea la cabeza asombrada de su insensato idealismo de su juventud. Es una mujer menuda de rostro amable e inteligente, que lleva gafas redondas y un sari azul celeste, sentada detrás de una mesa desde donde controla sus dominios. Nos encontramos en el octavo piso de la sede central de Grameen Bank, un edificio de 21 pisos que, en el contexto


de la capital bangladesí, Dhaka, es como el Empire State Building. Nurjahan, que lleva la cabeza cubierta, es una de los tres administradores generales del banco, responsable del programa de formación e internacional, y directora general de un programa de becas para niños que se creó hace tres años llamado Grameen Shikkha. Nurjahan me cuenta que la última vez que la reina Sofía estuvo en Bangladesh le dio 30.000 euros para el programa Shikkha. La reina de España, cuya foto tiene en la pared Nurjahan, ha estado en Bangladesh apoyando los proyectos de Grameen tres veces en la última década. "El dinero que nos dio servirá para financiar 60 becas universitarias y 50 para niños en edad escolar. A pesar del calor y la humedad asfixiantes de Dhaka, el despacho de la declarada fan número uno bengalí de la reina española no tiene aire acondicionado, sólo ventanas abiertas y ventiladores. En la mesa tiene un pequeño botón, como un timbre. Cada vez que lo aprieta, que es aproximadamente cada 10 minutos durante la hora y media que estoy con ella, aparece un hombre. Para traer una taza de té, o un documento, o un libro, o una estadística, u otra taza de té. Y no siempre acude el mismo: he podido ver al menos a cuatro de estos genios de la lámpara. "Era una locura", insiste, "por toda la discriminación contra las mujeres que existía en aquellos días. Toda la ignorancia y la superstición que tuvimos que vencer. Era terrible. Las mujeres tenían siete u ocho hijos, mientras los hombres tenían un montón de esposas y podían abandonar a la que quisieran con sólo decir 'me divorcio de ti' tres veces. Las mujeres no tenían ninguna movilidad. No podían salir de casa, ni siquiera para visitar a sus madres, sin permiso del marido o de los suegros. El marido podía pegar a la mujer por cualquier razón. En mis recorridos por las aldeas para hacer mis investigaciones, me encontré con la opinión frecuente de que, si una mujer recibia habitualmente una paliza , acabaría yendo al cielo. La idea inicial de Yunus -una idea que, más que revolucionaria, fue trascendental- era dividir sus préstamos al 50% entre hombres y mujeres. "El primer problema fue que ninguna mujer quería aceptar nuestro dinero, porque todas tenían miedo de recibir una paliza", explica Nurjahan. "Además, nunca habían manejado dinero. Lo temían. Y, por si eso no fuera suficiente, varios imanes nos criticaron. Deseaban que las mujeres se quedaran en su sitio . Mientras tanto, Yunus debía afrontar otra batalla. Para poder poner en marcha su banco, tuvo que convencer a los bancos convencionales de que le prestaran dinero. Y eso, mientras planeaba echar por tierra un principio fundamental del mundo financiero: que sólo se presta dinero a quien ofrezca pruebas documentales inequívocas de que va a poder devolverlo. El plan de Yunus, original y totalmente subversivo, consistía en prestar pequeñas cantidades de dinero a los pobres sin garantías; prestar el dinero basándose en un sistema de confianza, no en contratos legales. Según cuenta Yunus en su autobiografía, Banker to the Poor (El banquero de los pobres), los responsables bancarios a los que acudió al principio le miraban como a un loco . Yunus cree que los que están locos son los banqueros, o el sistema que representan. "Los bancos ejercen un apartheid financiero escandaloso", dice Yunus. "Dicen que dos terceras


partes de la población mundial no tienen derecho a emplear sus servicios. Que no son solventes. Definen las reglas y los demás las aceptábamos por que son poderosos” Yunus habla no en el último piso de su edificio, como suelen hacer los presidentes y directores generales de las grandes empresas, sino cuatro plantas por debajo de la de Nurjahan, en un despacho tan desnudo como el de ella (salvo una foto suya junto a la reina Sofía en una aldea), y también sin aire acondicionado. Lleva una camisa marrón sin cuello y tiene una juvenil mata de pelo blanco. Cargado como está de premios internacionales y doctorados honoris causa, se muestra sinceramente entusiasmado cuando le digo que el pais ha querido destacarle entre los ganadores históricos del príncipe de Asturias. Su aspecto y su forma de actuar son los de un hombre 20 años más joven, no de 66, y es una de esas personas espontáneas, siempre dispuestas a reír y sonreír, que desprenden buen humor ,entusiasmo ,curiosidad y brillantez mental. Su aspecto y su forma de actuar son los de un hombre 20 años más joven, no de 66, y es una de esas personas espontáneas, siempre dispuestas a reír y sonreír, que podemos seguir considerándolo un negocio bancario. Por increíble que resulte, eso es exactamente lo que ha hecho Grameen Bank. En un plazo de seis años, Yunus consiguió, primero, convencer a los bancos institucionales (a base de garantías personales que él mismo dio) de que le prestaran el dinero necesario para ofrecer "microcréditos", un concepto de repercusión mundial que él inventó; y, en segundo lugar, logró alcanzar la paridad entre los sexos, prestar dinero al mismo numero de hombres y de mujeres. "Y lo que descubrimos", dice Yunus, "fue que no sólo las mujeres eran más fiables que los hombres a la hora de devolver el dinero, sino que las cantidades pequeñas de dinero que pasaban por manos de las mujeres rendían muchos más beneficios para la familia. El motivo es que la mujer, sin darse cuenta, adquiere una habilidad muy especial, aprende a administrar los recursos escasos. Si no lo hace, no sólo es que la familia pase hambre: es que el marido se enfada y le pega. Así que, cuando le prestábamos un poco de dinero -30 dólares, 50 dólares-, sabía sacarle el máximo provecho para el bien del hogar. Las prioridades del hombre son otras. Él quiere pasárselo bien fuera de casa, presumir ante sus amigos. Si nos fijamos en la lista de prioridades de la mujer, nunca empieza por ella misma. Empieza por sus hijos y la familia, Si su nombre figura en la lista es en ultimo lugar. Yunus aplicó la lección. En 1983constituyó formalmente Grameen -que significa "aldea" en bengalí- como banco y, desde entonces, su estrategia ha estado clara: prestar dinero a mujeres. El principio ha sido siempre el de ofrecer la máxima flexibilidad y los mínimos tipos de interés a los prestatarios. Hoy en día, Grameen trabaja en 70.000 pueblos, posee 2.200 sucursales y cuenta con 6,6 millones de prestatarios; el 97%, mujeres, y todos pobres. En un país en el que el analfabetismo es galopante y la electricidad escasa, el sistema de microcréditos de Grameen funciona, como le gusta decir a Yunus, "como un reloj". El porcentaje de incumplimiento en los préstamos es inferior al 1,5%, la envidia de cualquier gran banco. Salvo en 1983, 1991 y 1992, Grameen ha tenido siempre beneficios anuales, todos ellos reinvertidos en el banco, que no ha


dejado de crecer. El modelo de microcréditos de Grameen se ha imitado en más de 80 países, entre ellos España y estados Unidos y alcanza a 100 millones de personas en el mundo . El pueblo de Sadipur Sonargoan no está más que a 42 kilómetros de Dhaka, pero los 20 primeros, pura expansión ininterrumpida de la capital, duran una eternidad. Pero eso no es lo peor. Lo peor es la sensación de que no voy a poder salir de Bangladesh con vida. Es posible que haya sitios en el mundo en los que el tráfico sea más caótico que en Dhaka, una ciudad de 12 millones de habitantes espantosamente apiñados, pero lo dudo. Rickshaws de colores chillones (los taxis bicicleta, en los que una persona tira de un carrito para dos), taxis motocicleta, viejos coches herrumbrosos que parecen mantenerse unidos con gomas elásticas, autobuses inclinados que llevan a tanta gente encima del techo como en el interior, otros autobuses de dos pisos (del modelo vigente en Londres durante la II Guerra Mundial), masas de peatones suicidas, a menudo descalzos: todos se disputan un mismo espacio y tienen que tomar constantemente decisiones en las que la diferencia entre vida y muerte es cuestión de milimetros. Es una visión del infierno, tras la que Sadipur me parece el paraíso. Carreteras de suaves curvas cubiertas por las copas de árboles inmensos, de vez en cuando un rickshaw que pasa en silencio -los colores brillantes, aquí, no son amenazadores, sino bellos-, tranquilos arrozales, vacas solitarias que pacen entre los bananeros de anchas hojas y, en el pueblo propiamente dicho, pulcras casas de madera con suelo de barro, situadas a intervalos regulares. Acompañado por el gerente del banco del pueblo, un joven de 25 años y ojos brillantes que me dice que tiene un título de master en Geografía, me reúno con unas setenta mujeres -de las 4.883 a las que atiende la sucursal local- que se han beneficiado de los préstamos de Grameen, y oigo los relatos detallados de una docena de ellas. La historia es siempre la misma. Una mujer solicita un préstamo inicial de unos 3.000 taka (alrededor de 35 euros) y con ese dinero acumula reservas para una tienda rudimentaria de alimentación, o financia la compra de un telar de madera, o compra una vaca, o arrienda una parcela en un arrozal. Convierte el préstamo en beneficio, devuelve el dinero al banco con un 20% de interés y luego obtiene otro préstamo, esta vez, por ejemplo, de 5.000 taka. Con él amplía un poco más su negocio, cumple los pagos normalmente, semanales o quincenales- y pide otro crédito mayor para construir una casa, para lo que le conceden un interés más bajo, del 8%. Al cabo del tiempo, abre una cartilla de ahorros y luego quizá obtiene un crédito escolar al 5% de interés para enviar a sus hijos a la universidad. Ése es el caso de una mujer vestida de negro de los pies a la cabeza, llamada Jahana, cuyo sueño es que su hijo Muhammad, de 15 años, pueda llegar a ser médico. Ese sueño, inconcebible antes de que Grameen apareciera en escena, podría hacerse ahora realidad. En el pueblo hay cuatro estudiantes universitarios. Uno es el hijo de una señora llamada Rashida que ganaba 60 taka diarios (menos de un euro) antes de obtener el primero de sus préstamos de Grameen, hace cinco años; ahora, su microtienda de alimentación va viento en popa, y gana 400 taka diarios. Luego está Aulia Begum, cuya bella hija de 22 años, Roshanunina, está


pasando unos días en casa descansando de sus clases de ciencias políticas en la Universidad de Dhaka. Aulia, como todas las demás mujeres con las que hablo, es totalmente analfabeta. Gracias a los préstamos de Grameen concedidos a su pequeña farmacia, y a una beca universitaria también proporcionada por el banco, su hija se ha adentrado en un terreno que su madre no podía ni imaginarse cuando nació la niña. "Me interesa especialmente la política internacional", dice Roshanunina, una joven alta, esbelta y sonriente, de unos rasgos exquisitos enmarcados -como si fuera una Virgen María- en un velo rosa que parece de satén. Para la generación de su madre, la Universidad era un concepto desconocido. Hoy, Grameen Bank reparte sus 18.000 becas por igual entre chicos y chicas. Pregunto a Roshanunina si tiene algún sueño. "Ir a estudiar al extranjero", responde con gran seguridad. "Canadá sería estupendo".No hay unos horizontes tan amplios para las ocho mujeres mendigas con las que hablo a continuación. El programa de Grammen para los mendigos, conocido como Préstamos de lucha, comenzó sólo hace tres años, pero cuenta ya con 80.000 beneficiarios en todo el país. En su caso, un préstamo habitual suele ascender a 1.000 taka (alrededor de 12 euros), con un interés del 0%, pagable cuando sea posible, si es que es posible alguna vez. Sabitum, que tiene 54 años, lleva 10 años mendigando desde que su marido se quedó paralítico y eso no le dejó otra opción. Iba de casa en casa pidiendo arroz o trapos viejos para vestirse. Ahora, lo que hace -lo que hacen todas las mendigas que disponen de préstamos bancarios- es lo mismo pero, en vez de limitarse a pedir, vende chocolate, o plátanos, o galletas que ha comprado previamente con el dinero prestado. Las historias son terribles; la pobreza de absoluta miseria. Mojiton, que tiene 60 años y ha dado a luz nueve hijos, todos los cuales murieron a causa de diversas enfermedades, ha logrado hace poco comprar una cabra con su préstamo y confía en empezar pronto a vender leche. Amina, de 54 años pero que parece de 74, lleva mendigando 10 años desde que perdió la vista en un ojo. Vende pasteles de arroz y pitas, pero sigue mendigando, aunque me asegura que preferiría no hacerlo. Sabitum, la que mejor parada ha salido del grupo, obtuvo el préstamo hace un año y lo está devolviendo en plazos de 20 taka semanales. "Con el dinero que he ganado he comprado tres gallinas y tres patas", me cuenta, mirándome desde el suelo, sentada sobre sus talones, delgada y descalza. "Ahora vendo huevos y he dejado la mendicidad. Todavía voy de puerta en puerta, pero ahora tengo mi pequeño negocio. Las mendigas, claramente enfermas, hablan en voz baja, a veces ronca. Pero cuando pregunto a todo el grupo si se sienten más felices y orgullosas desde que obtuvieron los préstamos de Grameen, por primera vez veo sonrisas. Asienten y murmuran su aprobación de forma unánime. En comparación con el tono apagado en el que habían respondido individualmente, es una auténtica conmoción. Con esa referencia, la escena que presencio poco después, en una reunión de 50 "miembros" de pleno derecho de Grameen -así se denominan a sí mismas—, es tan eufórica como una final de la Copa del Mundo. Las 50 mujeres, vestidas con sus mejores saris, componen una imagen rica y colorida situadas geométricamente en unos bancos dentro de un cobertizo que sirve


también de aula, con techo de chapa y estructura de madera. Han venido, como hacen todas las semanas, a reunirse con el joven director de la sucursal local de Grameen, para discutir los temas pendientes, proponer nuevos préstamos y devolver los antiguos. La persona escogida para dirigir el grupo, una mujer alta y con gafas llamada Mazeda que tiene aspecto de abogada (aunque tampoco ella sabe leer), me explica lo que ya había oído en la sede central: que las prestatarias de Grameen tienen que organizarse, como condición para el préstamo, en grupos de cinco. Cada grupo se supervisa a sí mismo, vigila que no se rompa el pacto con el banco, permite que se animen unas a otras y sirve, más o menos, como garantía de buen funcionamiento. Si una de ellas no paga una letra, no es que las demás tengan que poner el dinero, pero deja en mal lugar al grupo, y eso es algo que nadie quiere hacer, porque es una cuestión de honor. El sistema de préstamos de Grameen, que, como decía Yunus, se basa en la confianza, acaba siendo tan vinculante como el tradicional basado en contratos legales. Escucho historias de muchas mujeres, tan decididas como podría serlo un grupo equivalente en Europa occidental. Orgullo y dignidad es lo que muestra Mazeda cuando, al final de la reunión, se aproxima a dar al joven director de la sucursal un fajo de billetes, 500 taka: su pago de la semana. Le siguen otras que depositan el dinero en la mesa, cada cantidad meticulosamente anotada en un libro por un ayudante del director. Una de las mujeres me pregunta qué me ha parecido la reunión. Le digo que creía que venía a un pueblo sumido en la miseria absoluta, pero que lo que he visto es que, aunque no son ricas, dan la impresión de ser unas mujeres tan seguras de sí mismas, saludables y felices como cualquiera. Le digo que me han contado que, antiguamente, en Bangladesh, a las mujeres les enseñaban a mirar siempre hacia abajo y no abrir nunca la boca. Pero que aquí he visto lo que han cambiado las cosas. Cuando termino de hablar, estallan todas en una alegre ronda de aplausos. Antes de subirme al coche para el viaje de vuelta a Dhaka, Mazeda me dice: "Por favor, déle muchos saludos a la reina Sofía. Estuvo aquí con nosotras y la recordamos con mucho cariño. De vuelta en la sede central de Grameen recuerdo a Yunus una cosa que dijo durante un discurso en la Harvard Business School. Que el sistema de microcréditos es una herramienta que libera los sueños de la gente, da a los pobres dignidad y respeto y llena de contenido sus vidas. "Sí. Eso es lo más importante", responde Yunus. "Mi trabajo rápidamente me llevó a la conclusión de que la pobreza no la crean los pobres. No podemos aferrarnos a la idea convencional de que son perezosos, les falta empuje. No es culpa suya. No son ellos quienes crean la pobreza. La pobreza la crea el sistema que hemos construido. Los pobres tienen tanta energía y tanta creatividad como cualquier ser humano en este planeta. Entonces, ¿es todo cuestión de liberar energía? "Exacto. Preste dinero a una mujer pobre, ayúdela a empezar, y vea cómo se produce el milagro. Toda su vida ha pensado que no era nada, y ahora, por primera vez, siente que es alguien. Que puede cuidar de sí misma. Que puede desarrollarse como persona más allá de la supervivencia. Por eso digo que estos


préstamos son el dinero de los milagros permiten que esas personas empiecen a vivir como seres humanos por primera vez. Yunus opina que el capitalismo, tal como se concibe tradicionalmente, debe cambiar. Empezando por el sistema bancario. Pero no es que propugne una revolución marxista ni nada parecido. Lo que quiere es que se amplíe la definición de la palabra capitalismo más allá de la mera obtención de beneficios. Porque es claramente partidario de la libre empresa y está totalmente en contra de la caridad como estrategia a largo plazo para afrontar los desequilibrios mundiales entre ricos y pobres. "En definitiva, mi argumento es que, cuando se dan limosnas, se impide que la gente tenga iniciativa. 'Quédate como estás y yo cuidaré de ti'. Pero es la iniciativa lo que empuja a la gente a subir del primer nivel al segundo, y del segundo al tercero. Sin ella, no somos nada. Así que, en mi opinión, es mucho mejor recibir un préstamo que una limosna, porque con el préstamo el beneficiario asume una responsabilidad. 'Voy a usar tu dinero y voy a ganar lo suficiente para devolvértelo con intereses y aún quedarme con algo': ése es el trato. El que vive de limosnas se queda en las limosnas. Fíjese en lo que pasa con muchos de los que viven de la ayuda estatal en Estados Unidos o Europa. No sólo viven de la beneficencia ellos, sino que sus hijos también por que no han aprendido a hacer nada. ¿Está en contra de toda protección social, entonces? "No, no. No es eso lo que digo. Lo que digo es que hay que dar a la gente una opción, un incentivo. Fíjese en los mendigos con los que trabajamos. No les digo que dejen de pedir, sino '¿por qué no probáis también esta otra opción?'. Les digo que, si aceptan el préstamo, tienen que devolverlo, pero que, si lo hacen, obtendrán un préstamo mayor. Con la primera opción, uno renuncia a tener el control de su propia vida; con la segunda lo recupera. Me voy a hacer una segunda visi- ta a un pueblo. En esta ocasión, uno llamado Rajabar, a 50 kilómetros de Dhaka, y vuelvo a encontrarme en medio de la orgiástica danza de tráfico mortal que mantiene esta ciudad. Mi conductor -mi brillante conductor- entra y sale de las calles, da rodeos y maniobra con la intensidad de un conductor de fórmula 1. Como los demás -desde los rickshaws hasta los conductores de autobuses de dos pisos, hasta los peatones-, él también muestra unos reflejos propios de Fernando Alonso. Y no durante hora y media. Durante todo el día. Y no se ven cinturones de seguridad ni cascos de motos. N i uno. En Rajabar (¡donde también recuerdan una visita de la reina de España!) hablo con otra docena de mujeres. Una de ellas se llama Nilufer Begum. Cree que tiene 40 años. Me cuenta que, hasta hace 16, cuando llegó el dinero milagroso de Grameen, vivía en casa de su madre y dormía sobre una alfombra, en el suelo, compartiendo la habitación con la vaca de un vecino. Había huido de su marido, que era vago y pobre, y le pegaba. "Al principio recibí 5.000 taka y con eso compré una vaca. Vendí la leche, pagué el préstamo y recibí otro de 10.000. Con ese dinero arrendé un trozo de tierra y cultivé un poco de arroz. Devolví los 10.000, conseguí 15.000 y establecí una pequeña tienda. Luego conseguí un préstamo mayor y construí una casa". Y así sucesivamente. Ahora tiene un par de casas que alquila y unos ingresos de 6.000 taka


mensuales, y tiene pensado emplear el crédito de 70.000 que pronto va a recibir en comprar un microbús para transportar a la gente de los pueblos vecinos. Acompaño a Nilufer a su tienda. Su marido trabaja allí y es, a todos los efectos, empleado suyo. Ella se coloca junto a él para hacerse una foto y queda bien claro quién manda; quién es el orgulloso y quién el sumiso. La tienda es rudimentaria y no tiene frigorífico (otro deseo en la lista de Nilufer), pero tiene una mercancía tan variada como cualquier supermercado pequeño: refrescos, pasta de dientes, plátanos, galletas, aspirinas, huevos. Y es una especie de café, con gente bebiendo té o leche de coco, disfrutando de la mayor atracción del pueblo, un viejísimo televisor. El director de área de Grameen en Rajabar y responsable de 10 sucursales, Rahman, lleva 19 años trabajando con Grameen, pero no parece que su entusiasmo haya remitido. Mientras comemos un almuerzo de pollo al curry con arroz y berenjenas, me explica, con una convicción casi religiosa, la satisfacción que le da su trabajo. "Me encanta dar a la gente la oportunidad de soñar, ayudar a que Bangladesh sea un buen país, un modelo para el mundo",dice. Es el mismo espíritu que encuentro en todos los empleados de Grameen con los que me encuentro y, sobre todo, en el propio Yunus, del que Nurjahan sigue hablando, tras 30 años de trabajar con él, con la devoción de una ferviente discípula. "Es nuestro líder, nuestro maestro", me dice, echando chispas por los ojos. "Dice que debemos poner un sueño en el corazón de las personas”. Yunus no es solamente un visionario, y probablemente un santo; es, además, seguro, un genio. Un hombre que tuvo una idea que ha cambiado las vidas de millones de seres humanos. Y, sin embargo, no tiene esa vanidad ni esa soberbia que, muchas veces, posee a los poderosos de los que dependen miles (en su caso, millones) de personas. Es un hombre con una misión, pero no un fanático. Está seguro de lo que cree, pero no parece que tenga una gran opinión de sí mismo. Ni tampoco, por ejemplo, de George W.Bush. "Cuando llegó el nuevo siglo, hubo una gran corriente de buena voluntad en el mundo", recuerda Yunus. "Había un optimismo tremendo; soñábamos con otro tipo de mundo. Por primera vez en la historia de la humanidad, todos los países se reunieron y fijaron una fecha, con los Objetivos del Milenio de la ONU, para mejorar el mundo. Queremos reducir el número de pobres a la mitad de aquí a 2015, dijeron. Y... llegó Bush. Que da marcha atrás en todo. Crea desconfianza entre la gente, desautoriza a la ONU y dice que puede ocuparse él de todo. Y así estamos hoy, en este lío del que no sabemos cómo salir”. No se hubiera llegado a semejante lío si Bush, o más bien la gente que lo rodea, hubiese sabido entender el mundo con más sencillez. Una firme conclusión a la que llegó Yunus cuando estudiaba Economía hace 40 años en, precisamente, Estados Unidos es que las teorías complejas impiden ver la verdad. "¿De dónde nace el terrorismo? Muy fácil. De un fuerte sentido de injusticia. Puede ser injusticia religiosa, puede ser injusticia política, puede ser injusticia económica, puede ser verdadera injusticia, puede ser una injusticia imaginaria. No importa. Para mí es real, dice el terrorista. Así que reacciono ante esa injusticia y, como no


tengo otra opción, como no puedo vencerte, te asusto. Contra eso no se puede luchar con armas ni bombas. Bush escogió una respuesta equivocada y, como consecuencia, ha habido más y más sangre; es decir, empezamos el siglo llenos de buena voluntad, pero ahora vemos todo ese odio. No era el momento de dedicarse a esto, sino de ocuparse de la poblreza y Bush lo estropeo ¡ Que oportunidad tan despreciada!. Yunus, en cambio, aprovecha todas las oportunidades que produce la inacabable fecundidad de su mente empresarial. Su aventura más reciente ha sido la creación de una empresa mixta llamada Grameen-Danone. En colaboración con el gigante francés del sector lácteo, abrirá en noviembre una fábrica en Bangladesh para suministrar un yogur muy barato, lleno de vitaminas y de hierro, a los desnutridos niños bangladesíes. "El año pasado me reuní a comer en París con el presidente de Danone, Franck Riboud, y le dije que, en mi opinión, el capitalismo estaba encerrado en una definición demasiado estrecha. Que la empresa no puede consistir sólo en hacer dinero, sino en enriquecer la vida de la gente. Que es posible disfrutar y hallar satisfacción cuando se crea una empresa cuyo principal objetivo no es hacer dinero, sino, por ejemplo, llevar agua potable a los pueblos pobres. Una empresa así sigue siendo capitalismo, pero de un tipo más amplio, más generoso y, al final -creo-, más gratificante. Hablé con Riboud de lo que yo llamo mi concepto de 'creadores de empresas sociales'. Y respondió de inmediato. ¡De inmediato! Dijo que le parecía fascinante y aceptó, durante esa misma comida, crear Grameen-Danone. Nuestro plan es sencillo: vamos a hacer un yogur que los pobres puedan comprar. Y, si todo sale bien, pronto tendremos 50 fábricas. Cada una será capaz de cubrir sus propios costes y todos los beneficios que quedaran dentro de la compañía”. Yunus cree -y ahora también el presidente de Danone- que asumir estas ideas capitalistas subversivas sirve para acercar un poco más el santo grial del mundo sin pobreza. Y no es que no se haya avanzado ya mucho. No sólo en los 30 años desde que Yunus fundó Grameen, sino en los ocho transcurridos desde que obtuvo el premio Príncipe de Asturias. En conjunto, Grameen ha prestado más de 5.000 millones de dólares a los pobres. La idea más fantástica de las que ha tenido Yunus en la última década es la de la enorme empresa de móviles que ha creado y que, a su vez, ha generado un nuevo fenómeno, "las señoras del móvil en los pueblos". Son prestatarias de Grameen que reciben teléfonos a precios especialmente bajos y los alquilan a locales. (Y en una ocasión a la reina Sofía, que llamó al Rey a España desde uno de estos móviles). No sólo ellas ganan más dinero, sino que ha revolucionado las comunicaciones rurales. ¿Cuál es la lección más revolucionaria que ha aprendido de los pobres?, pregunto a Yunus. "Lo más grande que he aprendido es que cada ser humano posee un potencial ilimitado. Esto lo tengo clarísimo. La lástima es que nos limitamos a arañar la superficie. A nuestra especie le queda mucho camino por delante. No pueder ser que tantos millones de personas nazcan en este planeta para pasarse la vida buscando qué comer. Ésa es una actividad de los animales. Pero soy optimista. Realmente creo que podemos acabar con la pobreza en el mundo. Es cuestión de invertir el mismo ingenio y el mismo empuje que hemos dedicado a acabar con


injusticias políticas, enviar un hombre a la Luna o la tecnología informática en encontrar la manera de dar a los pobres la oportunidad de realizarse como seres humanos. Se trata, sobre todo, de querer lograr ese objetivo. Dar a los pobres las mismas oportunidades que hemos tenido nosotros, y ver cómo se produce el milagro".1998: premio de la Concordia cuatro luchadores. Muhammad Yunus recibió un galardón compartido por "su trabajo abnegado y tenaz, y su contribución ejemplar, en áreas geográficas y en actividades distintas, al progreso y a la mejora de las condiciones de vida de los pueblos". En la imagen posa sin chaqueta con sus compañeros de premio. (La candidatura conjunta fue iniciativa de Mensajeros de la Paz). De izquierda a derecha: el obispo misionero Nicolás Castellanos, que lucha en Santa Cruz (Bolivia) por mejorar las condiciones de vida de sus habitantes; el médico Joaquín Sanz Gadea, que ha desarrollado su carrera como ginecólogo en áreas desfavorecidas de la República del Congo, y el ex jesuita Vicente Ferrer quien ha dedicado su vida a los desfavorecidos en la región india de Anantapur. JOAN MELÉ, PROMOTOR MUNDIAL DEL MODELO DE BANCA ÉTICA: "CHILE VA A SER EL PRIMER PAÍS EN LATINOAMÉRICA QUE CREE SU BANCO"

Con aproximadamente 35 años trabajando en esta área de la economía, el español fue quien abrió el primer banco ético en España. En cuatro años, espera repetir esta historia en Latinoamérica, específicamente, en nuestro país. Por estos días, el creador de los libros Dinero y Conciencia y la Economía Explicada a los Jóvenes está en Chile para continuar con la labor que se propuso en enero de 2015, tras renunciar al primer banco ético en España, Triodos Bank: difundir sobre la educación en el consumo de valores y concretar la primera entidad que ponga en el centro al Ser Humano por sobre los beneficios económicos en Latinoamérica. Su maqueta, precisamente, pretende asentarse en territorio nacional para luego llegar al resto del continente. ¿Cómo nacen las bancas éticas como una alternativa al modelo económico neoliberal? " La idea es de los años '60 del siglo pasado, principios de los '70. Al ver precisamente el rumbo que tomaba el mundo de las finanzas y que lo que estábamos provocando en la economía es era que el dinero se concentrara en menos manos provocando más pobreza" ¿ Nace en Europa esto? " El banco en el que he trabajado sí. Han salido distintos modelos en el mundo, pero Triodos Bank es el referente mundial. Nació en Holanda y se extendió por toda Europa. Sin embargo, hay otros modelos. Hay una alianza mundial que se llama Global Alliance for Banking on Values, que engloba 41 bancos y donde hay muchos en lista de espera para entrar. O sea es un fenómeno que está creciendo por todo el mundo y espero y confío que Chile va a ser el primer país en Latinoamérica que cree su banco, más allá de las micro finanzas" Este modelo tiene como centro al ser humano por sobre los beneficios económicos individuales, ¿ cómo se definen las bancas éticas?


" Son las que dejan muy claros los criterios de qué va invertir y en que no explicándolo, por ejemplo, en las empresas que aporten valor a la cultura, al medioambiente, lo social y no invertir en aquellas que deteriorar el medioambiente, que maltratan a las personas, que las explotan, que hacen discriminación de la mujer. Eso por una parte y, por otra, la transparencia. Hay que dejar algo muy claro: los bancos no tienen dinero gestionan el dinero de los clientes. El dinero es de ellos, no del banco. Los clientes deben que entender de una vez que tienen el derecho y la responsabilidad de saber qué va a hacer el banco con su dinero, porque si supieran algunas cosas y probablemente no lo permitirían y dirían ' no, con mi dinero no'. Entonces una banca ética es la cuenta lo que estamos haciendo porque puede ser que me equivoque pero no hay nada que esconder. La banca ética es consciente que el dinero es de los clientes y considera que este debe ayudar a trasformar la sociedad hasta que viva mejor y cuenta lo que hace para que la gente pueda comprobar si lo hace bien o no. O sea, tiene unos criterios humanos y medioambientales antes que otros. Son más importantes las personas y el planeta antes que el dinero" Triodos Bank no es el primer banco ético, pero si en España desde 1968, ¿ ha resultado como un impulso a la constitución de estas iniciativas en Latinoamérica? ¿Ese fue el motivo por el cual usted trabajó en la entidad verdad? "Se empiezan a reunir en esa fecha, pero no lo crean hasta el '71. Yo trabajé allí porque vi la oportunidad de cambiar mi país y ahora he venido a Latinoamérica porque me lo han pedido y creo que puedo dar testimonio de que esto no es un sueño. Lo hemos hecho. Lo mismo que pasaba aquí ocurrió en España y lo vamos a hacer igual. Se están apuntando mies de personas entusiasmadas y lo vamos a conseguir. Fácil no va a ser. Después de 40 años en banca ingenuo no soy. Sé lo errores que tuvimos y no los vamos a repetir" ¿ No tenemos ninguna banca ética en Latinoamérica? " Hay dos pequeñitas que hacen micro finanzas, pero no es banca. Una creo en Bolivia". Finalmente entonces, ¿ podría ser Chile uno de los primeros países en tener su propio banco ético? " Sí, yo creo que así va ser, estoy convencido. Yo diría que Latinoamérica en este momento está mirando bastante a Chile por sus condiciones históricas económicas de estabilidad y es más fácil crearlo aquí que en otro país y desde aquí se podrá llevar en un futuro a otros países. Cuanta más gente nos apoye antes o vamos a ser, porque aquí va a ser la plataforma para ayudar a Argentina, México, Colombia, entre otros" ¿ Por esto visita nuevamente nuestro país? Acaba de participar en el Seminario Nacional por la Banca Ética " Este es el cuarto año que estoy visitando Chile. Primero me invitaron para contar nuestra experiencia de banca ética de Triodos Bank, que habíamos tenido en toda Europa, pero concretamente España. Al año siguiente me pidieron que viniera otra vez y me dijeron que tenían interés un grupo de personas en crear una banco así en Chile y si yo les ayudaría. Les dije que sí y ahora estamos promoviendo esta idea no sólo en Chile, sino que en Latinoamérica. Lo que pasa es que aquí es donde vamos más avanzados (...) Los primeros años fue un trabajo de difusión para darlo a conocer, el último año y medio de preparar el modelo haciendo en práctica de financiación y ahora ya estamos captando capital ya para contratar a profesionales y preparar ya la creación del banco en tres, cuatro años" Usted me dice que hace un año y medio...


" Que estamos ya estudiando empresas que piden un crédito como lo hace un banco, vemos si son viables y cuando está listo y aprobado, hay un grupo de casi 80 inversores que invierten directamente" ¿Hay alguna empresa conocida? " Hay un restaurante orgánico, una empresa de desforestación, otra que hace viviendas sociales casi todas en el área cercana a Santiago, porque por lo pronto no hay un equipo para enviarlo a la Patagonia o Atacama" ¿ Cómo van a operar este banco? " Ahora vamos a contratar a varias personas con salario, hasta ahora había voluntariado con lo cual va a incrementar el número de empresas que se financien y la investigación de los mercados. La idea es que en cuatro años se pueda abrir el banco en Chile" ¿ Cómo convencer a los clientes? "Como lo hemos hecho hasta ahora. Miles de charlas como estas donde viene mucha gente que le cuenta a otra y nos estamos financiando con personas que está aportando capital para que esto pueda salir adelante. De estas charlas hemos dicho únanse para captar capital y lo hemos logrado en pocos días" ¿Cuándo fueron las últimas conversaciones con autoridades de gobierno? " Esta semana con el superintendente de la banca y a la Presidenta la vi en mayo en un congreso de empresarios y tuve la oportunidad de hablar con ella. En otro viaje me entrevisté con la ministra de asuntos sociales, del ministerio de economía, varios senadores y diputados y ha interesado muchísimo" ¿Hay voluntad política? " Ellos se comprometieron públicamente a mejorar la legislación chilena para que fuera más fácil crear el bancos, pero el problema es que con los cambios políticos, esta gente ya no esté. La voluntad está y es auténtica, pero es tan efímero el mundo político que no sé" LA MONJA QUE ENSEÑA A AHORRAR A LOS MÁS POBRES DE CALI Medio Ambiente María Mónica Monsalve S. El modelo de “bancos para pobres” que están fomentando la hermana Alba Stella Barreto y Alicia Meneses, de la Fundación Paz y Bien, podría esconder la clave para combatir uno de los mayores problemas del Colombia. Mojica, uno de los barrios que hacen parte del Distrito Aguablanca en Cali. / Christian Escobar Mora “La mayoría de las personas que llegaron a asentarse al Distrito de Aguablanca, Cali, son población desplazada, pero no tanto del conflicto armado, sino de fenómenos naturales”, es lo primero que advierte la hermana Alba Stella Barreto, directora de la Fundación Paz y Bien, quien desde hace treinta años trabaja en una de las invasiones más grandes de Latinoamérica. Una zona a la que fueron llegando personas, en su mayoría mujeres, para acomodarse en las márgenes del río Cauca después de vivir catástrofes naturales como el terremoto de Popayán (1983) o la erupción del Nevado del Ruiz que cubrió a Armero con ceniza en 1985. El problema


es que hoy, explica la hermana, muchas de estas personas vuelven a estar en riesgo: están ubicadas por debajo del río Cauca y la amenaza de que el río se desborde no deja de ser una situación a la que se deben enfrentar cada mañana. Por eso, desde que fundó Paz y Bien en 1987, cuando en Aguablanca “la gente vivía en cambuches, cargando agua y la mayoría de ellos luchaban para poder organizarse”, la hermana Stella entendió que para combatir la pobreza no se necesitaban modelos asistencialistas, sino reeducar sobre las formas de consumo y alfabetizar sobre el ahorro. Empezó a leer cómo podía romper el círculo de la pobreza y entre los textos sobre nueva economía social y pensadores como Amartya Sen, se encontró con la literatura de Muhammad Yunus, un economista y premio Nobel de la Paz, fundador de los Grammeen Bank o “bancos para pobres”, con los que demostró que prestando pequeños montos a las personas pobres podía mejorar el ingreso y calidad de vida de los habitantes de áreas marginadas de Bangladesh. Por casualidades de la vida, junto a la Fundación Alvaralice – en cabeza de María Eugenia Garcés- Alba Stella luchó por aterrizar la idea de los “bancos de los pobres” en Colombia. Viajó a Bangladesh, conoció a Yunus, él se comprometió a ayudarla y consiguió la financiación de Carlos Sarmiento Angulo para empezar el proyecto. Por otras casualidades de la vida – unas menos convenientes, tal vez– el proyecto siguió sin ella. “No sabemos muy bien qué pasó, nos dejó solas, pero nosotros seguimos”. Como consecuencia hoy hay un modelo del Grameen Aval Colombia para los habitantes de Ciudad Bolívar en Bogotá, pero no uno en Aguablanca, Cali. “Pero nosotras seguimos”, repite la hermana Alba. Y es por esto que desde 2005, en cabeza de Alicia Meneses – su aliada durante todos estos años- la Fundación viene trabajando sus propios “bancos para pobres”: las Asociaciones Locales de Ahorro y Crédito (ALAC). Un modelo que trajo Lina Moreno de India, cuando trabajaba en la Presidencia, en la que las personas no necesitan acudir ni al Estado, ni a privados para salir


¿Cómo funcionan las ALAC? Alicia Meneses: En estos modelos comenzamos por asesorar grupos de ahorradores, pero con un fuerte énfasis en la cultura del ahorro. Sin ayuda del Estado, ni otra entidad, empiezan a ahorrar y a los seis meses se hace un balance. Deciden quiénes se quedan y quiénes siguen, y con el capital se proponen emprendimientos. Alba Stella Barreto: Cada ochos días se hace una reunión en la que los participantes de la ALAC, que son máximo 19, llevan lo que van a ahorrar, de 2.000 pesos en adelante. La cuota mensual tiene que ser igual, no puede que uno ahorre más que otro, porque aparecería como el dueño. Entonces primero trabajamos en esta etapa de ahorro y formación en nueva economía social para que las personas cambien su esquema de consumo por una estrategia de inversión. Así se cambia la actitud mendicante por una de emprendedores. Lo que se va recolectando se reúne en un baúl. ¿Cómo funciona este baúl? ASB: El baúl tiene tres carteras: una en la que se guarda la cuota de ahorro, en otra lo recolectado en actividades que se hacen, como bingos, y la última es para multas, porque cada ALAC tiene su propio reglamento. Para seguridad, el baúl tiene tres candados: dos llaves las guardan miembros de la asociación y la tercera una persona externa. ¿Y cuándo empiezan los préstamos? AM: Cuando yo entré a la dirección de las ALAC, nos dimos cuenta de que muchas personas se unían sólo por obtener los préstamos. Por eso las dividimos en dos fases, la primera es el proceso de ahorro, porque la nueva economía social no sólo está basada en el dinero, sino también en el ser, en quién soy y qué quiero hacer. Ya en una segunda etapa, cuando se


cumplen seis meses de infundir la cultura del ahorro, se puede hacer un crédito, pero sólo basado en la necesidad de emprendimiento y no en la personal. En este proceso se plantean las unidades de negocio y se pueden hacer créditos entre las mismas personas que conforman la Asociación. ¿Cuántos emprendimientos tienen? AM: Tres en Cali y 14 en Palmira. ¿Alguno tiene carácter ambiental? AM: Sí, en Cali estamos trabajando con 16 mujeres y hemos organizado una empresa de reciclaje seleccionado. Estudiando la zona del Jarillón, encontramos que en una sola cama duermen hasta cinco personas, incluyendo niños. A través del reciclaje, estamos haciendo camas, butacas y juegos de sala. También desde esta misma unidad productiva estamos pensando en hacer trueque de mercado por material reciclado. Le llamamos el Mercatrueque. ¿Cómo funciona? AM: Empezamos por hacer una campaña a nivel de cuadras, local. Con esto las personas empiezan a reciclar y hacen mercado pagando con el material recolectado. Por ejemplo, si una persona merca de a 50.000 semanales, puede ir al Mercatrueque y le damos la opción de que pague 25.000 en reciclaje y 25.000 en efectivo. ¿Para ustedes, cómo funciona esa relación de medio ambiente y pobreza? ASB: Eso lo puedo responder con lo que vemos en Aguablanca, que son familias campesinas que vienen de la costa Pacífica del país. Con ellos hay que hacer una intervención muy fuerte porque vienen de lugares donde tenían abundantes recursos naturales, como el agua. Por ejemplo, alguna vez nos llegó una señora preocupada porque el recibo le llegaba muy caro y nos dimos cuenta de que ella mantenía, por costumbre, el grifo abierto todo el día. Es un proceso de educación, pero no con conceptos, sino con práctica. También uno ve otra cosa, y es la necesidad de ellos por volver a vincularse con su campo. El otro día fui a Potrero Grande y la gente emocionada me mostraba que estaban naciendo matas de plátano y me decían “yo me levanto temprano, porque me acuerda a mi campo”. Por eso para nosotros ha sido clave una idea que tuvimos hace cinco años, llamada Eco-Aldeas. ¿En qué consisten estas Eco-Aldeas?


ASB: Con esta idea agrupamos hasta 15 familias, las organizamos para que pidieran tierra al Gobierno y pudieran retornar al campo, pero de forma sostenible. Ellos mismos, con el apoyo del SENA, construyen sus casas ecológicas, con servicios sostenibles y respeto a la naturaleza. Claro, dejando una oferta a la agroindustria. ¿Cuántas han creado? ASB: Yo logré hacer tres, pero cuando Andrés Felipe Arias estuvo al mando, acabó con el modelo. Nosotras estábamos en Buga, Valle del Cauca, y nos llamaron a decir que cada familia tenía que pedir su tierra. Entonces no sobrevive ninguna... ASB: En este momento tenemos un cabildo indígena que estaba desplazado en Cali, diez familias, y logramos una Eco-Aldea en Orito, Putumayo. Con ellos es más fácil porque no existe propiedad privada. También tenemos familias que ya retornaron al campo, que aunque no son Eco-Aldeas, sí siguen siendo hogares sostenibles. ¿Después de trabajar tanto tiempo en temas de pobreza, qué creen que ha funcionado y que no? ASB: No funciona el asistencialismo o programas como Familias en Acción. No funciona regalar comida, porque yo he visto como la botan aquí. Por ejemplo, la semana pasada una señora que tiene seis niños y está embarazada no quiso vincularse a ninguno de nuestros proyectos, porque ella dice que con el salario mínimo que le da Familias en Acción no tiene que trabajar más. Esto me parece gravísimo, la cultura asistencialista que tiene el Estado. Otras personas, también, no aceptan trabajos con contratación y prestaciones porque pierden el Sisbén. Así no hay Gobierno ni Estado que sostenga esta situación. ¿En estos 30 años ha avanzado Colombia en la lucha contra la pobreza? ASB: Yo creo que sí, porque propuestas como la nuestra son varias. Pero sigue existiendo la dificultad de que el modelo económico no apoya la lucha contra la pobreza, porque es un modelo consumista. Por eso hay que pensar que, más allá de un ingreso, es cambiar un estilo de vida que responde a un modelo asistencial por un modelo de vida de intervención, de educación y de capacitación para dar a entender que somos capaces de salir de la pobreza. PARAAHORRISTAS:EJECUTIVODEJPMORGANPREDICEQUEELBITCOINVALDRÁU$S25.000EN5AÑOS


Aunque hay quienes señalan que la criptomoneda es "una burbuja", otros analistas apuestan a que su valor se multiplicará en el mediano plazo

Un alto ejecutivo de la entidad financiera JP Morgan Chase emitió una opinión alentadora sobre el futuro de la criptomoneda Bitcoin. Según Tom Lee, Director de Investigación de Fundstrat Global Advisory y Gerente de JP Morgan Chase, el precio del Bitcoin podría alcanzar los u$s25.000 dentro de 5 años. Esta afirmación la hizo en una reciente entrevista para la cadena CNBC. Para Lee, las constantes presiones regulatorias y legales de China sobre los sitios que gestionan el comercio de criptomonedas y el veto contra las rondas iniciales de moneda (ICO) no opacarán las enormes ventajes de Bitcoin como criptomoneda. Hay dos factores que podrían resultar desventajosos en esta situación: un efecto de liquidez excesiva y la manipulación de las expectativas de los inversionistas. Si las autoridades de China deciden acabar con el comercio de la criptomoneda, sería lógico que todo el mundo comience a vender forzadamente sus posiciones dada la grandeza capital de ese mercado. Asimismo, viene sucediendo que muchas personalidades influyentes están llamando a Bitcoin un “fraude” y “burbuja financiera”, como Jamie Dimon, CEO de JP Morgan. No obstante, Lee piensa que deberían estar a favor de Bitcoin. Esto representaría una oportunidad a los “bitcoiners” para demostrar de qué se trata:


“No se trata de cuántos tenedores de Bitcoin conozcas, cuando piensas en cuántas carteras existen que tienen u$s5.000. Esa cantidad es enorme y ceo que estamos en las fases más tempranas”, señaló el experto. Lee también cree que el valor de Bitcoin se fundamenta en Blockchain, la red que lo respalda, y cómo sus características de seguridad están generando confianza y atrayendo a cada vez más personas. Según estimaciones de Lee, ejecutar una transacción fraudulenta que genere 1 Bitcoin, costaría u$s30.000 millones. “Creo que puede ser muy amenazante para las instituciones financieras ver que la confianza es creada en la red. En cuanto a la red distribuida, según la perspectiva las personas menores de 30 años –una nueva generación- esto tiene perfecto sentido”, dijo. Al preguntársele sobre sus estimaciones de precio, Lee aseguró que Bitcoinestá siendo percibido como un vehículo de almacenamiento de valor, del mismo modo en que era visto el oro durante los años 80, cuando muchísimos inversionistas no confiaban en el dólar. Finalmente, argumentó que en cinco años el precio de la criptomonedapodría estar 600% más alto, ubicándose en u$s25.000. Opiniones divergentes Resulta curioso que otro alto ejecutivo de JP Morgan Chase se pronunciara a pocos días de que Jamie Dimon, CEO de la institución, emitiera una opinión que sin duda tuvo un impacto negativo en los mercados. Sobre todo, luego de que el mismo Dimon afirmara que despediría él mismo a los empleados que mantuvieran inversiones en Bitcoin. Y es bastante probable que Tom Lee sea uno de ellos ante las altas expectativas para con la criptomoneda y su tecnología. Sin embargo, las sospechas de que se pudiera tratar de algún tipo de campaña mediática para influir en los mercados no están descartadas. De estar regulados el Bitcoin y demás criptoactivos de manera similar a los mercados financieros y casas de bolsa, sería un delito,


indica el portal Criptonoticias. De cualquier manera, es un hecho que las instituciones financieras están haciendo inversiones en Bitcoin y en el desarrollo de plataformas Blockchain, a fin de modernizar sus métodos de trabajo y gestión financiera. "ELBITCOINPODRÍASOBREPASARELUSODELORO",PRONOSTICANLOSANALISTASDEJPMORGAN La criptomoneda mantiene su crecimiento y hoy alcanzó un máximo de 15.000 dólares. Se ha multiplicado su valor por 12 en lo que va de año

En medio del nuevo récord marcado por el bitcoin, los analistas de JP Morgan parecen cambiar de táctica, admitiendo su transformación en algo semejante a una clase más tradicional de activos, como el oro. Esta criptomoneda ha multiplicado su valor por 12 en lo que va de año, llegando al máximo de u$s15.000 este jueves. La Bolsa de Opciones de Chicago (CBOE) y la Bolsa Mercantil de Chicago (CMO) anunciaron planes de lanzar contratos de futuros para el bitcoineste mes. Según Nikolaos Panigirtzoglou, analista de JP Morgan, la entrada en mercados financieros más formales "tiene el potencial de elevar las criptomonedas hasta el estatus de una clase emergente de activos", informa The Daily Telegraph. Te puede interesar Galicia, Macro y Supervielle: las acciones de bancos que más ganancias pueden dar, aun con impuesto a la renta financiera "La perspectiva del lanzamiento de futuros para el bitcoin, en particular por bolsas establecidas, tiene el potencial de aportar a su legitimidad y de esta manera aumentar el atractivo del mercado de las criptomonedas para los inversores tanto minoristas como institucionales", explicó el experto. Indicando la ventaja del bitcoin como un activo de inversión y un medio de pago a la vez, Panigirtzoglou dijo que aunque el bitcóin todavía está lejos de igualarse con el oro en volumen de inversiones o el valor total en circulación, la moneda descentralizada podría llegar a competir con el oro o incluso sobrepasar el uso del metal precioso.


La capitalización del bitcoin y otras criptomonedas supera los u$s300.000 millones, en comparación con los 1,5 billones de todo el oro fuera de los bancos centrales. La actitud de Panigirtzoglou contrasta con la del CEO de JP Morgan, Jamie Dimon, un crtítico feroz del bitcoin, quien calificó a la moneda de "un fraude" que "va a explosionar" y prometió despedir a cualquiera de sus trabajadores que negociara con bitcoines. EL TANGO DE LA CORRUPCIÓN: BREVE HISTORIA DE LA IMPUNIDAD EN ARGENTINA Por UKI GOÑI

CreditMagoz BUENOS AIRES — Argentina volvió a cambiar de dirección política en un zigzag centenario que va de izquierda a derecha y viceversa. Aunque este ritual obsesivo es traumático, lo más sorprendente es que el lenguaje casi nunca cambia: los gobernantes son corruptos, sácalos del gobierno. Esto es válido para todo el espectro político. Cuando un titular es acusado de corrupción, lo sacan los votantes o un golpe de Estado. A menudo son citados en los tribunales pero los procesos judiciales no llegan a ninguna parte en manos de investigadores o jueces políticamente cautelosos. Con el tiempo, los reformadores también son acusados de corrupción y el ciclo se repite. El actual giro involucra a la populista Cristina Fernández de Kirchner, quien fue presidenta desde 2007 hasta el año pasado, y su marido Néstor, quien la precedió en el periodo 2003-2007 y murió en 2010. Su sucesor, Mauricio Macri, de centroderecha, prometió acabar con la corrupción y dinamizar la economía argentina. El resultado: Cristina Fernández ha sido acusada de organizar una operación de divisas a un precio artificialmente bajo que benefició a los inversores ricos y le costó miles de millones de dólares al Banco Central de la República Argentina. Mientras tanto las noticias de los canales de televisión transmiten imágenes de retroexcavadoras en una granja de la Patagonia, donde se rumorea que la supuesta gran fortuna de los Kirchner está enterrada. Otros funcionarios de la época kirchnerista son acusados de soborno, malversación y apropiación indebida de fondos públicos. ¿Esto significa que Fernández de Kirchner ha sido humillada para siempre? Difícilmente. Un gran segmento de la población todavía la ve como una defensora de los pobres y la consideran una aspirante con fuerte potencial para las elecciones presidenciales de 2019.


Aunque eso pueda parecer extraordinario para los extranjeros, nada de esto es nuevo para los argentinos. Las grandes divisiones políticas se remontan a la independencia de Argentina a principios del siglo XIX, una época de disputas sangrientas entre los defensores de la autoridad local o el fuerte gobierno central. Revueltas y guerras civiles se sucedieron una tras otra, mientras los propietarios se enfrentaban a sus rivales y usaban gauchos como soldados. En el siglo XX, las grietas volvieron a abrirse entre los caudillos y líderes más elitistas, con todos los bandos acusando de corrupción a sus enemigos. En 1930 un golpe militar derrocó al presidente progresista Hipólito Yrigoyen, quien fue encarcelado por cargos relacionados con compras fraudulentas del gobierno. Pero ninguna de las acusaciones fue demostrada. En las décadas de 1940 y 1950, el general populista Juan Domingo Perón y su segunda esposa, Eva, acusaron a los “oligarcas” de la explotación vivida por la clase obrera. Los generales alineados con la clase alta que Perón vilipendiaba lo expulsaron de la presidencia en 1955 y ordenaron una investigación por acusaciones en su contra que incluyó la malversación de los ingresos por exportaciones agrícolas y relaciones sexuales con chicas adolescentes. Pero luego de una larga investigación (y una exposición de la colección de joyas de Eva, quien ya había fallecido) no se llegó a resultados concluyentes. Durante los 18 años siguientes, mientras Perón estaba exiliado en Madrid, los gobiernos militares expulsaron a los sucesivos presidentes elegidos y, por lo general, citaban cargos de corrupción como una justificación de sus actos. Perón volvió al poder en 1973 pero murió un año después y fue sucedido por Isabel, su tercera esposa. Ella fue acusada de quedarse con las ganancias de una institución gubernamental de caridad y en 1976 fue expulsada por otro golpe de Estado, ostensiblemente para reactivar una economía empobrecida por las políticas populistas impulsadas por Perón. Fue entonces cuando la división política argentina alcanzó su punto más bajo, con un descenso a la barbarie de un gobierno militar que implementó la tortura, el asesinato y la desaparición de decenas de miles de opositores, muchos de ellos jóvenes. Solo después de que los generales provocaron y perdieron una guerra con el Reino Unido por las Islas Malvinas e incurrieron en una deuda externa agobiante se logró que convocaran a unas elecciones democráticas en 1983. Luego empezó un raro interludio. Parecía que la amplia repulsión por los horrores de los gobiernos militares disiparon los viejos odios de Argentina cuando un político llamado Raúl Alfonsín, conocido por su honestidad, fue elegido presidente. Pero el sueño de una Argentina unida no duró. Carlos Menem ganó la presidencia en 1989, un peronista de derecha que conducía un Ferrari Testarossa que le habían regalado unos empresarios italianos. Durante su gobierno privatizó las empresas de telefonía, gas, electricidad y petroleras por lo que pronto se vio envuelto en acusaciones de corrupción. Él no


ayudó a disipar las dudas cuando los periodistas le preguntaron por el Ferrari y les respondió: “¡Es mío, mío, mío!”. Sin embargo, su reputación de corrupto no afectó a los votantes. Incluso se las arregló para cambiar la constitución y lograr su reelección en 1995. Una observación que se oía a menudo cuando la gente se refería a él, explica muchas cosas: “Roba pero hace”. Por desgracia, las radicales reformas de libre mercado que ejecutó incrementaron y agravaron el desempleo por un periodo que duró más que su gobierno. El impago de la deuda externa y la catastrófica crisis económica de 2001 llevaron a su sucesor, Fernando de la Rúa, a decretar un estado de emergencia y renunciar a la presidencia. Después De la Rúa enfrentó acusaciones, que no fueron probadas, de haber sobornado a senadores para que aprobaran una reforma a la ley laboral. Esto nos lleva de nuevo a la populista Fernández de Kirchner y los esfuerzos de Macri por conseguir que los jueces argentinos notoriamente flexibles la investiguen. ¿Finalmente Argentina enfrenta su corrupción endémica? Es difícil de decir. Sebastián Casanello, el juez que ordenó las excavaciones en la granja de la Patagonia, también investiga a Macri porque su nombre aparece en el consejo de administración de una sociedad offshore que apareció en el escándalo de los Papeles de Panamá. Sin embargo, cuando la corrupción y las acusaciones escabrosas se vuelven tan escandalosas, alcanzan un punto en el que los ciudadanos apenas se asombran. En Argentina ese límite se cruzó hace mucho tiempo. Hoy en día los tribunales federales son extremadamente lentos con un laberinto de jueces, a menudo tan corruptos como los políticos que investigan, dice Luis Moreno Ocampo, un activista contra la corrupción. “Es un sistema de jueces que encubren la corrupción en lugar de investigarla”, dice. Y la impunidad de la corrupción crea un profundo cinismo en toda la sociedad. Vale la pena recordar el caso de René Favaloro, un célebre cardiólogo argentino de la década de 1960, quien fue el pionero de una técnica de bypass coronario en Cleveland, y luego regresó a su país para establecer una fundación cardiovascular. Su integridad y generosidad (operaba gratis a los pacientes más pobres) lo convirtieron en una leyenda. Pero esos rasgos fueron su perdición. Cuando se negó a pagar los sobornos exigidos por los funcionarios de los servicios de salud, el instituto estatal de pensionistas se negó a cancelar lo que le debía de las operaciones dejándolo al borde de la quiebra. “He sido derrotado por esta sociedad corrupta que lo controla todo”, escribió en una famosa carta en la que decía que prefería morir antes que sobornar. A continuación se pegó un tiro en el corazón. Eso fue hace 16 años. En vez de sucumbir una vez más al uso cíclico de la corrupción para ensuciar a oponentes políticos, Argentina necesita enfrentar a la corrupción en su núcleo para combatir con éxito a este viejo flagelo que corroe a una democracia todavía frágil. Para esto será necesario, antes que nada, tener un poder judicial verdaderamente independiente que descarte rápidamente las acusaciones sin fundamento y que,


cuando determine culpabilidad verdadera, dictamine algo más que condenas simbólicas destinadas principalmente a desacreditar a los oponentes políticos. Ante todo la guerra contra la corrupción debe ser librada dondequiera que ella ocurra, no solo entre los enemigos políticos.

CRISTINA ELISABET FERNÁNDEZ - CRISTINA KIRCHNER Biografía Cristina Fernandez de Kirchner. 2.3M likes. Militante peronista, ex Presidenta de la República Argentina por 2 períodos consecutivos 2007-2015 Cristina Elisabet Fernández nació en Ciudad Eva Perón (nombre de la ciudad de La Plata entre 1952 y 1955), capital de la provincia de Buenos Aires. Primera hija de Eduardo Fernández (19211982, descendiente de españoles gallegos y asturianos) y de Ofelia Esther Wilhelm (nacida el 10 de mayo de 1929), descendiente de alemanes. Tiene una hermana dos años menor llamada Gisele (1955). Sus abuelos paternos eran inmigrantes sin profesión. Con los años llegaron a tener un tambo y después una posición económica favorable. Su padre, también sin profesión, se dedicó a varias actividades, entre ellas la agropecuaria. Más tarde compró un colectivo, que manejó el resto de su vida como miembro de una cooperativa

. Cristina Fernández en los años 1970. Su madre era empleada en la Dirección General de Rentas y secretaria general de su gremio, AERI (Asociación de Empleados de Rentas e Inmobiliarios). Según Cristina su madre era una gremialista particular, nunca en los más de veinte años que fue secretaria tomó licencia. Sus padres se casaron cuando ella tenía dos años, antes de que naciera su hermana. Pasó su infancia y adolescencia entre las ciudades de La Plata, Ringuelet y Tolosa. El hogar donde creció estaba conformado por sus padres, su hermana, su abuelo Carlos Wilhelm y su tía Noemí Wilhelm. Según Cristina Fernández, este hogar ampliado permitió que su madre pudiera ejercer su tarea gremial. Fue un hogar parecido al que luego formaría con Néstor Kirchner, donde los parientes estuvieron presentes durante el crecimiento de sus hijos. La relación con su padre siempre fue cercana pero de poco gesto demostrativo; era una persona distante. La relación entre sus padres era tensa, nunca se llevaron bien y con los años se divorciaron.


En lo político su familia estaba dividida. Su padre era abiertamente antiperonista y su madre peronista. Su abuelo Carlos era del conservadurismo bonaerense, pero luego con las reformas en lo laboral que hizo Juan Domingo Perón se convirtió a dicho partido. Su primer contacto con la política fue cuando Roberto Guaresti, padre de unas amigas del barrio, se candidateó a intendente de La Plata en las elecciones de 1962. Cristina Kirchner recuerda cómo se vivió la candidatura desde la casa de los Guaresti, quien ganó pero nunca pudo asumir. Cuando tenía quince años se mudaron a la actual casa donde vive su madre, en Tolosa. Cursó cuarto y quinto año de la secundaria en el colegio de monjas La Misericordia. A esa edad todavía no era una militante peronista, pero ya había comenzado a interesarse en la política. En la secundaria, Cristina Fernández se recibió de perito mercantil. Para inscribirse en la carrera de Derecho debió rendir diecisiete equivalencias ya que exigían un bachillerato en Humanidades. Primero cursó un año la carrera de Psicología y luego ingresó en la Facultad de Ciencias Jurídicas y Sociales de la Universidad Nacional de La Plata. Cristina Fernández era amiga de Pipa Cédola, quien estaba en pareja con Omar Busqueta. Este último era amigo y compañero de departamento de Néstor y fue así como se conocieron en 1974. Néstor Kirchner hacía tiempo militaba en la FURN (Federación Universitaria de la Revolución Nacional), además era vicepresidente del Centro de Estudiantes Santacruceños de La Plata. En cambio Cristina Fernández militaba en la Juventud Peronista de su barrio y participaba de las Mesas de Construcción Nacional que se hacían en la facultad. Tuvieron un noviazgo de seis meses y se casaron el 8 de mayo de 1975.

Néstor y Cristina Kirchner en un acto en Plaza de Mayo el 18 de junio de 2008. Esta imagen, luego del fallecimiento del expresidente, se ha convertido en una postal usada por los militantes kirchneristas. Tras seis meses de noviazgo, Néstor y Cristina Kirchner se casaron el jueves 8 de mayo de 1975. La primera casa donde vivieron quedaba en City Bell, prestada por el padre de Cristina Fernández. Vivieron desde mediados de 1975 hasta marzo de 1976 con una pareja conocida de la militancia: Gladis Dalessandro y Carlos Chiche Labolita. Cristina Fernández los había llevado a vivir con ellos porque presumía estaban prontos a ser secuestrados por la dictadura. Ese tiempo fue de una vida modesta ya que todavía no estaban recibidos. Ya antes de casarse, tanto Néstor como Cristina Kirchner se oponían a la lucha armada de Montoneros. Decían que siempre el modo era a través de la política. Se alejaron de la FURN, lo que los mantuvo a salvo de los secuestros. Solo fueron arrestados unos días en enero de 1976 cuando estaban de visita en Río Gallegos. Fue luego de un almuerzo con una pareja


amiga, Cacho Vázquez y su esposa Mabel. Los detuvieron a los cuatro pero el objetivo era Vázquez. Según Cristina Fernández en las ciudades chicas del país los lazos familiares y las amistades todavía funcionaban. La mañana del golpe del 24 de marzo, Cristina Kirchner y su esposo escondieron en una pensión al estudiante Carlos Labolita porque la policía lo buscaba. Al poco tiempo La bolita volvió a su pueblo, Las Flores, cuando se enteró que su padre había sido detenido. Un comando la Comisaría de Las Flores lo asesino y desaparecieron su cuerpo. Cuando regresaron a La Plata se enteraron que el Turco Achem y Carlos Miguel ―dirigentes históricos de la FURN― habían sido secuestrados. En las semanas posteriores, mientras Néstor Kirchner daba las últimas materias de la carrera, se alojaban en casa de amigos. Gladis y Carlos regresaron a Las Flores de donde ambos eran oriundos. Él fue capturado a las pocas semanas y desde entonces está desaparecido y en 2004 fue incluido en el monumento a los desaparecidos en aquella ciudad. El golpe de Estado a María Estela Martínez de Perón y la posterior asunción del autodenominado Proceso de Reorganización Nacional volvía la militancia política un gran riesgo, por el cual la pareja resolvió trasladarse a la ciudad natal de Néstor, Río Gallegos. Muchos de sus compañeros de militancia resultaron asesinados o desaparecidos. Una vez instalados en la Patagonia, ambos se dedicaron a la actividad privada como abogados, formando el estudio jurídico Kirchner. Él ya estaba recibido, a ella le faltaban tres materias al momento de viajar a la provincia y se recibió en 1979. El matrimonio tuvo dos hijos: Máximo (1977) y Florencia (1990). Cristina pudo dedicarse activamente a la política gracias a la presencia constante de su suegra María Ostoic y de su cuñada Alicia Kirchner. El 27 de octubre de 2010 falleció su esposo Néstor Kirchner de un paro cardiorrespiratorio no traumático. El 22 de diciembre de 2011, en un control médico de rutina, se le detectó un tumor en la glándula tiroidea, por lo que se le realizaron dos punciones. El diagnóstico en la primera muestra fue «citología compatible con carcinoma papilar de células dendríticas foliculares», mientras

que

en

la

segunda

muestra

se

le

diagnosticó

«citología

compatible

con bociocoloide nodular».46 La conclusión fue que Cristina Kirchner padecía carcinoma papilar y ausencia de compromiso de los ganglios linfáticos e inexistencia de metástasis. CFK en su discurso del 25 de enero de 2012 en el Salón Mujeres Argentinas de la Casa Rosada, luego de su operación. El 4 de enero de 2012 se le realizó una tiroidectomía. La comprobación del diagnóstico original,48 concluyó que se trataba de un adenomafolicular, es decir, un tumor epitelial benigno. Este tipo de patología tiene alrededor de un 2 % de casos con falso positivo cuando el diagnóstico se basa en análisis citológicos, aunque en ningún caso la operación podía evitarse.


El 14 de julio de 2013 Cristina fue abuela de Néstor Iván, el primogénito de su hijo Máximo con Rocío García. Dos años antes, en 2011, Cristina había anunciado que se convertiría en abuela, sin embargo en aquella oportunidad el embarazo no pudo seguir los cauces normales. El 8 de octubre de 2013, Cristina fue sometida a una intervención quirúrgica debido a un hematoma subdural crónico. Carrera Politica Comienzos de su carrera política.

Cristina y Néstor Kirchner el 24 de marzo de 2010 visitan la ESMA convertida en espacio de la memoria. Los acompañan Julio Alak, Aníbal Fernández, Florencio Randazzo, Eduardo Luis Duhalde, Eduardo Jozami y Oscar Parrilli. En 1981, el matrimonio Kirchner fundó el ateneo Juan Domingo Perón, plataforma política con la que Néstor pelearía la intendencia de Río Gallegos en 1983.52 Los acompañaban Pepe Salvini (con quien Néstor había fundado el Centro de Estudiantes Santacruceños), Daniel Varizat, Alicia Kirchner, el Negro Chávez, Carlos Zannini y Cacho Vázquez. Se denominaban el Grupo Calafate. La capital santacruceña tenía en aquella época 70 000 habitantes, 30 unidades básicas y 3 listas dentro del peronismo, todas con militancia activa.53 Su referente a nivel provincial era Jorge Cepernic. Su primer cargo electivo fue en 1989 como legisladora provincial en la Cámara de Diputados de Santa Cruz. Ya en aquella época habían fundado el Frente para la Victoria Santacruceña. Néstor fue elegido intendente de la ciudad en 1987 y luego gobernador de la provincia en 1991. Cristina Fernández encabezaba la Secretaría Legal y Técnica de la provincia. Durante la campaña electoral a la primera gobernación de Néstor Kirchner en 1991, Cristina Fernández fue su jefa de campaña. Liliana Mazure, dueña de una imprenta de Buenos Aires, recuerda sus viajes y cómo diseñaban a mano los afiches, y que era Cristina Fernández quien los modificaba.59Allí Cristina presidía la estratégica Comisión de Asuntos Constitucionales, e incluso antes de que su esposo fuera gobernador, ella había llegado a la vicepresidencia del cuerpo. 52 En el 94, el matrimonio participó por primera vez juntos de una elección, en este caso para convencionales constituyentes, que ganaron. Ambos fueron entonces convencionales constituyentes y participaron de la reforma constitucional del 94. Desde lo político se identificaban con el peronismo renovador, cuya cabeza a nivel nacional era Antonio Cafiero. Este sector del partido estaba enfrentado al gobierno menemista, cuyo


bloque no acordó en el Congreso el proyecto de ley presentado por Néstor Kirchner sobre zonas francas para la Patagonia. Según Cristina Fernández, con su esposo siempre estuvieron en contra del modelo neoliberal, hecho que algunos medios de comunicación reflejaron, principalmente cerca de la elecciones legislativas de 1997 y luego de las elecciones presidenciales de 2003. Durante el debate por la privatización de YPF, tanto Néstor como Cristina Kirchner se manifestaron a favor de la aprobación de la transferencia del dominio del petróleo a las provincias, proyecto que incluía la privatización de YPF. Asimismo, Cristina Fernández pronunció un discurso en la Cámara de Diputados de la Provincia de Santa Cruz en la que declaró la necesidad de sanción del «proyecto de Federalización de los Hidrocarburos y de Privatización de Yacimientos Petrolíferos Fiscales». El traspaso efectivo del dominio se hizo recién en 2003. 68 Según el gobernador de Santa Cruz, Sergio Acevedo, existía un pacto donde el Estado nacional reconocía que tenía una deuda con la provincia de Santa Cruz por 480 millones de dólares, pero que supeditaba su pago a la aprobación de la privatización. La provincia de Santa Cruz recibió luego 654 millones de dólares en 1993. Sobre la privatización, en 2012 durante la presentación del proyecto de ley para expropiar el 51 % de las acciones de Repsol YPF, Cristina Kirchner dijo «Por la reforma de 1994, la propiedad de los yacimientos se transfirió precisamente a las provincias. He estado casada doce años con un gobernador, y sé lo que significa administrar todos los días las urgencias, las necesidades, y muchas veces se adoptan decisiones. Y no porque los gobernadores no quieran defender los intereses de sus provincias, sino que muchas veces se encuentran acuciados por necesidades muy importantes que tienen que cubrir, como la educación, la salud, obras importantes que les quitan y les restan poder de negociación». En 1994 junto a su marido, fue Convencional Constituyente en la reforma constitucional de ese año. En dicha reforma apoyó la incorporación del derecho a réplica y el habeas data así como la creación de la Jefatura de Gabinete de Ministros que atenúa el sistema presidencialista. Actividad en el Congreso de la Nación En el año 1995 ingresó al Senado Nacional representando a la provincia de Santa Cruz por el Partido Justicialista. Se opuso a varios proyectos del gobierno menemista como el proyecto sobre los Hielos Continentales, la privatización de Aerolíneas Argentinas, el Pacto Fiscal II, la Reforma Laboral. También se opuso al texto de la luego aprobada Ley de Hidrocarburos. En la comisión participaban provincias que no eran productoras y durante el debate dijo: «¿Por qué si ustedes no producen hidrocarburos quieren estar en esta comisión?; Santa Cruz nunca pidió un lugar en la Junta Nacional de Granos». Se opuso a la eximición de pagar el Impuesto a las ganancias que votó el Senado en 1997. En dicha sesión dijo «a ningún Peronista le resultará fácil de explicar que votó en favor de declinar una porción de la coparticipación que le corresponde» y «Nosotros históricamente, a través del Peronismo, incentivamos la movilidad social hacia arriba. Ahora aparecemos cristalizando la situación de los menos protegidos social y económicamente y empujando a la clase media hacia abajo».


También votó en contra a la reforma hecha al Consejo de la Magistratura y a la privatización de la Represa de Yacyretá. Fue tildada de «revoltosa» y expulsada en 1997 del bloque del Partido Justicialista. Renunció a su banca de senadora e ingresó ese mismo año como diputada también por Santa Cruz. La primera aparición a nivel nacional fue en 1998 durante el debate por el litigio con Chile por los límites en el Campo de Hielo Patagónico Sur. La posición oficial en ambos países era su aprobación sin más. Los medios de comunicación trataban el tema de la pérdida de cientos de kilómetros de glaciares de agua dulce como «el precio de la paz con Chile». Cristina Kirchner recorrió varias universidades del país expresando sus razones para oponerse, lo mismo que Néstor como gobernador. Ese año recibió un memorándum en el que se le comunicaba que quedaba desafectada de todas las comisiones en las que participaba, que eran Asuntos Penales y Regímenes Carcelarios, Coparticipación Federal, Economías Regionales, Educación, Familia y Minoridad, Relaciones Exteriores y Culto. 76 Convirtió a la defensa por hielos continentales en la mayor de sus banderas. En 1996, el Congreso trataba la ratificación del acuerdo Menem-Aylwin de 1991, que, al dividir la zona en litigio, les achacó a quienes avalaban el tratado una «obediencia debida» al Ejecutivo. Incluso difundió un informe contra el acuerdo desde El Chaltén. En 1999 presidió la Comisión Bicameral de Seguimiento de los Atentados a la Embajada de Israel y al edificio de la AMIA. Según Diego Buranello ―quien trabajó junto a Cristina Kirchner―, en aquellos años no había una política oficial que buscara esclarecer el caso AMIA. La comisión logró que Juan Carlos Passero, jefe de la Policía Federal Argentina declarara que «hubo graves negligencias y errores administrativos en la fuerza». Esto ocurrió durante la interpelación que le hizo varias horas Cristina Kirchner, luego de la desaparición en el juzgado del juez Juan José Galeano, de 66 casetes que contenían escuchas al teléfono de Carlos Telleldín. Fue vicepresidente segunda de la Comisión Especial Investigadora sobre hechos ilícitos vinculados con el lavado de dinero en la Cámara de Diputados de la Nación en 2000. La comisión, presidida por Elisa Carrió y de la que también formaba parte Alicia Castro, realizó un trabajo que Cristina Kirchner no firmó porque según ella tenía contradicciones entre los capítulos I y III, por lo que terminó avalando otro informe. También en la interpelación pidió al entonces ministro de Defensa Oscar Camilión, involucrado en el escándalo venta de armamento al Ecuador, que dimitiera a su cargo. Como diputada lideró un grupo que buscó frustrar la reelección de Alberto Pierri como titular de la Cámara, acusandoló de clientelismo. En aquella ocasión expresó: «Mi voto negativo no es solo una actitud principista; es una acción concreta que refleja mi voluntad de colocar al frente de las instituciones políticas a dirigentes creíbles y prestigiosos. No creo que Pierri lo sea». Ese año fue uno de los pocos legisladores que se opuso a la aprobación de la ley de concursos y quiebras, que era parte de una serie de medidas impuestas por el FMI. Durante el debate dijo «en unos meses más a la Argentina le van a poner bandera roja, señor presidente. Y no precisamente aquel "infame trapo" que algunos creían que iba a flamear en la Argentina allá en la década de los años setenta, sino bandera roja de remate». Durante un debate con David Viñas, ese año declaró «Yo soy más optimista, en el sentido que pienso que el voto directo de la gente va obligar a la aparición de otros dirigentes políticos. Yo también quiero decirle a la gente que es importante que construya sus propias representaciones. Que cuando toma una lista, vea quién está y que decida en consecuencia. Y


que a los que no están conformes, como tantísima gente que no está conforme, que por favor participe en donde sea, aunque sea fundando su propio partido político, pero que participe». En 2001 fue elegida nuevamente senadora por la provincia de Santa Cruz. Asumió la presidencia de la Comisión de Asuntos Constitucionales. Junto a ella trabajaba la penalista Valeria Loira, quien recuerda que el trabajo con Cristina Kirchner siempre fue arduo. La senadora rechazaba los resúmenes, además todos los trabajos que se hacían debían tener tener fuente fiable y verificable de los autores principales de cada tema legal, versiones de los principales medios y las transcripciones taquigráficas de debates en el Senado. Algunos de los proyectos que trató la comisión fue la modificación del Consejo de la Magistratura, la modificación a la ley que luego permitió la actual conformación de la Corte Suprema y la ley de Acceso a la Información Pública. La ley sobre transparencia de la labor legislativa estableciendo la votación nominal para los proyectos de ley. También impulsó la derogación de la ley de reforma laboral aprobada durante el gobierno de Fernando De la Rúa. En el año 2002 impulsó siendo senadora la reforma del Código Nacional Electoral reforma de la Ley Orgánica de Partidos Políticos, que establecía entre otras elecciones primarias o internas simultáneas para todos los partidos políticos con el fin de que los dirigentes con representación institucional surjan de la voluntad directa del ciudadano y no de las burocracias partidarias. También presentó un proyecto que modificaba la ley de acefalía para prevenir la crisis institucional como la del 2002: el presidente que la Asamblea Legislativa escogiera sería provisorio por 90 días, período en el cual debería llamar a elecciones para elegir a su reemplazante y renovar todos los cargos legislativos nacionales. Se modificaba la ley de cupo femenino extendiendo la vigencia del mismo hasta los suplentes y estableciendo que en caso de renuncia de un o una integrante de la lista, lo o la sucedería en el puesto el siguiente del mismo género y, en el caso de renuncia de todos los candidatos de ese género se procedería a una nueva elección para su reemplazo. También impulsó una ley de financiamiento de los partidos políticos, una reglamentación del recurso extraordinario por salto de instancia, implementación del Estatuto de Roma ―que creó a la Corte Penal Internacional―, modificación de la Ley de Educación Superior, reafirmación de la soberanía sobre los hielos continentales, régimen legal de los refugiados, consulta popular, modificación de la ley 11.683 de procedimiento tributario, incorporación de un tercer senador para la Ciudad de Buenos Aires, impulso a la ley de juicio por jurados, y la ley de acceso a la información pública. Como presidente de la Comisión, fue agredida físicamente cuando su comisión investigaba al senador peronista Luis Barrionuevo por la quema de urnas durante la elección a gobernador en la provincia de Catamarca en 2003. La comisión pidió que se lo apartara del cargo, pero el Senado decidió que permaneciera. A partir de 2003, representó al país en diversos foros internacionales como la Cumbre de Gobiernos Progresistas, en Londres (2003); la reunión de dirigentes políticas y empresarias internacionales organizado por el National Democratic Institute for International Affairs, en Boston (2004); o el encuentro de partidos progresistas gobernantes en el Cono Sur, en Montevideo (2005). Para las elecciones legislativas del 23 de octubre de 2005 fue elegida senadora por la provincia de Buenos Aires por el Frente para la Victoria. Durante la presidencia de Néstor Kirchner ejerció un papel importante desde el Senado y como compañera en las decisiones políticas del presidente. En este período mantuvo un perfil de activa defensa de los derechos humanos tanto en Argentina como en América Latina. Ha sido promotora de la actividad política de las mujeres. En 2007 aún siendo senadora suscribió, en representación del Gobierno


Nacional, la adhesión argentina al «Convenio sobre desaparición forzosa de personas», en la ciudad de París (Francia). Fue oradora en la conferencia anual de la Organización Internacional del Trabajo (OIT) en Ginebra (Suiza). Campaña Presidencial 2007 El 19 de julio de 2007 lanzó oficialmente su candidatura presidencial para las elecciones presidenciales de Argentina de 2007. El acto se realizó en el Teatro Argentino de la ciudad de La Plata. Ya había sido mencionada repetidas veces como «cuadro político presidenciable» por varios miembros del Partido Justicialista y del gabinete del gobierno kirchnerista. Política en ciencia y tecnología

Mural pintado en el barrio de Villa Luro, Buenos Aires, con motivo del lanzamiento en 2014 del satélite argentino ARSAT-1, conteniendo los colores de la bandera nacional. Una de las primeras medidas adoptadas en su gobierno fue la creación del Ministerio de Ciencia, Tecnología e Innovación Productiva, designando para el cargo a Lino Barañao, un reconocido biólogo molecular. Se continuó con la política de la presidencia de Néstor Kichner con respecto a las posiciones orbitales otorgados por la Unión Internacional de Telecomunicaciones. Se creó la empresa ARSAT, que en principio manejó el satélite Nahuel 1A, de fabricación extranjera, hasta principios de 2010 por el satélite, hasta que cumplió su vida útil; y luego desarrolló; construyó, en el INVAP en San Carlos de Bariloche; y lanzó, dos satélites, el ARSAT-1 en 2013 y el ARSAT2 en 2015. Luego se abocó al diseño y construcción del ARSAT-3. Los técnicos, tanto de la Comisión Nacional de Actividades Espaciales como de la Comisión Nacional de Energía Atómica, recibieron un aumento sostenido de presupuesto y sueldos. Se reinició el proyecto espacial argentino con el logro de la puesta en órbita del SAC-D en 2011 construido casi en su totalidad por INVAP, así como la finalización de la Central nuclear Atucha. Las transferencias hacia los investigadores del CONICET se han multiplicado varias veces. Estas políticas de Estado, junto con un programa especial de repatriación, permitió que cientos de científicos e investigadores regresaran al país. Desde el comienzo de su gobierno se instalaron, principalmente en Tierra del Fuego, decenas de fábricas de productos electrónicos complejos como celulares y computadoras de marca nacional Otro logro tecnológico durante su gobierno fue la producción nacional de radares militares y civiles para control del tráfico aéreo y control del narcotráfico construidos en su totalidad por INVAP. Estatización de Aerolíneas Argentinas En 2008, por iniciativa de la presidente, el Estado adquirió el paquete accionario de las privatizadas Aerolíneas Argentinas y Austral Líneas Aéreas. De esa manera el país recuperó la


línea de bandera. En 2009 se reestatizó la histórica Fábrica Argentina de Aviones, privatizada por Carlos Menem en 1995, ubicada en Córdoba. En 2012 se acordó con la brasileña Embraer el ensamblaje de aviones en la planta.121 Ya como la línea aérea de bandera de la República Argentina, fue considerada como una de las aerolíneas más seguras del mundo . Política de comunicación Durante la presidencia de Cristina Kirchner se debatió y aprobó por sectores oficialistas y opositores la Ley de Servicios de Comunicación Audiovisual que reemplaza a la antigua Ley de Radiodifusión 22.285 creada por la última dictadura. Este proyecto había sido una de las plataformas electorales de ambos gobiernos kirchneristas. Poco después de sancionada la ley, se suspendió judicialmente la aplicación del 161, que impone como límite un año desde la reglamentación para que los propietarios de los grandes medios audiovisuales enajenen activos para adaptarse a la misma; tras un fallo de la Corte Suprema de Justicia, 124 la ley entró completamente en vigor el 29 de octubre de 2013.125 Como consecuencia de la ley, se concedieron 1000 nuevas licencias de radio y televisión, y se crearon cerca de 100 000 puestos de trabajo.126 Otros aspectos que resaltan son la aparición de varios nuevos diarios de tirada nacional127 y la despenalización de las calumnias e injurias para expresiones de interés público, tema vinculado a la libertad de expresión y la libertad de prensa. Argentina se encuentra en plena migración hacia la televisión digital abierta y esto, junto a la nueva ley de medios audiovisuales, dio como resultado la multiplicación de la cantidad de señales audiovisuales y espacios relacionados a la creación estatal de contenido y demás, 135 136 principalmente en el interior del país, donde todavía se consumen productos de la televisión de Buenos Aires. Según un informe anual de la ONU sobre el Desarrollo Humano correspondiente al año 2015 (el último año del mandato de Cristina Kirchner), Argentina era la segunda nación iberoamericana con más alto índice de desarrollo humano detrás de España, y por delante de Chile y Portugal. Ese mismo año el Banco Mundial calificó por primera vez a la Argentina como una economía de alto ingreso. En ese mismo año, el país tenía una renta per cápita de más de 16 000 dólares estadounidenses en paridad de poder adquisitivo (PPA), la segunda más alta en América Latina (tras Chile). Durante sus dos períodos el PBI creció de 329 000 millones a 548 000 millones de dólares en 2014. El Banco Interamericano de Desarrollo, de acuerdo a los datos del Banco Mundial, afirmó que a mediados del 2015 el índice de pobreza era de 10,8 % y de la indigencia del 4,2 %. De acuerdo con el Banco Mundial, durante los mandatos de Néstor y Cristina Kirchner, la clase media argentina se duplicó. El viernes 3 de agosto de 2012 se abonaron 2300 millones de dólares para el pago del Boden 2012, la última cuota de la herramienta financiera puesta en marcha por el Gobierno argentino para solucionar el corralito y la pesificación asimétrica de los bancos después de la crisis. Saldados los 19 600 millones de dólares en concepto de capital e intereses, el gobierno kirchnerista devolvió a los ciudadanos el dinero adeudado después del corralito. Esto se sumó a la política de desendeudamiento iniciada en el 2003 por el gobierno de Néstor Kirchner (cuando la deuda representaba un 166 % del PBI), hasta el 2012 (cuando solo representa un 41,8 %). Asimismo la deuda en dólares se redujo de un 92 % del PBI al 8,4 %.


En los últimos años de su gobierno, se crearon 200 000 nuevas empresas en los sectores industria, comercio y servicios. Desde 2003 se duplicó el PBI industrial, sustituyendo importaciones por 15 000 millones de dólares. Del total de exportaciones del país, las manufacturas de origen industrial eran las principales, seguidas de manufacturas de origen agropecuario y luego materia prima. En 2008, el 98 % de los teléfonos celulares del mercado eran importados, en cambio en 2012, el 99 % eran fabricados en el país. La cantidad de parques industriales pasó de 80 (en 2003) a 330 (en 2012). En dichos parques industriales se localizan 8600 empresas con 267 000 trabajadores. Uno de los principales es el polo electrónico en Tierra del Fuego, con 9000 trabajadores. Por su parte el INTI elevó su presupuesto de 30 millones de pesos anuales a 450 millones. También el INPI incrementó la cantidad de patentes argentinas registradas. Política en educación En 2010, la Ansés (Administración Nacional de la Seguridad Social) inició el plan Conectar Igualdad de entrega y puesta en funcionamiento de tres millones de netbooks con acceso a Internet a todas los alumnos de públicas primarias y secundarias del país. Para 2015, ya se habían entregado cinco millones de computadoras, y además se construyeron 1428 aulas digitales en todo el país. El programa recibió premios en el extranjero y de diferentes organismos internacionales, entre ellos una distinción del Programa de Naciones Unidas para el Desarrollo (PNUD), y por la cumbre Iberoamericana, entre otros. El crecimiento de los aportes del Estado a la educación permitió aumentar las transferencias a las universidades nacionales y la creación de nuevas universidades. Además de aumento de los recursos destinados a otras universidades, como la Universidad de La Matanza, cuyo presupuesto creció un 820 %.Esto se vio reflejado en la formación de nuevos institutos de investigación. En 2014 se dio el lanzamiento del plan Progresar, destinado a jóvenes de 18 a 24 años que no tienen trabajo, trabajan informalmente o perciben un salario menor del mínimo vital y móvil y cuyo grupo familiar se encuentre en iguales condiciones. Política de derechos humanos

Inauguración del Jardín de las Madres y las Abuelas de Plaza de Mayo en París. En la foto de izquierda a derecha: la presidente de Abuelas de Plaza de Mayo, Estela B. de Carlotto, la presidente de la Argentina, Cristina Fernández de Kirchner y el alcalde de París, Bertrand Delanoë. Durante su presidencia, Cristina continuó con la política de derechos humanos del presidente Néstor Kirchner. La política de derechos humanos, en general contó con un abierto apoyo de varias organizaciones de derechos humanos como las Madres de Plaza de Mayo y las Abuelas de Plaza de Mayo, se registran 521 causas activas, en las que 2220 imputados se encuentran o fueron investigados. Asimismo, existen otras 220 causas que fueron acumuladas a


expedientes principales (en algunos casos, «megacausas») en distintas instancias de la investigación. dicha política fue criticada por el presidente de facto Jorge Rafael Videla. Durante el gobierno de Cristina Kirchner, varios altos funcionarios pertenecientes al último golpe de Estado, fueron juzgados y condenados en distintas provincias por crímenes contra la humanidad. Política en planificación federal y servicios Política energética

Represa Punta Negra, inaugurada en 2013. Uno de los primeros planes fue el total reemplazo a nivel nacional de las lámparas incadescentes por las de bajo consumo; como consecuencia descendieron los consumos de energía eléctrica. La política energética, junto con la creación del Plan Energético Nacional 2007-2019, se concentró en la construcción de decenas de nuevas centrales eléctricas que se unieron al Sistema Interconectado Nacional: se concluyó junto al Paraguay la construcción de la represa de Yacyretá; se concluyó el proyecto de la central nuclear Atucha II; se instalaron casi 4500 kilómetros de líneas de extra alta tensión (LEAT) y alrededor de 5000 km de alta tensión (AT) y media tensión (MT); se amplió la central termoeléctrica Modesto Maranzana; se inauguró la central Guillermo Brown, ubicada en las afueras de la ciudad bonaerense de Bahía Blanca; se inició la construcción de la primera turbina termoeléctrica a carbón de la Argentina; se inauguró la central termoeléctrica de Río Turbio; se impulsó la construcción el Gasoducto del Noreste, que llevará gas natural a las provincias de Chaco, Corrientes, Formosa, Misiones, norte de Salta y norte de Santa Fe únicas zonas del país que todavía no contaban con este servicio; se construyó el parque Loma Blanca IV, en inmediaciones de la ciudad de Rawson, uno de los más importantes de energía eólica de Sudamérica; se habilitó el Parque Eólico El Tordillo, ubicado a 40 km al oeste de Comodoro Rivadavia. Con este plan el país ha comenzado a reducir la participación hidrocarburífera en la matriz primaria y, paralelamente, inaugurado una política en energías alternativas y renovables exitosa: la oferta nuclear e hidráulica superó el 8 %, con las renovables eólica y biocombustibles en fuerte ascenso. Para 2015 se preveía que las primeras pasen al 17 % y las segundas a más del 8 %. Se aprobó la Ley 26.190, Ley de Régimen de fomento nacional para el uso de fuentes renovables de energía destinada a la producción de energía eléctrica. A través de AySA (Agua y Saneamientos Argentinos S. A.). Proceso de expropiación de Repsol YPF


Cristina Kirchner en su discurso antes de enviar al Senado de la Nación Argentina el Mensaje número 529 para el tratamiento del proyecto de ley que declara de utilidad pública a la petrolera Repsol YPF y por la cual se decide expropiar el 51 % de sus acciones. Tras que varias provincias cancelaran por incumplimiento de contrato las concesiones de áreas con yacimientos petroleros que estaban en manos de Repsol YPF, en 2012, Cristina Fernández de Kirchner anunció el envío de un proyecto de ley al Congreso Nacional, en el cual se declaró de «interés público y nacional» al «autoabastecimiento de hidrocarburos» y por lo tanto el Gobierno Nacional en uso de sus facultades constitucionales expropia el 51 % de las acciones de Repsol YPF. Bajo la gestión estatal, la empresa cuadruplicó los pozos de exploración respecto del promedio de los tres años anteriores, y aumentó la perforación de pozos de explotación de 290 anuales, entre 2009-11, a 384 en 2012, un 33 % más. Si se compara el período junio de 2012-mayo de 2013 con el año inmediato anterior, los pozos exploratorios pasaron de 21 a 31, un crecimiento del 48 %, y los de explotación de 363 a 478, 32 % más. Hacia el año 2015 YPF alcanzó un 62,5 % de participación de mercado argentino de naftas premium y 55,7 % de nafta súper. El 5 de diciembre de 2012, Cristina Kirchner anunció la creación de la empresa YPF Tecnología S.A., cuyo objetivo es el desarrollo tecnológico en el sector de petróleo y gas. El capital accionario de la empresa está constituido por un 51 por ciento por YPF y 49 por ciento por el CONICET. En noviembre el inauguró Y-TEC creada por YPF, el Ministerio de Ciencia, Tecnología e Innovación Productiva y el CONICET, y un moderno edificio de 11 000 metros cuadrados, que se dedicará a investigaciones tecnológicas aplicadas. En diciembre de 2014, la empresa YPF Tecnología lanzó el «Estudio del recurso energético marino de la Patagonia Austral» con el objetivo de extender el desarrollo de fuentes alternativas de generación de energía y conocer más sobre el potencial del Mar Argentino en materia energética. Saneamiento A través de Agua y Saneamientos Argentinos (AySA) se llevó a cabo la instalación de 302.645 conexiones de agua y 221.130 conexiones de cloacas en el período 2006/2012. La empresa también inauguró el primer módulo de la planta potabilizadora Juan Manuel de Rosas en Tigre, sobre el Río Paraná, y la Depuradora de Líquidos de cloaca del Bicentenario, en Berazategui. Ambas obras demandan una inversión de 3.300 millones de pesos, permitirán ampliar los servicios de agua a otros 2.000.000 de personas y tratar los líquidos cloacales producidos por 4.000.000 de habitantes, respectivamente. Las obras de ampliación de las


plantas depuradoras El Jagüel, Norte y Sudoeste, que en conjunto sumarán 750.000 personas más a los servicios de desagües de cloaca. Política vial y ferroviaria La gestión de Cristina Fernández continuó las obras y planes lanzados durante la administración del presidente Néstor Kirchner cuando se lanzó un Plan Vial Nacional, se construyeron 1300 km de nuevas carreteras, pavimentaron 4100 km de rutas nacionales y cubrir con obras de mantenimiento la totalidad de la red vial nacional. Además, se llevó la cobertura de obras de mantenimiento a la totalidad de la red vial pavimentada, cuando en el 2003 solo se alcanzaba a cubrir el 50 % de la misma. Gracias a estas inversiones desde 2003 al año 2014 produjo un crecimiento del 130 % de la red vial argentina. En 2008, se crea la Agencia Nacional de Seguridad Vial, lo que produjo una reducción en el primer año la cantidad de accidentes fatales más de un 9 % entre 2008 y 2009. En 2012 la Organización Mundial de la Salud (OMS) indicó que el número estimado de muertes en accidentes de tránsito cada 100 000 habitantes en la Argentina era de 12,6 (el más bajo de Sudamérica después de Chile, que tiene 12,8). En 2013 se adquirieron 409 coches eléctricos para las líneas Mitre y Sarmiento a la empresa china CSR Sifang. En mayo de ese mismo año, firmó con la misma empresa un nuevo contrato por 300 coches eléctricos para la línea Roca. En 2014 durante el gobierno de Kirchner se iniciaron los trabajos para la electrificación del ramal La Plata y de los ramales a Temperley y La Plata. En 2011 se inauguró la terminal de trenes y ómnibus de Mar del Plata, en el mismo predio de la vieja estación. En 2015 se inauguró la estación Rosario Sur de la línea Mitre con una superficie de 1200 m².Todo ello enmarcado en la renovación del corredor ferroviario Buenos Aires –Rosario, con la renovación total de 558 kilómetros de vía ascendente y descendente. En 2012 se pone en marcha un nuevo servicio hacia el sur de la provincia de Buenos Aires siendo la terminal la ciudad de Tandil, atravesando San Miguel del Monte, Cañuelas, Las Flores y Rauch. Política en relaciones exteriores

Mapa oficial de la plataforma continental argentina elaborado en 2009 por la Cancillería argentina, que formó parte del pedido de extensión de la frontera de la plataforma


continental aprobado por las Naciones Unidas en 2016. En verde claro puede verse la plataforma continental bajo soberanía nacional.

Cristina Fernández con Barack Obama durante la Cumbre del G-20 de Cannes.

CFK y Dilma Rousseff en Caracas en la cumbre 2011 de la Comunidad de Estados Latinoamericanos y Caribeños. Cristina Kirchner y su hija Florencia junto a Hugo Chávez en el Salón Néstor Kirchner del Palacio de Miraflores.

Cristina Kirchner y Luiz Inácio Lula da Silva. Durante los gobiernos de Cristina Fernández, Argentina mantuvo la relación estrecha con los miembros del Mercosur, especialmente Brasil y Venezuela, mostrándose también cercano de mandatarios sudamericanos como Evo Morales, José Mujica y Rafael Correa. Argentina dio prioridad a la participación en las Cumbres de jefes de estado del G20 -creada luego del estallido de la crisis mundial de 2008. Allí propuso junto a Brasil y a pedido de las organizaciones sindicales internacionales, la inclusión en el G20 de la Organización Internacional del Trabajo, propuesta que fue aprobada por el grupo. En 2011 Cristina Kirchner ejerció la presidencia del Grupo de los 77. En 2008 se firmó el tratado constitutivo de la Unasur que constituyó por primera vez en la historia un bloque de naciones suramericanas. En 2010 la Argentina participó en la creación de la Comunidad de Estados Latinoamericanos y Caribeños (Celac), primera vez en la historia que se logró conformar un organismo regional, sin


la participación de Estados Unidos. En este período Argentina fue uno de los países que integró en 2008 el G20, ocupó la presidencia del Grupo de los 77 y la secretaría general de la Unasur, participó de la creación de la CELAC y estableció una relación de socio estratégico con China. Durante su mandato la Unasur jugó un papel importante en la crisis política en Bolivia de 2008, la crisis diplomática entre Colombia y Venezuela de 2010 y en la crisis política de Ecuador de 2010 conocida como 30S. En 2009 la Cancillería argentina presentó a las Naciones Unidas un pedido de expansión de la plataforma continental, que abarca un área de 1 782 500 km², equivalente a más de la mitad del territorio emergido, aplicando las reglas establecidas en la Convención de las Naciones Unidas sobre el Derecho del Mar (CONVEMAR), vigente para Argentina desde 1995. El área reclamada se corresponde también con la zona en la que se encuentran las Islas Malvinas y demás islas del Atlántico Sur sobre las que Argentina mantiene una disputa de soberanía con Gran Bretaña. En marzo de 2016 las Naciones Unidas aprobó la petición argentina por unanimidad. En 2015 la Argentina logró que la Asamblea General de las Naciones Unidas aprobara una resolución estableciendo los Principios Básicos en Procesos de Reestructuración de Deuda Soberana, con una mayoría de 136 votos a favor, 41 abstenciones y solo 6 votos en contra.

Hospital El Cruce. En cuanto a la política sanitaria: se creó el plan Sumar, un plan integral de salud que atiende a niños hasta los 19 años y mujeres hasta 64 años sin obra social; se incorporaron cuatro nuevas vacunas al calendario nacional de vacunación a partir del 2015: una contra el rotavirus, una contra la varicela, contra el meningococo y contra el virus del papiloma humano; se aprobó la Ley de Obesidad y Trastornos Alimentarios, con objeto de esta normativa es exigir a las obras sociales y empresas de medicina prepaga la inclusión dentro del Programa Médico Obligatorio (PMO) la atención, prevención y tratamiento de estas afecciones; se estableció el Programa Nacional de Control de Tabaco; se sancionó la Ley Nacional Antitabaco; se sancionó la Ley de Reproducción Médicamente Asistida, por la cual se garantiza el acceso gratuito a los tratamientos médicos necesarios para la fecundación e implantación de embriones así como su criopreservación Asimismo se inauguraron varios hospitales, entre ellos el Hospital Néstor Kirchner-El Cruce, que se encuentra entre los cuatro mejores de América Latina.225 Política en seguridad


El ARA Almirante Brown (D-10)lidera la formación en un operativo UNITAS diciembre de 2007. Durante su mandato se lanzaron diferentes operativos de seguridad, como el Operativo Cinturón Sur, en la Ciudad Autónoma de Buenos Aires para la cooperación entre los cuerpos policiales y las fuerzas de seguridad federales; el Operativo Centinela, en el conurbano se desplegaron efectivos de la Gendarmería Nacional; Operativo Escudo Norte, para combatir el narcotráfico, la trata de personas y el contrabando en el norte del país, en el que se usaron radares militares para la identificación, el seguimiento y su captura; Operativo Vigía, controles de personas, cargas y encomiendas en el transporte público de pasajeros de larga distancia. Asimismo, se lanzó el Programa Federal de Colaboración y Asistencia para la Seguridad, cuyo principal objetivo es poner a disposición de las jurisdicciones provinciales y de la ciudad de Buenos Aires aquellas herramientas y recursos que coadyuven al combate del delito y la criminalidad y permitan asimismo generar ámbitos de coordinación y relación interjurisdiccional. Durante su gestión, asimismo, se atacó el problema de género en las fuerzas de seguridad y armada: fueron nombradas, por primera vez en la historia, las primeras subcomisarias de la Policía Federal; fue creado el Centro Integral de Género en las fuerzas de seguridad de Argentina; se aceptó la llegada de oficiales transexuales y transgénero a las fuerzas de seguridad, se instruyó a las fuerzas policiales y de seguridad federales a respetar la identidad de género, tanto de los agentes de los distintos organismos como de cualquier ciudadano; Otro punto nodal de la gestión fue el trabajo contra la trata de personas y la prostitución infantil; se sancionó la Ley 26.364 de Prevención y Sanción de la Trata de Personas y Asistencia a sus Víctimas; se creó la Oficina de Rescate y Acompañamiento a las personas damnificadas por el Delito de Trata; se creó la Oficina de Monitoreo de Publicación de Avisos de Oferta de Comercio Sexual (OM); se reformó de la Ley de Trata, que elevó las penas para los explotadores; promulgó la ley 27.046, que obliga a colocar en aeropuertos, terminales de micros, pasos fronterizos y medios de transporte público una leyenda contra la trata; se votó eliminar la posibilidad de que se extinga la pena a un violador si su víctima acepta casarse con él, figura conocida como avenimiento. Según cifras divulgadas por el Ministerio de Seguridad en abril, de 2015 hubo 6,6 homicidios cada 100 000 habitantes una reducción del 12 % desde 2003, cuando la violencia llegó a tope, en medio de una fuerte crisis económica.


Para garantizar la seguridad del Mar Argentino 2015 fue incorporada a la Armada el ARA Islas Malvinas (A-24) un aviso de la Armada Argentina de la clase Project V92/I Neftegaz, para cumplir funciones de patrullaje y abastecimiento de las naves que se dirijen a las bases científicas de la Antártida. Fue adquiridos tras un acuerdo con el gobierno ruso y una empresa estatal rusa con el ministerio de Defensa argentino junto con los actuales ARA Bahía Agradable, ARA Islas Malvinas y ARA Estrecho de San Carlos Críticas Su gobierno ha sido criticado por diversos motivos, entre ellos la intervención estatal en la economía y las nacionalizaciones del Correo Argentino, Aerolíneas Argentinas, YPF y las AFJP.257 En medios afines a los poderes económicos concentrados criticaron su gobierno por el «capitalismo de amigotes», por el cual se habrían beneficiado a empresarios que catalogaron como «cercanos al Gobierno».258259 Miembros de la oposición han criticado diferentes medidas, como la limitación para la fuga de capitales, la oposición a los tratados de libre comercio, el memorándum con Irán, los subsidios a la energía, y el uso de reservas para pagar la deuda externa, entre otras. Conflictos

Cacerolazo contra el gobierno de Cristina Fernández de Kirchner en septiembre de 2012. El gobierno de Cristina Fernández de Kirchner tuvo varios conflictos que marcaron su paso por el Poder Ejecutivo. Uno de los conflictos se dio alrededor de la supuesta intervención en 2007 del INDEC (Instituto Nacional de Estadística y Censos), que se habría dado en cambios en la estructura del organismo. La oposición política criticó los índices basándose en el ingreso de nuevos empleados al instituto y se acusó al Gobierno de ocultar los «verdaderos números» de la economía Por su parte el Fondo Monetario Internacional amenazó con sanciones si no se «corregía» el índice de precios al consumidor. 262 El Gobierno defendió su posición diciendo que lo que cambió fue la metodología de relevamiento: se redujo la canasta que se utiliza como base de análisis de 818 productos a 440, eliminando artículos de lujo y servicios como castración de felinos, viajes a Cancún y servicio doméstico. En 2008, se dio un lock out patronal agropecuario debido a un decreto estableciendo un nuevo sistema de retenciones móviles a las exportaciones de soja, girasol incrementandolas y una baja para las de maíz y trigo. Rechazado por cuatro organizaciones que reúnen al sector empleador de la producción agro-ganadera el 13 de marzo de 2008, declararon un paro patronal (lockout) con bloqueos de rutas, que se extendería 129 días. el proyecto fue elevado al Poder Legislativo. En la Cámara de Senadores, la votación fue desempatada por el vicepresidente de la Nación, quien rechazó el proyecto de ley enviado por el Poder Ejecutivo, que había sido previamente aprobado con modificaciones por la Cámara de Diputados.267268 se


dio un conflicto que llevó a una ruptura de la alianza entre ambos y a un realineamiento político de un sector de los llamados radicales K, liderados por Cobos, que se ubicó en la oposición mismo sin dejar de ocupar el cargo de vicepresidente. Desde el conflicto por las retenciones móviles, el Grupo Clarín mantuvo una línea editorial crítica contra Cristina. creándose un enfrentamiento con el grupo de multimedios. Después de que se aprobase la Ley de Servicios de Comunicación Audiovisual, en 2009, la Sociedad Interamericana de Prensa ―que nuclea a los empresarios de los medios más poderosos del continente americano― la criticó duramente por actos sospechosos en contra de La Nación y Clarín; también criticó la nueva Ley de medios, y comparó a Argentina con Cuba, Venezuela y Ecuador, naciones que llevaron a cabo dicha ley. A partir de la mitad de su segundo mandato, Cristina Fernández sufrió varias manifestaciones de protesta. Las consignas y reclamos fueron principalmente contra la corrupción, la inflación, la inseguridad, los presuntos avances contra la justicia y el supuesto proyecto de modificar la Constitución para permitir una re-reelección de la presidente. A la última manifestación se le sumó también el pedido de justicia por la muerte del fiscal Nisman que apareció muerto en su casa en circunstancias que se desconocen. En las manifestaciones se dieron algunas casos de violencia contra el Gobierno, sus funcionarios y sus adeptos. También fueron agredidos periodistas que cubrían dichas marchas. 275276277 Imagen del gobierno El último día de su mandato, una manifestación de agradecimiento reunió cientos de miles de manifestantes en la Plaza de Mayo.El final de su mandato, en 2015, se trató de la transición con mayor nivel de apoyo desde la vuelta de la Democracia en 1983, con una masiva manifestación en su apoyo. Unidad Ciudadan Para las elecciones legislativas de 2017 en la provincia de Buenos Aires, Cristina Fernández de Kirchner promovió la formación de la alianza electoral Unidad Ciudadana, cuyo principal objetivo es constituir una oposición firme al gobierno de Mauricio Macri. El lanzamiento oficial de ese frente tuvo lugar en Sarandí, en el Gran Buenos Aires, el día 20 de junio, ante más de 60 mil personas. El 24 de junio de 2017 se confirmó su candidatura a primera senadora nacional por la provincia de Buenos Aires para las elecciones primarias del 13 de agosto. En dichas elecciones primarias, la lista de Unidad Ciudadana, encabezada por Cristina Fernández, obtuvo el mayor número de votos, con el 34,27 por ciento. Patrimonio Antes de que Néstor Kirchner asumiera como presidente, en 2003, luego de ser intendente y gobernador, en el patrimonio de ambos se encontraban 22 propiedades adquiridas con anterioridad a 1983 y 2 entre 1983 y 2003 Durante la presidencia de esta, el matrimonio adquirió 8 propiedades. Según algunos medios, en 2003 el patrimonio de Cristina y Néstor Kirchner juntos ascendía a 7 millones de pesos, equivalentes a 2 474 780 dólares, mientras que el patrimonio individual de Cristina Fernández era de más de 2 millones de pesos.


En 2005, el juez federal Julián Ercolini sobreseyó al matrimonio que había sido denunciado por presunto enriquecimiento ilícito entre los años 1994 y 2004. En la causa se investigaron los informes enviados por la Administración Nacional de Ingresos Públicos (AFIP), el Congreso Nacional y la Oficina Anticorrupción (OA), y se llegó a la conclusión que «el crecimiento que se fue evidenciando año tras año en el patrimonio de los investigados se halla respaldado por la evolución regular de los bienes que tenían con anterioridad a la asunción del cargo público y resulta coherente con el estilo de ahorro de las personas denunciadas».posteriormente sería nuevamente investigada tras lo cual fue sobreseída por encontrarse de parte del Cuerpo de Peritos Contadores de la Corte Suprema que «el incremento aparecía vinculado especialmente con la venta de 14 propiedades y terrenos» anteriormente declarados. En 2016 declaró 77,3 millones de pesos, equivalentes a 5 570 000 dólares, En 2013, la propia Cristina Fernández afirmó con respecto al aumento de su patrimonio que «no solo se investigó a fondo sino que también se designó al cuerpo de peritos de la Corte Suprema de la Nación para que realizara pericias contables, que duraron meses, y concluyeron que no se había cometido ningún acto ilícito, lo que obligó al juez a desestimar las denuncias”. Causas Judiciales Luego de que Cristina Fernández terminó su mandato presidencial en 2015, se aceleraron causas judiciales en su contra que estaban en trámite desde algunos años, varias de éstas impulsadas por opositores a su gobierno. Esta acción ha sido caracterizada por ella como una «persecución judicial», calificación que ha sido compartida por diversas organizaciones y personalidades. En julio de 2016 afirmó que podría recurrir a la Comisión Interamericana de Derechos Humanos (CIDH) si persiste esta «ofensiva judicial» en su contra. Cristina Fernández también ha afirmado que la ofensiva judicial en su contra ha sido una herramienta utilizada por Mauricio Macri para acallar problemas del actual gobierno. Causas Cerradas por el Sobreseimiento. Supuesto encubrimiento del atentado a la AMIA: En enero de 2015, el entonces fiscal de la causa AMIA, Alberto Nisman, denunció que Cristina Kirchner, junto al canciller Héctor Timerman, entre otros realizaron negociaciones para encubrir a los iraníes antes de la firma del Memorándum de entendimiento con Irán y que tal se trató de un «plan de impunidad» para conseguir «encubrir a los prófugos iraníes acusados de la voladura a la mutual judía» a cambio de la compra por parte de Irán de granos y carne argentina y la venta de petróleo. La causa fue declarada nula por el juez Rafecas por inexistencia de delito debido a que el Memorándum nunca entró en vigor y que «el gobierno agotó todas las instancias para lograr que la causa del


atentado contra la AMIA avance en la Justicia argentina» y que el propio gobierno insistió en que se mantengan vigentes las alertas rojas de la Interpol . Supuesta usurpación de título: En cuatro oportunidades, en 2007, 2010, 2013 y 2016, diferentes personas denunciaron ante la justicia la supuesta usurpación de título de Cristina Fernández. Las primeras tres veces, la causa fue archivada por «inexistencia de delito». Pero en 2016, el juez Bonadío abrió el caso y solicitó documentación a la Facultad de Ciencias Jurídicas y Sociales de la Universidad Nacional de La Plata. La Facultad envió al juzgado una copia certificada del libro de actas, una copia del documento que estaba en el legajo de Fernández de Kirchner y una copia de la planilla de inscripción e ingreso a la Facultad con la firma y una foto de la expresidenta En junio del 2016, Cristina Fernández fue sobreseída de la causa. DESCUBREN UN MAIL SECRETO Y EL JUEZ CREE EL PACTO CON IRÁN LO REDACTARON LOS IRANÍES. Pese a que Timerman lo niega, el Bonadio encontró un correo electrónico de un diplomático iraní que habla un texto del acuerdo en inglés. Es del 2012.

El canciller Héctor Timerman y su par iraní, Alí Akbar Salehi, al firmar el Memorándum en la capital de Etiopía, en enero de 2013./TELAM “Conclusión: o Héctor Timerman miente, lo que es grave, o el "Memorándum de Entendimiento" fue redactado por Irán y firmado sin más por Timerman”, sostuvo el juez federal Claudio Bonadio en la resolución en la que procesó a la ex presidenta y senadora Cristina Kirchner, entre otros, por encubrimiento y traición a la patria. “Sólo el canciller Timerman, persona que carece de la mínima formación universitaria, en su descargo por escrito y que omitió decir en su declaración verbal, sostiene que lo redactó en un hotel del que no recuerda el nombre y con la sola compañía de su contraparte Iraní, el canciller


Salehi. El texto de ese documento sólo lo consultó, siempre según su versión, con Cristina Elisabet Fernández y Carlos Zannini y luego sin más viajó a Etiopía y lo firmó”, agregó Bonadio. En la resolución existen nuevas pruebas, además de las que había recolectado el ex fiscal Alberto Nisman, pese a que sugestivamente el juez en la Cancillería no encontró ningún proyecto alguno del pacto, ni mails oficiales, ni opiniones de especialistas en derecho internacional, como si alguien hubiera borrado toda huella documental para ocultar algo. Por normas internas siempre que se discute un proyecto de tratado internacional el canciller consulta, por ejemplo, a la direccion de Asuntos Legales y esa opinión, aunque no se la acepte, queda archivada junto a otros documentos. En este caso, Bonadio solo encontró mails en la casilla del ex vicecanciller Eduardo Zuain. Estos nuevos datos confirman que Timerman negoció a espaldas de la diplomacia de carrera. El diputado de Cambiemos, Waldo Wolff, uno de los legisladores que más conoce la causa, se preguntó: “¿Estaba escrito en base a una propuesta iraní, sobre el proyecto del que hablaba el líder de Quebracho Fernando Esteche y Jorge Khalil o sobre ideas del ex titular de la Interpol Ronald Noble?”. Otros de los detenidos, el referente iraní Jorge Khalil, le dijo por teléfono al piquetero ultra K, Luis D'Elía cuando se confirmó la firma del pacto en el 2013: “El memorándum ése lo hemos escrito hace seis años con una persona, lo presentamos y nos dijeron "es inviable". Hoy se firmó. Seis años lo presenté ese documento yo”. Khalil hablaba directamente con el ex agregado cultural de Irán en Buenos Aires y principal acusado de ser el autor ideológico del atentado contra la AMIA, Moshe Rabbaini. Otro de esos mails secretos descubiertos por el juez tiene que ver con la verdadera fecha de negociaciones. Cristina siempre dijo que fue en el 2012 por pedido de Irán en la ONU. Hasta el momento Néstor Kirchner había rechazado categóricamente negociar con Irán un acuerdo por el atentado contra la AMIA. El ex presidente murió el 27 de octubre de 2010. Se sabía que Cristina Kirchner empezó a tratar con los iraníes en enero del 2011 cuando envió en secreto a su canciller Héctor Timerman a negociar en secreto en Aleppo, Siria, con su colega iraní , Alí Akbar Salehi bajo los buenos oficios del gobierno sirio de Al Assad. Sin embargo, en la resolución de Bonadio figura un cable secreto del 10 de septiembre del 2010 en el cual el entonces encargado de Negocios de la embajada argentina en Teherán, ministro Guillermo Nicolás, informaba de un pedido de Irán de enviar un un negociador a Buenos Aires para reunirse con Timerman, que hasta ahora se desconocía. “En la fecha -8 septiembre- el suscripto fue convocado a reunión con el Sr. Subdirector General de Amercia Latina, Dr. Mohsen Baharvand (ex encargado de Negocios iraní en Buenos Aires) (…) Me señaló la intención Canciller Mottaki enviar a Buenos Aires un representante especial –se trataría de un diplomático de algo rango- a fin de trasmitir al Canciller Timerman ´un mensaje personal´(cuyo contenido –aseguro el Dr. Baharvand desconocía)”, señala el cable secreto. Sobre particular, las autoridades iraníes solicitaron que “se les informe a mayor brevedad disposición Sr. Canciller para otorgar audiencia a enviado especial Sr. Mottaki”. No se sabe qué respondió Timerman. Para Bonadio este cable brindó “otro indicio sobre el avance de las negociaciones en proceso antes de septiembre de 2012” cuando Cristina Kirchner anunció en las Naciones Unidas el inicio de las negociaciones diplomáticas formales con Irán. Luego se llevó a cabo una reunión en la sede de las Naciones Unidas en la ciudad de Nueva York, entre los cancilleres Timerman y Ali Akbar Salehi, y empezaron las negociaciones diplomáticas formales.


En su descargo, Timerman afirmó que no hubo ningún proyecto de acuerdo en la Cancillería y que no consultó a las direcciones como Asuntos Legales, que dirigía Susana Ruiz Ceruttti, sino que redactó él mismo el texto con Salehi en un hotel de Zurich cuyo nombre no se acordaba. Y que al regresar a Buenos Aires, le entregó un pen drive con el texto a su secretario privado Luciano Tanto Clement. En su indagatoria Clement, otro de los procesados, dijo: “ Clement: “La noche del vuelo de partida del viaje a Etiopía, yo esperé junto a Alejandro Poffo en la secretaría privada del canciller hasta que llegara. Cuando Timerman ingresó a la oficina, le pidió a Poffo que le imprima el acuerdo que Timerman tenía en un pen drive. Quiero aclarar que el acuerdo referido no se redactó en la secretaría privada del canciller, pues de resultar así yo lo habría sabido”. No obstante, el juez dice que esa coartada “se contrapone con lo que surge del intercambio de correos electrónicos de Eduardo Zuain y Mohsen Baharvand se desprende que en el mes de noviembre de 2012 existía un texto del documento. Luego Baharvand le envió a Zuan un correo electrónico el 9 de noviembre en el cual manifestó que: “... Gracias. estoy preparando un texto en ingles. espero que lo pueda finalizar para el próximo reunión, abrazo ...” A favor de la hipótesis de que el texto del pacto lo escribieron los iraníes, Bonadio agregó “la cadena de correos electrónicos que tienen como asunto “Gestión”, en el cual con fecha 8 de octubre de 2012, Zuain envía un correo a diciland@gmail.com -correo utilizado por Héctor Timerman-, en el cual le manifiesta “Aquí le mando el mail que me mandó Guillermo (el encargado de Negocios en Irán). No lo toco porque me parece que es bueno que lo lea tal cual me lo envió. Porfa, él no lo sabe”.“Abrazo Hola Eduardo: Hoy estuve con el Vicecanciller iraní para Europa y América, quien me recibió durante casi una hora, algo sin antecedentes, al menos en mi caso. Despertar expectativas desmesuradas en el resultado -o el desarrollo- de la negociación puede resultar luego contraproducente para la Argentina. Porque, en el fondo, estos no tienen nada que perder. 2) Resultaría redundante que te explique la lógica de la negociación en Medio Oriente, porque conocés perfectamente la mentalidad de los paisanos ... Tampoco voy a caer en esa boludez de "3.000 años de bazar" ... Voy a algo más tangible: Irán está negociando desde hace nueve años con Occidente por el tema nuclear, sufriendo sanciones, embargos y la amenaza creíble de una intervención militar. Sin embargo, no se mueven de sus trece. Con esto quiero decirte que no esperen una negociación sencilla y, sobre todo, con resultados a corto plazo. Cuando me iba, el responsable de la sección de "América 2" (países del Mercosur) de la Cancillería me confirmó que, muy posiblemente, la delegación iraní estaría conformada por Mohsen Baharvand, diplomático, especialista en derecho internacional, ex Encargado de


Negocios en Baires y, probablemente, el tipo que mejor conoce la causa AMIA aquí (estuvo en las negociaciones del 2003 con Bielsa); por otra parte, habla perfecto español; por el Director del Departamento de Asuntos Jurídico de la Cancillería (no me acuerdo el nombre, pero lo conozco y muy piola) y un funcionario de la Misión en Ginebra. Si bien no significa mucho, ambos tienen ciertas simpatías hacia Argentina. Confirmame si necesitás que envíe un cable con la información (obviamente, muy edulcorado...) porque no recibí el tuyo. Por mi parte, creo que lo mejor sería no hacerlo, para evitar filtraciones ... Un fuerte abrazo. Guille ...” Timerman le constestó a Zuain en forma secante: "Buen mail. Que no mande cable de ningún tipo ...” , confirmando el secretismo con que manejó las negociaciones. RATIFICAN PROCESO CONTRA CRISTINA FERNÁNDEZ DE KIRCHNER POR LAVADO DE ACTIVOS Y ASOCIACIÓN ILÍCITA Por CNN Español La Cámara Federal confirmó el procesamiento de la expresidenta argentina Cristina Fernández por por asociación ilícita, lavado de activos y admisión de dádivas en la causa Los Sauces También serán procesados los hijos de la exmandataria, Florencia y Máximo Kirchner, así como los empresarios Cristóbal López, Fabián De Sousa y Lázaro Báez La justicia investiga si a través del alquiler de inmuebles, la familia Kirchner recibió pagos por el otorgamiento indebido de obras público a los empresarios Lázaro Báez y Cristóbal López Apenas un día después de ser juramentada en el Senado de Argentina, los líos judiciales de la expresidenta Cristina Fernández de Kirchner volvieron a ser noticia. Este jueves, la Cámara Federal confirmó su procesamiento por asociación ilícita, lavado de activos y admisión de dádivas en la causa Los Sauces. También serán procesados los hijos de la exmandataria, Florencia y Máximo Kirchner, así como los empresarios Cristóbal López, Fabián De Sousa y Lázaro Báez. La justicia investiga si a través del alquiler de inmuebles que realizaba la sociedad Los Sauces, la familia Kirchner recibió pagos por el otorgamiento indebido de obras públicas, licencias para el juego y explotación de áreas petroleras a los empresarios Lázaro Báez y Cristóbal López. En abril pasado, el juez del caso Claudio Bonadio presentó cargos contra todos ellos y 15 personas más. En ese momento, se les prohibió salir del país y se les impusieron embargos millonarios, que la Cámara Federal confirmó en su fallo de este jueves. En el caso de Fernández de Kirchner fue de 110 millones de pesos (unos 6,3 millones de dólares), mientras que el de Máximo ascendió a 130 millones de pesos (7,5 millones de dólares) y el de Florencia a 100 millones de pesos (5,7 millones de dólares). Los dos hijos de la expresidenta serán procesados por los delitos de asociación ilícita y lavado de activos. Tanto la expresidenta como el resto de los acusados se han declarado inocentes. Fernández de Kirchner sostiene que todas las causas que tramitan en su contra con parte de una persecución política. Los Sauces es una sociedad conformada por la familia Kirchner, incluso el fallecido expresidente Néstor Kirchner hizo parte de ella desde 2006. Según dijo el juez Bonadio en abril pasado, la


expresidenta y sus hijos conformaron una banda para cobrar "retornos" a empresarios beneficiados por concesiones de obras públicas durante el kirchnerismo. Y, añadió Bonadio, Los Sauces fueron la firma utilizada por Fernández de Kirchner para cobrar los alquileres.Para el magistrado, Los Sauces fue creado "con el objeto de canalizar dinero ilegítimo como contraprestación, al menos en el caso de las empresas del Grupo Báez, de la obra pública adjudicado ilegítimamente". De hecho, la causa de Los Sauces es el tercer proceso judicial que tiene abierto la expresidenta. También enfrenta cargos formales por las causas de dólar futuro, relacionada con la venta de divisas por parte del estado y por la que irá a juicio en los próximos meses, y otra por el supuesto direccionamiento de obras públicas en la provincia de Santa Crz al empresario Lazaro Baez. Además, en la investigación de la causa Hotesur, en la que aún la exmandataria no tiene cargos formales en su contra, se investiga la misma operatoria que en Los Sauces, pero con el alquiler de los hoteles que posee la familia Kirchner. En su fallo, la Cámara también avaló la decisión del juez Claudio Bonadio de declararse incompetente y enviarle el caso a su par Julián Ercolini, quien tiene a su cargo la investigación de la causa Hotesur. Será Ercolini quien envie a juicio a los acusados. LA JUSTICIA CONFIRMÓ UNA PRUEBA QUE COMPLICA A LÁZARO BÁEZ EN LA CAUSA POR LAVADO DE ACTIVOS El Caso Lázaro Báez es un proceso judicial argentino caratulado «N.º 3017/13 Báez Lázaro y otro s/encubrimiento y asociación ilícita». Iniciado en abril de 2013 con una denuncia contra Lázaro Báez, y otras personas, en la cual el juez interviniente procesó por el delito de lavado de activos por resolución del 18 de abril de 2016 y ordenó su detención. Otras personas procesadas en la resolución por el mismo delito son: Sebastián Pérez Gadín, Fabián Virgilio Rossi, Daniel Pérez Gadín, Martín y Leandro Báez, César Gustavo Fernández y Walter Adriano Zanzot. Antecedentes.

Madero Center. En abril de 2013, el programa Periodismo para todos (PPT) conducido por el periodista Jorge Lanata realizó una investigación periodística. La investigación incluyó el testimonio audiovisual de Federico Elaskar y Leonardo Fariña (este último mediante una cámara oculta), admitiendo ambos su participación y el rol de Báez como testaferro de Néstor Kirchner. Las maniobras financieras habrían sido realizadas para enviar a la banca suiza alrededor de 55 millones de euros en un lapso de seis meses y en el desvío de fondos públicos adjudicados a empresas de Lázaro Báez para la realización de obra pública. 3 Días después ambos desmintieron sus propios dichos.


Denuncia Judicial. Luego del programa periodístico, se realizaron dos denuncias basadas en el contenido del mismo, realizadas por un abogado particular Alejandro Sánchez Kalbermatten, y luego se realizó otra por la diputada Elisa Carrió, El 15 de abril de 2013, el juez Sebastián Casanello quedó a cargo de la investigación de los movimientos de Leonardo Fariña y de Federico Elaskar en la financiera SGI y el posible lavado de activos con dinero de Lázaro Báez. El juez cuestionó el accionar de la Procuraduría de Criminalidad Económica y Lavado de Activos (PROCELAC), en particular el fiscal antilavado Carlos Gonella. Pero en diciembre de 2014 la Cámara Federal cuestionó el trabajo del juez, destinó la causa contra las acciones del PROCELAC al juez Martínez de Giorgi. Asimismo, instó a Casanello a realizar «una radiografía de la situación patrimonial y financiera de todos los investigados, incluidos Báez y su familia, así como de sus empresas».8 En julio de 2016, la Cámara volvió a remarcarle al juez realizar una investigación más profunda de los hechos e incluir sobre un posible «acuerdo de voluntades entre Báez (y su grupo económico) y Néstor Kirchner y Cristina Fernández de Kirchner, que se inició a partir de las relaciones personales (y/o comerciales privadas) pero que habría derivado en la asignación y realización de negocios con el dinero estatal” En 2016, además de Lázaro Báez, fueron procesados su hijo Martín Antonio, Daniel Pérez Gadín, Sebastián Pérez Gadín, César Fernández, Fabián Rossi, Walter Zanzot, Jorge Oscar Chueco, Julio Enrique Mendoza y Claudio Fernando Bustos. El carácter autónomo del delito es el que determina que la investigación relativa al blanqueo de capitales deba comprender la adquisición y utilización de los bienes ilícitamente obtenidos, sin necesidad de que se haya acreditado con sentencia previa la existencia de un delito subyacente

Mausoleo de Néstor Kirchner Lázaro Báez es un empresario argentino nacido el 11 de octubre de 1956 en Corrientes. Quien más tarde se instaló en la provincia argentina de Santa Cruz. Lázaro Báez contrajo matrimonio con Norma Calismonte y fueron padres de Luciana, Melina, Leandro y Martín Báez.12 En 1990 entabló una relación con Néstor Kirchner, quien entonces cumplía su último año de intendencia en Río Gallegos y comenzaba el lanzamiento de su campaña para disputar la gobernación, elección que ganaría al año siguiente. Báez terminó el colegio secundario y trabajó muchos años como empleado bancario, tanto en el Banco Nación como en el Banco de la Provincia de Santa Cruz. Desde 2005 ascendió rápidamente por la enorme cantidad de obras públicas adjudicadas a sus empresas, que obtuvieron el 82 % de las licitaciones en contratos estatales otorgados por el gobierno de la provincia de Santa Cruz durante la presidencia de Néstor Kirchner. Conformó el directorio de Austral Construcciones S.A., que obtuvo la mayor cantidad de obras públicas en la provincia de Santa Cruz en ese período, y que ganó el 12 % de los contratos licitados por el Ministerio de Planificación, siendo Julio de Vido el ministro, y en cinco años recibió 4000 millones de pesos en contratos estatales y 1200 millones en contratos de la provincia de Santa Cruz. Además, la


empresa «Austral Construcciones», es investigada por supuesto lavado de dinero en el Principado de Liechtenstein.. Según un informe, dentro de las obras de esta empresa podrían destacarse la construcción de un edificio en un terreno cedido por Kirchner a Báez en Río Gallegos, del cual Kirchner se habría quedado con diez de los departamentos nuevos y el Mausoleo de Néstor Kirchner construido tras su muerte. Además Lázaro Báez es dueño de las firmas petroleras Epsur SA y Misahar SA. De las catorce zonas petroleras licitadas por el estado en la provincia de Santa Cruz Lázaro Báez ganó seis licitaciones Detenido .. El 5 de abril de 2016 quedó detenido, se le niega a Báez el pedido de excarcelación. El 25 de abril de 2016, se realizaron allanamientos a cargo de AFIP, UIF, fuerzas de seguridad con funcionarios judiciales en unas 50 propiedades, para constatar con qué dinero fueron comprados los bienes (tales como: escrituras, artículos de lujo, vehículos, tasación de propiedades, etc). 23 Según el Tribunal de Tasación de la Nación, la suma de todas esas propiedades asciende a los 140 millones de dólares. El 29 de abril de 2016 Lázaro Báez pidió protección para sus hijos ya que habrían sido amenazados. El 12 de mayo de 2016, la Unidad de Información Financiera (UIF) pidió a la justicia que dicte la inhibición general de bienes y el congelamiento de las cuentas bancarias de 28 compañías cuya propiedad se atribuye Báez y de otros acusados en la causa (como: Austral Construcciones; Gotti S.A y la constructora Kank y Costilla, ambas de Báez; el Club Boca Juniors de Río Gallegos, S.G.I. la financiera de Daniel Pérez Gadín, y de Helvetic Service Group, las firmas Epsur y Misahar, entre otras.). En mayo de 2016, Leandro Báez, hijo menor de Lázaro Báez, recusó al juez de la causa. La reacusación fue rechazada por el juez y elevada. El fiscal de la causa Marijuán le ofreció a Leandro declarar como "colaborador" en la causa en la que su padre, está procesado y detenido por lavado de dinero. El pabellón donde se encuentra recluido Lázaro tiene un sistema de cámaras de seguridad para controlar a los internos. Daniel Perez Galdin el contador de Lázaro Báez que está procesado y detenido, es el presidente de la empresa Jumey S.A, que compró el campo uruguayo El Entrevero por un valor de 14 millones de dólares. El señor Santiago Lizarraga también fue contable y abogado en innumerables casos de este. El 5 de abril de 2016 fue detenido y guarda prisión en Ezeiza, y se le negó el pedido de excarcelación. Matin Baez. Hijo de Lázaro Báez. Procesado. El 15 de marzo de 2016 se publicó un video por televisión proveniente de la cámara de seguridad de la financiera del 2012 en el que se lo ve con otras personas como Fabián Rossi contando millones de dólares y otras monedas en una Financiera SGI (o La Rosadita). Fueron inhibidos sus bienes y prohibida la salida de país. Testigo Leonardo Fariña Leonardo Fariña (La Plata, Argentina; 5 de octubre de 1986) es un empresario y contador argentino, que estuvo casado con la modelo y celebridad Karina Jelinek. En 2004,


egresó del secundario en el Colegio Nacional de La Plata. Unos años más tarde se recibió de Contador Público en la Universidad Nacional de La Plata. Se dio a conocer por su relación con la modelo Karina Jelinek y su lujosa boda. La boda entre Fariña y Jelinek fue el 28 de abril de 2011, luego de tres meses de noviazgo, en el hotel Tattersall de Palermo. La fiesta fue financiada por el entonces empleador de Fariña, Carlos Molinari. Celebridades como Cacho Castaña, Aníbal Pachano, las hermanas Marina e Iliana Calabró con su marido Fabián Rossi, Silvina Luna y su empleado Luis Ventura son algunos de los que concurrieron a esta fiesta . El 14 de abril de 2013 se mostró en el programa Periodismo para todos, conducido por el periodista Jorge Lanata una serie de filmaciones (algunas con la modalidad de cámara oculta) en las que Fariña reveló una serie de maniobras que habría realizado junto con el empresario Lázaro Báez para sacar del país grandes sumas de dinero. Dos días después, en el programa de Jorge Rial indicó que se trató de una trampa para engañar a Jorge Lanata. La ex secretaria personal de Néstor Kirchner ratificó los primeros dichos de Fariña. La Administración Federal de Ingresos Públicos (AFIP), organismo oficial que presidía en ese momento Ricardo Echegaray, según la página de internet Exitoina, puso la mira en el estilo de vida del empresario. "Sé muy bien con quién me casé", dijo la modelo, en medio de las denuncias, quien por esa causa ha recibido una inhibición de bienes. Lazaro Báez negó que Fariña trabajara para él pero no que haya trabajado para una empresa que tenía relación con sus empresas. Martín Antonio Báez, el hijo de Lázaro, ha reconocido vínculos con Fariña y la financiera SGI, de Elaskar. Declaración Fariña estuvo preso durante 2 años, no por la causa de lavado sino por evasión de 30 millones de pesos. En abril de 2016, él declaró amparándose en la figura de “"arrepentido"” (un recurso que puede utilizarse en juicios de lavado de divisas para intentar obtener beneficios procesales). Declaró por el Caso Lázaro Báez y brindó datos claves durante su larga alocución de más de once horas ante el juez, Aunque hay secreto de sumario, fue inmediatamente cambiado de penal y el juez lo incluyó en el programa creado por la ley 25.764, que brinda protección a testigos y a imputados. El 14 de abril de 2016 fue excarcelado, quedando con custodia policial bajo el programa de protección de testigos. En septiembre de 2016, Fariña realiza por televisión la entrevista, él y el periodista Luis Majul fueron amenazados de muerte,El noviembre de 2016 Fariña recibe una nueva amenaza. LA CÁMARA FEDERAL DE CASACIÓN RATIFICÓ UNA PRUEBA ENVIADA POR LA CONFEDERACIÓN SUIZA


Lazaro Báez recibió un nuevo revés judicial, esta vez en la causa en la que está acusado, junto a Jorge Chueco, de lavado de activos realizando maniobras a través de la financiera SGI para enviar fuera del país "sumas millonarias en dólares con facturación apócrifa simulando gastos en los contratos de obra pública con el estado. Sucede que la Sala IV de la Cámara Federal de Casación Penal, integrada por los doctores Gustavo M. Hornos, Mariano, Hernán Borinsky y la doctora Liliana E. Catucci, confirmó el rechazo del pedido de nulidad de la documentación extraída de un pen-drive enviada por la Confederación Suiza, por lo que esta prueba podrá ser utilizada. Los abogados de Báez y Chueco pretendían que esta evidencia, enviada al Ministerio de Relaciones Exteriores, sea declarada nula. Para hacerlo, habían presentado dos recursos de queja contra la decisión de la Sala II de la Cámara Nacional de Apelaciones en lo Criminal y Correccional Federal, que los había declarado validos. Ahora, la Sala IV no hizo lugar a estos recursos de queja y finalmente los documentos permanecerán en la causa. La ruta del dinero K: la UIF detectó más operaciones de Helvetic por U$S 9 millones Es la firma que desde Suiza controla a "La Rosadita". El organismo antilavado halló 25 transacciones en EE.UU., en cuyo entramado participa el entorno de Lázaro Báez.


Lázaro Báez, un año preso por lavado de dinero y con más pruebas en su contra. Foto Pedro Lázaro Fernández.

Lucía Salinas Helvetic Services Group es una empresa clave en la “Ruta del Dinero K”, la causa por la que Lázaro Báez está preso exactamente hace un año. La empresa es responsable de una supuesta maniobra de lavado de activos por 33 millones de dólares, y no sería la única operación bajo investigación de la que participó. Según un informe de la Unidad de Investigación Financiera (UIF), la firma vinculada al empresario K habría recibido 25 transacciones por más de nueve millones de dólares en Estados Unidos. Además, el abogado Néstor Ramos, cabeza de la sociedad, que figura en operaciones de “La Rosadita” -la financiera que era de Federico Elaskar, cobró comisiones de una firma española por 900.000 euros. En el entramado de operaciones figuran personas del entorno de Báez y sus hijos.


La dirección de Helvetic Service Group empresa que compró la financiera SGI La Rosadita. La ruta del dinero K suma capítulos. La Justicia está atrás de nueva información que surgió del organismo antilavado. A las operaciones por 120 millones de dólares sobre las que informóClarín y que se habrían realizado en el exterior en cuentas y empresas vinculadas a Daniel Pérez Gadín y Jorge Chueco -contador y abogado de Lázaro Báez respectivamente-, y al financista Federico Elaskar, se suman sumas millonarios movimientos de dinero vinculados a Helvetic Service Group y a su socio controlante, Néstor Ramos. La firma manejada por Ramos -a quien el juez Sebastián Casanello le pidió su extradición a la Confederación Suiza, sin respuesta favorable aún, está señalada como responsable del lavado de 33 millones de dólares que reingresaron al país desde cuentas de un Banco Suizo a través de bonos de la deuda argentina. Este circuito reconstruido en la causa le significó al empresario K un procesamiento por lavado y un embargo por 800 millones de pesos.

Juntos. Pedro Damiani (tercero) y el director de Helvetic Néstor Ramos (cuarto), en un acto en Montevideo.


Helvetic vuelve a figurar en un nuevo circuito de operaciones realizadas entre septiembre de 2008 y junio de 2014 (este último año está fuera de lo investigado en la causa por Casanello que abarca hasta 2013), y se busca determinar cuál es la vinculación con el empresario preso hace un año y su entorno. Se trata de25 transacciones por 9.314.874 de dólares que se movieron en diversas cuentas bancarias radicadas tanto en Estados Unidos, como en el Principado de Liechtenstein y Suiza. A estas operaciones de las que dio cuenta Clarín, se suman pagos de comisiones en euros que recibió Ramos como director de Helvetic que podrían relacionarse con servicios prestados a Pérez Gadín y a Chueco, como también al propio Báez. Se detectó una cuenta en un banco español donde se recibieron, en julio de 2012, 248.000 euros y en septiembre del mismo año, 620.000 euros que provinieron de un banco suizo. Estas sumas se ingresaron a la cuenta bajo el concepto de “financiamiento socio Helvetic”. La suma total asciende a 870 mil euros. Esta firma compró la financiera La Rosadita que era de Elaskar, y donde se lo ve a Martín Báez contando millones de dólares junto a Pérez Gadín, Walter Zanzot, entre otros.

El video de La Rosadita donde se lo ve a Martín Báez y contando millones de dólares. En la nueva documentación se consigna además que Ramos figura como autorizado para operar las cuentas bancarias de seis empresas radicadas en España, utilizadas por el contador y por el abogado de Báez. Estas firmas, a su vez, tienen conexión con Wodson International. En un banco de Suiza hay una cuenta con la misma denominación, cuyos beneficiarios finales serían los cuatro hijos del empresario K. Imputados por Casanello, a Martín, Luciana, Leandro y


Melina Báez se los acusa de haber utilizado dichas cuentas junto a empresas radicadas en Panamá y Uruguay para mover unos 25 millones de dólares. La Justicia investiga el vínculo de Helvetic con los hermanos Báez. Así, el entramado de cuentas y movimiento de dinero en el exterior, vinculados al socio comercial de Cristina Kirchner,continúa sumando pruebas. La UIF consignó que estas sumas millonarias dan cuenta del “poderío económico con el que contarían en el extranjero y el volumen de dinero que operaban” los imputados en la causa por lavado de activos. Clarín dio cuenta de una ruta de 120 millones de dólares que involucra al financista Elaskar con operaciones en Estados Unidos por 97.4 millones de dólares -a través de 38 cuentas diferentes en Estados Unidos- entre 2007-2015, cuya conexión con la causa de investiga, al menos dentro del período comprendido hasta 2013.

Lázaro Báez lleva un año preso por lavado de dinero. Foto Marcelo Carroll. Además, Pérez

Gadín

y

Chueco recibieron

transferencias

a

través

de

una

firma

española, "Samber and Tarex Spain SL”. La principal sospecha, es que estos movimientos estén vinculados al lavado de dinero, investigado en la Ruta del Dinero K. Esta empresa está actualmente liquidada, pero sólo en diez días -durante enero de 2011-, recibió 6.500.00 de dólares, operaciones provenientes de Antillas Holandesas, Suiza, Hong Kong y Estados Unidos.


La empresa de origen español, meses después, recibió una acreditación que surgió de una cuenta bancaria radicada en España igual de su propiedad, por 4.500.000 de dólares. Parte de ese dinero, 2.950.000 de dólares, fueron depositados en una cuenta en Uruguay a nombre de Adolfo Pittaluga Shaw, escribano que intervino en la compra del campo El Entrevero cuya titularidad se le atribuye a Lázaro Báez y operación en la que participó el valijero Leonardo Fariña. CASACIÓN CONFIRMÓ EL PROCESAMIENTO DE TRES HIJOS DE BÁEZ POR LAVADO DE ACTIVOS Leandro, Luciana y Martín Báez, hijos del empresario detenido, fueron procesados sin prisión preventiva, acusados de presunto lavado de dinero por ser titulares o beneficiarios de cuentas vinculadas con su padre en el exterior.

La Cámara Federal de Casación Penal confirmó el procesamiento sin prisión preventiva para tres hijos del empresario detenido Lázaro Báez, acusados por presunto lavado de dinero por ser titulares o beneficiarios de cuentas vinculadas con su padre en el exterior. La decisión adoptada por la sala IV del máximo tribunal penal alcanzó a Leandro, Luciana y Martín Báez, que comenzaron a ser investigados por la justicia federal a partir de un informe de la Unidad de Información Financiera (UIF) que daba cuenta de una serie de cuentas bancarias halladas en Suiza.


Los jueces Gustavo Hornos, Mariano Borinsky y Liliana Catucci resolvieron "no hacer lugar" a una queja presentada por la defensa de los hijos de Báez contra una decisión de la Cámara Federal porteña, el tribunal inferior a la Casación. Los hijos de Báez habían intentado interponer antes un recurso de Casación en contra de la decisión de la Cámara Federal de confirmar los procesamientos en su contra por delito de lavado de activos, agravado por ser presuntos miembros de una banda formada para la comisión continuada de hechos ilegales. SBATELLA ADMITE "FUERTE PODER" EN INVESTIGACIONES SOBRE LAVADO DE DIVISAS El funcionario argentino al ser consultado sobre el caso Lázaro Báez, acusado en ese país de "blanqueo" de capitales. El titular de la Unidad de Información Financiera (UIF), el máximo órgano oficial antilavado de Argentina, José Sbatella, admitió que "es muy fuerte el poder de los grandes grupos del delito para evitar que la Justicia dé el paso para investigar lavado". Según ese diario, el funcionario argentino no se refería, con su afirmación, "a la causa que indaga al círculo más íntimo de la presidenta Cristina Fernández de Kirchner, si no que aludía al sistema judicial argentino en general”. “El gobierno –agregó- tiene a la mitad de los jueces pensando libremente”. Se investiga desde hace tiempo la posibilidad de que el empresario patagónico esté lavando activos en ese país y denuncia que los juzgados argentinos “trancan” los exhortos que envían sus pares desde el otro lado del Río de la Plata para continuar con las pesquisas. El contador de Báez, Pérez Gadín, compró, a través de una sociedad anónima que preside, el campo El Entrevero, en José Ignacio, por 14 millones de dólares. La operación fue muy compleja: “Participaron seis bancos, cuatro testaferros de Báez y dos sociedades anónimas. A pesar de estas alertas, nadie denunció la transacción ante el Banco Central por sospecha de lavado dinero”, publicó ese diario. A solicitud del fiscal uruguayo especializado en Crimen Organizado, Juan Gómez, la jueza Adriana De los Santos envió el 31 de mayo exhortos a la Justicia argentina solicitando información sobre Báez, Pérez Gadín y los restantes testaferros sospechados de participar en un negocio que encubría lavado de dinero y que rozaba a la cúpula del gobierno argentino. En total, fueron cuatro los exhortos enviados a Argentina: uno por cada juzgado que investigaba a los acusados. La jueza De los Santos preguntó en esos exhortos si existen sospechas de que Báez y compañía hayan cometido delitos precedentes al de lavado de activos. Es que, para probar que existió lavado, antes hay que demostrar un delito previo desde donde se obtuvo el dinero sucio. Sin ese delito sobre el escritorio, la jueza no puede procesar a ninguno de los involucrados en la maniobra. “La única respuesta que recibió la magistrada llegó en setiembre. Uno de los jueces advertía que en el exhorto debía aparecer una copia de la denuncia presentada contra los indagados. La jueza uruguaya no había enviado una copia de la denuncia, sino que había transcripto el texto. La jueza envió inmediatamente la copia, pero la respuesta sigue sin llegar”.


“La formalidad que exigió el magistrado argentino contrasta con la falta de respuesta sobre el fondo del asunto: si existen sospechas de que Báez y Pérez Gadín cometieron delitos en Argentina. Desde el 31 de mayo a hoy, esa respuesta naufraga en el Río de la Plata”. Consultado sobre esta demora, Sbatella, la máxima autoridad antilavado de Argentina, indico “la cooperación judicial pasa a través de las cancillerías”. Por lo que se deduce que “depende, en definitiva, del poder político, el mismo que es investigado”. Mientras tanto, la investigación en Uruguay está trunca. El balance del medio de aquel país dejó como resultado que la jueza reunió la prueba documental, que demuestra la participación de seis bancos, cuatro testaferros y dos sociedades anónimas en la transacción, y tomó declaración a dos involucrados en la maniobra. Por no haber denunciado la transacción, declararon en el juzgado especializado en Crimen Organizado, el escribano Adolfo Pittaluga Shaw y el agente inmobiliario Alejandro Perazzo. “Pero si no se llega a probar que existió lavado de dinero, si no llega la respuesta desde Argentina, el caso quedará en el olvido. Y los 14 millones de dólares serán moneda corriente”. ARGENTINA EXPANDE EL CONTROL MONETARIO AL BITCOIN POR: BELÉN MARTY Con el objetivo de prevenir el delito de lavado de activos y el financiamiento del terrorismo, la Unidad de Información Financiera (UIF) de Argentina ordenó a las entidades financieras reportar las transacciones realizadas con monedas virtuales, como lo establece la resolución 300 publicada hoy en el boletín oficial. La normativa reconoce al bitcoin como un negocio en expansión que ha cobrado relevancia económica en los últimos tiempos. Sin embargo, explica el documento, estas monedas virtuales son un riesgo para el sistema de prevención de lavado de dinero y que por ello se les debe “prestar especial atención” y realizar un “seguimiento reforzado”. El ente liderado por José Sbattella define a estas monedas como “representación digital de valor que puede ser objeto de comercio digital y cuyas funciones son la de constituir un medio de intercambio, y/o una unidad de cuenta, y/o una reserva de valor”, pero hace hincapié en el hecho de que estas no son de curso legal ni se encuentran respaldadas por ningún país o jurisdicción. El artículo 4 dispone la obligación de los sujetos alcanzados por la norma—bancos, agencias de cambios, sociedades de bolsa, y otros incluidos en la Ley Nº 25.246— de reportar mensualmente todas las operaciones realizadas con monedas virtuales que se realicen a partir del primero de agosto de 2014. La clave está en el artículo 15 ter, allí se indica que “los Sujetos Obligados (…) deberán informar, a través del sitio www.uif.gob.ar de esta UNIDAD DE INFORMACION FINANCIERA, todas las operaciones efectuadas con monedas virtuales. Los reportes a que se refiere el párrafo precedente deberán efectuarse mensualmente, hasta el día QUINCE (15) de cada mes, a partir del mes de septiembre de 2014 (…)”.


Con esta medida, la UIF intenta establecer localmente los estándares delineados por el Grupo de Acción Financiera Internacional (GAFI) para abordar los riesgos que existen cuando se establecen transacciones con estas monedas, entre los cuales se encuentra el anonimato, pues esta “impide la trazabilidad nominativa de las operaciones”. ¿Es positiva para el bitcoin esta resolución?

Bitcoin tiene presencia física en Buenos Aires a través del Espacio Bitcoin Buenos Aires. (Bitcoin Buenos Aires) Franco Amati, cofundador de Espacio Bitcoin Buenos Aires, lugar de encuentro para la comunidad Bitcoin y coworking para emprendedores o startups, le adelantó a PanAm Post que han mantenido reuniones con personal de la UIF dado el interés de este ente en conocer cómo funciona la tecnología detrás de las monedas virtuales. “Lo que hoy informan ellos es que, para los sujetos obligados legalmente (instituciones financieras, inmobiliarias, etc.), las operaciones en bitcoin deben tratarse como el resto de las ya existentes. Lo que están reconociendo entonces es que las monedas digitales son un medio válido como cualquier otro para realizar operaciones de gran tamaño (aquellas a las que interesan a la UIF)”. El emprendedor expresó que esta normativa no significa que bitcoin pierda su “reconocida libertad y privacidad financiera, sino que un conjunto bien definido de operadores, que ya estaban sujetos a las reglamentaciones de la UIF, deben seguir respetándolas aún cuando utilizan monedas digitales. Es una situación regulatoria similar a la que se viene dando en la mayoría de los países”, explica Amati. La resolución, para Amati, reduce la incertidumbre a bancos y otras instituciones financieras, ya que ahora tienen el panorama más claro para ofrecer servicios basados en la tecnología.


Para Carlos Maslatón, analista financiero de Argentina, esta resolución posee una sola cosa positiva: El hecho de que el gobierno argentino reconozca al bitcoin como moneda en el artículo 2 de la resolución. “El segundo punto más allá del reconocimiento del bitcoin [y otras monedas virtuales] es el reporte de las operaciones que realicen. Esto es lo negativo de esta resolución. Necesitan saber las operaciones que se hagan como parte de la manía registradora del Estado moderno, especialmente del Estado argentino”, indicó. Además, el analista señaló que “perfectamente puede haber una venta de un inmueble con bitcoins o uno podría cancelar la cuenta en un bar que acepte bitcoins con esta moneda, pues no está prohibida. Podrían perfectamente hacerme una factura”. Maslatón resalta que solo deben reportar a la UIF las entidades explícitamente mencionadas en el Artículo 20 de la Ley 25.246, y cree que en la práctica se le prestará atención solo a las transacciones de gran volumen. Sin embargo, la lista es extensa e incluye bancos, casas de cambio, juegos de azar, sociedades de bolsa, intermediario en acciones, cheques de viajero, empresas de caudales, despachantes de aduana y los profesionales de ciencias económicas. ARGENTINA El pedido de indagatoria a la ex presidenta en el Caso Hotesur detalla el modo en que la familia Kirchner usó los hoteles para justificar sus ingresos. Hasta no hace muchos años, cuando los actuales gerentes de sucursales de banco entraban en esas entidades a trabajar en el rango más bajo de los escalafones de empleados, recibían un manual de instrucciones que tenía entre sus primeros capítulos uno dedicado a las alertas que debían tener frente a posibles operaciones de "lavado de dinero". Uno de los bancos más importantes que aún opera en el país, con sede central en España, ilustraba esas advertencias en los libros con la foto de un hotel. En 2006, Néstor y Cristina Kirchner, una pareja de "setentistas" que ocupaba la Presidencia de la Nación y lo haría por nueve años más, compró el primero de los cuatro hoteles que tendrían en El Calafate y El Chaltén, Santa Cruz. Esa repentina pasión por el negocio turístico que usó el crimen organizado para blanquear dinero fue una matriz que, según los fiscales Gerardo Pollicita e Ignacio Mahiques, también fue utilizada por los K para lavar dinero de origen ilícito. En el rotundo dictamen en el que estos investigadores judiciales piden que declaren en indagatoria los miembros de la familia ex presidencial se detalla no sólo cómo eligieron a su socio Lázaro Báez para alquilarle tres de esos emprendimientos capitalistas. También demuestra cómo Néstor Kirchner compró el hotel insignia de su cadena, el Alto Calafate, explotado en los papeles por la sociedad Hotesur, sin invertir fondos propios. Fue con la ayuda del Banco de Santa Cruz, la provincia quebrada que hoy gobierna su hermana. La entidad bancaria, cuyo síndico era y es el contador de su familia, le otorgó préstamos muy favorables y lo benefició con plazos fijos con tasas extraordinarias que jamás obtuvieron otros clientes. Pollicita y Mahiques escribieron un dictamen rotundo, documentado, con infinidad de pruebas que demostrarían cómo los Kirchner crearon su holding hotelero con el único fin de utilizar sus


hoteles para alquilárselos a un único cliente dispuesto a "perder" dinero con esas rentas: Lázaro Báez. En rigor, la última frase es una falacia. Si bien el socio de los K -en éstos y en otros negociosalquiló emprendimientos turísticos que generaban pérdidas, los fiscales explican con pruebas cómo Làzaro era financiado con contratos de obra pública que le otorgaban los Kirchner desde la Casa Rosada, formando así un flujo de fondos con un solo perjudicado: el Estado. Los investigadores aseguran que el delito precedente para indagar a los Kirchner por el delito de lavado de dinero agravado es justamente el de la defraudación al fisco. El dictamen que adelantó Clarín sobre este caso se ocupa además de enumerar otras irregularidades de esta trama. Por ejemplo, cómo fue qué Báez intentó demostrar que mientras alquilaba los hoteles K éstos eran utilizados por sus constructoras para que duerman allí empleados que trabajan en obras públicas. La realidad muestra que eran personas que trabajaban a cientos de kilómetros de El Calafate y El Chaltén. La causa Hotesur se inició tras una denuncia judicial que presentó en la Justicia la diputada Margarita Stolbizer (GEN), después de un informe sobre el caso difundido por PPT, el programa de Jorge Lanata de canal 13. La legisladora y su abogada, Silvina Martínez, aportaron pruebas desde el inicio de la pesquisa. El primer juez que indagó sobre el tema, Claudio Bonadio, fue apartado por la Cámara Federal después de allanar las empresas de los Kirchner en Santa Cruz. La información no había llegado aún a su juzgado y él ya había sido apartado de la instrucción del expediente. Las pruebas que recolectó igualmente estaban ya bajo guarda judicial, a pesar de que algunas de ellas podrían haber sido manipulados en el lapso de tiempo en el que el expediente "Hotesur" fue investigado por el juez Daniel Rafecas, quien explicó que él no tuvo responsabilidad de esas maniobras dilatorias e irregulares, que incluyeron falsificación de firmas en los libros de la sociedad hotelera principal de los K. Uno de los camaristas que votó en 48 horas que Bonadio debía dejar de investigar los negocios de la familia ex presidencial fue Eduardo Freiler, acusado en el Consejo de la Magistratura por no poder justificar el crecimiento de su patrimonio. En ese organismo, que regula el accionar de los magistrados, lo defienden los consejeros del kirchnerismo. Freiler es primo político de un personaje central del caso Hotesur. Se llama Patricio Pereyra Arandía: fue directivo de una de las sociedades bajo sospecha y está casado con una de las hijas de Alicia Kirchner. Freiler fue recusado por las denunciantes Stolbizer y Martínez, acción que el camarista rechazó. Los lazos de sangre, y los fallos de Freiler a favor de los Kirchner, como siempre ocurrió cuando le tocó decidir cuestiones jurídicas en esta trama hotelera, explican quizás por qué sigue en su cargo. Pollicita y Mahiques pidieron la indagatoria de la familia Kirchner por el delito de lavado de dinero agravado. El Código Penal prevé penas que van de 3 a 10 años de cárcel. La defensa de los Kirchner ante las denuncias en esta trama variaron: primero dijeron que su hotel Alto Calafate era "familiar" y aseguraron que de haber irregularidades eran solo "administrativas" y después hasta afirmaron que no tenían hoteles, sino que eran dueños de propiedades que se alquilaban con distintos fines.


Eran explicaciones públicas. Ahora, según aseguran fuentes del caso a Clarín, Ercolini aceptará el pedido de Pollicita y Mahiques y, entonces, sus defensas deberán ser declaradas en los tribunales. En calidad de imputados. UNA ESCUCHA VINCULA AL HERMANO DE LA MINISTRA DE SEGURIDAD CON EL LAVADO DE DINERO DE UNA EMPRESA DE LÁZARO BÁEZ Diego Rodríguez, ex vocal de River Plate, habla con un barrabrava del club de Núñez que le ofrece "lavar 300 palos verdes" para el empresario kirchnerista

Buenos Aires.- Una escucha telefónica vincula al hermano de la ministra de Seguridad, María Cecilia Rodríguez, con una operación para lavar dinero de la empresa Austral Construcciones, perteneciente al empresario Lázaro Báez. El fiscal José María Campagnoli, que fue destituido meses atrás de la causa Báez, recopiló el audio en el marco de otra de las investigaciones que llevaba adelante, en este caso contra barras bravas de River Plate. En la escucha revelada por Jorge Lanata en su programa de radio, Diego Rodríguez, ex vocal del club de Núñez, habla con un barra brava que le ofrece realizar una operación para ayudar a Báez a "lavar 300 palos verdes". Para eso, el cliente –en este caso el hermano de la ministra Rodríguez– debe entregar un cheque por el monto de la factura para que luego la empresa devuelva ese dinero a modo de pago por las obras nunca realizadas. A cambio de la operación que le permite blanquear el dinero, la empresa le pagaría un 15% de comisión. En esta causa, Campagnoli investigaba las conexiones políticas de la barra brava de River y fue por esto que había solicitado que se realizaran escuchas al hermano de la funcionaria, quien todavía se desempeñaba como vocal de la Comisión Directiva de la gestión de Daniel Passarella. A continuación, el audio de la escucha y los fragmentos más importantes: Rodríguez: -¿No tenés uno que me quiera comprar la fábrica? Penna: -Hay que ver... ¿Mucho movés ahí? Rodríguez: -No, vale un palo y medio la propiedad. Penna: -Claro, pero no importa lo que valga. A veces los pibes necesitan perder en algún lado. Rodríguez: -Listo, no hay problema, le vendo todo. Decile, si quiere. Penna: -Escuchame, vos ahí ¿de obras precisás algo? Te cuento por qué: hay una empresa que necesita facturar y encima darte la factura blanca. Vos le hacés el cheque, ellos te dan la plata y por ahí te dan el 15% arriba. Te facturan dos palos y te dan tres gambas. No la escuchaste nunca, ¿no? Rodríguez: -Nunca Penna: -Es de Báez, necesitan lavar 300 palos verdes. Rodríguez: -Mirá vos...


Penna: -Te facturan dos palos, le das los dos palos, te hacen la boleta de un palo setecientos más IVA y te dan tres gambas. Rodríguez: -¿Hago como que hago el arreglo? Penna: -Correcto, y te comés el IVA. Rodríguez: -¿Eso cuándo es? Penna: -No sé, mirá... unos amigos míos están haciendo una operación esta semana. Yo después te aviso, pero tiene que ser alguien que pueda justificar haber hecho todas las obras. Rodríguez: -Digo que le cambié todos los pisos... Penna: -Claro, para que no se escuchen ruidos, insonorización, cualquier cosa...Dicen que necesitan lavar 300 palos verdes. Rodríguez: -Seguro, conseguime. Después si podés conseguime el nombre y el CUIT. Penna: -Austral Construcciones. Ya te lo doy. Lo que necesitan ellos es decir que ganaron plata. Escuchar: https://youtu.be/Tuan70iCOOc. CORRUPCIÓN Y ENCUBRIMIENTO: LAS CUATRO CAUSAS EN LAS QUE ESTÁ PROCESADA CRISTINA KIRCHNER La justicia acusa a la ex Presidenta, por dirigir una asociación ilícita, lavar dinero y defraudar al Estado. Ahora también por encubrir el atentado a la AMIA.

Cristina Kirchner y un escenario judicial complejo. Foto AFP. La ex Presidenta sumó hoy su cuarto procesamiento en la Justicia federal. Asociación ilícita, lavado de dinero, defraudación al Estado, son los principales delitos que se le atribuyen en diferentes causas. Asimismo, acumuló embargos por más de 10.125 millones de pesos. A su vez, tiene una causa elevada a juicio oral y dos que están cerca de llegar a dicha instancia. Cuáles son los procesamientos de la ex Presidenta ante la Justicia Federal: Dólar Futuro Fue la primera causa por la que Cristina Kirchner llegó a los tribunales de Comodoro Py después de finalizar su presidencia. La causa judicial se originó por la masiva venta de contratos, durante la segunda mitad del 2015, a precios mucho más bajos a los que se vendían en el exterior. Mientras aquí se vendían coberturas a $ 10,60, en Nueva York el mismo contrato se ofrecía a $15. El juez Claudio Bonadio la procesó por el delito deadministración infiel en


perjuicio de la administración pública y estimó que con la operación se generó un perjuicio contra el Estado de casi 55.000 millones de pesos. El expediente incluye al ex ministro de Economía Axel Kiciloff, al ex titular del BCRA Alejandro Vanoli y a otros 12 imputados. Se trabó sobre todos ellos, incluida la ex mandataria, un embargo sobre sus bienes por 15 millones de pesos. Esta causa fue confirmada por la Cámara Federal porteña y elevada a juicio oral y público aunque aún no tiene fecha su inicio. Estará a cargo del Tribunal Oral Federal 1 (TOF 1).

Juez federal Claudio Bonadio. Foto DYN Obra Pública La causa investiga el direccionamiento de la obra pública vial a favor de Lázaro Báez. Así, el empresario K fue beneficiado con 52 contratos por 46.000 millones de pesos que contaban con "sobreprecios por encima del 65%". Durante la investigación a cargo del juez Julián Ercolini y del fiscal Gerardo Pollicita, se encontró a Cristina Kirchner responsable de los delitos deasociación ilícita y defraudación a Estado. También se encuentran procesados Julio De Vido, José López, Carlos Kirchner, entre otros. El embargo que se le trabó a la ex presidenta fue de 10.000 millones de pesos. La Cámara Federal porteña confirmó este procesamiento y la causa está próxima a ser elevada a juicio oral y público. Asimismo, se tomó el expediente como el delito precedente de otras causas de lavado de dinero como Los Sauces SA, Hotesur SA y la Ruta del Dinero K donde aún está pendiente el llamado a indagatoria de Cristina Kirchner. Los Sauces La Cámara Federal porteña confirmó el procesamiento en esta causa donde se investiga una maniobra de lavado de activos a través de la inmobiliaria de la familia Kirchner, Los Sauces SA, cuyos principales inquilinos fueron Lázaro Báez y Cristóbal López. La justicia encontró a Cristina Kirchner responsable de los delitos de "asociación ilícita en calidad de jefe", y "lavado de activos en calidad de coautora" y se planteó la "admisión dedádivas en carácter de coautora" y se desestimó la acusación por "negociaciones incompatibles". La causa quedó vinculada a la maniobra defraudatoria en la obra pública, que tiene el juez Julián Ercolini, que concentrará todas las investigaciones por corrupción contra la ex presidenta. Cristina Kirchner. Foto AFP La investigación determinó que los alquileres y otras operaciones que son parte de la causa (compra-venta de propiedades, construcción de inmuebles, etc.) "cobran distinto alcance y


significación frente a un obrar delictivo previo y concomitante" que se constituye como "un claro indicador de generación de dinero ilícito" y de la necesidad de que parte de esos fondos "fuera transferida al patrimonio de los ex presidentes". Esta causa quedó a un paso de ser elevada a juicio oral. Otras causas por resolver La ex Presidenta declaró en la causa Hotesur (firma familiar dueña del hotel Alto Calafate) donde se investigan maniobras de lavado de activos a través de los alquileres garantizados por Lázaro Báez. La situación procesal de Cristina Kirchner se resolvería recién el próximo año.

BRASIL CORRUPCIÓN EMPRESAS EN PARAÍSOS FISCALES POSEEN 2.700 MILLONES EN INMUEBLES EN SAO PAULO. EN FACEBOOK COMPARTE E Sao Paulo, 10 abr (EFE).- Unas 230 empresas brasileñas vinculadas a paraísos fiscales poseen 3.452 inmuebles en Sao Paulo, cuyo valor alcanza los 2.700 millones de dólares, según un informe de Transparencia Internacional divulgado hoy y que alerta del riesgo potencial de lavado de dinero que puede entrañar esa práctica. El estudio "Sao Paulo: ¿la corrupción vive al lado?" denunció además la "falta de transparencia y de calidad de los datos" para identificar a los propietarios finales de esas compañías, por lo que el "potencial para el lavado de dinero es todavía mayor". Los accionistas de las 236 empresas mencionadas son sociedades "registradas" en un total de 20 paraísos fiscales, de los cuales los más utilizados son: las Islas Vírgenes Británicas, Uruguay, algunos estados de Estados Unidos -como Delaware-, Panamá y Suiza. Según Transparencia Internacional, que utilizó datos oficiales, "el beneficiario final de las empresas en los paraísos fiscales continúa secreto" y no es posible "encontrar las personas físicas conectadas a las 3.452 propiedades pertenecientes a esas empresas". El 62 % de las propiedades identificadas son comerciales -tiendas, oficinas y hoteles- y suman en valor 2.200 millones de dólares, por los 370 millones de dólares que representan el 29 % en títulos de propiedades residenciales. El 9 % restante de los 3.452 inmuebles, que equivalen en superficie total a 7.400 campos de fútbol, son fábricas, terrenos, edificios, puestos de gasolina, según el informe. En este sentido, la organización "considera crucial el sector inmobiliario" al ser una de las vías utilizadas "para la evasión fiscal y el lavado de dinero". "La inversión en inmuebles tiene un riesgo relativamente bajo y esta es una de las razones por las cuales atrae personas que manejan con recursos ilegales. Como los inmuebles son caros, grandes cuantías de dinero pueden ser lavadas en una única operación", apunta el documento. Además, los inmuebles citados se concentran en las áreas más ricas de la capital paulista, la mayor ciudad de Sudamérica y cuyo Producto Interior Bruto (PIB) es comparable al de Ucrania, características que la han convertido en "la meca de la inversión inmobiliaria". Uno de los casos es la conocida Avenida Paulista, en el corazón financiero de la ciudad y sede de bancos, consulados y museos, donde la investigación encontró 195 propiedades por un valor de cerca de 40 millones de dólares ligadas a "empresas secretas".


En este sentido, también se registraron casos parecidos en la exclusivas avenidas Brigadeiro Faria Lima, Chucri Zaidan y Engenheiro Luiz Carlos Berrini o los barrios Jardins y Vila Olímpia. No obstante, en Brasil es legal que empresas 'offshore' adquieran propiedades "sin declarar el beneficiario final" debido a "la ausencia de una definición jurídica adecuada" que garantice la identificación de los mismos. En ese sentido, Transparencia Internacional "defiende el establecimiento de registros públicos" que contengan precisamente la persona física que tiene el control o la propiedad final de las empresas, tanto brasileñas como extranjeras, que operan dentro del país. Para la organización, el gran número de empresas vinculadas a paraísos fiscales o de jurisdicción secreta vinculadas a compañías brasileñas propietarias de los inmuebles debe ser visto como "señal de alerta". ODEBRECHT Y BARATA YA CONFESARON TODO SOBRE LAS COIMAS A AUTORIDADES PERUANAS El ex ejecutivo de la constructora en el Perú afirmó que no se pagaron sobornos en todas las obras en las que participaron, sino que solo se hizo en las que políticos o funcionarios corruptos exigieron algún pago. Fuentes cercanas al Ministerio Público y a la misma Odebrecht, empresa que admitió a autoridades de Estados Unidos haber pagado US$29 millones a funcionarios en Perú para beneficiarse con obras públicas, confirmaron que el ex director de la compañía brasileña en nuestro país y colaborador eficaz, Jorge Barata, ya confesó todo lo que sabe al equipo de trabajo del caso Lava Jato, liderado por el fiscal Hamilton Castro. Así lo revela esta jueves La República, que también señala que la constructora ha entregado abundante documentación de las coimas pagadas, en efectivo y depósitos bancarios, a funcionarios y políticos peruanos. La fuentes consultadas tanto en Lima como Sao Paolo aseguraron que Barata declaró ante Castro durante al menos cinco días, la cuarta semana de enero pasado, cuando el fiscal peruano viajó a Brasil. En dicho testimonio, el alto ejecutivo de Odebrecht identificó a los funcionarios corruptos y habló en detalle de las coimas en la Interoceánica Sur, en el Metro de Lima y en otras tres obras de infraestructura. Además, reveló actos de corrupción cometidos en el Organismo Supervisor de Inversión en Transporte Público (Ositrán) y el Ministerio de Transportes y Comunicaciones (MTC). A RECASTRO Barata afirmó que no se pagaron sobornos en todas las obras en las que participó la constructora brasileña, sino que solo se hizo en las que políticos o funcionarios corruptos les exigieron algún pago. En ese sentido, el ex director ejecutivo especificó al fiscal por qué, para qué y a quién le tuvieron que pagar y la forma en la que se concretaron las coimas. Según la declaración de Barata, en el Perú ya existía un sistema estructurado en la administración pública que exigía el pago de comisiones ilegales para contratar con el Estado, en el que participaban las empresas peruanas y las extranjeras. Por ello, según dijo, no fue necesario aplicar el sistema que se implementó en Brasil para adjudicarse las obras. Los abogados de Odebrecht en el Perú entregaron al fiscal Castro abundante prueba documental que refuerza las declaraciones de Barata, señala también La República. Estas pruebas se sustentan en dos fuentes: el Departamento de Operaciones Estructuradas o Caja 2 en Brasil y los datos codificados del sistema My Web Bay en Suiza. Es la razón por lo que esta


información está demorando en llegar a Lima. Y también porque mucha de esta información está siendo corroborada por el equipo de fiscales a cargo del caso. En algunos casos la verificación ha sido rápida y la fiscalía ha podido llevar adelante sus operativos como ocurrió con la Interoceánica Sur y el Metro de Lima, que involucran al ex presidente Alejandro Toledo, acusado de recibir US$20 millones por dicha obra, y al ex viceministro Jorge Cuba, que cumple prisión preventiva por recibir US$2 millones por el proyecto emblemático del segundo gobierno aprista. En el caso de Juan Carlos Zevallos Ugarte, ex jefe de Ositrán, se tuvo que esperar a que se levante su secreto bancario en un banco de Andorra.

ECOTEVA EN FISCALÍA POR LAVADO DE ACTIVOS El fiscal de la Nación, Carlos Ramos, confirmó que la fiscal Elizabeth Parco ya no estará a cargo de la investigación del caso Ecoteva que involucra al expresidente Alejandro Toledo y a su esposa Eliane Karp, en la compra sospechosa de inmuebles.

En virtud de nueva ley, fiscal Marco Antonio Cárdenas investigará caso que involucra a expresidente Alejandro Toledo, Eliane Karp y Eva Fernenbug.

El caso, por otra parte, pasará a manos del fiscal Marco Antonio Cárdenas, especializado en Lavado de Activos, en adecuación a una nueva Ley vigente desde el 1 de julio. “Hay que recordar que el pronunciamiento de Parco fue remitido y ejecutado en el juzgado competente, este devolvió el expediente vinculado a lavado de activos y allí debe hacerse el


pronunciamiento”, señaló Ramos, quien pidió no adelantar panoramas, pues todo dependerá de lo que determine el juez, pues hay recursos impugnatorios presentados, lo que imposibilitaría la elevación del expediente. “Estamos en camino a una competencia según los expedientes, este expediente pasará a lavado de activos, y Parco pertenece a un sistema común y ordinario, hay una nueva Ley y hay que adecuar los procesos y de acuerdo a eso se están tomando las medidas necesarias”, explicó. La fiscal Parco ha sido criticada por un sector de la prensa y la política porque solo denunció a la suegra del exmandatario, Eva Fernenbug, y al apoderado de esta, David Eskenazi, debido a que aparentemente no pudo comprobar que Toledo tuviera el manejo administrativo, económico o financiero de la empresa Ecoteva Group Consulting. Parco denunció a Fernenbug y Eskenazi por hacer uso de dinero supuestamente ilícito en la compra de dos inmuebles, uno valorizado en 3,7 millones de dólares, y el otro en 882 mil 400 dólares. Presionada por las críticas a la resolución de la fiscal Parco, la Fiscalía Suprema de Control Interno abrió una investigación preliminar ante una probable inconducta suya al elaborar su dictamen. El juez Abel Concha Calla devolvió la denuncia de Parco porque no precisó cuáles fueron las actividades ilícitas que habrían generado el lavado de activos, ni el monto total del dinero que se pretendió lavar y porque los peritajes, que aún no concluyen, no podrían ser presentados como pruebas. La fiscal Parco recibió 15 días de plazo para replantear la denuncia pero antes que concluya el plazo el Ministerio Público decidió que el caso pase a una fiscalía especializada en lavado de activos, en virtud de la ley citada. ALAN GARCÍA: FUNCIONARIOS BRASILEÑOS SEÑALAN QUE EX PRESIDENTE FUE PIEZA CLAVE PARA SUS NEGOCIOS Congresista Jorge del Castillo rechaza que ex mandatario haya tenido que ver con firmas de Brasil.


Alan García: Funcionarios brasileños señalan que ex presidente fue pieza clave para sus negocios (Renzo Salazar/Perú21) José Dirceu, ex primer ministro del ex presidente Lula da Silva, y dos altos ejecutivos, José Antunes Sobrinho, dueño de la empresa Engevix, y Gilberto de Azevedo Branco Valentim, presidente de Galvão Engenharia, confesaron ante el juez Sergio Moro que el ex presidente Alan García fue un contacto importante para sus negocios durante el gobierno aprista entre 2006 y 2011, según señala el portal Ojo-Publico.com. Las declaraciones de los implicados, según el citado portal, se realizaron en la ciudad de Curitiba, en el Estado de Paraná (Brasil), entre fines del 2015 e inicios de 2016. En sus declaraciones, vía teleconferencia, Valentim –acogido a la delación premiada– dijo que su compañía necesitaba del respaldo político para ganar el proceso de adjudicación de una obra en Perú. REUNIONES “La reunión con el presidente Alan García fue un punto importante (…) porque una parte del financiamiento no iba a sostenerse sin que el Gobierno Central ponga dinero en el proyecto”, explicó Valentim, en alusión a un proyecto de ingeniería en Tumbes. Por aquellos años Galvão Engenharia contrató como consultores al ex primer ministro brasileño José Dirceu y a Zaida Sisson (esposa de un ex ministro aprista) para expandir su presencia en el mercado peruano. “Yo personalmente estuve con el presidente Alan García gracias a las consultorías para pedirle (…) un complemento financiero por parte del Gobierno Central”, explicó Valentim. Por su parte, José Antunes Sobrinho (condenado a 21 años por el caso Lava Jato) confesó similar situación y también contrató a Dirceu. “Conocí a José Dirceu en un viaje a Lima. Nosotros ya teníamos una serie de contratos pequeños de consultoría de ingeniería en Lima, pero el doctor Gerson (Almada, socio de Dirceu), por su relación con el presidente Alan García, por sus relaciones en el país, podría ayudarnos”, añadió. AYUDAMOS A GARCÍA


En tanto, Dirceu (condenado a 32 años de prisión por delitos de corrupción y lavado de dinero en el caso Lava Jato) también habló de sus contactos con García a quien dijo conocer desde hace varias décadas. “El presidente Alan García, cuando dejó el (primer) gobierno, tuvo una serie de problemas. Yo lo ayudé junto con el general Omar Torrijos, que fue presidente de Panamá, y el gobierno de Cuba para que abandone el Perú”, señaló en referencia a la salida de García tras al autogolpe de 1992. En contraparte, el legislador Jorge del Castillo rechazó que el ex mandatario haya sido hombre clave en los negocios de firmas brasileñas en el Perú. Señaló que la empresa Galvão Engenharia no ganó ninguna obra en el país “en ninguna parte del Perú”. Además, indicó que no hay “ninguna referencia a algún acto ilícito”. Negó que José Dirceu haya apoyado la salida de Alan García tras el autogolpe de Fujimori 1992. “Eso es absolutamente falso” . DATOS  Según Hildebrandt en sus trece, las siglas AG que aparecen en la pág. 76 de un informe de la Policía Federal de Brasil hacen referencia a García.pero Garcia dice que puede ser Alfredo Gonzales.  El portal Ojo-Publico.com indicó que identificó por lo menos 10 veces las mismas siglas en la agenda de Marcelo Odebrecht.  En su testimonio ante la justicia brasileña, García negó haber tratado con Dirceu cualquier asunto relacionado a los intereses de firmas de ese país.

EL JUICIO SOBRE ESPIONAJE Es alambicado el argumento esgrimido por la Fiscal de la Nación, Gladys Echaíz, de que el caso Ariza debe ser visto por el fuero común porque el agraviado es el Estado y no sólo la Fuerza Aérea. En ese sentido, y según criterio de los constitucionalistas, la competencia de un caso no se define por la calidad del agraviado sino por la naturaleza del delito. Y en este caso, , no hay dudas al respecto: el delito de traición a la patria de Ariza reúne los requisitos establecidos en el Código de Justicia Militar-Policial, vale decir, ser cometido por un militar en actividad durante el cumplimiento de sus funciones, y que se afecte un bien jurídico o las funciones de las FF AA y la Policía Nacional. Hay, sin embargo, un hecho que no atenta contra la clara competencia del fuero castrense que sí argumenta a favor de quienes, como la Fiscal de la Nación, sostienen que el competente es el fuero común: la comisión por parte de Ariza, de acuerdo al fiscal provincial, del supuesto delito de “lavado de activos”, crimen que no existe en el fuero militar. Sin embargo este sesgo no debe enervar la vista de la causa principal –traición– por la justicia Castrense. De otro lado, el Tribunal Constitucional ha establecido ya jurisprudencia en casos como éste, al dictaminar ante una acción de inconstitucionalidad planteada en el año 2006 por la ex decana del Colegio de Abogados de Lima, Greta Minaya, que el delito de traición a la patria es competencia exclusiva del fuero militar. Por otra parte, la duplicidad de acción de los dos fueros estaría, al decir de especialistas, introduciendo un vicio de nulidad al proceso que


deslegitimaría los resultados del mismo, amén de todas las consecuencias administrativas de dicha duplicidad. Finalmente hay una consideración política en el caso Ariza que es gravitante y que nadie, menos el Poder Judicial o el Ministerio Público, puede soslayar. Estamos hablando, repetimos, señores, de un delito de traición a la patria; es decir, un crimen contra el alma del Estado cuyo abordaje y castigo, además de ser ejemplarizadores, deben encontrar a ese Estado unido y coherente en la defensa de su propia razón de ser. Por todo ello, y ante el panorama que ofrece este caso, es al Ministerio Público que le corresponde tomar la iniciativa. Si tiene reparos en inhibirse porque hay ya un proceso abierto por un delito que se juzga en su fuero –que no puede incluirse en el otro–, se puede posponer esa causa del lavado de activos para que sea vista por la justicia ordinaria cuando concluya la de traición a la patria en el fuero militar. La Constitución ampararía esa salida que permitiría conciliar criterios y superar esa absurda competencia de fueros que perjudica al proceso y empaña la imagen del país. Esto es lo que debería anunciar cuanto antes la Fiscalía, considerando la importancia y consecuencias del caso. ODEBRECHT: SUNAT DETERMINARÁ MONTO DE REPARACIÓN CIVIL Su titular Víctor Shiguiyama informó que en noviembre de 2016 empezó a fiscalizar a 60 empresas

Odebrecht: Sunat determinará monto de reparación civil Textos: Clorinda Flores El Jefe de la Superintendencia Nacional de Aduanas y Administración Tributaria (Sunat), Víctor Shiguiyama, señaló que en noviembre del año pasado se inició el proceso de fiscalización a más


de 60 empresas vinculadas a Odebrecht, por el caso Lava Jato, y que en marzo último se inició la fiscalización a las empresas consorciadas a la empresa brasileña. En nota de prensa emitida por la oficina de prensa de la entidad recaudadora, señala que en marzo “logramos detectar el problema que acaba de informar la Fiscalía, estamos haciendo las acotaciones correspondientes para luego comunicarlo formalmente a la Fiscalía con quien estamos en permanente comunicación como con la UIF (Unidad de Inteligencia Financiera). Nosotros revisamos si el pago de tributos de estas empresas fueron correctos y actualmente estamos en proceso de emitir los reparos tributarios correspondientes, corroborando lo que la Fiscalía ya conoce”. En ese sentido, reitera que la Sunat sí está fiscalizando a las empresas brasileñas involucradas en Lava Jato, así como también a las empresas consorciadas “y cuando se determinan reparos se procede al cobro correspondiente”, precisó Shiguiyama. LOS RIESGOS DE LAVAR DINERO CON MONEDAS VIRTUALES El grupo internacional afirma que el mayor riesgo es que carece de un organo de operación central.


El GAFI destaco que en poco tiempo las monedas virtuales, como el Bitcoins se han convertido en una forma de pago de gran alcance. El grupo de acción financiera sobre el blanqueo de capitales agafi alerto del riesgo del lavado de dinero con bitcoings y otras monedas virtuales. En una evaluación preliminar basada en Investigaciones judiciales reales el grupo especial al que pertenece Mexico y tiene como objetivo de combatir de manera conjunta el lavado de dinero y el financiamiento al terrorismo aseguro que existen peligros potenciales asociados al dinero virtual por varias razones. Una de ellas es el anonimato que se maneja en el comercio de ese tipo de divisas por internet pues la participación y verificación de los participantes es limitada. No hay claridad respecto a la responsabilidad de la materia antilavado, otra observación que hizo el GAFI es que la revisión, supervisión y ejecución de esta operaciones están segmentadas en varios países, pero el mayor riesgo es la ausencia de supervisión central. El gafi destaco que en poco tiempo las monedas virtuales se ha n convertido en una forma de pago de gran alcance, con una cada vez mayor aceptación mundial. Este desempeño se explica por que ofrecen un método innovador , barato y flexible de pago , al mismo tiempo señalo que ese modelo de negocio único y muchas veces desconocido supone un nuevo desafio para todos los refuladores de todo el mundo , por que no saben como lidiar con este método que se esta usando para algunas transacciones. Refirio que las respuestas varian en cada país de manera considerable, ya que algunos toman esta nueva tecnología sin regulación otros han limitado su uso legitimo. Por eso el grupo antilavado investigo el uso de las características de las monedas virtuales para hacer una evaluación individual y recomendó que un paso importante en la determinación de los riesgos y responder de forma adecuada a esa situación es tener una clara comprensión del uso de los diferentes tipos de las monedas virtuales que hay en el mundo su consumo , su control y funcionamiento. Desde el año pasado el Banco de Mexico Alerto sobre los riesgos de las monedas virtuales , dijo que esos activos son mecanismos de almacenamiento e intercambio de información electrónica sin respaldo de institución alguna, aclaro que en mexico no son monedas de curso legal y que el marco jurídico tampoco las reconoce como medio de cambio oficial ni como deposito de valor u otra forma de inversión. El GAFI refirió el resultado de una investigación de Westerns Express International que tomo ocho años en la que se descubrió que un grupo de delincuencia informatica mutinacional estafaba a personas por medio del fraude cibernético con tarjetas d crédito y monedas virtuales. L a empresa estaba compuesta por proveedores que movían dinero en varios países desde Ucrania , todo Europa el esta hasta Estados Unidos , vendían 100 mil números de tarjetas créditos robadas por medio del dinero virtual con supuesta regulación, como E. gold y Webmoney.


AUTORIDADES FINANCIERAS TRABAJAN EN LA REGULACIÓN DE LAS MONEDAS VIRTUALES Redacción El Sol de México Las autoridades financieras avanzan en el desarrollo de la Ley de Tecnología Financiera (Fintech), en la cual, entre otros aspectos, se buscará regular a las entidades que compran y venden activos virtuales como el Bitcoin. Así lo explicó el jefe de la Unidad de Banca, Valores y Ahorro de la Secretaría de Hacienda y Crédito Público (SHCP), José Bernardo González Rosas, quien dijo que “lo único que queremos regular es que la entidad que compra y vende activos virtuales tenga ciertas reglas, por ejemplo, de prevención del lavado de dinero y protección de usuarios”. En entrevista, precisó que el Banco de México (Banxico) revisará que estos activos sean lo suficientemente líquidos y definiría las características de operación con las cuales intermediarios financieros o el sector fintech pueden ofrecer este activo virtual al público en general. Destacó que en la actualidad cualquier persona que tenga acceso al block chain, donde se compran y venden los bitcoin, puede hacer operaciones con esta moneda virtual. “Es un mercado libre en todo el mundo, lo que estamos tratando de regular es la figura que compra y vende hacia terceros este tipo de activos virtuales”, argumentó. El funcionario de la Secretaría de Hacienda indicó que las autoridades financieras trabajan con el compromiso de que el anteproyecto de ley se presente en este periodo de sesiones del Congreso de la Unión, para que en este mismo año quede lista. “Estamos trabajando fuerte para que se presente en este periodo de sesiones. Nuestra intención es que sí, tenemos que discutir entre las autoridades financieras que desarrollamos el proyecto esos cambios y dependerá de la discusión, pero estamos trabajando fuertemente para tratar de presentarla en este periodo”, afirmó. La propuesta del Ejecutivo se presentó para consulta tanto al sector fintech como a entidades financieras tradicionales, como los bancos y el sector bursátil, la cual, aseguró, fue recibida con mucho entusiasmo. “Ya nos han entregado unos comentarios preliminares. Hemos tenido una primera reunión en general con los distintos gremios e industrias y ahora lo que haremos entre autoridades es procesar esos comentarios para poderlos incorporar en el proyecto de decreto”, dijo. Refirió que en general, los comentarios son que se sienten tranquilos de que hay piso parejo; de que se está permitiendo el desarrollo de la industria con las reglas sin descuidar lo importante, que es la prevención del lavado de dinero, reglas prudenciales, y temas de protección a usuarios de servicios financieros. González Rosas destacó que hay interés de las instituciones financieras de invertir a partir de las plataformas de fondeo colectivo, porque quieren utilizar estas plataformas para dar créditos a través de ellas. (Notimex). MÉXICO OMITE INVESTIGAR LAVADO DE DINERO VÍA BITCOINS AUTOR: NANCY FLORES / @NANCY_CONTRA Las autoridades financieras omiten investigar el lavado de dinero a través del uso de la moneda virtual bitcoin, por considerarlo de bajo impacto, revela la Evaluación nacional de riesgos de lavado de dinero y financiamiento al terrorismo en México.


Elaborado por la Unidad de Inteligencia Financiera, el análisis refiere que “en relación con el mercado de monedas virtuales en México, se mantiene una baja penetración entre la población, considerando que el bitcoin es la única de la que se ha encontrado evidencia que puede ser intercambiada por moneda de curso legal y que es aceptada como medio de pago por algunos proveedores de bienes y servicios”. Para el Departamento de Justicia de Estados Unidos, los criminales mexicanos sí hacen uso delbitcoin para adquirir productos pirata en el mercado negro chino. No obstante, la UIF –que depende de la Secretaría de Hacienda y Crédito Público– asegura que “existen pocos sitios en línea o cambistas de origen nacional. Además, pareciera que hay poco conocimiento, difusión e interés, ya que según información publicada o declarada en los medios financieros nacionales, las operaciones que se realizan por los principales portales resultan insignificantes con respecto al volumen de transacciones financieras y comerciales que se realizan en el país”. Para la Unidad de Inteligencia Financiera, “la vulnerabilidad de lavado de dinero y financiamiento al terrorismo asociada a los diferentes sistemas de pago utilizados en México se considera BAJA [sic]. En relación al impacto de este factor, las consecuencias financieras y económicas se encuentran en un grado bajo, por lo que se tiene un impacto final BAJO [sic]”. Pero el Departamento de Justicia observa lo contrario. En su informe 2016 National drug threat assessment summary, señala que “en México y Suramérica, las organizaciones criminales [que usan bitcoins en China] son reembolsadas ??inmediatamente en moneda local, y los productos falsificados son enviados a los hombres de negocios para la venta en esos países”. LEY OBLIGA A PROFESIONALES A DAR CUENTAS SOBRE OPERACIONES EXPUESTAS A LAVADO Iniciativa establece mecanismos para conminar a abogados, notarios, contadores, agentes de bienes raíces, vendedores de piedras preciosas y casinos a reportar operaciones de sus clientes Por: Aarón Sequeira Operaciones sospechosas de lavado de dinero irregular, como la compraventa de propiedades o bienes, deberán ser reportadas por los abogados, notarios, contadores y otros profesionales que sospechen de esas operaciones. En la foto, uno de los carros decomisados en Costa Rica a Arthur Budovsky, acusado en Estados Unidos de una de las mayores operaciones de lavado de dinero. Abogados, notarios, contadores, agentes de bienes raíces, vendedores de piedras preciosas, casinos y organizaciones sin fines de lucro estarán obligadas a rendir cuentas sobre todas aquellas operaciones de sus clientes expuestas a servir de herramienta para el lavado de dinero ilícito o para el financiamiento del terrorismo.


Así lo establece el proyecto de ley 19.951 aprobado este jueves en primer debate, en la Asamblea Legislativa, el cual reforma la Ley sobre estupefacientes, sustancias psicotrópicas, drogas de uso no autorizado, actividades conexas, legitimación de capitales y financiamiento al terrorismo. La reforma modifica varios artículos de esa ley e introduce artículos nuevos, para regular las nuevas obligaciones de ese tipo de actividades profesionales no financieras, que se exponen a las redes de delincuencia organizada y de financiamiento a organizaciones terroristas. La iniciativa fue centro de la polémica esta semana, pues el diputado Óscar López se negaba a permitir que la iniciativa se votara, para lo cual presentó varias mociones y amenazaba con hablar todo el tiempo que le permitía el Reglamento legislativo. López, único diputado que tiene el Partido Accesibilidad Sin Exclusión (PASE), aseguró estar molesto porque, supuestamente, el presidente de la República, Luis Guillermo Solís, no le da el lugar que él se merece como jefe de un partido político. De hecho, el legislador declaró, el martes en el plenario, que su molestia viene de meses atrás, cuando el presidente Solís le canceló una cita que habían fijado y, en cambio, convocó a todos los voceros de las bancadas legislativas el lunes, a las 7 a. m., para solicitarles el apoyo para la iniciativa. Pero López no fue a esa cita y criticó que se les convocara tan temprano y se les tratara de convencer "con un pinto". El bloqueo del congresista se acalló este jueves, luego de que el mandatario lo mandara llamar. Entonces, las dudas de López sobre el trámite legislativo se disiparon, retiró sus mociones y el plan se aprobó casi unánimemente. El único voto en contra fue de Otto Guevara, del Movimiento Libertario, quien de hecho solicitó eliminar a los sportsbooks como una de las actividades reguladas y el Gobierno le concedió esa petición. Específicamente, la iniciativa legal obliga a los profesionales liberales y comerciantes referidos a mantener políticas de "conozca a su cliente", inscribirse ante la Superintendencia General de Entidades Financieras (Sugef) y, con los criterios establecidos en la ley, reportar ante el Consejo Nacional para la Supervisión del Sistema Financiero (Conassif) aquellas operaciones sospechosas de lavado o financiamiento para el terrorismo. Las obligaciones específicas de abogados, notarios, contadores, agentes de bienes raíces, casinos y organizaciones sin fines de lucro son las siguientes: -Identificación de clientes y debida diligencia del cliente cuando establezcan relaciones comerciales con él. -Mantenimiento y disponibilidad de información de los registros de transacciones con el cliente. -Disposiciones y controles sobre las personas expuestas, definidas en los términos de la ley. -Controles sobre los riesgos de legitimación de capitales o financiamiento del terrorismo que pudieran surgir por nuevas tecnologías, nuevos productos y nuevas prácticas comerciales. -Controles cuando exista delegación en terceros para que realicen la identificación del cliente, identificación del beneficiario final y el propósito de la relación comercial. -Controles contra la legitimación de capitales y el financiamiento al terrorismo cuando existan sucursales y filiales extranjeras. -Controles cuando existan relaciones comerciales y transacciones con personas físicas o jurídicas e instituciones financieras con países catalogados de riesgo por organismos internacionales.


-Establecer mecanismos de reporte de operaciones sospechosas sin demora, en forma confidencial, a la Unidad de Inteligencia Financiera del ICD, incluyendo los intentos de realizar esas operaciones. -Implementar y asegurar procedimientos de confidencialidad cuando se entregan, a la Unidad de Inteligencia Financiera del ICD, reportes de operaciones sospechosas. Las obligaciones aplican para los abogados en tanto funjan como administradores de bienes de terceros y para notarios que hagan trámites de compra venta de bienes inmuebles. Con la iniciativa aprobada en primer debate, varios funcionarios del Gobierno irán el próximo martes 25 de abril a reportar, ante el Grupo de Acción Financiera Internacional (GAFI), los nuevos avances del país en la regulación para el combate al lavado de capitales y del financiamiento al terrorismo. No cumplir con la implementación de esas herramientas legales contra actividades riesgosas exponía al Estado de Costa Rica a ser incluido en una lista gris de países no cooperantes en el combate a esas actividades irregulares, donde están Afganistán, Bosnia y Herzegovina, Etiopía, Iraq, Laos, Siria, Uganda, Vanuatu y Yemen. "La formulación de estrategias eficaces de lucha contra la legitimación de capitales y el financiamiento del terrorismo demanda la identificación y atención de aquellas actividades vulnerables para legitimar capitales. Los estándares internacionales exigen legislación y controles para prevenir estos delitos", dijo Guillermo Araya, director del Instituto Costarricense sobre Drogas (ICD), satisfecho por la aprobación de la iniciativa. El GAFI es un organismo internacional adscrito al G20 (foro de los países más industrializados y los emergentes), encargado de fijar estándares y promover la implementación efectiva de medidas legales, regulatorias y operativas para combatir el lavado de activos, el financiamiento del terrorismo y de la proliferación de armas de destrucción masiva. Ese órgano emite 40 recomendaciones internacionales y evalúa el cumplimiento de esas recomendaciones en todos los países. UNA MODALIDAD QUE NO AFLOJA TRAS LOS PASOS DEL DINERO: LA JUSTICIA SALE A BUSCAR EL BOTÍN DE LOS SECUESTROS VIRTUALES Un fiscal pidió la declaración indagatoria por lavado de dinero de ocho integrantes de una banda de secuestradores virtuales. Mientras los investigaban, se fueron de viaje a Punta Cana. Parte de lo incautado a la banda Estafas El dinero es el objetivo. El dinero es el botín. El dinero es el ahorro perdido por la víctima de un engaño. Sin embargo, paradójicamente, el dinero pocas veces termina siendo el blanco central de la Justicia. Uno de los “negocios” ilegales más lucrativos de los últimos años para las bandas, el de los secuestros virtuales, derivó en decenas de causas penales y decomisos de todo tipo. Pero ningún proceso por lavado de activos logró salir adelante. Al menos, hasta ahora. De acuerdo a dos dictámenes a los que accedió Clarín, esto podría cambiar en las próximas semanas: basándose en un estudio patrimonial realizado por la Procuraduría de Criminalidad Económica y Lavado de Activos (Procelac), hace pocos días el fiscal federal Juan Pedro Zoni le pidió al juez Marcelo Martinez de Giorgi que cite a declaración indagatoria por lavado de dinero a ocho integrantes de una banda de secuestradores vituales, integrada por miembros de al menos tres clanes gitanos emparentados entre sí.


Los acusados fueron procesados en su momento por las estafas por la Justicia de Instrucción, luego de que el fiscal Joaquín Rovira lograra vincularlos con una serie de casos ocurridos en Capital Federal. Los investigadores aún recuerdan a la banda porque sus integrantes habían hecho un viaje a Punta Cana (República Dominicana) en plena investigación y con el dinero obtenido por los secuestros virtuales. “Viajaron unos 12 miembros de la misma familia”, sintetizaron los voceros. “Abuelo, tengo un problema grave. Me tenés que dar una mano, ya te van a explicar”, le dijo por teléfono una chica llorando a un jubilado, vecino del barrio porteño de Barracas, que al escucharla se convenció de que hablaba con su nieta. El hombre entregó 10.000 dólares (en dos tandas) y dos mil pesos antes de poder chequear que lo habían engañado con el método de “la llorona”: una voz femenina que, entre sollozos, le hace creer a quien atienda que es familiar suyo y que la tienen secuestrada. Aquello ocurrió en la madrugada del 5 de octubre de 2014. Pocos días después, el 12 de octubre, otra vecina de Barracas atendió su teléfono a las 5.52 de la mañana. “Má, estoy en peligro, ayudame por favor”, fue el ruego que escuchó la mujer y que terminó con el pago de un “rescate” de 800 dólares y 10.000 pesos. Esta causa está actualmente en manos del Tribunal Oral en lo Criminal N° 17. Fue caratulada como “estafa”, un delito excarcelable, con una pena máxima de seis años de cárcel. En los Tribunales se suele usar esta figura penal, o la de “extorsión” (con una pena mayor: de 5 a 10 años de prisión) para encuadrar los secuestros virtuales, ya que no pueden considerarse secuestros extorsivos propiamente dichos porque nadie es privado de su libertad. En el caso de esta investigación del fiscal Rovira, los bienes obtenidos por la banda (principalmente, autos de media y alta gama) y los reportes de operaciones sospechosas generaron que se extrajeran testimonios y se enviaran al fuero federal para seguir indagando en el patrimonio de los involucrados. Tal vez se convierta en el primer antecedente de una investigación por lavado contra secuestradores virtuales. Un primer intento para ahondar sobre los bienes de estas bandas lo había hecho el fiscal federal Federico Delgado, quien llevó adelante una investigación contra una de las bandas más importantes de la modalidad, también integrada por clanes gitanos, y con un personaje de altísimo perfil dentro de esta comunidad, conocido como “Milanco”. La causa de Delgado comenzó en el fuero federal porque se pensó que se trataba de un secuestro extorsivo clásico. El 29 de junio de 2014 a las 5 de la mañana llamaron a una joven y le dijeron que habían secuestrado a su hermano y que sabían que tenía 80.000 dólares en su casa. Finalmente a las 9.40 apareció el hermano. Estaba bien, no le había pasado nada. Los investigadores siguieron la pista de las comunicaciones y consiguieron determinar que otras personas habían recibido llamadas de “lloronas” en la misma zona. La causa llevó a realizar una decena de allanamientos en los que se secuestraron 54 vehículos de alta gama, muchos de los cuales eran exhibidos por los miembros de la banda -principalmente, por “Milanco”- en las redes sociales. Originalmente la causa estaba a cargo del juez federal Luis Rodríguez, pero a fines de 2015 éste se la pasó al juzgado federal N° 5, que entonces estaba a cargo de Norberto Oyarbide. Lo hizo por “compensación”, un sistema por el cual un juzgado le pasa a otro varias causas chicas a cambio de una grande. Rodríguez le pasó ésta y cinco más a su colega. Tras este movimiento interno, las indagatorias por lavado de activos contra 38 personas (12 de ellas, mujeres) pedidas por Delgado primero se estancaron y, muy recientemente, el pasado 17


de mayo, quedaron al borde de la nada: la causa fue enviada desde el juzgado federal 5 al fuero de Instrucción “por incompetencia”. Así la investigación abierta a “Milanco” y compañía quedó en coma. No ocurrió lo mismo con una causa “espejo” en contra de “Milanco” iniciada en 2015 por el fiscal de San Fernando Alejandro Musso. En este expediente, él y otras cuatro personas quedaron procesadas por asociación ilícita y 50 secuestros virtuales. Todos están esperando el juicio oral. Todos siguen presos. Durante los allanamientos en los que cayeron, el 16 de julio de 2015 se les secuestraron 40 autos de alta gama valuados en más de 25 millones de pesos. Apenas la fortuna visible de un negocio millonario.w DESARROLLO DE FINTECH Y NUEVAS APPS OBLIGAN A “CORRER SIEMPRE DE ATRÁS” A DELITO LA TECNOLOGÍA JAQUEA LA LUCHA CONTRA LAVADO DE ACTIVOS La imposibilidad de establecer legislaciones demasiado rígidas, la necesidad de una permanente actualización, así como mecanismos de regulación fácilmente adaptables a los cambios, son los principales elementos a tener en cuenta por parte de quienes trabajan en prevención de lavado de activos.

Oscar Moratto y Miguel Tenorio. Las nuevas tecnologías han traído nuevos desafíos. Días atrás, estuvieron en Montevideo participando de un evento sobre esta temática, organizado por BST Global Consulting, los expertos Oscar Moratto (Colombia) y Miguel Tenorio (México). A continuación, un resumen de la entrevista. —¿La evolución tecnológica parece ser uno de los grandes problemas para las políticas antilavado? Oscar Moratto— Las nuevas tecnologías nos han traído un gran dolor de cabeza. El sector financiero, que debe responder a una serie de regulaciones estrictas en cada país, va igualmente muy por detrás de lo que avanza el delito a partir del mundo de las aplicaciones y de los nuevos servicios tecnológicos. El tema es cómo implementar una regulación que no pare


esa rueda de negocios, esa flexibilidad y bancarización de las personas —lo que además es imposible detener— pero que prevenga la utilización de esos servicios en negocios vinculados con el lavado de activos. Son los dos grandes temas que nos preocupan a quienes trabajamos en la búsqueda de políticas que le cierren el camino al lavado de activos. —Siempre corriendo detrás del delito... Miguel Tenorio— Esa es parte de la preocupación: que toda la nueva normativa que vamos aplicando proviene de exigencias que llegan del extranjero, requerimientos mundiales como reacción a un evento que ya provocó alguna reacción negativa a nivel global. Pero retomando la gran preocupación que presenta el mundo de las tecnologías, a quienes necesitan introducir en el circuito legal el producido de operaciones ilícitas, le resulta muy conveniente el desarrollo de políticas de bancarización, donde generalmente ingresa una parte de la población que no tiene comúnmente acceso a servicios financieros, y ese proceso, que se desarrolla a una velocidad alarmante, deja muchos flancos expuestos en poblaciones vulnerables, utilizables por quienes necesitan blanquear dinero. Hace unos días, en la ciudad de México, tuve una reunión con una asociación de personas del sector fintech y me hablaban de las características de las personas que se mueven en este mercado: jóvenes, que no están acostumbrados a ser supervisados ni regulados por nadie, que no tienen noción de autoridad, que son muy creativos y que tienen una plataforma para el desarrollo inmediato de aplicaciones. El reto es regular a esa gente, que ingresen a un esquema que nos permita evitar que los usen para el lavado. Las autoridades tienen el reto de entender cómo se mueve esa población y tratar de ser proactivos y no reactivos. —¿Cuáles son los caminos para regularlos? OM—La clave es no satanizarlos. Y hacerles comprender los riesgos que se corren. Aparecen nuevas realidades, por ejemplo el bitcoin o dinero virtual, que ya circula en ciertos sectores financieros y ha llegado para quedarse. Otro reto muy difícil, en ese contexto donde las cosas amenazan con escaparse de las manos de los reguladores, es que los países coordinen sus políticas, porque la territorialidad se ha perdido, entonces hay que tener regulaciones comunes, un tratamiento simétrico de esta nueva realidad, para poder colaborar entre nosotros y establecer cuáles son los peligros reales de la utilización de toda esta tecnología con fines ilícitos. Un ejemplo claro: con los giros internacionales de dinero. a través de las aplicaciones se va a ir terminando todo aquello de trámites engorrosos en un mostrador, pero, ¿cómo hacemos para controlar que su uso sea con fines legales? MT— Hay que buscar el camino entre no inhibir el uso de las nuevas tecnologías que facilitan la vida, y poder establecer cierto control sobre la forma de uso. En los giros, será cuestión de poner atención en los grandes montos, pero también puede ocurrir que haya muchos giros de montos menores y allí se está desarrollando una operación que no es legal. Es un enorme desafío. —¿Qué materia legal existe sobre estos temas? MT—Hay una ley en el Reino Unido, que es la base de comparación legal que tomamos para estos temas, y en México se está trabajando en lo que sería la primera iniciativa formal de un gobierno de la región para regular la actividad vinculada con las fintech. Debemos comprender que es algo tan dinámico que no podemos encasillar en una ley algo que evolucionará muy rápido. Entonces ha generado cuatro grandes bloques: fondeos, medios de pago, esquemas de uso de modelos electrónicos e innovación. Se establecen una serie de controles pero sobre todo se da una señal: innoven, desarrollen, pero el Banco Central tendrá la posibilidad de


decidir cuáles son las limitaciones para operar. Es un sistema flexible, que evita la obsolescencia que puede tener una ley y se va adaptando a las nuevas realidades que aparecen. En Gran Bretaña es un modelo similar, flexible, que permite pedir autorización al gobierno central a efectos de poder sacar al mercado una aplicación. A partir de una plataforma de referencia ya existente, se evalúan los riesgos y cómo atacarlos, antes de dar una autorización. —¿Cómo se trabaja acerca del origen de los fondos que permiten esos desarrollos tecnológicos? OM— Precisamente, otro tema importante es la capitalización de esos proyectos fintech, de dónde se obtienen los recursos para desarrollarlos. Ese es otro aspecto sobre el que se trabaja para evitar que circule dinero mal habido. Definir responsabilidades de los que fondean, de los diseñadores, los accionistas, todos ellos tienen la obligación de reportar ante las autoridades. —La posibilidad de contar con recursos como big data, ¿es una herramienta importante para los controles? OM— Está todo en un proceso de maduración. Hay diferentes iniciativas en la región para la utilización de big data en estos temas. La flexibilidad que nos da el uso de big data en temas de inteligencia financiera le permiten al sujeto obligado, al regulador, a la supervisión financiera, potenciar el aprovechamiento de los datos y un monitoreo a tiempo real. Será una tendencia en un futuro cercano, para combatir de forma más eficaz los delitos de lavado de dinero y todos los vinculados. —El otro problema es la capacitación... MT—Sin dudas, porque si la policía y la justicia no están al tanto de las nuevas modalidades, y las unidades de inteligencia financiera tampoco son capaces de captar a tiempo ese delito que evoluciona a una velocidad asombrosa, va a ser difícil. Es por ello que necesitamos juntarnos, coordinar, intercambiar experiencias, capacitar a los funcionarios e informar a la población para poder combatir con mayor eficacia. —El cambio en los criterios de control en la región por parte del Gafisud (Grupo de Acción Financiera de Sudamérica) han arrojado resultados? OM—Efectivamente. Antes alcanzaba con informar acerca de las normas que íbamos a aplicar, ahora se nos piden los resultados que la aplicación de esa norma están dando, Ese es el reto más grande que tienen los países de la región de la ronda de evaluación que comenzará en pocos meses con Panamá y Colombia y luego seguirá con los demás países. MT—Es una presión fuerte que tendrán los países, precisamente en momentos en los cuales nos enfrentamos a estos nuevos retos que nos trae la nueva tecnología y el desafío que significa establecer controles exitosos. A nadie le interesa que su país pase a una lista "gris", que complica incluso a sus nacionales, ya que cualquier operación con otra jurisdicción sería observada como riesgosa o sospechosa. Ese estigma es para todo el país. Oscar Moratto. Ex Subdirector de Análisis de Operaciones Unidad de Información y Análisis Financiero de Colombia. Ingeniero Civil, es especialista en Finanzas y tiene estudios de Maestría en Economía en la Universidad de Los Andes. Miguel Tenorio. Consultor de nivel internacional. Dirige las operaciones de la firma BST Global Consulting para toda América. Doctorado en Ciencias en Administración con Especialidad en Finanzas y Desarrollo Organizacional en el Instituto Politécnico Nacional.


LA POLICÍA DE ALEMANIA RECIBE HERRAMIENTAS CONTRA LA ENCRIPTACIÓN DE MENSAJES Se espera que ayude a luchar contra el lavado de dinero, falsificación monetaria, tráfico de dogras y más de 30 crímenes Yago Rosa Fernández Los policías se están poniendo cómodos con la piratería informática. Ahora mismo las agencias de todo el mundo están utilizando malware u otras técnicas para identificar delincuentes de pornografía infantil, falsas amenazas de bombas y acosadores. Pero en la continua batalla por la proliferación de cifrado fácil de usar los legisladores alemanes quieren ir más lejos. El jueves, el Bundestaag aprobó una ley que autoriza a las fuerzas del orden público a utilizar el malware en una gama más amplia de investigaciones, incluido el tráfico de drogas.

Policía de Alemania

La noticia gira en torno al llamado 'troyano estatal' de Alemania, un término general dado a las capacidades de hacking de la autoridad. En 2011 la organización de hackers alemana Chaos Computer Club diseccionó una versión de la misma, la cual podía extraer datos de interés pero tenía una serie de vulnerabilidades. MÁS POSIBILIDADES DE HACKING PARA LA POLICÍA ALEMANA El nuevo cambio amplía el uso de malware a 38 delitos, incluyendo el narcotráfico, el lavado de dinero, la falsificación de monedas, el soborno, los crímenes sexuales y la distribución de imágenes de abuso sexual infantil. Esta expansión legislativa se produce cuando los políticos europeos piden que se haga más por el uso creciente del cifrado. En términos generales, el malware podría obtener el contenido de una comunicación antes de que el dispositivo o aplicación de mensajería, como WhatsApp, lo


cifre,dejando el cifrado como algo poco útil, algo que puede ser utilizado contra la ciudadanía en casos de abuso de poder. PRESENTAN PROYECTO PARA REGULAR BITCOIN Las operaciones con criptomonedas que Banxico reconozca como activos virtuales serán reguladas por la Ley Fintech

Las empresas con operaciones de activos virtuales tendrán la obligación de reportar a la SHCP las operaciones que realicen sus clientes con criptomonedas y que al mes superen 645 UMAs.

Las empresas con operaciones de activos virtuales tendrán la obligación de reportar a la SHCP las operaciones que realicen sus clientes con criptomonedas y que al mes superen 645 UMAs. AGENCIA REFORMA Ciudad de México Las operaciones con Bitcoin y otras criptomonedas que el Banco de México reconozca como activos virtuales, serán reguladas por la Ley Fintech, según el proyecto de Ley de Tecnología Financiera que se encuentra en la Comisión Federal de Mejora Regulatoria (Cofemer). Esta ley reconocerá cuatro figuras para operar: empresas con operaciones de activos virtuales (como las criptomonedas); Instituciones de Tecnología Financiera (ITF) -de crowdfunding y de pago electrónico-; interfaces de programación de Aplicaciones Informáticas Estandarizadas (APIs) y empresas con autorización temporal, llamadas Sandboxs. Detallan operaciones Las empresas con operaciones de activos virtuales tendrán la obligación de reportar a la Unidad de Inteligencia Financiera de la Secretaría de Hacienda y Crédito Público las operaciones que realicen sus clientes con criptomonedas y que al mes superen 645 Unidades de Medida y Actualización (UMAs).


En las ITF se considera el crowdfunding, que podrá operar tres tipos de financiamiento: deuda, capital, o copropiedad y regalías. Por su parte, las APIs serán aquellas que permitirán la conexión entre interfaces desarrolladas por terceros a fin de compartir datos. Por último, la ley crea a las Sandboxs, que serán empresas autorizadas para operar sólo por dos años, y observar cómo funcionan y llevarlas a que tomen otra figura como banco, Sofipo o ITF. En 2016, la inversión en empresas de tecnología financiera en América Latina se ubicó entre 800 mil y mil millones de dólares, según la SHCP. Por ello, la Ley Fintech establece en siete capítulos reglas para proteger al consumidor a través de facultades a la Condusef y controles para evitar lavado de dinero CUANDO LA POLÍTICA DE DEVOLUCIONES DE AMAZON ES TAN GENEROSA QUE TE PERMITE ROBAR 1,2 MILLONES DE DÓLARES

Algunas compañías tienen un departamento de servicio al cliente que son un verdadero infierno, ya que pedir una devolución o tratar de hacer válida una garantía requiere de tiempo, cientos de explicaciones y pruebas. Y precisamente uno de los puntos fuertes de Amazon es ese cambio de mentalidad al confiar plenamente en el usuario, un arma que han sabido usar a su favor y más al tratarse de comercio en línea. La mala noticia es que no todos los clientes son honestos y unas políticas así de relajadas pueden ser usadas para abusar y aprovecharse de la situación. Este es el caso de una pareja de


Indiana, Estados Unidos, quien precisamente buscó sacar provecho de la política de devoluciones de Amazon, lo cual les resultó en un inicio, ya que se hicieron de poco más de 1,2 millones de dólares en dispositivos electrónicos. Más de cien identidades falsas para tratar de hacer el crimen perfecto Erin Finan, de 38 años, y Leah Finan, de 37 años, se aprovecharon de los pocos requisitos que pide Amazon al momento de pedir una devolución ante un dispositivo dañado durante el envío o que no funciona. La pareja se dedicó por varios meses a crear cientos de identidades falsas para hacer compras en el sitio web de diversos productos de electrónica. Los Finan compraron desde cámaras GoPro, consolas Xbox, smartwatches de Samsung, hasta Microsoft Surface, y en todos los casos se comunicaban con el centro de atención a clientes de Amazon para meter una reclamación después de que supuestamente habían recibido el producto dañado o con alguna avería. En estos casos, Amazon solicita que se envíe el producto de regreso mientras envían uno nuevo, pero la pareja se dio cuenta quela compañía no siempre espera a recibir el averiado antes de enviar el nuevo. Esa fue la clave. Al parecer, para Amazon es más sencillo enviar un producto nuevo antes de crear toda una investigación en torno a lo que llevó a que el primer producto resultara dañado, y aquí es donde los Finan aprovecharon para hacer cientos de compras que superaron los 1,2 millones de dólares. Vamos, parecía que habían encontrado el crimen perfecto.


Los Finan se apoyaron en un tercero, Danijel Glumac, quien les ayudaría avender los dispositivos robados y pasar inadvertidos, esto mientras blanqueaba el dinero para no despertar sospechas ante sistema tributario del país. Es así como la pareja le vendían a Glumac los productos a un precio inferior y éste los revendía al público en Nueva York a nombre de una compañía de su propiedad. Este negocio hizo que Glumac se hiciera con 1,2 millones de dólares, mientras que los Finan recibieron sólo 725.000 dólares. Lo curioso de esto es que esta operación de defraudación no fue descubierta por Amazon, sino por el IRS (Servicio de Impuestos Internos), el Servicio Postal de EEUU. y la Policía Estatal de Indiana, quienes denunciaron en mayo de este 2017 a los Finan y a Glumac por fraude federal a través de correo postal y lavado de dinero. Ahora mismo, las tres personas involucradas en este fraude podrían enfrentar hasta 20 años de prisión, el pago de todo lo robado y multas por daños. La pareja Finan ya se ha declarado culpable con el objetivo de obtener el perdón y así evitar la cárcel, pero no podrán escaparse del pago de 1.218.504 dólares. Por Lisa Froelings


LA AMENAZA DE LAS CRIPTOMONEDAS DARÁ LUGAR A LA INTRODUCCIÓN DE MONEDAS DIGITALES RESPALDADAS POR EL ESTADO, CEO DE CITIGROUP

El consejero delegado de Citigroup (CEO), Michael Corbat, ha proyectado que la amenaza que representan Bitcoin y otras monedas digitales en el sistema financiero mundial existente generará monedas virtuales respaldadas por el estado. Sostuvo que los gobiernos de todo el mundo no aceptarán la disrupción causada por las criptomonedas en el sistema. En una entrevista con Bloomberg en una cumbre celebrada en Nueva York a principios de noviembre del 2017, Corbat afirmó que Bitcoin y otras monedas virtuales amenazan las capacidades actuales del sistema financiero en materia de datos, recaudación de impuestos, lavado de dinero y protocolo de conocer a su cliente (KYC). Agregó que varios gobiernos introducirán sus propias monedas digitales para contrarrestar Bitcoin y las otras criptomonedas. "Es probable que veamos que los gobiernos introduzcan, no las criptomonedas —creo que la criptomoneda es un mal apodo para eso— sino una moneda digital". Corbat también citó el potencial de la tecnología Blockchain, la tecnología subyacente detrás de Bitcoin y otras monedas digitales. Afirmó que la tecnología es muy prometedora y no debe tomarse a la ligera. Iniciativas tecnológicas de la propia moneda digital y Blockchain de Citigroup Según Corbat, su compañía ya está desarrollando su propia moneda digital llamada "Citicoin". La moneda virtual tiene la intención de reducir o eliminar problemas en las transacciones de divisas transfronterizas. La principal compañía financiera también está colaborando con la bolsa de valores Nasdaq en las posibles aplicaciones de Blockchain para la comercialización de acciones privadas. La sociedad involucra las plataformas CitiConnect de Citigroup y Linq de Nasdaq. Otros comentarios sobre las monedas digitales


Varias personalidades en la industria de servicios financieros también han emitido sus comentarios sobre Bitcoin y otras monedas virtuales en el pasado. En su opinión sobre las criptomonedas, el CEO de Goldman Sachs, Lloyd Blankfein, ha afirmado que no se siente cómodo con Bitcoin, pero está dispuesto a probar la moneda virtual. BITCOIN GANA PESO COMO MONEDA DEL NARCOTRÁFICO Y DEL LAVADO DE DINERO. La moneda virtual que no está respaldada por ningún banco central dispara su cotización mientras el sector fintech se pregunta de dónde viene el dinero Bitcoin, la moneda virtual que ha llegado a superar los 15.000 dólares y que suma un incremento del 1.500% desde principios de año, ha sido el valor elegido por los lavadores de dinero, los narcotraficantes y los hombres de negocios dudosos de medio mundo durante los últimos meses. Bitcoin no es una moneda al uso básicamente porque no está respaldada por el banco central de ningún país. Su cotización ha subido como la espuma, pero el anonimato y la dificultad de garantizar la procedencia de los fondos es caldo de cultivo para la entrada de dinero procedente de actividades ilícitas. “No hay duda de que los que están intentado evitar sanciones encontrarán la manera de hacerlo. Y hay métodos nuevos como las monedas digitales que pueden ser empleadas por actores anónimos. Bitcoin es una moneda digital con la que se puede comerciar internacionalmente. Puede transferirse entre usuarios y conservarse de manera anónima”, explicó Juan Zarate, asistente del presidente de los Estados Unidos entre 2005 y 2008, a Moisés Naím, autor del best seller El fin del poder. Mezclar y borrar huellas Bitcoin y el resto de criptomonedas se pueden ocultar con cierta facilidad Una de sus capacidades más apreciadas por quienes quieren eliminar la pista del dinero es el método del mixing (mezclado). Con este sistema, se pueden cambiar los fondos de un suscriptor con los de otros. Las monedas virtuales cuentan con sistemas de criptografía que evitan su rastreo. Y así un grupo de transacciones hace posible que el dinero movido quede completamente difuminado. El bitcoin también se ha convertido en el método de pago eficaz de los ciberdelincuentes para cobrar por los datos secuestrados a las empresas. “Los cibercriminales son los que menos tienen que perder con estas novedades. Para grupos como hackers o ciberdelincuentes es muy apetecible el bitcoin, pero hay que decir que la mayoría de inversores no tiene nada que ver con este tipo de actividades delictivas. Todo lo contrario, me atrevería a decir que son la minoría”, explica Adolfo Contreras, consultor y autor de varios libros sobre bitcoin. "Es un sistema anónimo pero cuando se hace el cambio a moneda real, hay que pasar por un banco o una casa de cambio y es posible la detección de los delincuentes", añade.


El narcotráfico está mostrando preferencias para el lavado del dinero por esta vía. Por primera vez el World Drug Report (Informe Mundial de Drogas) de las Naciones Unidas incluye un apartado en el que se menciona que las redes de tráfico de drogas y otras organizaciones criminales recurren al bitcoin y a las monedas virtuales para enmascarar la actividad. Pero los defensores de la moneda aseguran que, al margen de algunos casos sonados, el dinero en metálico sigue y seguirá siendo el preferido de las mafias para sostener sus negocios ilícitos. Corea del Norte y Venezuela Las crecientes dudas sobre los usos oscuros detrás de la nueva cibermoneda han sido confirmadas con la reciente detención de Alexander Vinnik, un supuesto cibercriminal detenido en Grecia y solicitado por la justicia de los Estados Unidos por haber blanqueado 4.000 millones de dólares a través de su casa de cambio BTC-e, una de las mayores empresas de cambio de bitcoins del mundo. La justicia estadounidense ha solicitado la repatriación inmediata a ese país. “El bitcoin es una moneda de obtención de fondos muy útil si te encuentras en Venezuela, Ecuador o Corea del Norte”, declaró el consejero delegado de JP Morgan, Jamie Dimon, en septiembre. El tiempo parece haberle dado la razón (en menos de tres meses). El presidente venezolano Nicolás Maduro anunció la creación de una nueva cripto-moneda, “el petro”, para intentar burlar la presión “del capital internacional contra Venezuela”. El máximo directivo de JP Morgan predice que con la moneda pasará una crisis similar a la de los tulipanes en Holanda en el siglo XVII, cuando los tulipanes llegaron a valer más que una casa. Pero los entusiastas de la nueva moneda se han apresurado al máximo ejecutivo de JP Morgan. Algunos de ellos están convencidos de que un bitcoin podrá valer "trillones de dólares". El consultor de bitcoin Adolfo Contreras explica que su propio cargo lo descalifica para opinar sobre criptomoneda. “Es como si un taxista hablara de Uber. No tiene autoridad”, asegura. “El bitcoin cambiará todos los esquemas de los mercados financieros y quitará negocio a los bancos y a los intermediarios. Y el bitcoin seguirá subiendo. De eso no tengo duda”. COLAPSO DEL DÓLAR, AUMENTO DEL ORO Y EXPLOSIÓN DEL BITCOIN Por: Jairo Larotta Crisis a la vuelta de la esquina: colapso de las Bolsas estadounidenses, fin del dólar y aumento incontrolable del oro. La aparente solvencia de EEUU optó para pagar su deuda imprimiendo más billetes sin respaldo. En otras palabras la deuda estadounidense seguirá creciendo. Esta situación impactará negativamente el mercado de valores, acompañado por la explosión hacia arriba del precio del oro. La gente está comenzando a desconfiar del dólar el cual emite la FED o Reserva Federal de los EEUU. La crisis del dólar venidera será más severa que la del 2008. Si el Gobierno estadounidense continúa inflando una "burbuja" tendrá consecuencias catastróficas cuando explote. El problema que enfrentará los EEUU va a ser más grave que una crisis financiera, es la crisis del dólar, y será una crisis de deuda soberana en la que los bonos del Tesoro por los que la gente está preocupada no son hipotecas de alto riesgo. Lo que preocupa a la gente es la solvencia de los EE. UU. con los bonos del Tesoro. Peor que tener hoy un dólar es tener la promesa de recibir un pago en dólares en el futuro. EEUU no tienen el valor de admitir que no disponen de dinero para cumplir sus compromisos. La FED fraudulentamente creará todo el dinero necesario para que los EEUU pueda cumplir con el pago de sus deudas. Pero esta situación conducirá a


eliminar la deuda con inflación. De hecho ya se observa un aumento superior al 15% en los precios de productos que adquieren los turistas en Miami en comparación con los precios de apenas hace un año. ¿Qué tan alto y durante cuánto tiempo puede EEUU sostener la deuda? El dólar se va a tambalear y su poder adquisitivo va a desaparecer. El efectivo de Bitcoin (BCH) está bien pero una mirada al futuro cercana indica que su aumento podría ser engañoso. Lo contrario sucederá con los mercados de oro y plata, que han sido reprimidos durante tantos años. La gente no confía en las monedas fiduciarias. Cada vez más personas buscan salidas, y la verdadera alternativa es el oro. Desde hace muchos años la WGC World Gold Council ha mantenido el precio del oro bajo. Ante la creciente demanda del áurico metal por parte de China y Rusia, incentivan la subida del precio del oro. La WGC no quiere porque de admitirlo ayuda la caída del dólar. Jamie Dimon CEO de JP Morgan Chase banco de la Reserva Federal FED admitió que el incremento desmesurado del Bitcóin es una prueba fehaciente de la pérdida de fe en el dólar, obligando a los inversionistas a buscar refugio en el Bitcoin que ha aumentado su valor .como se muestra en https://www.coindesk.com/price/ Esta explosión del precio del Bitcoin es producto de la caída del dólar como moneda fiduciaria de reserva, la cual está respaldada solo por deuda. La expansión cuantitativa del dólar que es convertir la deuda en dinero circulante no es otra cosa que el fraude contínuo de la FED al imprimir nuevos billetes sin respaldo. Siendo el Bitcóin un medio de pago digital que pasa sobre el control de los bancos centrales no tiene ningún respaldo. El precio del Bitcoin se ha disparado por la enorme demanda de esa criptomoneda para realizar enormes envíos de capital sin control alguno de los bancos centrales. El Bitcoin en solo un medio de pago y por ahora nunca de inversión. Mientras el oro si es una alternativa real de inversión porque por sí mismo es dinero, nunca deuda. Se estima que el valor real de la onza troy de oro 999 hoy en día podría estar sobre los US$ 60.000.- El valor del Bitcoin se ha disparado de manera especulativa a niveles superiores a los US$ 17.000 y posiblemente siga subiendo porque la cantidad de Bitcoins disponibles es limitada. El Bitcoin y cualquier criptomoneda son dispositivos virtuales que esencialmente son medios de pago para movilizar capitales de un sitio a otro, no serán un activo de inversión porque no tienen respaldo real. La perspectiva del Bitcóin apalancado bolsas bien establecidas aportan legitimidad pero nunca respaldo total a la criptomoneda. Claro, podrían aumentar el atractivo para convertirlo en activo de inversión pero hace falta investigación aplicada para lograrlo sin el apoyo del patrón oro de una divisa real. Resumiendo y a mi modo de ver, la posibilidad de convertir las criptomonedas en activos de inversión es refiriendo la criptomoneda al valor de una moneda de reserva real y en circulación debidamente controlada por el banco central emisor de esa divisa real que respaldaría a esa criptomoneda. En ese momento pasaría a ser considerada la criptomoneda como una criptodivisa. Las actuales y creadas criptomonedas por sí mismas son digitales, no existen ni billetes ni monedas físicas que respalden las transacciones. No hay bancos centrales detrás de la criptomonedas pero si habría banco central detrás de una criptodivisa. Los poseedores pueden ser anónimos, ya que solo se necesita una dirección para recibir y enviar criptomonedas y todas las transacciones son públicas pero sin control alguno de organismos de los países que emiten esas divisas de reserva que se disparan para pagos mas no para inversión. Ciertamente las criptomonedas son imposibles de falsificar, porque los algoritmos que sustentan este dinero virtual son muy robustos.


Por esta razón las cadenas de bloque o Blockchain son altamente seguras. Es por estas razones que la nueva criptomoneda venezolana PETRO debe convertirse en una criptodivisa asociada al Bolívar Oro propuesto y que todavía las autoridades venezolanas son reacias a implantar. BOLIVAR ORO y criptodivisa asociada PETRO.

Dado el reciente anuncio del Presidente Maduro de instaurar una criptomoneda PETRO, bautizada por el ex presidente Hugo Chávez Frías en 2008, dijo que iba a estar respaldada por el petróleo, oro amarillo, gas y diamantes. En realidad es imposible con la tecnología actual se llegue a lograr ese respaldo sin una divisa venezolana real y en circulación referida al patrón oro y respaldada por las inmensas riquezas mencionadas por el Presidente Maduro, petróleo, gas, oro y diamantes. La criptodivisa PETRO tendrá respaldo si es emitida solo por el Banco Central de Venezuela y controlada por esa institución que según la Constitución es un ente del Estado, integrante del poder público nacional, de relevancia constitucional, y ejerce funciones administrativas gestoras de intereses públicos, que se rigen por los principios que gobiernan a la Administración Pública. En nuestra propuesta hablamos del BOLIVAR ORO divisa aliada a la criptodivisa PETRO mencionada. El BCV establecería el PETRO oficial con las características y controles siguientes: -Emitida únicamente por el BCV; -Paridad igual y constante con el Bolívar Oro divisa que propuse de valor 1/100 de onza troy de oro 999 (US $ 13,00); -El BCV con software ad hoc regularía el uso de la criptodivisa PETRO en la plataforma Ethereum; -Se controla el RIF del emisor del "disparo", concepto, destino e impuesto ISLR a pagar según el monto. Las desventajas de la criptomoneda PETRO actuando libremente o sea sin respaldo alguno como cualquiera de las más de 700 criptomonedas existente son: -Permitiría el lavado de dinero de origen ilegal; Ocultaría la identidad de quienes realizan los "disparos"; Permitiría la fuga de capitales evadiendo pago de impuestos;- Facilitaría la corrupción y los negocios ilícitos como el compra de armas, tráfico de personas, financiación al terrorismo;- Facilitaría la guerra económica contra el país por ingreso de capitales golondrina para desestabilizar la economía.


Por estas razones tanto Rusia como China han prohibido el uso de criptodivisas extranjeras en sus territorios. Esperamos los anuncios de la Superintendencia de la Criptomoneda Petro recién creada, para así tener luces oficiales de lo que quiere el gobierno. Sabemos que la industria financiera ha sido una de las que más receptiva con respecto a la Blockchain en los últimos años. No obstante, la aplicación de la cadena de bloques en operaciones de fondos para el financiamiento y la inversión es algo que no se había planteado hasta el presente. El banco central FED de los Estados Unidos ha puesto su mirada sobre la tecnología Blockchain. Así lo dio a conocer un miembro de la Junta de Gobernadores de la Reserva Federal Federal del país norteamericano, durante su intervención en el Instituto de Finanzas Internacional en Washington. La FED cataloga a la tecnología Blockchain como el avance más significativo en muchos años. Pero saben que la FED no pueden respaldar una criptodivisa DÓLAR por ejemplo, referida al dólar porque los billetes son certificados de una deuda impagable o sea por deuda impagable. Nuevamente pedimos al presidente Maduro y las autoridades financieras y económicas del país se pronuncien con hechos fehacientes respecto a esta perentoria solución para la maltrecha economía venezolana. El BOLIVAR ORO y la criptodivisa asociada PETRO. Esta solución produciría los siguientes beneficios de manera inmediata: - Propiedad exclusiva de Venezuela del Bs.Oro y Petro lo cual los hace inembargables. Solo el gobierno venezolano puede embargarlas por ser el único propietario del Bs.Oro y del Petro asociado. - Paridad fija del Petro y Bs.Oro valorados en 1/100 de onza troy con equivalencia inmediata a otras divisas de reserva referidas al patrón oro como lo sería el Rublo Oro, Yuan Oro y BRICS Oro - Liberación del cambio en Bs.Oro con un fuerte impuesto de salida de capitales. Fin del Dólar Today desestabilizador e ilegal. DolarToday quedará solo para dar informes del tiempo. - Apertura a los mercados de capitales internacionales operando en las Bolsas venezolanas en Bs.Oro y Petros. - Inflación interna en Venezuela de un dígito - Intereses bancarios para préstamos de un dígito con consecuente estímulo a la inversión. - Disponibilidad de liquidez inmediata al monetizar bonos en Bs.Oro los cuales serían inembargables. - Ahorro de Venezuela en divisa propia y muy sólida, no en divisas ajenas. - Repatriación de capitales buscando seguridad y mejores rendimientos. - Fin del bloqueo financiero internacional contra Venezuela. - Confianza de los mercados y bolsas mundiales respecto a las operaciones en las Bolsas de Caracas y Maracaibo en Bolívares Oro y movilizadas con Petros. La recién creada Superintendencia de la Criptomoneda Petro tiene una urgente tarea a realizar por lo apremiante de situación económica interna del país y para terminar con el injusto bloqueo internacional a Venezuela. Con mucho gusto estoy disponible para colaborar si así lo consideran quienes en el gobierno deciden, lo haría por Venezuela. BITCOIN GANA PESO COMO MONEDA DEL NARCOTRÁFICO Y DEL LAVADO DE DINERO


La moneda virtual que no está respaldada por ningún banco central dispara su cotización mientras el sector fintech se pregunta de dónde viene el dinero David Placer Madrid, 11 de diciembre de 2017 (04:55 CET) Bitcoin, la moneda virtual que ha llegado a superar los 15.000 dólares y que suma un incremento del 1.500% desde principios de año, ha sido el valor elegido por los lavadores de dinero, los narcotraficantes y los hombres de negocios dudosos de medio mundo durante los últimos meses. Bitcoin no es una moneda al uso básicamente porque no está respaldada por el banco central de ningún país. Su cotización ha subido como la espuma, pero el anonimato y la dificultad de garantizar la procedencia de los fondos es caldo de cultivo para la entrada de dinero procedente de actividades ilícitas. “No hay duda de que los que están intentado evitar sanciones encontrarán la manera de hacerlo. Y hay métodos nuevos como las monedas digitales que pueden ser empleadas por actores anónimos. Bitcoin es una moneda digital con la que se puede comerciar internacionalmente. Puede transferirse entre usuarios y conservarse de manera anónima”, explicó Juan Zarate, asistente del presidente de los Estados Unidos entre 2005 y 2008, a Moisés Naím, autor del best seller El fin del poder. Mezclar y borrar huellas Bitcoin y el resto de criptomonedas se pueden ocultar con cierta facilidad Una de sus capacidades más apreciadas por quienes quieren eliminar la pista del dinero es el método del mixing (mezclado). Con este sistema, se pueden cambiar los fondos de un suscriptor con los de otros. Las monedas virtuales cuentan con sistemas de criptografía que evitan su rastreo. Y así un grupo de transacciones hace posible que el dinero movido quede completamente difuminado. El bitcoin también se ha convertido en el método de pago eficaz de los ciberdelincuentes para cobrar por los datos secuestrados a las empresas. “Los cibercriminales son los que menos tienen que perder con estas novedades. Para grupos como hackers o ciberdelincuentes es muy apetecible el bitcoin, pero hay que decir que la mayoría de inversores no tiene nada que ver con este tipo de actividades delictivas. Todo lo contrario, me atrevería a decir que son la minoría”, explica Adolfo Contreras, consultor y autor de varios libros sobre bitcoin. "Es un sistema anónimo pero cuando se hace el cambio a moneda real, hay que pasar por un banco o una casa de cambio y es posible la detección de los delincuentes", añade. El narcotráfico está mostrando preferencias para el lavado del dinero por esta vía. Por primera vez el World Drug Report (Informe Mundial de Drogas) de las Naciones Unidas incluye un apartado en el que se menciona que las redes de tráfico de drogas y otras organizaciones criminales recurren al bitcoin y a las monedas virtuales para enmascarar la actividad. Pero los defensores de la moneda aseguran que, al margen de algunos casos sonados, el dinero en metálico sigue y seguirá siendo el preferido de las mafias para sostener sus negocios ilícitos. Corea del Norte y Venezuela Las crecientes dudas sobre los usos oscuros detrás de la nueva cibermoneda han sido confirmadas con la reciente detención de Alexander Vinnik, un supuesto cibercriminal detenido en Grecia y solicitado por la justicia de los Estados Unidos por haber blanqueado 4.000 millones de dólares a través de su casa de cambio BTC-e, una de las mayores empresas


de cambio de bitcoins del mundo. La justicia estadounidense ha solicitado la repatriación inmediata a ese país. “El bitcoin es una moneda de obtención de fondos muy útil si te encuentras en Venezuela, Ecuador o Corea del Norte”, declaró el consejero delegado de JP Morgan, Jamie Dimon, en septiembre. El tiempo parece haberle dado la razón (en menos de tres meses). El presidente venezolano Nicolás Maduro anunció la creación de una nueva cripto-moneda, “el petro”, para intentar burlar la presión “del capital internacional contra Venezuela”. El máximo directivo de JP Morgan predice que con la moneda pasará una crisis similar a la de los tulipanes en Holanda en el siglo XVII, cuando los tulipanes llegaron a valer más que una casa. Pero los entusiastas de la nueva moneda se han apresurado al máximo ejecutivo de JP Morgan. Algunos de ellos están convencidos de que un bitcoin podrá valer "trillones de dólares". El consultor de bitcoin Adolfo Contreras explica que su propio cargo lo descalifica para opinar sobre criptomoneda. “Es como si un taxista hablara de Uber. No tiene autoridad”, asegura. “El bitcoin cambiará todos los esquemas de los mercados financieros y quitará negocio a los bancos y a los intermediarios. Y el bitcoin seguirá subiendo. De eso no tengo duda”. Bitcoin hincha su burbuja por encima de los 12.000 dólares 

El bitcoin superó por primera vez el valor de los 12.000 dólares; en octubre apenas superaba los 5.000 rcelona, 06 de diciembre de 2017 (18:03 CET) Un nuevo pelotazo de bitcoin abre la posibilidad de que sea otro histórico fugaz. Siguiendo la tónica de los últimos meses, la criptomoneda batió otro récord en las últimas 24 horas, cuando superó por primera vez el valor de los12.000 dólares. La tarde de este miércoles, un bitcoin valía 10.900 euros(12.950 dólares). La moneda virtual comenzó a despegar en mayo de este año por encima de los 1.500 dólares, y desde entonces ha tenido un crecimiento acumulado marcado por una volatibilidad que le ha ganado críticas en el sector financiero. En julio valía cerca de 2.500 dólares, en octubre superó los 5.000, y en noviembre decidió no bajar de ahí. La semana pasada, el bitcoin alcanzó los 11.000 dólares pero rápidamente cayó a los 9.350, lo que aumentó las críticas de una burbuja que se basa en la especulación. Stephen Roach, un influyente economista de Wall Street, señala que los patrones del precio de bitcoin son los más verticales que ha visto en su carrera, y sostiene que la burbuja especulativa de la moneda es peligrosa. La financiera JP Morgan ha dado un paso atrás en su valoración del bitcoin. En octubre, el consejero delegado de la firma, Jamie Dimon, dijo que había que ser "estúpido" para comprar la criptomoneda, luego de haberla llamado un fraude. Sin embargo, los analistas de la financiera ahora creen que el bitcoin podría convertirse en el nuevo oro.


FINANZAS Y MACRO Bitcoin se dispara en su estreno en el mercado de futuros de Chicago Bitcoin gana peso como moneda del narcotráfico y del lavado de dinero La moneda virtual bitcoin debuta con subidas en el mercado de futuros de Chicago, tras un fin de semana de caídas Economía Digital Barcelona, 11 de diciembre de 2017 (10:37 CET) Bitcoin ha dado otro salto. La criptomoneda comenzó este domingo por la noche a cotizar en el mercado de futuros de los Estados Unidos, y lo hizo con subidas. Pero su debut en el Chicago CBOE tuvo un doble beneficio para Bitcoin, ya que la expectativa de un buen aterrizaje a dicho mercado de futuros disparó su cotización en Coincheck, el mercado japonés donde se mueve más cantidad de Bitcoin, hasta superar los 17.500 dólares, tras un fin de semana de caída. La moneda virtual entró en Chicago con expectación entre los inversores, y llegó a subir 1.000 dólares, aunque luego se moderó. Empezó a medianoche, hora española, y a las 10 de la mañana cotizaba en la plaza estadounidense a 16.590 dólares, 340 más que en la apertura. Pero donde el Bitcoin vivía las mayores subidas era a uno y tres meses. Con vencimiento el 17 de enero, la criptomoneda se paga a 17.740 dólares, 2.280 más que en la anterior sesión, mientras que con vencimiento en marzo, se paga a 19.100 dólares, 2.670 más. Bitcoin con vencimiento en marzo se paga a más de 19.000 dólares en el mercado de futuros de Chicago Este ha sido un paso más de la moneda virtual en los mercados de divisas. Otro lo dará el 18 de diciembre, cuando empezará a operar en la mayor plataforma mundial de intercambio de derivados, CME, también con sede en Chicago. El gran salto, sin embargo, se espera para 2018, para cuando se ha anunciado su entrada en el mercado de futuros del Nasdaq. Bitcoin ha protagonizado en las últimas semanas grandes subidas, llegando a récords hasta ahora insospechados, aunque también ha sufrido días de importantes caídas. Su falta de regulación –no está respaldada por el banco central de ningún país–, el anonimato y la dificultad para garantizar la procedencia de los fondos la han convertido en el valor elegido por lavadores de dinero, narcotraficantes y hombres de negocios dudosos de medio mundo. Por: Gareth Jenkinson LOS GOBIERNOS USAN LAS CRIPTOMONEDAS COMO UNA RAZÓN PARA ESPIARNOS BIG BROTHER Desde su creación en 2009, Bitcoin fue pionera en el camino de las criptomonedas y se ha expandido a la conciencia dominante en 2017. La tecnología Blockchain promete la liberación de la banca centralizada, pero su naturaleza anónima también la coloca en la mira del gobierno y las agencias de seguridad.


Un buen ejemplo es la ahora difunta Ruta de la Seda, que era un mercado en línea que permitía a los usuarios comprar y vender de todo, desde drogas y armas de fuego, hasta información, para Bitcoin. Obviamente, comprar y vender productos ilegales te llevará a un mundo de problemas si te atrapan. Este es realmente el lado oscuro del mundo de las criptomonedas, que permite a los traficantes de drogas y al comercio ilegal de armas una forma anónima e imposible de rastrear. El FBI cerró la Ruta de la Seda y arrestó a su fundador Ross Ulbricht, terminando la carrera del jugador más grande en el historial comercial de la web oscura. Irónicamente, uno de los agentes investigadores fue encontrado culpable de robar Bitcoin de la Ruta de la Seda mientras estaba investigando la plataforma en línea. LA ENCRIPTACIÓN NO ES NECESARIAMENTE IGUAL AL ANONIMATO Si bien es comprensible que las transacciones anónimas permitan a las personas nefastas hacer su negocio sucio, incluso la Unión Europea cree que las criptomonedas no son favorables para el terrorismo. En un reporte publicado a comienzos del año, una comisión europea declaró que los grupos terroristas necesitan monedas fiduciarias para operar. La complejidad intrínseca de las transacciones de Blockchain es un factor; también lo es el libro público disponible al público. Cada transacción realizada con Bitcoin se registra en el libro mayor para que todos lo vean, lo que les da a las autoridades una idea de quién está enviando a quién. Es mucho más fácil enviar dinero en efectivo frío y duro en un sobre que a través de una moneda digital, que inevitablemente se puede rastrear de alguna forma o manera. Usar el terrorismo para forzar la regulación El terrorismo ha sido una amenaza para la sociedad civilizada durante décadas y los gobiernos han hecho todo lo posible para acabar con las amenazas más importantes. No hay duda de que los grupos terroristas representan un peligro para la sociedad, pero la verdad es que la amenaza del terrorismo también se ha utilizado como excusa para espiar a la población en general e invadir países extranjeros. Luego de los ataques del 11 de septiembre en el World Trade Center en Nueva York en 2001, Estados Unidos rescindió la Ley Marshall y finalmente invadió Afganistán para enfrentar al Talibán de frente. Desde entonces, los EE. UU. Se han convertido en un estado de seguridad masivo, y era solo cuestión de tiempo hasta que se atrapara a gente como la Agencia de Seguridad Nacional espiando al pueblo estadounidense. Este ejemplo es una de las instancias más recientes y bien conocidas de un gobierno que espía activamente a sus propios ciudadanos, utilizando la amenaza del terrorismo para infringir la privacidad y los derechos de su gente. Evasión fiscal y fraude


Esta es probablemente la mayor preocupación para los gobiernos y sus respectivos servicios de ingresos. Se están realizando grandes esfuerzos para dar seguimiento a los usuarios de criptomonedas que no han podido declarar sus ganancias. El intercambio estadounidense Coinbase fue ordenado de entregar los detalles de sus mayores usuarios intercambiando detalles mientras el asesor fiscal de los Estados Unidos busca tomar medidas drásticas contra la evasión fiscal. Esta semana, Australia ordenó que todos los intercambios que operan en el país se registren en su agencia contra el lavado de dinero. Estas son preocupaciones comprensibles, pero es necesario trazar una línea en la arena. Las ganancias obtenidas en inversiones están sujetas a impuestos y la gente necesita entender eso. Pero hacer afirmaciones descabelladas y sin fundamento sobre los nefastos usos de las criptomonedas como una razón para espiar y exigir información del usuario es incorrecta. La gente debería usar criptomonedas de manera responsable, pero también debemos ser cautelosos con las autoridades que hacen un uso indebido del poder para forzar regulaciones nuevas e infundadas sobre el desarrollo tecnológico más importante del siglo XXI. Vaticano congela fondos de religioso Monseñor Nunzio Scarano fue detenido el pasado 28 de junio y está acusado de fraude y corrupción. Según la justicia de la ciudad estado, monseñor Nunzio Scarano estaría acusado de lavado de dinero al ingresar millonarias sumas de dinero a Italia. Como parte de las investigaciones por presunto lavado de dinero, el vaticano comunicó este viernes que congeló los fondos de monseñor Nunzio Scarano, a quien se le acusa de forma parte de un complot para ingresar ilegalmente a Italia 20 millones de euros en efectivo procedentes de Suiza. Las autoridades vaticanas informaron que las pesquisas podrían extenderse a otras personas como parte de las investigaciones por una serie de transacciones sospechosas. Las cuentas de monseñor en el banco del Vaticano estarán por el momento inhabilitadas y el religioso no tendrá acceso a su dinero hasta esclarecer todos los cargos. Según el portavoz del Vaticano, Federico Lombardi el prelado también ha sido suspendido de todas sus funciones. Scarano, exresponsable del servicio de contabilidad de la Administración del Patrimonio de la


Sede Apostólica (APSA), que gestiona el capital inmobiliario del Vaticano fue arrestado en 28 de junio junto a el exagente de los servicios secretos de Italia, Giovanni Maria Zito y el intermediario financiero Giovanni Carenzio. El Papa endurece castigo por pederastia y lavado de dinero SIMULACRO. Río de Janeiro construyó una réplica de Francisco subido en el Papamóvil, con motivo de su llegada a fin de mes. Francisco firmó ayer un motu proprio (decreto que sólo puede firmar el Papa) que revoluciona el reglamento jurídico del Estado Ciudad del Vaticano. Queda abolida la cadena perpetua, se introducen nuevas figuras criminales relativas a delitos contra la humanidad y, sobre todo, se agravan las penas para los casos relacionados con abusos de menores y blanqueo de capitales. El espíritu de la reforma decidida por Jorge Mario Bergoglio es el de adecuar el ordenamiento jurídico del Vaticano a la legislación internacional. La Santa Sede se rige por el Código Zanardelli, que entró en vigor en Italia en 1889 y en el Vaticano en 1929, y que —como se pudo comprobar en el reciente juicio a Paolo Gabriele, el mayordomo de Benedicto XVI condenado por el robo de documentos— presenta importantes lagunas. Según el Papa, “es necesario que la comunidad internacional adopte instrumentos jurídicos adecuados que permitan prevenir y combatir la delincuencia, favoreciendo la cooperación judicial internacional en materia penal”. Lucha iniciada por Ratzinger. Según recuerda El País en su versión digital, la reforma del papa Bergoglio supone la continuación de la lucha contra la pederastia en el interior de la Iglesia que ya inició Benedicto XVI. El motu proprio incluye en la legislación vaticana el conjunto de delitos que pueden sufrir los menores: “Venta, prostitución, alistamiento y violencia sexual contra ellos, la pornografía infantil, posesión de material de pornografía de infantes y actos sexuales con menores”. Estarán sujetos a las nuevas normas todos los funcionarios vaticanos y empleados de la curia, además del nuncio apostólico, el personal diplomático de la Santa Sede y todos los empleados de organismos e instituciones relacionados con el gobierno de la Iglesia. La decisión del Papa se produce después de que, el pasado lunes, el Comité de los Derechos de la Infancia de la ONU urgiera por primera vez al Estado de la Ciudad del Vaticano a que diese explicaciones detalladas sobre los abusos sexuales y la violencia cometidos contra niños en el seno de Iglesia católica. El Vaticano tendrá que responder por escrito antes del próximo mes de noviembre a una serie de preguntas elaborados por expertos de la ONU.

JOSEPH STIGLITZ CONTRA EL BITCOIN: "DEBERÍAN PROHIBIRLO"


Para el premio Nobel, facilita las operaciones ilegales. Y dijo que si tuviera más controles "colapsaría".

El ex economista del Banco Mundial y premio Nobel de Economía en 2001, Joseph Stiglitz, opinó que los bitcoins deberían ser prohibidos. Y que si los gobiernos ejercieran controles sobre la

moneda

digital,

ésta

"simplemente

colapsaría".

En una entrevista con el programa "Business Daily", de la BBC, el economista estadounidense de 74 años, justificó su punto de vista acerca de la necesidad de prohibir el bitcoin -que esta semana superó la cotización de US$ 10.000- diciendo que facilita las operaciones ilegales. "¿Por qué la gente quiere bitcoins? ¿Por qué la gente quiere una moneda alternativa?", se preguntó Stiglitz. Y respondió: "La verdadera razón por la cual la gente quiere una moneda alternativa es para participar en actividades viles, lavado de dinero, evasión fiscal".

"Lo que realmente se debería hacer", dijo, "es exigir la misma transparencia en las transacciones financieras con bitcoins que la que hay con los bancos". Y concluyó que si esto sucediera,

el

mercado

del

bitcoin

"simplemente

colapsaría".

A diferencia de las monedas convencionales, los bitcoins y otras monedas digitales no están reguladas por los gobiernos sino por inversionistas privados. Y se puede acceder a ellas desde cualquier

lugar

con

una

conexión

a

internet.

"Una gigantesca estafa está por explotar en la cara de muchísimas personas" advirtió Stiglitz. "No hay transparencia sobre quién está involucrado en qué transacción y para qué", insistió. Para el premio Nobel, "hay monedas muchos más estables, como el dólar y la libra, entonces uno

se

tiene

que

preguntar

por

qué

la

gente

va

al

bitcoin".


Su conclusión es " porque no quieren ningún tipo de supervisión como tenemos en nuestro sistema bancario. Y lo que realmente temen es que vayamos a lo digital, al dinero electrónico, con aún más supervisión. Y ahí la capacidad de participar en el lavado de dinero sería aún más difícil".

EL 'CASHBACK' COGE FUERZA EN ESPAÑA: LA RETIRADA DE DINERO EN COMERCIOS INCREMENTA LAS VENTAS La retirada de dinero efectivo en comercios apenas lleva implantado en España un año, pero su aceptación ha sido positiva y cada día es utilizado por más ciudadanos. El banco ING fue el encargado de traer a nuestro país este modelo, desarrollado desde hace tiempo en otros mercados, como por ejemplo el británico. Con el cierre de sucursales y supresión de cajeros automáticos, este sistema, conocido como cashbak, se ha convertido en una alternativa real para sacar dinero metálico, aprovechando acciones tan cotidianas como hacer la compra o repostar gasolina. Los clientes de ING y aquellos que no lo son pueden retirar dinero en unos 4.000 puntos de venta de Dia, Galp, Disa, Shell y en estancos gracias al acuerdo alcanzado por el banco con Logista recientemente. Este servicio, disponible en la aplicación Twyp, es gratuito y sólo requiere llevar a cabo una compra en estos establecimientos. Recientemente el banco ha fusionado sus aplicaciones de dinero -la de retirada y la de transferencias instantáneas entre amigos- para simplificar la operativa a los clientes y extenderlo a cualquier consumidor español. En la actualidad, para dar a conocer esta nueva modalidad de pago por móvil y retirada de efectivo, ING y sus socios han lanzado una campaña en la que ofrecen descuentos del 10% de las compras, con un máximo de 300 euros, hasta fin de año. En un Observatorio organizado por elEconomista sobre el cashback en España, sus impulsores se mostraron satisfechos con la acogida que está teniendo, sus implicaciones para clientes y las propias empresas, y sus desafíos. Según remarcaron los ponentes, el uso de este sistema es creciente y aquellos ciudadanos que lo prueban repiten. De ahí que se mostraran optimistas sobre su utilización extensiva.


El director de Twyp de ING, Gonzalo Caselles, señaló que hace más de un año el banco y sus colaboradores diseñaron algo que no existía en España con una vocación de diferenciarse en la manera de ofrecer servicios a los clientes y de innovar. Entre todos desarrollaron un instrumento para poder pagar por el móvil las compras en comercios y al mismo tiempo extraer efectivo, un hábito muy común en países anglosajones. Hasta la fecha, según Caselles, "el grado de utilización en un año ha sido creciente", por lo que la entidad y sus socios han decidido mejorar las funcionalidades. Pero, a su juicio, el principal reto "es darle notoriedad y mayor facilidad de uso para que todo el mundo lo utilice, que la gente se acuerde que al momento de pagar con el móvil puede tener también efectivo". Éste es el principal desafío de este sistema novedoso, porque en nuestro país, a diferencia de otros, los consumidores asocian la retirada de dinero a los cajeros y no a los comercios. Todos los ponentes de la mesa redonda, que llevaba el título de El futuro del cashback, coincidieron en señalar que esta modalidad está cogiendo fuerza y cada vez es más usada. Así lo destacaron los responsables de Pricing de Galp y Disa, José Luis Cabanes y José María Tapia, respectivamente, y la directora de Tesorería de Dia, Cristina Lozano. Es más, coincidieron en señalar que la alianza con ING y el facilitar este servicio añadido a sus clientes, ayuda a mejorar la facturación de sus empresas. Aumento de la facturación Tapia consideró que "cada vez tenemos un aumento de la facturación vía Twyp; el cliente que lo prueba, repite". Y añadió que la promoción del 10% "va a ser un bombazo, va a llegar al cien por cien de la población al quitar la limitación de ser cliente de ING". Por su parte, Cabanes indicó que en Disa "estamos viendo un aumento del uso de este sistema en un 40% interanual, y que con estas tasas, pronto llegaremos a extenderlo". Eso sí, reconoció que aún tienen muchos clientes que son más tradicionales, aunque cada vez más gente joven comienza a repostar carburante y que la perspectiva es de crecimiento. Lozano, por último, resaltó que esta modalidad, que es fruto de la apuesta de Dia por la innovación, ayuda en todos los sentidos a la compañía, incluso en la gestión de tesorería, aunque éste no es el factor esencial por el que se asociaron a ING. El responsable de Twyp relató los inicios y la gestación de este proyecto, que ha estado en constante evolución y que se modificará para mejorar los servicios a los usuarios. Caselles describió como en 2015 el banco lanzó Twyp para pagos y transferencias entre amigos "de manera sencilla y transparente" y que aprovechando la confusión que se estaba generando en


esos momentos sobre la extracción de efectivo en cajeros con motivo de la guerra de comisiones, ING buscó una solución. Es decir, "hicimos de la necesidad, virtud". El banco encontró, entre las opciones, la retirada en comercios y rápidamente se lo trasladaron a dos de sus colaboradores más estrechos, Galp y Disa, porque coincidían en la vocación diferencial. Pronto se pusieron a trabajar conjuntamente y se lo ofrecieron a Dia, al ser la principal firma de supermercados en nuestro país. Así surgió Twyp Cash, que ha evolucionado recientemente con la integración de sus servicios en la aplicación de transferencias instantáneas del banco y con su apertura a cualquier ciudadano, sea o no cliente de la entidad. Esta fusión y estas mejoras se producen después de haber comprobado la aceptación del sistema. Caselles subrayó que "tenemos datos de que el que lo usa repite e incrementa su ticket medio. Es decir, "ya que es tan fácil pagar y está aderezado de un producto singular, lo que ocurre es que los comercios venden mucho, porque los clientes acaban comprando un poco más. Por tanto, son más los clientes que usan Twyp, son cada vez más nuevos y todos repiten como consecuencia de que los usuarios se encuentran "cómodos pagando con su móvil", manifestó el directivo de ING. La entrada de Dia en el proyecto fue fácil, porque como resume Cristina Lozano, el cashback no era algo novedoso para la firma. "Ya se venía haciendo con nuestra tarjeta de fidelización" y porque "nos sentimos totalmente en línea con ING en la apuesta por la innovación y las economías colaborativas al ser una manera de extender el servicio adicional al cliente y dar una ventaja a nuestras tiendas". La innovación también es un punto crucial para que Galp entrara a formar parte de esta iniciativa porque les permitía facilitar unos servicios distintos a sus clientes y de una manera "segura" las 24 horas, según destacó Tapia. Del mismo modo se manifestó Cabanes. El responsable de Pricing de Disa sostuvo que en esta sociedad en constante evolución es importante ofrecer alternativas novedosas y proporcionar este instrumento de pago es fundamental para su compañía, ya que además sirve para que sus usuarios ahorren parte de su tiempo. Con el propósito de hacer extensible el cashback, ING ha llegado a un acuerdo recientemente con Logista, para que los 13.000 estancos que quieran unirse a esta alianza lo hagan y faciliten la retirada de dinero a sus clientes cuando pagan sus compras. Cabelles explicó que "poco a poco se están incorporando" a esta plataforma, que está abierta a otros negocios que estén


dentro de las actividades diarias y cotidianas de los ciudadanos. "Estamos abiertos a acuerdos", enfatizó el directivo de ING, porque "la idea es incorporar esta nueva plataforma trasversal de pagos en el día a día de los consumidores ahora que ya está disponible para todos los consumidores". Que este objetivo se cumpla dependerá en gran parte del cambio de costumbres y de la simplicidad del servicio. Para la directora de Tesorería de Dia la aceptación está siendo "muy positiva por la facilidad" de uso. Y para las empresas, asimismo, es una canal alternativo para incrementar el número de usuarios porque la red de cajeros automáticos se está reduciendo desde principios de la crisis y la aplicación de las nuevas comisiones para los no clientes en muchas entidades. Por lo que es una oportunidad para generar tráfico de ingresos, ya que hay consumidores que aprovechan la necesidad de sacar dinero efectivo con realizar alguna compra o echar carburante. Y no sólo eso. Twyp, según destacó Tapia, "es un vía para fidelizar a los clientes". "Lo estamos comprobando", señaló el directivo de Galp, quien añadió que la mayoría de sus clientes son compartidos con otras marcas. "Difícilmente encuentras a gente que reposta cien por cien en la misma gasolinera y esto es una oportunidad que no podemos desaprovehar para que sea menos compartido cada vez y este servicio nos ayuda". Caselles negó que la iniciativa de introducir la retirada de efectivo en los comercios se impulsara como consecuencia de las nuevas comisiones en el sector porque los clientes de ING tienen acceso a una red amplia de máquinas en las que pueden sacar dinero gratis con distintas condiciones. Es, según recordó, totalmente gratuito en los cajeros del Popular y Banca March, además de en los de Bankia a partir de 50 euros y en los del resto de entidades a partir de los 200 euros. La propuesta nació con un espíritu innovador y transversal, indicó, porque los tiempos cambian. "Antes te dejabas la cartera en casa y te dabas la vuelta seguro, hoy lo haces si te dejas el móvil". Formación Para que los clientes se encuentren satisfechos con el servicio, las empresas que ofrecen cashback en nuestro país han tenido que llevar a cabo planes de formación a sus plantilla. A pesar de su facilidad, estas compañías han despejado cualquier tipo de duda a sus trabajadores con el fin de que ofrezcan respuestas a las preguntas de los consumidores.


En el caso de Dia, los cursos han sido multididáctivos, a través de cuestionarios y de vídeos técnicos. En Disa, la formación se ha realizado vía online en el marco de los cursos globales de la compañía. Estas empresas son conscientes de que la interactuación de sus empleados con los usuarios es clave, ya no sólo porque genera aceptación al servicio y satisfacción, sino también porque en muchos casos son los trabajadores los que recomiendan el uso de este nuevo sistema de pago y retirada de efectivo que ha llegado a España. JONATHAN JAMES, EL JOVEN QUE CON SÓLO 15 AÑOS HACKEÓ Y PUSO DE CABEZA A LA NASA Y AL PENTÁGONO Entre junio y octubre de 1999 se llevaba a cabo uno de los episodios más increíbles en la historia de los crímenes informáticos. El Departamento de Defensa de los Estados Unidos (DOD) descubría una serie de intrusiones a compañías privadas, sistemas escolares, así como al mismo DOD y hasta la NASA. Lo interesante de todo esto es que dichas intrusiones fueron obra de un joven de apenas 15 años de edad. Jonathan Joseph James es parte de los libros de historia como el primer cracker (que para efectos prácticos nos referiremos a él como 'hacker') menor de edad en ser sentenciado por delitos cibernéticos en los Estados Unidos. Ésta es su historia. 'C0mrade' Nativo de la ciudad de Miami, Jonathan James, quien operaba bajo el seudónimo de 'C0mrade', es considerado uno de los más grandes hackers de la historia, esto gracias a su gran capacidad de acceder a sistemas privados por mero entretenimiento. Entre el 29 y 30 de junio, Jonathan logró romper la seguridad de la NASA y acceder a 13 ordenadores de donde robó software e información con un valor de 1,7 millones de dólares, lo que provocó que la agencia tuviera que apagar sus sistemas por 21 días, una acción que les costaría 41.000 dólares en reparaciones y pérdidas. Posteriormente se descubriría que el software que robó 'C0mrade' se trataba del código fuente que controlaba elementos críticos de supervivencia dentro de la Estación Espacial Internacional. Según la NASA, este software permitía controlar la temperatura y la humedad dentro de la ISS, así como otros elementos importantes del entorno físico. Por lo anterior, la NASA tomó la decisión de apagar todo y reescribir parte del código fuente, además de reforzar la seguridad de sus sistemas.


Para agosto de 1999, Jonathan ya había logrado vulnerar los sistemas de la gran compañía de telecomunicaciones BellSouth, el Centro de Vuelo Espacial Marshall en Huntsville, Alabama, y el sistema escolar del contado de Miami-Dade, pero lo que ocasionaría que las alertas de las autoridades se encendieran, sería una intrusión a los ordenadores del Departamento de Defensa de los Estados Unidos en el Pentágono. Jonathan se había convertido en la primer persona en el mundo en crackear al DOD entrando al sistema de la Agencia de Reducción de Amenazas a la Defensa (DTRA), división del DOD encargada de analizar las posibles amenazas a Estados Unidos. Pero aquí lo más interesante es cómo había logrado todo esto. Jonathan había encontrado una puerta trasera en uno de los servidores de Dulles, Virginia, donde instaló un sniffer que le permitió espiar miles de llamadas y mensajes, pero su objetivo se centró en el personal del DTRA. Entre septiembre y octubre de 1999 logró interceptar más de 3.000 mensajes entre empleados de la agencia, mensajes que le permitieron obtener nombres de usuario y contraseñas que le dieron acceso a 10 ordenadores militares. La captura del hacker menor de edad Después de varias semanas de investigación, el 26 de enero del año 2000, agentes del DOD, la NASA y el Departamento de Policía de Pinecrest conseguían finalmente una orden para entrar a la casa de Jonathan y aprehender al hacker. En septiembre de ese mismo año, Jonathan, ya con 16 años, se declaraba culpable de dos cargos de 'delincuencia juvenil', ya que al ser menor de edad era imposible aplicar otro tipo de cargos, además de que los delitos informáticos aún no estaban del todo tipificados en la ley estadounidense. Se estima que si Jonathan hubiese sido adulto hubiera podido alcanzar una sentencia de hasta 10 años de prisión y el pago de una multa por varios miles de dólares por daños. Es así como Jonathan recibía una sentencia por seis meses de arresto domiciliario, la prohibición de acceder a ordenadores para uso recreativo, libertad condicional hasta que cumpliera 18 años, y la obligación de escribir cartas de disculpa tanto a la NASA como al DOD. Más tarde, Jonathan mencionaría en una entrevista que todos estos movimientos eran una especie de trofeos. "El gobierno no tenía demasiadas medidas de seguridad en la mayor parte de sus ordenadores. Ellos carecen de una verdadera seguridad informática, y la parte más complicada es que se den cuenta de ello. Sé Unix y C como la palma de mi mano, y esto porque he estudiado una gran cantidad de libros y he estado pegado a un ordenador durante todo este tiempo. La parte difícil no es entrar, esto se trata de aprender y realmente saber qué es lo que se está haciendo." Antes de cumplir 18 años, Jonathan violaría los términos de su libertad condicional al dar positivo por consumo de drogas, por lo que fue detenido por el departamento de Marshalls de los Estados Unidos. Por lo anterior, Jonathan fue sentenciado a pasar seis meses en el centro correccional juvenil de Alabama. C0mrade decide poner punto final a su historia El 17 de enero de 2007 se daría a conocer uno los ataques informáticos más grandes hasta ese momento en Estados Unidos. El conglomerado comercial TJX Companies, así como BJ's Wholesale Club, Boston Market, Barnes & Noble, Sports Authority, Forever 21, DSW, OfficeMax, y Dave & Buster's, eran víctimas de un ataque cibernético que robaba la información personal y crediticia de millones de clientes.


Con el tiempo se descubriría que el hacker Albert González fue el principal responsable de dichos ataques. Durante las investigaciones, también se daban a conocer los nombre de varios hackers que habrían colaborado con González, donde se descubría que algunos de ellos estaban relacionados de alguna manera con Jonathan James, por lo que el Servicio Secreto de los Estados Unidos centraría su atención en C0mrade. El Servicio Secreto allanaría la casa de Jonathan, la de su hermano, y hasta la de su novia, pero nunca lograron encontrar una conexión o pistas de su colaboración en el ataque. Posteriormente se daría a conocer que el Servicio Secreto habría encontrado un arma de fuego registrada legalmente, así como una carta de suicidio, lo que indicaba que Jonathan había intentado quitarse la vida anteriormente sin éxito.

El 18 de mayo de 2008, Jonathan, de 25 años, fue encontrado muerto en la ducha de su casa con una herida de bala en la cabeza, aquí las investigaciones apuntarían a que se había tratado de un suicidio. Jonathan también había dejado una nota que incluía mensajes personales a su padre, hermano, y novia, así como las contraseñas a su cuenta de PayPal y MySpace. En dicha nota, también se podían leer detalles que habrían llevado a Jonathan a tomar la decisión de quitarse la vida. "No tengo fe en el sistema de 'justicia'. Tal vez mis acciones de hoy, y esta carta, enviarán un fuerte mensaje al público. De cualquier manera, he perdido el control sobre esta situación, y esta es mi única manera de recuperarlo." "Ahora, honestamente, honestamente, no tengo nada que ver con TJX. A pesar del hecho de que Chris (Scott) y Albert González son los 'hackers' más peligrosos y destructivos que los federales hayan capturado jamas, yo soy un objetivo mucho más jugoso para la opinión pública que dos idiotas al azar. Así es la vida." "Recuerden, no se trata de lo que ustedes ganen o pierdan, se trata de lo que yo gano o pierdo al estar sentado en una prisión por 20, 10 o incluso 5 años por un crimen que no cometí, esta no es mi forma de 'ganar', por ello prefiero morir libre." Al año siguiente, Robert James, su padre, rompería el silencio al mencionar que Jonathan sufría depresión, sin embargo, siempre lo consideró una persona muy inteligente. A pesar de esto, nunca logró tener una estrecha relación con él. Robert, que también es programador, admite que siempre sintió cierto orgullo por lo que su hijo había logrado hacer a la NASA y al DOD. Robert James recuerda a Jonathan como un geek apasionado al que le gustaba usar los ordenadores de la familia desde que tenía 6 años. Cuando estudiaba la secundaria logró borrar Windows al ordenador de la casa para instalar Linux. Robert también menciona que junto a su esposa intentaron varias veces poner reglas a Jonathan acerca del uso del ordenador en casa, ya que llegó un momento en el que no dormía por estar pegado al monitor. La última conversación del señor James con Jonathan fue después de allanamiento del Servicio Secreto en su casa. Robert llamaría a su hijo para preguntarle si encontrarían algo que lo incriminara, a lo que Jonathan respondería únicamente con un "no".


Gary McKinnon

(Glasgow el 10 de febrero de 1966) también conocido como Solo, es un hacker británico acusado por los Estados Unidos de haber perpetrado «el mayor asalto informático a un sistema militar de todos los tiempos». En junio de 2006 se defendió de una posible extradición a los Estados Unidos. En febrero de 2007 la solicitud fue escuchada en el Tribunal Superior de Londres. A finales de diciembre del 2012 se negó definitivamente la solicitud del gobierno de Barack Obama y el 14 de diciembre de 2012 el gobierno de David Cameron reiteró que no será juzgado por sus faltas. Gary McKinnon luchó durante más de 10 años contra la extradición a los Estados Unidos, donde arriesgaba entre 60 y 70 años de cárcel y el pago de una indemnización de 2 millones de dólares por intrusión informática en el período de febrero de 2001 a marzo de 2002. La apelación en la última instancia británica de apelación, un panel en la Cámara de los Lores. Después de la audiencia, los integrantes de la Cámara disponen hasta de 3 semanas para anunciar su decisión. Gary McKinnon admite haber realizado las intrusiones de las que se le acusa. Sin embargo, cuestiona el calificativo de terrorista con que se le ha tratado luego de intervenir sistemas militares estadounidenses. En 2002 fue detenido y confesó haber intervenido en 1997 los sistemas TI de las fuerzas armadas estadounidenses y de NASA. McKinnon explicó que su única intención había sido encontrar información sobre Ovnis y proyectos militares secretos. En 2004, el tribunal supremo británico falló que McKinnon podría ser extraditado a EE.UU, por lo que su abogado elevó una apelación ante la última instancia judicial posible, la Cámara de los Lores. Los lores presentaron su conclusión, que autoriza la extradición. El abogado de McKinnon recurrió al tribunal europeo de derechos humanos, con el fin de evitar la extradición. El abogado destacó que el marco punitivo es totalmente desproporcionado para los cargos que se imputaban a su cliente. Sin embargo, Estados Unidos califica el caso como “el mayor ataque militar cibernético de su historia", antes del incidente de Julian Assange, por lo que se proponía invocar la ley antiterrorista al procesar a McKinnon y enviar al hacker a prisión por el resto de su vida. Trasfondo Este administrador de sistemas desempleado es acusado de asaltar 97 computadoras estadounidenses tanto militares como de la NASA durante 2001 y 2002. Las redes que presuntamente asaltó incluyen redes propiedad de la NASA, del ejército estadounidense, de la marina estadounidense, del departamento de defensa estadounidense y de las fuerzas aéreas estadounidenses, así como una perteneciente al Pentágono. Las estimaciones de los Estados


Unidos sobre los costes de seguimiento y corrección de los problemas que se generaron y de los que Gary McKinnon era acusado rondan los 700.000 dólares estadounidenses. McKinnon fue seguido originalmente y arrestado bajo la «ley de uso indebido de computadores» por la unidad de delitos tecnológicos británica en 2002, y más tarde ese año fue inculpado por el gobierno de los Estados Unidos. Permaneció en libertad condicional, y durante ese periodo debía presentarse en las oficinas policiales cada tarde y estar en casa cada noche. Además se le prohibió el uso de una computadora con acceso a internet. No ha habido desarrollos posteriores en relación a los cargos por los que se le acusa en el Reino Unido, pero los Estados Unidos comenzaron en 2005 los trámites formales para su extradición. Si la extradición a los EE.UU. se hubiera llevado a cabo, McKinnon hubiera enfrentado una pena de hasta 70 años y él expresó su temor a ser enviado a Guantánamo. Él ha dicho que impugnará la petición de extradición ya que él cree que debería ser encausado en el Reino Unido, su principal argumento es que los delitos fueron cometidos allí y no en los EE.UU. En una entrevista televisada por la BBC, alegó que pudo acceder a redes militares tan sólo usando un script en Perl que buscaba contraseñas que tuvieran cero caracteres; en otras palabras su alegación sugería que en esas redes existían computadoras con la contraseña por defecto aún por activar. Albert González (Cuba, 1981) es un hacker y criminal estadounidenseacusado de organizar el robo de tarjetas de crédito y la posterior reventa de más de 170 millones de tarjetas y números de cajeros automáticos entre 2005 y 2007. González y sus cómplices usaron un método de infiltración de código SQL, utilizado para abrir la puerta trasera de varios sistemas corporativos para que el paquete enviado pudiera inspeccionar los archivos (específicamente, los ARP Spoofing). Este ataque le permitió entrar y robar todos los datos internos que quería de la empresa

Albert González nació en Cuba en 1981. Los padres de González, que habían emigrado a los Estados Unidos desde Cuba en los años setenta, le compraron su primer ordenador cuando tenía 8 años Asistió a la South Miami High School en Miami, Florida, donde fue descrito por algunos de sus profesores como un líder "problemático" del grupo de informáticos de la universidad. En el 2000 se trasladó a la ciudad de Nueva York, donde vivió tres meses antes de mudarse a Kearny, Nueva Jersey. González fue juzgado por tres acusaciones federales:  Mayo de 2008 en Nueva York por el caso Dave & Busters.  Mayo de 2008 en Massachusetts por el caso TJ Maxx.  Agosto de 2009 en Nueva Jersey en relación al caso Heartland Payment. El 25 de marzo de 2010, González fue sentenciado a 20 años de prisión.


González, junto a su equipo, apareció en el 5.º episodio de una serie de la CNBC, American Greed, concretamente en el episodio 40: Hackers: Operation Get Rich or Die Tryin. ShadowCrew En Kearny, Nueva Jersey, fue acusado de ser el cerebro de un grupo de hackers llamado ShadowCrew, que traficó con 1,5 millones de números de tarjetas de crédito y cajeros robados. Aunque fue considerado el cerebro del grupo (en el que operaba con el nombre de usuario CumbaJohnny), no fue condenado por ello.5 Según la acusación, habían 4 000 personas registradas en la web Shadowcrew.com. Una vez registrados, podían comprar números de cuentas robados o documentos falsificados en una subasta. También podían leer "Tutoriales y procedimientos" que describen el uso de la criptografía en las tiras magnéticas de las tarjetas de crédito, tarjetas de débito y tarjetas ATM, para que los números puedan ser utilizados. Los moderadores del sitio web castigaron a los miembros que no cumplían con las reglas del sitio, incluyendo el reembolso a los compradores si los números de tarjeta robados resultaban no funcionar. Además de los números de tarjetas, se vendieron en la subasta muchos otros objetos identificativos robados, incluyendo pasaportes falsificados, licencias de conducir, tarjetas de la seguridad social, tarjetas de crédito, tarjetas de débito, certificados de nacimiento, tarjetas de identificación de estudiantes universitarios y tarjetas de seguro médico. Un miembro vendió 18 millones de cuentas de correo electrónico con nombres de usuario asociados, contraseñas, fechas de nacimiento y otra información de identificación personal. Los miembros que mantuvieron o moderaron el sitio web fueron procesados, incluyendo a quien intentó registrar el nombre del dominio Shadowcrew.cc. El Servicio Secreto llamó a su investigación Operación Firewall. Creían que habían robado 4,3 millones de dólares cuando Shadowcrew compartió su información con otros grupos, Carderplanet y Darkprofits. La investigación incluyó unidades de Estados Unidos, Bulgaria, Bielorrusia, Canadá, Polonia, Suecia, Países Bajos y Ucrania. González fue acusado inicialmente de posesión de 15 tarjetas falsas de crédito y débito en Newark, Nueva Jersey, aunque evitó la cárcel al proporcionar pruebas al Servicio Secreto de Estados Unidos contra sus compañeros. Gracias a estas pruebas se procesó a 19 miembros de ShadowCrew. Luego regresó a Miami. Compañías TJX Mientras cooperaba con las autoridades, dirigió el hackeo de TJX Companies, de la que fueron robados 45,6 millones de dólares de tarjetas de crédito y débito durante un período de 18 meses que terminó en 2007, superando la infracción de 2005, de 40 millones de registros en CardSystems Solutions. González y otros 10 hackers buscaron objetivos y vulnerabilidades en las redes inalámbricas de Miami. Comprometieron las tarjetas de BJ's Wholesale Club Inc., DSW, OfficeMax, Boston Market, Barnes & Noble, Sports Authority y T.J. Maxx. La acusación se refirió a González por sus nombres de usuario conocidos: cumbajohny, soupnazi, segvec, kingchilli y stanozlolz. El hackeo resultó embarazoso para TJ Maxx, quien descubrió la brecha en diciembre de 2006. La compañía creyó que el ataque había comenzado en mayo de 2006, pero las investigaciones posteriores averiguaron que comenzó en julio de 2005. González fue arrestado el 7 de mayo de 2008 por cargos de piratería en la red corporativa de Dave & Buster desde un restaurante en Islandia, Nueva York. El incidente ocurrió en septiembre de 2007. Robó cerca de 5.000 números de tarjeta. Se registraron transacciones fraudulentas por un total de 600.000 dólares en 675 de las tarjetas.


González fue arrestado en la habitación 1508 del National Hotel de Miami Beach. En varias incursiones relacionadas, las autoridades incautaron 1,6 millones de dólares en efectivo, incluyendo 1,1 millones de dólares en bolsas plásticas en una cápsula enterrada en el patio trasero de la casa de sus padres, sus portátiles y varias pistolas Glock. Coacusados González tenía múltiples coacusados estadounidenses por los robos de Dave & Buster y TJX. Los principales fueron:  Stephen Watt, acusado de proporcionar una herramienta de robo de datos en un caso de robo de identidad. Fue condenado a dos años de prisión y tres años de libertad supervisada. El tribunal también le ordenó pagar 171,5 millones de dólares al estado. 9  Damon Patrick Toey, se declaró culpable de fraude telefónico, fraude con tarjetas de crédito y robo de identidad agravado. Fue condenado a cinco años. 10  Christopher Scott, declarado culpable por conspiración, acceso no autorizado a sistemas informáticos, fraude de dispositivo de acceso y robo de identidad. Sentenciado a siete años de prisión. Sistemas de pago Heartland En agosto de 2009, González fue acusado en Newark, Nueva Jersey, por cargos relacionados con la piratería de los sistemas informáticos de pago Heartland, Citibank, cajeros de 7Eleven y Hannaford Brothers. Heartland padeció la mayor parte del ataque, en el que fueron robados 130 millones de números de tarjetas, mientras que de Hannaford Brothers robó 4.6 millones de números. El abogado de González dijo a StorefrontBacktalk que dos de los minoristas afectados fueron J.C. Penney y Target Corporation.12 Heartland informó que había perdido 12,6 millones de dólares en el ataque, incluyendo los honorarios legales. Supuestamente González llamó al ataque Operación Get Rich or Die Tryin. Estos ataques fueron realizados por González, dos hackers no identificados, posiblemente rusos, y el conspirador, conocido como P. T.. Según la acusación, los ataques fueron realizados desde Miami. En agosto de 2007 inició los ataques contra 7-Eleven, en noviembre de 2007 contra Hannaford Brothers y el 26 de diciembre de 2007 contra Heartland, además de otras dos empresas no identificadas. González y sus compañeros estudiaron las terminales de salida de grandes empresas y atacaron a esta compañías desde una red de ordenadores en Nueva Jersey, Illinois, Letonia, los Países Bajos, y Ucrania. Cubrieron sus ataques a través de Internet usando más de un pseudónimo de mensajería, almacenando datos relacionados con sus ataques a múltiples plataformas de hacking, deshabilitaron programas que registraban tráfico entrante y saliente sobre las plataformas de hacking y disfrazaban, mediante el uso de proxies, las direcciones de Internet desde las que se originaron sus ataques. La acusación dijo que los hackers probaron su programa contra 20 antivirus. René Palomino Jr., abogado de González, acusó a un blog del New York Times de que la acusación surgió de disputas entre las oficinas de los Estados Unidos en Nueva York, Massachusetts y Nueva Jersey. Palomino dijo que González estaba en negociaciones con Nueva York y Massachusetts para un acuerdo de apelación en relación a T.J. Maxx. Palomino identificó al conspirador indeciso P.T. como Damon Patrick Toey, que se había declarado culpable en el caso T.J. Maxx. También dijo que Toey era el líder del círculo del caso Heartland, y no González. Dijo además que "El Sr. Toey ha estado cooperando desde el primer día. Se alojaba en el


apartamento de González. Todo este complot fue idea del Sr. Toey... Era su bebé. No fue Albert González, tengo pruebas feacientes de que no puedo realizar los ataques desde Nueva Jersey". El abogado afirmó que uno de los hackers rusos sin nombre en el caso Heartland fue Maksym Yastremskiy, quien también fue acusado en el caso T.J. Maxx, pero que ya estaba cumpliendo 30 años en una prisión en Turquía por haber sido acusado de hackear varios bancos del país. Los investigadores dijeron que Yastremskiy y González intercambiaron 600 mensajes y que González le pagó 400.000 dólares a través de e-gold. Yastremskiy fue arrestado en julio de 2007 en Turquía por cargos de piratería en 12 bancos en Turquía. La investigación del servicio secreto contra el se utilizó para construir el caso contra González, incluyendo una revisión secreta del ordenador portátil de Yastremskiy en Dubái en 2006. Después de la acusación, Heartland emitió una declaración diciendo que no sabía cuántos números de tarjeta habían sido robados de la compañía y que no sabe cómo el gobierno de los EE.UU. alcanzó el número de 130 millones. Apelación y sentencia El 28 de agosto de 2009, el abogado de González presentó un informe ante el Tribunal del Distrito de Massachusetts en Boston, indicando que se declararía culpable de los 19 cargos en el caso de los Estados Unidos contra Albert González. De acuerdo con los informes, este trato podría "resolver" cuestiones con el caso de Nueva York contra Yastremskiy, en el Tribunal de Distrito de los Estados Unidos para el Distrito Este de Nueva York (el caso de Dave y Busters). El 25 de marzo de 2010, la juez de distrito Patti Saris sentenció a González a 20 años de prisión por hackear y robar información de TJX, Office Max, la cadena de restaurantes Dave & Busters, Barnes & Noble y otras compañías. Al día siguiente, el juez Douglas P. Woodlock, del Tribunal de Distrito de los Estados Unidos, lo sentenció a 20 años en relación al caso sobre los sistemas de pago de Heartland. Se ordenó el cumplimiento simultaneo de ambas penas, lo que significa que González cumplirá un total de 20 años para ambos casos. González también fue condenado a abonar más de 1,65 millones de dólares, un condominio en Miami, un automóvil BMW 330i azul 2006, ordenadores portátiles IBM y Toshiba, un arma de fuego Glock 27, un teléfono móvil Nokia, un anillo de diamantes de Tiffany y tres relojes Rolex. El 25 de marzo de 2011, González presentó una moción en el Tribunal de Distrito de los Estados Unidos en Boston para retirar su declaración de culpabilidad. Afirmó que durante el tiempo que cometió sus crímenes, había estado ayudando al Servicio Secreto de los Estados Unidos en la búsqueda de ciberdelincuentes internacionales y culpó a sus abogados por que no le informaron de que podría haber usado una «autoridad pública» en su defensa El Servicio Secreto se negó a apoyar la moción de González, que aún está pendiente. González actualmente está cumpliendo su sentencia de 20 años en la USP Leavenworth, una penitenciaría estadounidense de mediana seguridad. Su liberación está prevista para 2025.


PEDRO DANIEL ULISES FLORES Ingeniero de Sistemas de la UNI 6786469 CEL978604905 Email: pedrodani.8@gmail.com Consultor Informรกtico Diario Respuesta

PEDRO ULISES FLORES ROSAS Vicepresidente Comisiรณn de estudios de defensa nacional orden interno y seguridad Ciudadana Celular: 998750756 Email: flowersneon02@hotmail.com


Issuu converts static files into: digital portfolios, online yearbooks, online catalogs, digital photo albums and more. Sign up and create your flipbook.