Page 1

Infraestructuras CientĂ­ticas y Tecnicas Singulares

Novas do Centro de SupercomputaciĂłn de Galicia Marzo 2017


Fundación Pública Galega Centro Tecnolóxico de Supercomputación de Galicia

DIRECCIÓN Javier García Tobío COORDINACIÓN

Novidades na xestión de proxectos H2020

Fernando Bouzas Sierra COLABORAN Fernando Sarasketa DESEÑO, GRAFISMO E MAQUETACIÓN Grupo Código Cero Comunicación, S.L. FOTOMECÁNICA E IMPRESIÓN Gráficas Garabal, S.L. DEPÓSITO LEGAL: C 1604-1998 ISSN: 1139-563X EDITA FUNDACIÓN CESGA Avenida de Vigo, s/n (Campus Vida) 15705 Santiago de Compostela Telf. 981 569 810 - Fax. 981 594 616 dixitos@cesga.gal

CONTIDOS [ 2 ] Novidades na xestión de proxectos H2020 [ 3 ] Todo o que querías saber sobre Industria 4.0 [ 4 - 5 ] Fortissimo: punto de encontro para provedores clave e PEME [ 6 - 7 ] Vestindo coches con pel de aceiro virtual [ 8 ] Avances en aprendizaxe máquina en Galicia [ 9 ] Desenvolvemento dun clasificador de placas de lousa baseado en técnicas de visión artificial e machine learning / Sistema automatizado para a limpeza con láser de superficies non planas [ 10 ] Sistemas de recomendación: machine learning vs. aproximacións teóricas [ 11 - 12 ] OTEA, o sistema experto que telexestiona instalacións / Predición puntural e intervalos de predición en demanda e prezo da electricidade. [ 13 - 14 ] Clasificación de Imaxes Hiperespectrais baseada en Kernel ELM sobre GPU / Inferencia non paramétrica para Big-but-biased Data [ 15 ] PhenoloGIT colle pulo

A Fundación CESGA é unha institución sen animo de lucro ao servizo da investigación científica, o desenvolvemento tecnolóxico e a innovación dende 1993. Participan na Fundación CESGA a Xunta de Galicia e o Consello Superior de Investigacións Científicas (CSIC). As infraestruturas xestionadas pola Fundación CESGA foron parcialmente financiadas pola Infraestructuras Cientíticas y Tecnicas Singulares

Unión Europea, a través do Fondo Europeo de Desenvolvemento Rexional (FEDER) e do Goberno de España, a través do Ministerio de Economía e Competitividade (MINECO), así como pola Xunta de Galicia e o CSIC. A Fundación CESGA xestiona unha infraestrutura integrada na Rede Española de Supercomputación, unha Infraestrutura Científico Tecnolóxica Singular (ICTS) do Estado.

2

díxitos  marzo 2017

A

Comisión Europea introduciu unha serie de novidades nos acordos de subvencións do programa marco H2020. Estas modificacións atinxen a cuestións administrativas e de xestión en proxectos financiados ao abeiro do programa marco. Para achegarnos a elas e visualizalas en detalle, Anxo Moreira estivo o pasado 26 de xaneiro na sede en Santiago do Centro de Supercomputación de Galicia (CESGA). Como lembraremos, Anxo ostenta o cargo de Punto de Contacto en España para os Aspectos Legais e Financeiros do H2020 (ou sexa, o Spanish NCP For Legal and Financial Aspects H2020). Na cita no CESGA participaron máis de medio cento de persoas (profesionais, investigadores, docentes, cargos públicos) procedentes de universidades, centros tecnolóxicos, empresas e distintas administracións da nosa terra.

de lucro; e unha porcentaxe do 25% para todos os beneficiarios no bloque Overheads. Segundo fixo saber, é no ámbito da flexibilidade onde se comezan a apercibir as modificacións (a transferencia de orzamentos pódese mudar a unit cost, en persoal, aínda que non existira previamente esa fórmula, aproveitábel por exemplo para propietarios de PEME ou para certificados de custes medios).

Como recordaremos o programa marco H2020 da Unión Europea é a iniciativa que financia proxectos de investigación e innovación de diversos eidos temáticos, contando cun orzamento de 80.000 millóns de euros para o período 2014-2020. No programa teñen acubillo investigadores, empresas, centros tecnolóxicos e todo tipo de entidades públicas. Horizon 2020 é, de toda a historia da UE, o maior programa marco do ámbito do I+D+i, impulsando proxectos por medio de convocatorias competitivas e outros vieiros.

No que atinxe aos aspectos de custes, sinalou, establécense dúas opcións ao abeiro dos custes de persoal (artigo 6.2.A), dúas alternativas a manter para todos os proxectos H2020 durante un mesmo ano. En primeiro lugar, mantense a opción dos custes do último ano pechado, agás para os contratados ese mesmo ano (implica un custe/hora por persoa por ano). En segundo lugar, fíxase a modalidade de custes reais por meses (implica unha ducia de custes/hora por persoa por ano). Ao abeiro dos custes totais mes/horas produtivas anuais, inclúese agora a parte proporcional das pagas extra (malia que esta non se tivera pagado aínda) e permítense axustes posteriores (positivos e negativos) para os conceptos non tidos en conta ou que varíen. Ademais, non se calculan horas produtivas por mes: compútanse as anuais e divídense entre doce.

Volvendo á exposición de Anxo Moreira no CESGA, xirou arredor das novidades na xestión de proxectos concedidos ao abeiro das novidades introducidas en novembro do ano pasado. O relatorio arrincou facendo fincapé na cuestión das condicións xerais, “que continúan da mesma maneira” que antes das modificacións, abranguendo un cen por cen de financiamento para todos os beneficiarios nos ámbitos RIA (Research and Innovation Actions) e CSA (Coordination and Support Actions); subministrando para o ámbito IA (Innovation Actions) unha taxa do 100% para proxectos sen ánimo de lucro e do 70% para entidades con ánimo

Dentro do capítulo de custes de persoal (artigo 6.2.A) tamén se introduciron novas explicacións nas indemnizacións por fin de contrato (que se cargan no período no que se producen, pero fóra do custe por hora e na proporción do tempo traballado no proxecto) e un dobre teito de custes de traballadores (o número total de horas declaradas para todos os proxectos H2020 e Euratom non pode ser superior ao número de horas usadas para o cálculo de horas produtivas, e ademais o total do custe anual dunha persoa imputada a iniciativas H2020 e Euratom non pode ser maior có custe total para esa persoa rexistrado na contabilidade da entidade). 


Centro de Supercomputación de Galicia CESGA

Todo o que querías saber sobre Industria 4.0 Ferrol, Ourense, Lugo, Porriño e Bergondo acolleron as Xornadas sobre Simulación, Modelado e Big Data

A

s semanas pasadas desenvolveuse nosa terra un programa itinerante de actividades informativas destinadas a poñer cousas como o cómputo de alto rendemento e a información inxente o máis preto posible das nosas empresas e da nosa sociedade. Estamos a falar das Xornadas de Divulgación Tecnolóxica: Simulación, Modelado e Big Data na Industria 4.0, organizadas pola Axencia Galega de Innovación (GAIN) en colaboración co IGAPE, o CESGA e máis o ITMATI. O programa fixo “recaladas” na sede de CIS Galicia en Ferrol (1 de decembro), no Parque Tecnolóxico de Galicia - Tecnópole (o 20 de decembro), na sede central da Confederación de Empresarios de Lugo (o 12 de xaneiro), nas instalacións do Centro AIMEN no Porriño (o 25 de xaneiro) e máis nas dependencias da Asociación de Empresarios de Bergondo (o 9 de febreiro).

Como dixemos, o obxectivo destas citas coas PEME e coas entidades da nosa terra foi amosar as posibilidades do cálculo avanzado para atoparmos xeitos de sermos máis rendibles, áxiles, eficaces e sustentables nos procesos de produción. Máis exactamente, o reto foi amosar ás nosas PEME as moitas oportunidades que lles poden brindar o uso da computación, sobre todo para resolver e mellorar necesidades de negocio nos ámbitos da enxeñaría, a industria e as auxiliares. As xornadas foron dirixidas a persoal directivo e responsables de departamentos técnicos ou de produción de empresas de tódolos sectores, enxeñeiros, persoal de oficinas técnicas, estudantes e outros interesados. No evento presentáronse os servizos para o impulso da computación nas PEME do Centro de Supercomputación de Galicia (CESGA), da Axencia Galega de Innovación e de CIS Galicia. Tamén se deu a coñecer o servizo Xeración de Modelos de Simulación Industrial de Reacciona TIC, impulsado polo IGAPE e a axencia AMTEGA para optimizar a capacidade competitiva do noso tecido empresarial a través do afianzamento no seu seo das principais prácticas avanzadas de simulación e, nun senso máis amplo, dos máis destacados recursos e metodoloxías do que se coñece como Industria 4.0. Asemade, falouse nas xornadas da análise de datos e dos seus beneficios para as PEME, de computación de altas prestacións (HPC, nas súas siglas en inglés High Performance Computing, un modelo de cálculo que permite a analistas, enxeñeiros e científicos tomar as mellores decisións e levar até o máis lonxe a innovación dos seus produtos e enxeños), das tecnoloxías que se requiren para implantar as novas solucións e de casos de éxito na aplicación e integración daquelas en empresas da nosa contorna. 

marzo 2017  díxitos

3


CESGA Centro de Supercomputación de Galicia

: PUNTO DE ENCONTRO PARA PROVEDORES CLAVE E PEME O Marketplace de Fortissimo fai máis doado o acceso das empresas á computación avanzada

U

n espazo para xuntar, arredor das simulacións informáticas avanzadas, provedores clave e pequenas e medianas empresas. Así é o Marketplace de Fortissimo, programa europeo que vai pola súa segunda convocatoria e conta dende os seus comezos coa participación activa do CESGA, achegando ás nosas PEME as múltiples posibilidades e oportunidades da simulación avanzada e da computación de alto rendemento (HPC, polas súas siglas en inglés High Performance Computing). Este cometido de levar ás empresas aos chanzos máis altos da Industria 4.0 estase a ver reforzando dende finais de 2016 coa posta en marcha do devandito Marketplace. innovador espazo de interacción que, como dixemos, reúne provedores clave (por unha banda) e PEME (pola outra). O novo servizo está dispoñible a través do portal fortissimo-project.eu. Este mercado dixital, baseado na nube, salienta por achegar unha plataforma que simplifica ao máximo o acceso das empresas aos servizos derivados do cómputo avanzado. O Marketplace, cuxa inscrición é de balde, xuntou no comezo da súa andaina máis de 130 socios. Entre os seus puntos fortes figura o seguinte: é moi axeitado para atopar os provedores máis acaidos para os requirimentos de simulación dunha empresa. A idea, en última instancia, é contribuír á produtividade das empresas e axudalas a reducir aos seus custes de produción de maneira significativa. O Marketplace de Fortissimo subministra as seguintes vantaxes para os provedores de servizo: achega unha canle de ventas dirixida, adecúa os servizos ás necesidades dos usuarios e permite o subministro dun servizo de contabilidade e facturación para o usuario final. Entre os seus socios atópanse empresas manufactureiras, desenvolvedoras de aplicacións, provedoras de solucións IT e subministradoras de servizos de HPC na nube procedentes de 19 países.

Vantaxes comerciais Recursos como a Computación de Altas Prestacións (HPC) e o software de simulación e modelado non estaban até agora ao alcance de todas as PEME. A estas ferramentas e sistemas, de feito, só adoitan acceder as empresas máis grandes e máis potentes do mundo. Porén, as vantaxes e oportunidades que ofrecen estas tecnoloxías presentábanse como importantes de máis como para seguir perpe-

4

díxitos  marzo 2017

Acerca de Fortissimo Fortissimo consta de dous proxectos financiados pola Comisión Europea. O obxectivo dos devanditos proxectos é reforzar a competitividade das empresas europeas nun mercado global. Por tanto, Fortissimo ofrece ás empresas un acceso doado, baseado na nube, a simulacións dixitais intensivas en termos de computación. As posibilidades resultantes desta aproximación van dende o deseño máis preciso de pezas até a aceleración do tempo de chegada ao mercado e o aforro de custos en materiais. No Marketplace de Fortissimo as empresas atopan un acceso permanente á experiencia e tecnoloxía en base a un prepago ou un pago por uso. Ademais, o mercado en liña ofrece aos provedores de software unha plataforma para distribuír os seus produtos.


Centro de Supercomputación de Galicia CESGA

tuando esta desconexión delas co ámbito das PEME. Ao fío disto, cómpre lembrar que nun estudo recente de IDC estimábase que cada dólar investido en HPC tiña un retorno, de media, de US$ 356 en ingresos e US$ 38 en beneficios ou aforros de custos. O principal atranco para universalizar entre as pequenas e medianas empresas a alta computación era pois de equipamento, de recursos humanos e de capital: Como facer posible o uso entre aquelas dos supercomputadores que demandan os programas de simulación máis avanzados? Como poñer á súa disposición os profesionais máis especializados? Como impulsar os investimentos de capital que se precisan? Para o Centro de Supercomputación de Galicia a resposta a todo isto está en boa medida en programas como Fortissimo. Con este Marketplace, de feito, elimínase a complexidade do proceso de compras e redúcense de maneira considerábel os custos, xa que os provedores de servizos adáptanse á perfección aos usuarios ofrecendo unha plataforma de autoservizo baseada na nube. Polo tanto, o obxectivo do Marketplace de Fortissimo é ofrecer ás PEME procedentes dunha ampla gama de mercados verticais (motor, aviación, enxeñaría médica, manufactura, enerxía, medio ambiente) un acceso a servizos avanzados de simulación e modelado operando nunha infraestrutura de recursos de HPC na nube xunto con aplicacións de software, experiencia e ferramentas.

Portal preferido O obxectivo do Marketplace de Fortissimo é crear valor e oportunidades para todas as partes involucradas no proceso de deseño. Estas inclúen a fabricantes de software independentes (Independent Software Vendors - ISV) que buscan a un socio fiable para implementar a súa estratexia de SaaS (Software-as-a-Service) así como provedores de servizos que desexan ofrecer a súa experiencia. A plataforma proporciona un único sitio de prepago ou pago por uso para hardware, ferramentas de visualización, software e experiencia, recursos aos que se pode acceder como ferramentas e están dispoñibles de contado no Marketplace. Este mercado en liña pretende converterse no portal preferido para as simulacións informáticas avanzadas e a subministración de servizos ofrecidos polos maiores provedores de tecnoloxía HPC en Europa. Existen dous tipos de afiliación. Por unha banda unha afiliación Ouro, que permite aos ISV, provedores de servizos, integradores e centros de HPC elixidos amosar e visualizar os seus servizos mediante o Marketplace de Fortissimo. Pola outra, unha afiliación Platino, que ofrece unha plataforma de vendas integrada que proporciona un servizo completo como a contabilidade e facturación a usuarios finais. Podemos ver as vantaxes e oportunidades que se abren ao abeiro deste programa a través dos seguintes casos de éxito de empresas galegas: Wavec, VicusDT, Compassis, CIMNE, CESGA: https://www.fortissimo-project.eu/experiments/605 Dinak, UDC, AIMEN, CESGA: https://www.fortissimo-project.eu/experiments/505 Texas Controls, AIMEN, CESGA: https://www.fortissimo-project.eu/experiments/404 O proxecto Fortissimo recebeu finaciamento do Séptimo Programa Marco para Investigación, Desenvolvemento Tecnolóxico e Demostración da Unión Europea baixo o acordo Nº609029. O proxecto Fortissimo 2 recibe finaciamento do Programa para Investigación e Innovación Horizonte 2020 da Unión Europea baixo o acordo Nº680481.CESG13-1E-1791.

marzo 2017  díxitos

5


CESGA Centro de Supercomputación de Galicia

Vestindo coches

con pel de aceiro virtual O

s automóbiles modernos pouco teñen que ver con aqueles que se fabricaban a principios do século XX, e da mesma maneira cambiou o mercado: se antes un mesmo modelo podía fabricarse durante décadas sen apenas cambios, na actualidade rexen a innovación e as modas. E, neste marco de continua transformación, a colaboración entre socios tecnolóxicos cobra unha gran importancia, como no caso de Matrici, Quantech ATZ, a Sociedade Fraunhofer e mais o CESGA, unidos nun mesmo proxecto dentro do programa europeo Fortissimo. Matrici é unha empresa integrada na División de Conformado e Ensamblaxe, dentro da área Industrial da cooperativa vasca Grupo Mondragón, e dedícase principalmente á fabricación por estampación en metal de pezas exteriores de carrocería e reforzos para o sector automobilístico, en tanto que Quantech ATZ é responsable do desenvolvemento e adaptación do software Stampack, específico para o cálculo polo método de elementos finitos dese tipo de pezas. Pola súa banda, o Fraunhofer Institute for Algorithms and Scientific Computing SCAI, de Alemaña, actuou como servidor de licenzas de software, mentres que o CESGA achegou a capacidade de executar HPC, isto é, High Performance Computing ou Computación de Alto Rendemento, cos seus supercomputadores e redes de computación distribuída. Actualmente, Matrici está a desenvolver os procesos necesarios para traballar con aluminio e con aceiros convencionais de alta resistencia (HSS), que permiten unha produción a menor custo de vehículos máis lixeiros, axudando os fabricantes a adaptarse ás esixentes normativas de emisións e ó desenvolvemento do coche eléctrico. Tamén nos últimos anos, no sector do automóbil están a producirse importantes cambios en termos de requisitos para os novos modelos, con máis probas de choque de seguridade, pero con menos peso, para lograr unha redución de consumo, e por tanto menos contaminación. É por iso que, para

6

díxitos  marzo 2017

Ricardo Muguerza e Lorena del Amo, enxeñeiros de Matrici Autor: Matrici cumprir con estas esixencias, estanse a incorporar novos materiais, porque as súas boas cualidades poden axudar a reducir os espesores en distintas partes do chasis, como os piares ou os reforzos laterais. A alta resistencia característica dos aceiros HSS fai factible o desenvolvemento de deseños eficientes en termos de masa, o que aforra consumo de combustible, ó mesmo tempo que xera maior resistencia a impactos en colisións. A diferenza de moitos outros materiais, este aceiro pode alcanzar esas metas sen causar un aumento no custo total para o fabricante, pero a alta resistencia deste material implica o uso dunha maior presión durante o proceso de estampación e, en xeral, isto aumenta a dificultade de todo o proceso. Entre os principais problemas asociados da incorporación de aceiros HSS ou de aluminio están o severo desgaste das ferramentas de conformado e mesmo a ruptura prematura despois de facer poucas pezas. Outro problema importante do emprego dos novos materiais é a forte recuperación elástica despois da conformación (efecto de resorte), xerada polo alto límite de elasticidade destes materiais.

O traballo de Matrici abarca todo o desenvolvemento conceptual das pezas, o seu deseño, a súa fabricación e mesmo a adaptación das plantas de ensamblaxe onde logo se combinarán con outras para formar un vehículo completo, e, evidentemente, nese proceso existen importantes requirimentos en canto a aspecto, xeometría e comportamento do compoñente. Ricardo Muguerza, responsable do proxecto en Matrici, indica que "a precisión no cálculo de elementos finitos está a aumentar nos últimos anos, incluíndo algoritmos mellorados e novas variables baseadas na aparición de novos materiais e no coñecemento exacto do proceso. Aínda hoxe estanse introducindo novos conceptos para o cálculo, que requiren varios días para un proceso completo de varias operacións. Debido ó gran número de ciclos requiridos para obter unha simulación satisfactoria, desde a industria estamos a requirir solucións que poidan abordar o tempo de cálculo en horas en lugar de días. Para lograr estes requisitos, é necesario o uso dunha enorme capacidade de CPU, na primeira etapa da enxeñería". Por iso, engade, "o que pretendiamos pola parte cliente


Centro de Supercomputación de Galicia CESGA

Pilar B dun vehículo, unha das pezas fabricadas en Matrici Autor: Matrici

era executar os cálculos cun software de moita precisión no menor tempo posible, porque iso implica que o produto terminado sae antes ó mercado: o beneficio para nós é o 'time-to-market', o facelo o máis rapidamente posible, coa maior precisión e calidade, para así anticiparnos ó mercado", algo que resulta imprescindible para prosperar no complicado panorama da economía global actual. Para acelerar todo o proceso, explícanos Ricardo Muguerza que desde a súa empresa buscaron "unha aplicación de cálculo numérico de sólidos, para o conformado profundo de pezas de materiais avanzados de automoción, o que é a 'pel' ou revestimento exterior (portas, capó, teito, aletas...), en aceiros e aluminio, e partes estruturais como reforzos de automoción en aceiros de alto límite elástico HSS". Esa aplicación era a que proporcionaba Quantech ATZ, un 'software vendor' establecido en Barcelona que desenvolve programas para a súa utilización no campo do estampado de metal, ou, en palabras de Fernando Rastellini, o seu director técnico, "o que nós ofrecemos ás empresas é facer unha simulación virtual do proceso, só importando coñecementos da xeometría das ferramentas, definindo o material (a chapa de aceiro que estou a utilizar), e

algún máis dos parámetros do proceso, como a forza da prensa, para poder obter unha solución polo método de elementos finitos, dunha maneira rápida e sinxela, e por suposto, ofrecendo uns resultados o máis aproximados posible ó proceso real". Pero ademais, para satisfacer as necesidades de Matrici necesitábase tamén a elaboración dun software de paralelización, porque, como lembra o seu responsable de proxecto, "na industria temos a limitación do número de CPUs (Central Processing Units ou procesadores) que hai en cada estación de traballo, e o programa de cálculo numérico que desenvolve e comercializa Quantech está baseado en sólidos e require de moito tempo de computación para ser lanzado a un só procesador". A solución pasaba por tanto pola colaboración cunha institución que puidese achegar altas capacidades de cálculo, e aí, sinala Ricardo Muguerza, entraría o CESGA: "dentro da empresa podemos lanzar a oito procesadores, pero aínda así os tempos de cálculo son moi elevados, e concretamente, no prototipo en que estivemos traballando, o tempo de cálculo era de vinte e catro horas lanzado sobre unha estación de traballo a oito procesadores, e co mesmo prototipo que lanzamos no CESGA cunha capacidade

próxima a 2.000 procesadores, reducimos o tempo de cálculo un 91%, de vinte e catro horas a dúas". Ademais, agrega Muguerza, a simulación numérica permite aforrar tempo doutra maneira: "antes facíanse os prototipos primeiro, para ver se resistían as probas de ensaio físico, e agora facémolo ó revés, primeiro faise a fase de cálculo de factibilidade de peza, para comprobar se é posible ou non, e logo realízase a peza, de modo que nos anticipamos ós tests finais e comprobamos se o produto é factible antes de que sexa fabricado fisicamente". Noutro sentido, a anticipación tamén é, de feito, un dos obxectivos de calquera proxecto de I+D+i, ou sexa, Investigación, Desenvolvemento e Innovación, claves para manter o liderado das empresas europeas na economía globalizada do noso tempo, e respecto diso manifesta Ricardo Muguerza que "estamos asombrados moi positivamente da resposta técnica e humana do equipo que participou neste proxecto europeo", opinión que comparte Fernando Rastellini, quen declara que "participamos en varios proxectos europeos, e seguiriamos colaborando; o que é o I+D, potenciado polas axudas europeas é máis fácil, porque se non ás empresas cústalles investir".

O proxecto Fortissimo recebeu finaciamento do Séptimo Programa Marco para Investigación, Desenvolvemento Tecnolóxico e Demostración da Unión Europea baixo o acordo Nº609029.

Simulación virtual previa á fabricación dos prototipos Autor: Quantech ATZ

marzo 2017  díxitos

7


CESGA Centro de Supercomputación de Galicia

AVANCES EN APRENDIZAXE MÁQUINA EN GALICIA Andrés Gómez Tato Miembro do Comité Científico do Machine Learning Workshop Galicia 2016

O

27 de outono de 2016, organizouse cola colaboración da Rede Galega de Tecnoloxías Cloud e Big Data para HPC e Torusware a primeira xornada de traballo sobre Machine Learning en Galicia. O Machine Learning, aínda que non é unha tecnoloxía nova, se está a acadar agora bos resultados grazas a abundancia de datos, a mellora da comprensión das técnicas existentes e ao incremento da capacidade computacional. Estas tecnoloxías, encadradas dentro do campo da Intelixencia Artificial, abranguen multitude de técnicas dende as clásicas regresións lineais (o primeiro algoritmo de mínimos cadrados foi publicado polo matemático francés Adrien-Marie Legendre en 1806 ) ata as máis modernas das redes neuronais profundas (ou máis coñecidas como Deep Learning). Estas tecnoloxías están cada día máis presentes, dende os servizos de Internet ata os vehículos intelixentes, pasando por algunhas apps dos nosos teléfonos móbiles. Os investigadores e empresas galegas non son alleos a este despegue das tecnoloxías de Machine Learning, como amosaron nesta primeira xornada que contou con 23 presentacións de alto nivel e a que acudiron máis de 100 investigadores e técnicos de empresas. As aplicacións son moitas, dende o control da calidade da eficiencia enerxética ata a aplicación do procesado da información nos procesos industriais. De feito, o desenvolvemento da Industria 4.0 ten moito que ver co Machine Learning, como se amosou nesta xornada, onde se presentaron

8

díxitos  marzo 2017

solucións interesantes para a clasificación de lousas ou o desenvolvemento de robots que aprenden directamente das persoas. Dentro das conclusións que se poideron obter das presentacións e discusións posteriores, están o alto grado de interese da comunidade investigadora e innovadora galega neste eido e as súas aplicacións a problemas reais, a clara necesidade de contar con unha maior cantidade de datos públicos que permitan mellorar constantemente as técnicas, e a imprescindible capacidade computacional para ensinar a estes algoritmos. Deste xeito, as novas plataformas computacionais do CESGA, o Finis Terrae II e a contorna de Big Data, veñen a cubrir parte da demanda para aqueles problemas máis complexos que necesitan ou unha grande capacidade computacional (como pode ser tratar miles de imaxes, o ter redes neuronais profundas con millóns de parámetros) ou de procesamento de datos (como pode ser o procesamentos dos consumos enerxéticos dunha morea de empresas e tendas). Neste número preséntanse algúns dos traballos amosados na workshop. Non son todos, polo que tamén se poden ler os resumos das ponencias nos proceedings que están dispoñibles en Internet (http://cesga.es/es/ver_nova/idnoticia/5471/p/806). Estos son só unha mostra do traballo dos investigadores e empresas galegas que esperamos que na seguinte xornada xa acordada para 2017 se incremente notablemente.


Desenvolvemento dun clasificador de placas de lousa baseado en técnicas de visión artificial e machine learning Javier Martínez1, Carla Iglesias2, Javier Taboada2 1 Centro Universitario da Defensa. Escola Naval Militar. Marín, Pontevedra. javier.martinez@cud.uvigo.es 2 Departamento de Explotación de Minas. ETSI de Minas. Universidade de Vigo. carla.iglesias@uvigo.es, jtaboada@uvigo.es

D

esenvolveuse un sistema baseado en técnicas de visión artificial e machine learning para automatizar a clasificación de placas de lousa, realizada manualmente por un experto. Así, configurouse un sistema híbrido formado por unha cámara lineal 2D e un láser escáner 3D para extraer a maior cantidade posible de información das placas. Con esa información, deseñouse un algoritmo baseado en técnicas de visión artificial para caracterizar cun conxunto de variables cada placa segundo os defectos incluidos na normativa vixente. Logo, a partir do conxunto de variables implementáronse modelos de clasificación con técnicas de machine learning enfrontando os enfoques supervisado e non supervisado. Desenvolveuse un algoritmo de multiclasificación baseado en SVM, clasificadores binarios 1vsAll e Direct Acyclic Graphs para clasificar as placas por calidades con máis acerto. Os bos resultados demostran a viabilidade técnica do prototipo desenvolvido. 

Sistema automatizado para a limpeza con láser de superficies non planas Alberto Ramil1, Javier Lamas1, Ana J. López1 Centro de Investigacións Tecnolóxicas. Escola Politécnica Superior. Universidade da Coruña. Campus de Ferrol, 15471, Ferrol, Spain e-mail: alberto.ramil@udc.es

1

D

esenvolveuse un sistema automatizado para a limpeza láser de pezas non planas que permite asegurar un tratamento uniforme en toda a superficie. O sistema baséase na adquisición dos perfís da superficie mediante un escáner láser de liña, axustado a un sistema de control de tres eixos motorizados onde se sitúa a peza. A partir dos perfís, mediante un software desenvolvido polo noso grupo, obtense un modelo da superficie en forma de malla que permite xerar as traxectorias dos eixos motorizados de maneira que durante o proceso de limpeza cada punto da superficie mantense a unha distancia fixa do punto focal do feixe láser. Para iso, as instrucións do controlador dos eixos, que inclúen a activación do disparo do láser mediante un sinal dixital, xéranse automaticamente. Este sistema aplicouse con éxito na eliminación de costras e diferentes pátinas en rocas ornamentais, pero pode ser aplicado noutros ámbitos. 

Figura 1. Fotografía e esquema do sistema utilizado para procesar con láser materiais con superficies non planas.

marzo 2017  díxitos

9


CESGA Centro de Supercomputación de Galicia

Sistemas de recomendación: machine learning vs. aproximacións teóricas 1. Introdución Os sistemas de recomendación son ferramentas de personalización que teñen como finalidade suxerir produtos ou elementos relevantes a usuarios finais. Compañías tan relevantes coma Google, Microsoft, Netflix ou Amazon, aplican estos sistemas diariamente para aprender preferencias, gustos e comportamentos humanos. Os perfís xerados son entón empregados para impulsar buscadores, cestos da compra e catálogos de produtos dispoñibles. O machine learning ten desempeñado un papel importante no desenvolvemento dos algoritmos que se atopan na parte traseira destos sistemas. Por exemplo, os enfoques tradicionais baseados no contido e no usuario (contentbased e user-based, respectivamente) utilizan a técnica de clasificación clásica dos k-veciños para predicir a utilidade/clasificación dun elemento. Hoxe en día, debido o impacto do premio Netflix, os modelos ensemble e algoritmos learning-to-rank son os conceptos dominantes no campo. A pesar do seu éxito actual, os sistemas baseados en algoritmos machine-learning amosan limitacións importantes a fin de satisfacer as novas demandas dos usuarios. A xente é reacia ás recomendacións explícitas xa que as interpretan como un instrumento da industria da publicidade. Como resultado, hai unha crecente necesidade de explicar por qué un sitio recomenda uns productos e outros non. Aproximación teórica: Elección racional e modelos de utilidade aleatoria. A complexidade e a natureza opaca das solucións que aporta o machine-learning fan difícil entender a razón pola que un algoritmo proporciona unha determinada solución. Neste punto, os enfoques teóricos conforman unha alternativa competitiva ó ofrecer transparencia sobre os cálculos que levan a facer unha ou outra recomendación. Seguindo esta liña, temos desenvolvido os modelos de elección [1] baseados na toma de decisións para orientar o proceso de recomendación. Apoiándonos

10

díxitos  marzo 2017

Paula Saavedra, Pablo Barreiro, Roi Durán, Ameed Almomani, Rosa Crujeiras, María Loureiro e Eduardo Sánchez Vila1, 1 CITIUS, Universidade de Santiago de Compostela e-mail: eduardo.sanchez.vila@usc.es

Figura 1. Perspectivas individuo vs. investigador. O investigador pode acceder a un número limitado de factores observados (caixa verde) usados para estimar a utilidade representativa. A súa ignorancia sobre os factores non observados (caixa vermella) é modelada a partir de variables aleatorias.

na teoría de elección racional, as eleccións reais substitúen ás puntuacións como datos clave para coñecer as preferencias do usuario.

dendo da zona que se considere. Por tanto, é fundamental establecer tanto o conxunto de elección coma o contexto.

3. Discusión En problemas reais, o investigador non ten acceso a todos os factores e variables que os usuarios teñen en conta para estimar as utilidades (Fig. 1). Para un individuo concreto, o investigador coñece só algúns atributos ou factores das alternativas, os chamados factores observables (caixa verde na Fig. 1). Os factores descoñecidos ou non observados (caixa vermella na Fig. 1) son considerados variables aleatorias que permiten ao investigador estimar as probabilidades de elección para cada alternativa. Estos son os modelos de utilidade aleatorios (RUM).

2. Resultados Os resultados mostran a superioridade dos modelos de elección (erros de predicción menores) en comparación cos algoritmos de factorización matricial e os de filtrado colaborativo (os detalles poden ser atopados en [1]). É importante ter en conta que a precisión das prediccións é diferente depen-

O noso traballo demostra que a perspectiva teórica considerada ofrece transparencia e comprensión, sen perder precisión nas prediccións. Como traballo futuro, pretendemos combinar algoritmos machine-learning con enfoques máis teóricos para lograr un equilibrio entre rendemento interpretación. REFERENCIAS: [1] Saavedra P., Barreiro P., Durán R., Crujeiras R., Loureiro M., and Sánchez Vila E. Choicebased recommender systems. Proceedings of RecSys’16, Boston, 2016. Online link: https://citius.usc.es/ investigacion/publicacions/listado/choicebased-recommender-systems AGRADECEMENTOS Este traballo de investigación foi financiado por EMALCSA/Coruña Smart City baixo concesión CSC-14-13, polo Ministerio de Ciencia e Innovación de España baixo concesión TIN2014-56633-C3-1-R, e polo Ministerio de Economía e Competitividade de España baixo concesión MTM2013-41383P.


OTEA, O SISTEMA EXPERTO QUE TELEXESTIONA INSTALACIÓNS En camiño cara ao “Sovereign OTEA” Anxo D. Feijóo Lorenzo1, Pedro Pérez Gabriel2 y Nerea Vilela Barreira3 1 Director xeral, EcoMT. afeijoo@ecomt.net 2 Conselleiro delegado, EcoMT. pperez@ecomt.net 3 Responsable de I+D+i, EcoMT. nvilela@ecomt.net

D

esde hai uns anos existe un interese crecente pola mellora da eficiencia enerxética por parte das empresas e administracións públicas. Para iso, están a crearse estándares de xestión enerxética, conforme ás normas ISO 50001 de Sistemas de xestión da enerxía con orientación para o seu uso e ISO 14001 de Sistema de Xestión Ambiental, e desenvolvendo estándares de servizos de eficiencia enerxética. Instalar equipos eficientes e implementar plans de mellora de eficiencia xa non é unha opción, senón que se está convertendo nunha obrigación. A tecnoloxía para a monitoraxe e control remoto, a “minería de datos” e as solucións de intelixencia artificial abren posibilidades a novos modelos de xestión que permitan reducir custos de explotación, mellorar a competitividade e o confort de clientes e traballadores e colaborar en reducir a demanda de enerxía e emisións de CO2 asociadas a esta actividade. EcoMT é unha empresa TIC dedicada á implementación de solucións de control local e a telexestión en remoto de instalacións baseadas en tecnoloxía de sistemas expertos e aplicadas ás instalacións que responden a un concepto “multisite”, cunhas características particulares: relativa sinxeleza, número moi elevado de instalacións similares e escasos recursos económicos e técnicos para a súa operación e mantemento. Desenvolvemos unha plataforma de telexestión e monitoraxe (OTEA) que ten como obxectivo realizar unha xestión integral das distintas instalacións. As súas últimas evolucións e desenvolvementos sitúana no campo dos sistemas expertos, co obxectivo final de que sexa capaz de tomar decisións intelixentes para xestionar as instalacións que controla (climatización, iluminación, sistemas de tratamento de augas, …) sen intervención humana e cun baixo custo de implantación. A día de hoxe, analízase e xestionase o comportamento da climatización e iluminación en máis de 2.000 instalacións con máis de 600.000 variables e 3 billóns de datos desde hai máis de 5 anos. Estes locais atópanse en múltiples localizacións xeográficas e en moitos casos o seu comportamento correspóndese a un patrón. O comportamento dos locais depende de variables cun marcado carácter probabilístico (temperatura exterior, temperatura ambiente, potencia de clima e xeral, ocupación, intervención de

mantemento …), polo que se está traballando na creación dun “oráculo” que poida propoñer solucións a incidencias e xere regras de funcionamento para as cuestións que o usuario non avanzado demande e non sexa necesaria a consulta ao experto. Algúns dos pasos que se deron son o uso de redes neuronais, redes bayesianas e regresión, obtendo algoritmos predictivos que xeran mapas de risco que achegan información sobre que instalacións teñen maior probabilidade de incidencia provocando problemas de confort en determinadas circunstancias de ambiente e funcionamento. A continuación, móstrase a folla de ruta deseñada, onde se marcan os logros aos que se chegaron e aqueles que se pretenden alcanzar: • 2014: Smart OTEA é o primeiro módulo de Smart que se desenvolveu e implantou. “Medir sen medir”, un dos proxectos que o forma, é capaz de obter unha medida virtual coa suficiente precisión para xestionar a demanda de enerxía do sistema de climatización. • 2015: Gurú OTEA, mediante análise de datos e modelos aditivos xeneralizados, realiza a previsión no sistema de climatización do risco de incidencias ou falta de confort nas instalacións. Desenvolvéronse dous modelos predictivos tendo en conta o réxime de funcionamento da máquina, podendo ser arrefriamento ou quecemento. • 2016: Por unha banda, desenvolveuse e implantou SETIMA OTEA, unha aplicación que permite ao usuario xerar regras básicas para o comportamento das instalacións. Por outra banda, comezouse o desenvolvemento de Oracle OTEA, alimentado e adestrado cos históricos da base de datos, incorpora diversos módulos que lle permite dominar temas específicos. Cóntase con tres grandes grupos de datos, os procedentes da plataforma, os dun control center propio e os achegados polos mantedores. As principais funcións do oráculo son: a exploración de incidencias mediante o uso de integrais, a clasificación automática de incidencias mediante árbores de decisión e a achega de respostas intelixentes a preguntas do usuario.

marzo 2017  díxitos

11


CESGA Centro de Supercomputación de Galicia

• Preténdese que no futuro o oráculo evolucione de tal forma que non fose necesaria a intervención humana para xestionar as instalacións sobre as que se aplica. Transformándose en Genius OTEA (2020) e finalmente en Sovereign OTEA (2030). En resumo, na actualidade temos un simio (Oracle OTEA) que queremos que evolucione ata chegar a ser un humano (Genius OTEA); e, mañá, quizais se converta nun deus (Sovereign OTEA). O uso da gran cantidade de datos proporcionará vantaxes directas á empresa e usuarios repercutindo no desenvolvemento tecnolóxico e do mercado enerxético, así como na evolución da rede eléctrica intelixente. O uso do Big Data será transcendental, posto que axudará as tarefas de mantemento. Cóntase cun gran volume de datos almacenados de diversa natureza e en continuo crecemento, por iso, requírese dunha capacidade de procesamento a gran escala. Disponse de máis de 600.000 variables con máis de 100.00 rexistros por variable, combinables entre si, o que daría millóns de combinacións posibles.

Predición puntual e intervalos de predición en demanda e prezo da electricidade Paula Raña, Juan Vilar e Germán Aneiros. Departamento de Matemáticas, Universidade da Coruña.

A

bórdase o problema da predición puntual da demanda e o prezo da electricidade mediante o uso de técnicas de análise de datos funcionais. Os datos eléctricos conforman unha serie de tempo

Nos dous próximos anos os nosos desenvolvementos e innovación centraranse en algoritmos de procesado, valorización dos datos e aprendizaxe de máquina, co obxectivo de multiplicar o valor engadido do sistema OTEA: maximizando a eficiencia das instalacións e minimizando os recursos de xestión básicos. Xestionar sen xestores.

funcional, formada polas curvas diarias obtidas a partir de 24 observacións horarias (na figura represéntanse as curvas diarias da demanda eléctrica en España no ano 2012). Neste contexto, proponse o uso de modelos de regresión funcional para obter predicións. En concreto, emprégase un modelo de regresión funcional non para-

Para iso, basearémonos en ferramentas e capacidades en:

métrico e un modelo semi-funcional parcialmente lineal,

• Almacenamento, normalización e tratamento de datos e metadatos

ratura ou a produción da enerxía eólica. Ditos modelos

no que se incorpora información externa como a tempepermiten obter tanto predicións horarias como diarias. Para cada unha das 24 predicións horarias da demanda

• Cálculo e procesado en tempo real de volumes de datos de certa entidade: 1012 (Teras) no 2016 e 1015 (Petas) no 2017/2018 • Desenvolvemento de algoritmos de regresión, simulación, redes bayesianas, redes neuronais... En definitiva, os cambios cada vez máis rápidos que se producen no mercado mundial han propiciado o desenvolvemento de sistemas que permiten responder exitosamente ás esixencias da contorna. Cada día cobra maior importancia o uso das tecnoloxías de información e comunicación, sendo estas unha poderosa arma competitiva cando son utilizadas adecuadamente. Apostando por estes desenvolvementos, exponse novas liñas de traballo para que no futuro se obteñan altos niveis de eficiencia e optimización na xestión enerxética e tamén, para que se reduzan os custos de implantación dos equipos de medida e control. 

REFERENCIAS: [1] Russell, S.J. y Norvig, P. Inteligencia artificial un enfoque moderno. Pearson (2004) [2] Mayer-Schönberger, V. y Cukier, K. Big data. La revolución de los datos masivos. Turner (2013) [3] Siegel, E. Analítica predictiva: predecir el futuro aplicando Big Data. Anaya multimedia (2013)

12

díxitos  marzo 2017

e do prezo obtidas, calcúlase un intervalo de predición mediante técnicas bootstrap, que complementa ás predicións puntuais obtidas. Estas técnicas permiten obter tamén densidades de predición. Este procedemento é igualmente válido noutros contextos distintos ó dos datos eléctricos.


Clasificación de Imaxes Hiperespectrais baseada en Kernel ELM sobre GPU Alberto S. Garea, Dora B. Heras, Francisco Argüello Centro Singular de Investigación en Tecnoloxías da Información (CiTIUS) Universidade de Santiago de Compostela Rúa de Jenaro de la Fuente Domínguez, 15782 - Santiago de Compostela e-mail: jorge.suarez.garea@usc.es; dora.blanco@usc.es; francisco.arguello@usc.es

O

recente desenvolvemento de sensores hiperespectrais que capturan información por pixel nun amplo rango do espectro electromagnético permite desenvolver aplicacións en ámbitos que van desde a agricultura, o desenvolvemento urbano ou a evolución de catástrofes naturais ata ámbitos médicos [1]. Nas imaxes hiperespectrais poderiamos dicir que cada pixel está representado por un vector que contén para cada compoñente información correspondente a unha diferente lonxitude de onda. O procesado deste tipo de imaxes require realizar operacións de preprocesado como rexistrado, segmentación ou clasificación entre outros procesos, co obxectivo de identificar elementos nas imaxes ou, por exemplo, detectar cambios que se produciron ao longo do tempo. Desenvolvemos unha ferramenta de escritorio chamada HypeRvieW [2] que nos permite realizar procesado de imaxes hiperespectrais de teledetección. En particular a partir das imaxes de entrada en diferentes formatos, podemos realizar rexistrado dunhas imaxes respecto doutras para aliñalas, rotación, escalado, eliminación de ruído, construción de información de referencia, inspección das compoñentes de cada pixel ou clasificación de imaxes. Permite tamén observar gráficamente os resultados en calquera das etapas de procesamento e realizar diferentes configuracións da cadea de procesamento. Este procesado é moi custoso computacionalmente e pódese realizar utilizando diferentes técnicas moitas das cales se basean en algoritmos de machine learning [3]. Estas deben ademais ser computadas eficientemente en plataformas computacionais de alto rendemento. No traballo que presentamos aquí utilizáronse plataformas computacionais baseadas en CPU multicore estándar e Graphics Processing Units (GPU) de consumo, xa que o obxectivo foi mostrar que con plataformas computacionais de baixo custo pódese realizar este tipo de procesado en tempo real. Con todo, se a aplicación require procesar unha gran cantidade de imaxes ou imaxes de tamaño superior ás procesadas neste traballo, requírese o uso de plataformas computacionais de máis alto rendemento e custo como o supercomputador FinisTerrae II. O obxectivo da clasificación é obter un mapa da imaxe onde a cada pixel asígnaselle unha etiqueta en función da clase á que pertence devandito pixel. Permítenos, por exemplo, discriminar entre diferentes cultivos nunha imaxe agrícola ou entre materiais de construción. Entre as diferentes técnicas que aplicamos para clasificación de imaxes hiperespectrais podemos destacar as baseadas en Support Vector Machines (SVMs) entre outras. Nos últi-

REFERENCIAS: [1] David Landgrebe, Hyperspectral image data analysis, Signal Processing Magazine, IEEE, Número 19:1 (2002) 17-28. [2] Alberto S. Garea, Álvaro Ordóñez, Dora B. Heras and Francisco Argüello, F. (2016). HypeRvieW: an open source desktop application for hyperspectral remote-sensing data processing. International Journal of Remote Sensing, 37(23), 5533-5550. [3] Antonio Plaza, Jón Atli Benediktsson, Joseph W. Boardman, Jason Brazile, Lorenzo Bruzzone, Gustavo CampsValls, Jocelyn Chanussot, Mathieu Fauvel, Paolo Gamba, Anthony Gualtieri, et al., Recent advances in techniques for hyperspectral image processing, Remote sensing of environment, Número 113 (2009) 110122. [4] Guang-Bin Huang, An insight into extreme learning machines: random neurons, random features and kernels, Cognitive Computation, Número 6:3 (2014) 376-390. [5] Guang-Bin Huang, Hongming Zhou, Xiaojian Ding, and Rui Zhang, Extreme learning machine for regression and multiclass classification, Systems, Man, and Cybernetics, Part B: Cybernetics, IEEE Transactions on, Número 42:2 (2012) 513-529. [6] Javier López-Fandiño, Pablo Quesada-Barriuso, Dora B. Heras, and Francisco Argüello, Efficient ELM-based techniques for the classification of hyperspectral remote sensing images on commodity GPUs, Selected Topics in Applied Earth Observations and Remote Sensing, IEEE Journal of, Número 8:6 (2015), 2884–2893. [7] MAGMA, “Matrix algebra on gpu and multicore architectures,” 2015. [8] Nvidia, “Cula tools,” 2015. [9] Nvidia, “Cuda toolkit documentation: Cublas,” 2015. [10] Alberto S. Garea, Dora B. Heras and Francisco Argüello, F. (2016). GPU classification of remote-sensing images using kernel ELM and extended morphological profiles. International Journal of Remote Sensing, 37(24), 5918-5935.

marzo 2017  díxitos

13


CESGA Centro de Supercomputación de Galicia

mos anos propúxose un algoritmo de aprendizaxe baseada en redes neuronais feedforward de capa simple chamado Extreme Learning Machine (ELM) [4]. É eficiente en termos de precisión da clasificación, velocidade de aprendizaxe e escalabilidade computacional. Presentamos resultados de aplicación de técnicas de clasificación baseadas na variante de ELM chamada kernel-ELM [5] e deseñadas para a súa execución eficiente en sistemas multicore e GPU, que se aplican a imaxes hiperespectrais de teledetección de cobertura terrestre. Propoñemos un esquema de clasificación que parte da imaxe hiperespectral e no primeiro paso, como podemos ver na Figura, unha etapa extrae as principais características da imaxe mediante o método de análise en compoñentes principais. As primeiras compoñentes principais son seleccionadas e a partir delas elabórase a continuación un perfil morfolóxico estendido que extrae a información sobre as estruturas espaciais máis relevantes na imaxe. Esta contribución espacial e a imaxe completa orixinal son combinadas mediante concatenación ponderada e sobre a información resultante realízase a clasificación. Un procesado final que chamamos regularización espacial permite corrixir a clasificación no caso de puntos illados.

Inferencia non paramétrica para Big-but-biased Data Laura Borrajo - Ricardo Cao

U

nha mostra de gran tamaño non sempre é representativa da poboación, senón que pode estar sesgada (ver, por exemplo, https://hbr. org/2013/04/the-hidden-biases-in-big-data),

situación que denotaremos por Big-but-biased Data (B3D). Buscamos detectar e correxir o sesgo neste contexto. Traballamos sobre un escenario no que posuímos unha mostra B3D, que provén dunha densidade de probabilidade igual a densidade real da poboación

No que a precisión refírese realizáronse experimentos con imaxes obtidas mediante os sensores ROSIS e AVIRIS. Unha imaxe obtida polo sensor ROSIS de 103 bandas da Universidade de Pavia (Pavia Univ.), cunha dimensión espacial de 610×340 píxeles, unha imaxe obtida polo sensor AVIRIS de 220 bandas e 145×145 píxeles tomada sobre o noroeste de Indiana e unha imaxe obtida mediante AVIRIS de 204 bandas e 512×217 píxeles do val de Salinas, California. Os algoritmos propostos foron avaliados nun PC cun quadcore Intel Xeon E5-2609v2 a 2.5 Ghz e 15 GB de RAM. O código foi compilado usando gcc versión 4.8.4 con soporte OpenMP (OMP) 3.0 baixo Linux e 4 fíos. Utilizouse a librería OPENBLAS para acelerar as operacións dos distintos algoritmos. En canto á implementación en GPU, utilizouse unha tarxeta NVIDIA GeForce GTX Titan con 14 SMXs de 192 procesadores CUDA cada un. Usouse a versión 7.5 do conxunto de ferramentas CUDA para Linux. A clasificación supervisada realizouse cun número de mostras similar aos esquemas na bibliografía cos cales se realiza unha comparación [6] obtendo clasificacións cunha precisión media que supera en todos os casos aos resultados publicados na bibliografía, e chegando a acadar un valor de máis do 99%. No caso da GPU aplicáronse técnicas que permiten unha execución máis eficiente maximizando a execución paralela, aproveitando ao máximo a memoria compartida, evitando ao máximo o movemento de datos entre CPU e GPU, reducindo o número de sincronizacións, superpoñendo as operacións en CPU e GPU ou explotando as librerías de álxebra lineal MAGMA [7], CULA [8] e CUBLAS [9]. Os resultados mostran que para a imaxe Pavia Univ. o tempo total de clasificación é de en torno a 30 segundos cando se executa secuencialmente nunha CPU mentres que se reduce ata ao redor de 11 cando se executa en OpenMP sobre un sistema multicore e ata ao redor de 2 segundos cando a execución realízase utilizando a GPU. Estes resultados mostran que se pode realizar en tempo real unha clasificación mediante este método nas arquitecturas utilizadas. Resultados detallados dos experimentos poden ser consultados en [10]. 

14

díxitos  marzo 2017

mais ponderada por unha función peso. Dispoñemos tamén dunha mostra dúas veces nesgada, obtida por un proceso análogo ao anterior, actuando desta vez a función peso sobre a densidade da mostra B3D. Consideramos a estimación da media poboacional, para o que propomos un estimador innesgado que involucra á mostra B3D e unha estimación non paramétrica da función peso (na práctica descoñecida). Mediante simulación, comparamos o novo estimador proposto coas medias mostrais da mostra B3D e da mostra dúas veces sesgada. Observamos que o estimador proposto non só mellora a estimación obtida empregando as mostras sesgadas, senón que tamén se aproxima ao comportamento do “estimador” (inobservable) no que a función peso suponse coñecida, obtendo así un bo estimador da media poboacional real.

s


colle pulo O CESGA prepara o lanzamento da app do proxecto tanto para Android como para iOS

O

ano 2016 foi o ano da consolidación do proxecto PhenoloGIT, unha iniciativa internacional para afianzar nas escolas o estudo da natureza e dos seus fenómenos e características. Na recta inicial de 2016, PhenoloGIT colleu impulso (da man dun consorcio europeo do que forman parte o CESGA e catro centros educativos galegos, entre outras entidades doutros países), en xuño foi obxecto de traballo colaborativo in situ na sede do CESGA e logo, en outubro, comezou a fornecer unha aplicación e un xeoportal. A día de hoxe, PhenoloGIT segue adiante facendo abrollar novas vocacións científicas nos centros educativos, a través de actividades presenciais e, tamén, mediante as súas ferramentas TIC de comunicación: o devandito xeoportal e a mencionada aplicación, dúas canles para facilitar o emprego sinxelo de tecnoloxías de información xeográfica nos centros educativos, amais de impulsar a análise sobre os cambios da natureza. Como recordaremos, os integrantes e impulsores de PhenoloGIT son unha equipa de expertos europeos en tecnoloxías da educación, así como unha manchea de escolas de primaria e secundaria de catro países da contorna: España, Reino Unido, Lituania e Dinamarca. Ao abeiro do proxecto, os participantes analizan as potencialidades para as aulas do uso de ferramentas de visualización e análise de sistemas de información xeográfica (GIT). No marco desta iniciativa, o CESGA desenvolveu dúas ferramentas multilingües que inclúen o galego e o castelán entre as súas opcións idiomáticas. Trátase, primeiro, dunha aplicación para o seu uso en teléfonos móbiles ou tabletas (dispoñíbel para Android e iOS) grazas á cal alumnos e profesores poden recoller información (fotos, vídeos, datos textuais, e outros indicadores climáticos a través de sensores ou xeolocalización) da súa contorna natural. A app, cuxo lanzamento nas tendas oficiais de

Android e iOS (para facilitar o seu uso por parte do alumnado e o profesorado dos centros piloto) é inminente, compleméntase cun xeoportal web para amosar na aula os devanditos datos recollidos. Este espazo en liña é quen de filtrar a información por criterios diferentes e realizar diferentes análises (por países, por fenómeno, por tempo para esculcar, etc.) que pode verse (aínda cos datos de probas) aquí: http:// maps.phenologit.org/. Ao longo da recta final de 2016 e deste 2017 os profesores participantes no programa están xa a traballar coas ferramentas devanditas, experimentando con elas e tirándolles o máximo proveito, sobre todo de cara a optimizalas e procurar, en virtude do seu emprego, novas propostas educativas para traballar coa rapazada. A idea é que, avanzado o curso 2016-2017, aproximadamente en primavera, entren en xogo os estudantes probando a fondo os mencionados recursos tecnolóxicos. Grazas a eles poderán facer cousas como recoller e avaliar información sobre as especies animais e vexetais da súa contorna e comparala coa dos seus compañeiros europeos. En Galicia son catro escolas as que participan nesta primeira fase: o CPI plurilingüe O Cruce, en Cerceda (que tamén é socio do proxecto europeo e coordinador das actividades educativas), o IES Plurilingüe Rosalía de Castro de Santiago de Compostela, o CEP Plurilingüe de Ventin (Ames) e o CPI Poeta Uxío Novoneyra de Seoane do Courel. Para o vindeiro curso, o CESGA quere ampliar o número de centros, unha vez validadas as ferramentas na primeira fase piloto do proxecto. Entre as iniciativas previstas para este 2017 inclúese a posta en marcha, da man do Centro de Supercomputación de Galicia, dun sitio dixital de ensino aberto para intercambiar propostas educativas e as ferramentas GIT creadas para todas as escolas interesadas. 

marzo 2017  díxitos

15


Es #ocio, it is #leisure, il est #loisirs, é #lazer, es ist #freizeit … Dise case igual en todo o mundo, pero é unha forma de gozar moi de Galicia.

SON SERVIZOS TURÍSTICOS

RESTAURANTES, HOTEIS E CASAS RURAIS

CERTIFICADOS WWW.GALICIACALIDADE.GAL WWW.GALICIACALIDADELECER.COM

Díxitos Marzo 2017  

Publicación periódica de la Fundación CESGA

Read more
Read more
Similar to
Popular now
Just for you