Polyteck | Edição 14

Page 1

Distribuição Gratuita - nº 14 | Out / Nov 2015

combustíveis mais seguros Um novo polímero que forma megasupramoléculas espontaneamente consegue reduzir o risco de explosões ao aumentar o tamanho das gotículas de combustível formadas durante um impacto. Leia na página 11

DIAGNÓSTICO

META-ANALYSIS

INTERNET DAS COISAS

dispositivos que levam tecnologia de ponta para fora dos laboratórios página 3

combining different studies gives a new grasp on what is really going on page 8

um mundo com bilhões de máquinas online está mudando a internet página 17


ir sua Comece a construional carreira internac

uperior do mundo s o in s n e r o lh e m 3° Aulas ministradas em inglês Bolsas de estudo para brasileiros

www.nesobrazil.org


Tecnologia para

diagnóstico no ponto de atendimento Testes e aparelhos eletromédicos possibilitam a realização de análises clínicas de forma rápida e descentralizada e levam tecnologia de ponta para fora dos laboratórios Funcionamento de um teste rápido de fluxo lateral

Por Daniel Cobra e Alexandre Dias Tavares Costa

U

ma das tendências no campo da tecnologia para equipamentos eletromédicos é o desenvolvimento de aparelhos que permitam realizar testes de análises clínicas de forma rápida e descentralizada. São aparelhos feitos para realização de testes in vitro no ponto de atendimento ao paciente (PoC, abreviado do inglês point of care), como consultórios médicos, postos de saúde ou até mesmo em ambulâncias, residências ou locais atendidos por agentes comunitários de saúde. Este tipo de tecnologia evita que o paciente tenha que se deslocar até um laboratório de análises clínicas ou que amostras biológicas coletadas precisem ser enviadas a um laboratório para a realização do exame. Como é realizado no próprio local e o resultado sai em questão de minutos, o teste PoC apresenta uma extensa lista de benefícios: o médico pode completar o diagnóstico e prescrever o tratamento durante a consulta, ou o agente comunitário de saúde pode realizar prontamente a triagem e o encaminhamento de pacientes para tratamento. Em certos casos, o próprio paciente pode controlar de forma mais precisa seu tratamento, como no caso de diabéticos que precisam controlar o nível de glicose no sangue. Os testes PoC podem ser muito úteis até no cenário hospitalar,

pois mesmo havendo a disponibilidade de um laboratório de análises clínicas, a obtenção mais rápida do resultado na própria UTI ou sala de emergência pode ser decisiva em situações críticas. No caso do diagnóstico de choque séptico, por exemplo, a taxa de mortalidade aumenta significativamente a cada hora de atraso no início do tratamento. Assim, a rápida identificação do agente infeccioso pode ser decisiva para a sobrevivência do paciente. Os materiais biológicos mais comuns para o teste são sangue ou urina, mas saliva ou outros materiais também podem ser utilizados conforme o ensaio. O alvo bioanalítico, que é o objeto da análise, pode ser uma

A amostra é colocada no poço e, em seguida, é adicionada a solução tampão. Os anticorpos da amostra fluem lateralmente pela fita de teste e ligam-se ao conjugado. Se a amostra do paciente for reagente os anticorpos ligados ao conjugado vão se ligar aos antígenos imobilizados na área de teste, resultando no aparecimento de uma linha colorida. As frações do conjugado que não se ligaram na área de teste serão reveladas na área de controle, produzindo uma linha vermelha. Essa linha sempre deve estar presente, pois indica que houve perfeita migração da amostra na tira de reação. Ilustração: BioManguinhos/FIOCRUZ – Instruções de Uso testes rápidos para sífilis

polyteck.com.br | Revista Polyteck | 3


proteína (enzimas, anticorpos e certos hormônios), metabólitos (glicose, colesterol, triglicerídeos, creatinina, amônia, ureia), ácidos nucleicos (DNA ou RNA), células (anticorpos, hemácias normais ou falciformes, células tumorais circulantes), micro organismos patogênicos (vírus, bactérias, parasitas, fungos) e outros.

Evolução dos testes PoC

A evolução dos testes PoC pode ser dividida em três gerações. A primeira consistiu dos chamados testes rápidos para diagnóstico (em inglês Rapid Diagnostic Tests – RDTs), baseados principalmente em imunocromatografia em tiras reagentes de fluxo lateral (em inglês, lateral flow), sem o uso de um equipamento adicional. O exemplo mais conhecido deste método é o teste para diagnóstico de gravidez vendido em farmácias.

Já a segunda geração de testes PoC passou a empregar também aparelhos eletromédicos, que precisam ser baratos, transportáveis, robustos e de fácil uso. Neste caso as tiras reagentes continuam a ser usadas, normalmente integradas a cartuchos descartáveis. Eles são então inseridos em uma leitora dotada de módulo de câmera embarcada e sistema de processamento digital de imagens. Ou seja, é possível realizar uma análise quantitativa das bandas reagentes, fornecendo rapidamente um resultado objetivo para o teste – diferente da análise visual subjetiva feita nos testes de primeira geração. A segunda geração de testes PoC inclui também aqueles baseados na análise de ácidos nucleicos (em inglês nucleic acid tests – NATs). Tipicamente, em um NAT a amostra biológica é aplicada a um cartucho

descartável e este é inserido no aparelho que controla as etapas de execução do teste e mensura as reações, apresentando ao operador o resultado final. O cartucho é dotado de reagentes e elementos microssistêmicos, como biossensores e estruturas microfluídicas, para a realização de uma complexa sequência de operações que pode incluir a mistura da amostra com reagentes, ciclagens térmicas, controle do tempo de reação, depurações e separação de alvos de análise. Os sensores para detecção dos alvos podem estar integrados no cartucho ou no aparelho, sendo mais comuns os sensores eletroquímicos (amperometria, potenciometria e impedanciometria) e ópticos (fluorescência, luminescência, colorimetria de absorbância, ressonância plasmônica de superfície e espalhamento de luz). Há ainda sensores de tecnologia

Tabela: ACOM/Fundação CERTI, adaptado de Pai et al., 2012

4 | Revista Polyteck | polyteck.com.br


Ponto de Necessidade Outro conceito, menos utilizado, porém mais abrangente, é o de ponto de necessidade (em inglês, point of need), que inclui cenários que não são propriamente o local de atendimento do paciente, mas estão mais próximos deste do que um laboratório central, como é o caso, por exemplo, de laboratórios periféricos.

menos madura, como os magnéticos, os de ondas acústicas de superfície, os baseados em sistemas microeletromecânicos (MEMS) e outros. Exemplos de equipamentos já no mercado que fazem uso destas tecnologias incluem medidores de glicose e monitores de oxigenação sanguínea.

Terceira geração e desafios

Recentemente está surgindo uma terceira geração de testes PoC que, no lugar de aparelhos eletromédicos, utiliza equipamentos eletrônicos presentes no dia a dia das pessoas. Os telefones celulares são os preferidos nesta geração, pois podem ser acoplados a acessórios plug-in (aqueles que são conectados ao aparelho) que permitem a realização do teste de forma rápida e precisa. Os testes são tipicamente baseados em detecção óptica, utilizando a câmera do celular para captura da imagem. Já o processador do aparelho se encarrega da análise. No entanto, apesar de algumas provas de conceito já terem sido apresentadas, a validade clínica destes dispositivos PoC ainda não está claramente demonstrada. Para alguns tipos de teste, a preparação automatizada da amostra no cartucho, dispensando a manipulação em tubos de ensaio, representa um desafio praticamente tão grande quanto a realização do teste em si. No diagnóstico molecular, por exemplo, o processo de preparação da amostra compreende as etapas de lise (ruptura de células patogênicas para liberação do DNA), captura dos alvos de DNA, purificação para remoção de contaminantes que possam prejudicar a detecção e, finalmente, a eluição

do DNA na solução que será utilizada para a realização do teste. Um dos objetivos mais importantes da pesquisa e desenvolvimento atualmente realizados na área é a execução de todas estas etapas em um cartucho microfluídico de maneira que a sensibilidade e especificidade do teste não sejam comprometidas significativamente. Em poucas palavras, a sensibilidade de um teste está relacionada à capacidade do mesmo em detectar uma amostra positiva e a especificidade está relacionada à capacidade de identificação de uma amostra negativa. Ou seja, alta sensibilidade significa detectar concentrações mínimas do alvo (se a amostra é positiva, o teste irá detectá-la), enquanto que alta especificidade significa inexistência de reações cruzadas (se a amostra é negativa, o teste não mostrará um resultado falso positivo). Na área de diagnóstico em saúde humana, um passo considerável foi dado pela empresa Cepheid, com sua plataforma para detecção de tuberculose GeneXpert. Esta plataforma utiliza um cartucho que realiza todas as etapas de preparação da amostra e amplificação molecular do alvo genômico de forma automatizada, identificando a presença da bactéria causadora da tuberculose e também uma possível resistência a antibióticos.

PoC e doença de Chagas

Pelo seu custo reduzido e possibilidade de uso em campo, os testes e aparelhos PoC são particularmente atraentes para uso em cenários de recursos limitados, como é o caso dos países em desenvolvimento. Por este motivo, o progresso nesta área vem sendo incentivado tanto pela Organização Mundial da Saúde como por órgãos governamentais de fomento e por entidades privadas, como a Fundação Bill e Melinda Gates - por meio de seu programa Grand Challenges - e a Fundação XPRIZE - através de desafios como o Sensing XChallenge e o Tricorder XPrize. Um exemplo recente de projeto nesta área é o PodiTrodi (Technology Platform for Point-of- Care

Protótipo do aparelho e cartucho desenvolvidos no Projeto PodiTrodi. Foto: poditrodi.org

polyteck.com.br | Revista Polyteck | 5


Diagnostics for Tropical Diseases, em tradução livre Plataforma Tecnológica para Diagnóstico de Doenças Tropicais no Ponto de Atendimento), cofinanciado pelo Governo Brasileiro e pela Comissão Europeia. Este projeto consistiu em desenvolver o protótipo de um aparelho e um cartucho microfluídico descartável para o diagnóstico da doença de Chagas. Esta doença tropical parasitária foi escolhida pela Fiocruz como alvo para o projeto por ser uma doença negligenciada que afeta de sete a oito milhões de pessoas, sobretudo na América Latina, e cujo manejo clínico será facilitado pela disponibilidade de um teste PoC. O protótipo foi desenvolvido de maneira conjunta por pesquisadores da Unicamp, do CTI Renato Archer, da Fundação Oswaldo Cruz (através do Instituto de Biologia Molecular do Paraná, IBMP), da UFPR e da Fundação CERTI, juntamente com o Instituto Fraunhofer ENAS e outras sete instituições e empresas europeias. O teste desenvolvido no projeto PodiTrodi combina, em um mesmo cartucho, um imunoensaio cromatográfico e um teste NAT por reação em cadeia de polimerase (em inglês, polimerase chain reaction – PCR) em tempo real, a fim de detectar a presença do parasita T. cruzi tanto na fase de infecção aguda inicial quanto na fase de infecção crônica. Os resultados alcançados com o protótipo integrado mostraram o mesmo nível de especificidade e sensibilidade dos testes realizados separadamente, demonstrando a viabilidade da prova de conceito com amostras reais. Embora se trate de um projeto de pesquisa espera-se que, num futuro próximo, um produto que possa ser efetivamente usado na erradicação desta importante doença venha como resultado deste esforço de cooperação científica e tecnológica internacional. Os próximos passos antes de este produto chegar às prateleiras incluem validações laboratoriais com milhares de amostras e em diferentes ambientes de utilização (por exemplo, diferentes níveis de infraestrutura ou de instrução dos usuários).

6 | Revista Polyteck | polyteck.com.br

Um mesmo cartucho combina um imunoensaio cromatográfico e um teste NAT por reação em cadeia de polimerase em tempo real, a fim de detectar a presença do parasita T. cruzi tanto na fase de infecção aguda inicial quanto na fase de infecção crônica. Foto: poditrodi.org

Para saber mais • Paul Yager, Gonzalo J. Domingo e John Gerdes. “Point-of-care diagnostics for global health.” Annu. Rev. Biomed. Eng. 10 (2008): 107-144. • Gubala, Vladimir, et al. “Point of care diagnostics: status and future.” Analytical chemistry 84.2 (2011): 487-515. • Pai, Nitika Pant, et al. “Point-of-care testing for infectious diseases: diversity, complexity, and barriers in low-and middle-income countries.” PLoS medicine 9.9 (2012): e1001306. • Gessner, Thomas, et al. “Smart Systems Integration – trends in the field of smart medtech systems.” Smart Systems Integration, Amsterdam, 13 e 14 de março de 2013. •

Poditrodi, 2014. http://www.poditrodi.org

Daniel Cobra é coordenador da área de Sistemas no Centro de Mecatrônica da Fundação CERTI. É graduado em Engenharia Elétrica pela Universidade de Brasília e Ph.D. em Engenharia Elétrica pelo MIT e em Engenharia Oceanográfica pela Woods Hole Oceanographic Institution (em co-tutela). Sua área de especialização é o Processamento Digital de Sinais e suas aplicações em medicina, telecomunicações, oceanografia, sistemas de áudio e vídeo, transmissão de energia e sensoriamento remoto. Alexandre Dias Tavares Costa é pesquisador

especialista na Fundação Oswaldo Cruz (Fiocruz) e gerente técnico de projetos de P&D no Instituto de Biologia Molecular do Paraná (IBMP). É graduado em Biologia pela Unicamp, mestre em Biologia Molecular pela Unifesp e Ph.D. em Ciências Médicas pela Unicamp. Sua área de especialização é biologia molecular e nanotecnologia, e suas aplicações em testes diagnósticos e saúde pública.

Agradecimentos Projeto CNPq Nº 590032/2011-9 e FP7 Nº 287770. Fundação Centros de Referência em Tecnologias Inovadoras – Unidade EMBRAPII para Sistemas Inteligentes para Produtos Eletrônicos de Consumo e Produtos Eletromédicos. Os autores agradecem a contribuição de Camila Chiodi Braga Penha e Greice Keli Silva na revisão e ilustração do artigo.



Strength in Numbers the power of meta-analysis Meta-analysis offers the research community and decision makers a bird’s eye view of research in many domains. By Avraham N. Kluger

T

he media often reports ‘inconsistent’ scientific findings in fields as different as climate control, medicine, and psychology, just to name a few. Exposure to these inconsistencies could misguide people to disregard research when making decisions that may affect the wellbeing of societies and the individual. However, they often are just reflections of random fluctuations in results that are more likely to occur the smaller the sample size in the study is. Let us consider a fictitious example. Five researchers used a sample of 100 employees each. Researcher 1 found that handwriting analysis has a small correlation, r = .10, with actual performance, and that this correlations is not statistically different from zero (it is not significant, or the confidence interval placed around the result of .10 includes zero—the better way to consider this result). Would you use handwriting analysis to predict the performance of your workforce? Now suppose that Researcher 2 also did the same research and reported a similar result of r = .07 (not significant).What would you do now? But Researcher 3 reported a significant correlation of r = .20, and Researcher 4 found a correlation of r = .00. Furthermore, Researcher 5 reported r = .13. In concert, would you conclude that the research is inconclusive? This kind of inconsistencies can sometimes be modeled to improve understanding of a complex phenomenon. The best procedure available today to model the random fluctuation, to assess true inconsistency and to try to model the inconsistency is called meta-analysis. Prior to the first step, the meta-analyst determines the metric for comparing all the studies. In our fictitious example, the metric is the correlation coefficient, r. Yet, it could be

a standardized difference between a mean of an experimental group and a mean of a control group on a variable of interest or an odd-ratio (e.g., of dying or not dying as a function of number of cigarettes smoked). It can also be in raw units (e.g., centimeters), percentages, or other quantities. Meta-analysis has three basic steps. First of all, one determines the (weighted) average metric of all reported studies and estimate its confidence interval (its significance). Second, one estimates the true inconsistency (variance between studies) that cannot be attributed to study-to-study fluctuations resulting from sampling error (small-sample sizes). Third, if there are true study-to-study fluctuations, one tries to offer explanatory variables and test their ability to explain the fluctuation. Let us demonstrate meta-analysis with the fictitious example. Figure 1 presents the results of the five fictitious researchers. It shows the sample size for each researcher (100), the size of the reported correlation (at the cross of the horizontal line and the vertical line), and the confidence interval (shown by the width of the horizontal line). The size of the squares show the relative weight of each study (in our case they are identical). Figure 1 shows that for each of these studies, the confidence interval includes zero, except for Researcher 3. The results of the meta-analysis are presented with the diamond at the bottom. That is, the weighted average of all studies is .10 and the confidence interval does not include zero. Moreover, the results suggest that all the inconsistencies stem only from a small sample size in the original studies (test not shown here), and that the best estimate of the “real” relationship between handwriting analysis and performance is .10. The only thing that a decision maker now has to do is to decide whether a

Correlation Study

Total

COR

95%−CI W(fixed)

Resarcher 1

100

0.10 [−0.10; 0.29]

20%

Resarcher 3

100

0.20 [ 0.00; 0.38]

20%

Resarcher 2 Resarcher 4 Resarcher 5 Fixed effect model

100

0.07 [−0.13; 0.26]

100

0.00 [−0.20; 0.20]

100

0.13 [−0.07; 0.32]

500

0.10 [ 0.01; 0.19]

−0.3

−0.1 0 0.1 0.2 0.3

8 | Revista Polyteck | polyteck.com.br

20% 20% 20% 100%

Figure 1. A forest plot of five fictitious studies where each researcher reported the same sample size (100), a correlation and the 95% confidence interval. The results of the meta-analysis are presented with the diamond at the bottom. That is, the weighted average of all studies is .10 and the confidence interval does not include zero.


Salt intake meta-analysis A meta-analysis of 24 experiments on reduced salt intake, aggregating data over more than 3,000 patients, cleary shows that reducing salt intake lowers hypertension. However the results suggests that there are fluctuations due to the sample characteristics (people with pre-existing hypertension vs people with normal blood pressure).

true positive correlation of .10 +/- .09 is meaningful enough to use it. That is, is .10 useful? If yes, is the lower bound of the confidence interval (.01) useful? The upper bound (.19)? These questions must be answered with an expertise of subject matter. In some cases, correlation of .10 could be useful, in others not. If I would plan to use handwriting analysis for selecting employees, I would want to know what are the alternatives (which may have much better predictive power). Suppose a correlation of .10 is useful. Then I have to consider the fact that .10 is the best estimate of the correlation, but that the 95% confidence interval includes .01 which will not be useful. In this case, I will learn that more research is needed to increase the confidence in the mean (to reduce the confidence interval around the estimate of the mean). Let me bring in a true decision I had to reach. My doctor told me to reduce salt intake because I have hypertension. Therefore, I searched in the internet “salt reduction hypertension meta-analysis.� I found a meta-analysis [1] of 24 experiments in which participants in the experimental group reduced their salt intake while the control group continued their normal diet. In some of the studies, there was no apparent effect of salt reduction on hypertension while, in others, there was an apparent effect. However, the combination of all studies, aggregating data over more than 3,000 patients, cleary shows that reducing salt intake lowers hypertension. Next I looked at the magnitude of the effect. Unfortunately, for me, reducing salt intake only reduces blood pressure on average by about 4 mm/Hg - not enough for me to bring back my blood pressure to normal levels. Thus, now I know that reducing salt intake may slightly help me, but will not be enough to solve my problem completely. This first step of the meta-analysis is the very least that every educated citizen needs to know to improve decision-making. The second step involves estimating the existence of true variance, that is, the possibility that study-to-study fluctuations stem from both sampling errors and real, but unknown, differences among the studies. The differences among the studies could be in types of sample, procedures, measures and more. Going back to the meta-analysis of the salt reduction effect on hypertension, it was found that not all the variation among studies could be attributed to sampling errors. In such cases, the meta-analyst moves to the third stage and tries to explain the causes for the true variation. In this step, the meta analyst tests hypotheses about

reasons for the study-to-study fluctuations. For example, in the meta-analysis on the effect of salt reduction on hypertension, the meta-analysts tested whether the results from tests with people with pre-existing hypertension were different from studies that sampled people with normal blood pressure. Indeed, the results suggest that the sample characteristics (with or without pre-existing hypertension) explained some of the study-to-study fluctuation. Specifically, in samples of participants with pre-existing hypertension who reduced the salt intake the blood pressure decreased by about 5 mm/Hg (95% confidence interval about 4 to 6) relative to their control groups. However, sample participants with normal blood pressure showed only 2 mm/Hg (95% confidence interval of about 1 to 4) of such a decrease, albeit, even the later was statistically significant (the lower bound of the confidence interval is about 1, not including zero). This part of the meta-analysis suggest that the more serious the hypertension is, the greater is the benefit of reducing salt intake, but even healthy individuals can gain some minor reduction in blood pressure. Therefore, such reduction levels in blood pressure of each individual are minor, but changing diet habit of the population may save lives. Finally, let us consider other possible outcomes of meta-analysis. In one meta-analysis I have shown that although feedback improves performance on average, the between study variance was real and large, such that in 38% of the 607 experiments I reviewed feedback reduced performance. This changed the belief of many researchers that feedback is always beneficial. Moreover, in that meta-analysis I showed feedback sign does not explain the study-to-study fluctuation, that is, both positive and negative feedback could damage performance. The later result led me to search for explanations in future experiment. That is, meta-analysis can expose new scientific questions. Second, I meta analyzed studies linking a certain gene to personality. Initial reports created a lot of excitement about the possibility of finding such links. Yet, the meta-analysis showed that the average of 20 studies converges on zero and that there are no real study-to-study variation. That is, meta-analysis can help weed out some initially interesting results that could stem only from random fluctuation in small samples. Finally, these days I am meta analyzing studies linking listening with any variable I can find. To my surprise, the links are extremely strong. For example, employees who report that their boss listens well tend to report that the boss is a people

polyteck.com.br | Revista Polyteck | 9


leader (the average of 13 studies was r = .73) that their job satisfaction is high (11 studies and r = .55) and more. Thus, in such a case, a meta-analysis cannot only inform us about the average effect, but the size of the average effect can also inform us about extremely powerful consequences (of listening, in this case). In summary, meta-analysis offers the research community and decision makers a bird’s eye view of research in many domains. This view is less biased than the view that could stem from any single study and thus is recommended for every decision makers. I hope that you too will consult meta-analyses when you are about to reach important decisions, and perhaps consider using meta-analysis in your own field of study.

To learn more • He, F.J., J. Li, and G.A. Macgregor, “Effect of longer term modest salt reduction on blood pressure: Cochrane systematic review and metaanalysis of randomised trials.” BMJ, 346, pp 1325 (2013) • Dina V. Dijk and Avraham N. Kluger, “Task type as a moderator of positive/negative feedback effects on motivation and performance: A regulatory focus perspective”, Journal of Organizational Behavior, J. Organiz. Behav. 32, 1084–1105 (2011) • Avraham N. Kluger, “Are Listeners Perceived as Leaders?”, International Journal of Listening, 27(2), pp 73-84 (2013)

To replicate Figure 1, download the freely available R (programming language) and R Studio. Copy the following code to the upper left window of R Studio, press ctrl-A, and then Run. install.packages(“meta”) library(meta) r <- c(.1,.07,.2,.00,.13) N <- c(100,100,100,100,100) Study <- c(“Researcher 1”, “Researcher 2”,”Researcher 3”,”Researcher 4”, “Researcher 5”) metacor(r,N,studlab=Study,comb.random=False) f<- metacor(r,N,studlab=Study,comb.fixed=TRUE, comb. random=FALSE) f forest(f,hetstat=F)

Anuncio Meia Página.pdf

1

11/3/15

4:57 PM

10 | Revista Polyteck | polyteck.com.br

Avraham N. Kluger is a faculty

member at the Organizational Behavior unit of the School of Business Administration at the Hebrew University of Jerusalem, Israel. His research demonstrated that feedback, even positive feedback, can be detrimental to performance. He has developed several listening tools including “Feedforward” (with Dina Nir), and now pursues questions about effective listening both academically and as a trainer, teaching people from diverse cultures to listen to one another.


Combustíveis

mais seguros O atentado terrorista de 11 de setembro de 2001 serviu de inspiração para um grupo de pesquisadores do Caltech desenvolver aditivos que evitam que combustíveis entrem em ignição após uma colisão, reduzindo mortes e danos. A equipe criou um aditivo polimérico que forma megasupramoléculas espontaneamente e é capaz de evitar a formação de névoa inflamável durante colisões, evitando assim a ignição espontânea ou forçada do combustível. Por Raisa Jakubiak

polyteck.com.br | Revista Polyteck | 11


Acidente fatal do piloto Roger Willianson

Ataque de 11 de setembro de 2001 - Roberto Robanne, AP

R

oger Williamson foi um piloto inglês de Fórmula 1 que morreu durante o Grande Prêmio da Holanda de 1973. As circunstâncias do acidente que vitimou Williamson são terríveis: o pneu estourou e, devido à alta velocidade, o carro se arrastou por cerca de 275 metros até parar de ponta cabeça num muro de contenção. Devido ao atrito do tanque de combustível com o asfalto, a névoa de gasolina formada na colisão entrou em ignição e o carro se incendiou. Outro piloto, David Purley, desceu de seu carro e tentou virar o carro do amigo enquanto os organizadores e equipes de emergência apenas assistiam. A corrida continuou normalmente. O acidente é até hoje lembrado como um dos piores da história da Fórmula 1. Em 17 de julho de 2007, o Airbus A320 da TAM operando o voo JJ3054, vindo de Porto Alegre, passou da pista do aeroporto de Congonhas durante o pouso em um dia chuvoso e colidiu com um depósito da mesma companhia do outro lado da rua. Todos os passageiros e tripulação morreram, além de 11 funcionários do depósito e um taxista que estava no posto de gasolina ao lado. Na manhã do dia 11 de setembro de 2001, quatro aviões comerciais foram sequestrados nos Estados Unidos. Os dois Boeing 747 Jumbo que atingiram as Torres Gêmeas, em Nova Iorque, saíam de Boston com destino a Los Angeles. O voo 11 da American Airlines colidiu com a Torre Norte do World Trade Center às 8:46 da manhã enquanto o voo 175 da United Airlines colidiu contra a Torre Sul às 9:03. Ambos os edifícios desmoronaram cerca de duas horas após as colisões. Apenas o colapso das torres fez 2606 vítimas, sendo 2195 funcionários do WTC, 343 bombeiros, 60 policiais e 8 membros de equipes médicas. O que todos estes incidentes têm em comum é: a maioria das vítimas não sofreu ferimentos sérios devido ao impacto, mas morreu em decorrência do fogo. Williamson morreu asfixiado. Segundo investigações, o impacto da colisão do Airbus da TAM não foi grave, porém a maior parte das vítimas morreu carbonizada. As investigações realizadas pelo National Institute of Standards and Technology sobre a queda das Torres Gêmeas chegaram à conclusão de que os prédios desabaram em consequência de danos estruturais nas vigas de aço, causados pelas altas

12 | Revista Polyteck | polyteck.com.br

Local da queda do voo JJ3054 - Milton Mansilha, Agência Brasil

Destroços dos aviões envolvidos no acidente de Tenerife - AP

temperaturas decorrentes da ignição do combustível dos aviões. A energia liberada pela bola de fogo de cada Jumbo foi calculada em aproximadamente 50.000 MJ por andar por prédio – aproximadamente dez vezes a energia cinética dos impactos, que foi estimada entre 4300-6300 MJ. A pressão gerada pela névoa queimando dentro do prédio era tão grande que deslocou blocos de concreto e explodiu janelas, arremessando escombros a altas velocidades que arrancaram o isolamento das colunas de aço da estrutura das torres. Isto resultou em incêndios simultâneos em vários andares incidindo diretamente sobre as vigas de aço, com suprimento virtualmente ilimitado de oxigênio para alimentar a combustão. Centenas de pessoas morreram com o impacto direto das aeronaves contra os edifícios, porém o maior número de vítimas ficou presa e morreu com o colapso ou asfixiada. Em termos gerais, estima-se que o fogo seja responsável por 40% das mortes em acidentes aéreos. Quem viveu o 11 de setembro sabe o quão chocante foi. O evento, porém, serviu de inspiração para um grupo de pesquisadores do Caltech (Californa Institute of Technology), em Passadena, Califórnia, desenvolver aditivos para combustíveis de aviação que não entrem em ignição após uma colisão. Segundo a professora do Caltech, Julie A. Kornfield, líder do Kornfield Lab, o episódio marcou tanto que fez com que o grupo aceitasse de imediato o pedido da Aeronáutica dos EUA para pesquisar e testar tal material. O Kornfield Lab trabalha no desenvolvimento de polímeros para soluções em diversas áreas, inclusive tratamento de doenças oftalmológicas. Ao aceitar o desafio, eles precisaram estudar e desenvolver um aditivo que evitasse a ignição sem, no entanto, prejudicar os motores dos veículos ou a performance dos combustíveis. Tentativas semelhantes já haviam sido realizadas na década de 70, mas os polímeros desenvolvidos na época, apesar diminuírem os efeitos da ignição em névoa de combustíveis, não se mostraram viáveis comercialmente. As pesquisas foram então abandonadas na década de 80, mas serviram de inspiração para Kornfield e sua equipe: e se outros tipos de polímeros pudessem cumprir este papel?


Atomização em combustíveis líquidos

Combustíveis fósseis líquidos como a gasolina, diesel e querosene são a maior força motriz de veículos no mundo, representando 34% do consumo mundial de energia. Porém, esta dependência representa um risco maior de explosão quando ocorrem acidentes. Uma poça de combustível não explode facilmente devido às altas energias necessárias para manter o calor até atingir o ponto de autoignição. No entanto, um efeito que ao mesmo tempo é fundamental para o funcionamento dos motores de combustão pode se tornar o principal vilão de uma colisão: a atomização. A atomização é um processo de transformação de um jato de líquido em pequenas gotículas em suspensão – como um spray. A maioria dos sistemas de criação de “sprays” consiste na formação de gotículas diretamente vindas de um jato em regime turbulento (como quando você aperta o dedo na saída da mangueira). Dentro destas condições, as gotículas podem se formar de quatro maneiras diferentes, dependendo de fatores como a velocidade do jato e seu diâmetro. No caso da atomização, o líquido se “desintegra” longe da saída da fonte em pequenas gotículas com diâmetro muito menor do que o da saída, transformando-se em uma espécie de névoa. No caso de motores de combustão interna, este processo é fundamental para a mistura entre o combustível e o ar. Apesar da importância da atomização, os mecanismos de quebra ainda não são bem compreendidos, mas alguns detalhes já são conhecidos. Quando se trata de atomizadores comerciais, a maneira como o jato se desintegra pode ser controlada por pressão, forças centrífugas, entre outros. Mas o que acontece quando centenas de litros de combustível de aviação são transformadas em pequenas partículas dispersas no ar? Durante um impacto, pode-se imaginar que os mecanismos dominantes no caso de uma colisão são as forças mecânicas externas. Porém, a assimetria do sistema (uma forma técnica de dizer “coisas voando para todos os lados”) faz com que uma série de outros fatores também possa contribuir para a formação de névoa de combustível: a tensão superficial entre o jato em movimento e o ar em repouso (que desestabiliza o jato causando sua desintegração), forças centrífugas em jatos “com redemoinhos”, forças eletrostáticas externas, entre outras. Os fatores dominantes para a análise do processo de

formação das gotículas são o número de Reynolds e o número de Ohnesorge. O número de Reynolds (Re) é uma grandeza adimensional utilizada para prever padrões de fluxo similares em diferentes situações em mecânica dos fluidos; também é útil para caracterizar o tipo escoamento para diferentes sistemas. Ele é definido pela razão entre as forças inerciais e as forças de viscosidade, quantificando a importância de cada uma em determinado sistema para a caracterização do regime de fluxo, dependendo das condições iniciais. Sistemas com baixos Re são dominados principalmente pelas forças de viscosidade e são caracterizados por movimento constante do fluido (fluxo laminar). Já sistemas com altos Re são dominados pelas forças inerciais e tendem a produzir vórtices, pontos caóticos e outras instabilidades (fluxo turbulento). No caso de uma colisão com formação de névoa de combustível, pode-se esperar Res altíssimos, com sistemas altamente caóticos.

forças inerciais tyD Re = n = forças de viscosidade Já o número de Ohnesorge (Oh), também uma grandeza adimensional, relaciona as forças de viscosidade com as forças inerciais e a tensão superficial. Ele é normalmente é utilizado para entender a distribuição das gotículas na névoa.

Oh =

n = tvL

forças de viscosidade forças inerciais # tensão superficial

Relacionando-se Re com Oh, é possível entender que os mecanismos responsáveis pela formação das gotículas num spray ou névoa dependem fortemente da viscosidade do líquido. E foi neste fator que a equipe do Caltech se concentrou na hora de desenvolver um polímero que pudesse evitar a autoignição de combustíveis líquidos. Onde: ρ: massa específica do fluido ϑ: velocidade média do fluido µ: viscosidade dinâmica do fluido σ: tensão superficial D: longitude característica do fluxo (ex: diâmetro para fluxo no cano) L: comprimento característico (no caso de gotas, o diâmetro)

A atomização acontece constantemente nos motores de combustão interna, incluindo a maioria dos motores de propulsão a jato – no caso de aviões. Carros de passeio e motocicletas utilizam o ciclo Otto e veículos pesados como caminhões, trens e navios utilizam o ciclo ideal do Diesel (que não se refere necessariamente ao combustível utilizado, mas sim ao ciclo termodinâmico em que o motor opera). Para que um combustível

seja queimado, em geral, é necessário que três coisas ocorram: a atomização, emulsificação (mistura das gotículas de combustível com o ar comprimido) e a vaporização (transformado as gotículas em uma forma rarefeita). No caso de motores, a atomização é função do bico injetor. Ao contrário do que acontece em acidentes, não ocorrem “explosões” dentro dos motores, mas sim a combustão controlada.

polyteck.com.br | Revista Polyteck | 13


O problema - ignição a baixas energias

A criação destes sprays ou névoas resulta em gotículas de diferentes tamanhos, e normalmente métodos estatísticos são utilizados para descrever a distribuição de tamanhos. O problema encontrado pelos pesquisadores nos anos 70, e que também inspirou o time de Kornfield, é simples: Tomando a razão Área de Superfície / Volume (A/V) de uma esfera - gotículas menores que 2 mm são aproximadamente esféricas - temos que A/V = 3/r. Isso quer dizer que quanto menor for o raio das esferas, maior será a superfície de combustível em contato com o ar para um mesmo volume inicial de combustível. Como a superfície de contato de um reagente é diretamente proporcional à velocidade de reação, quanto menor for o tamanho das gotículas de combustível, mais rapidamente ele oxidará e liberará energia. Em poucas palavras: quanto mais fina a névoa de combustível, mais violenta a explosão.

4rr 2 3 A/V = 4 3 = r 3 rr Além disso, a taxa de transferência de calor convectiva para uma gotícula suspensa em ar, descrita pela lei do resfriamento de Newton, é proporcional à diferença de temperatura (∆T) entre o ar e a gotícula, o coeficiente de transferência de calor e o quadrado do raio da gotícula, ou seja: uma partícula com um diâmetro de 0,4 mm precisa de quatro vezes mais energia do que uma partícula de 0,2 mm para atingir a mesma temperatura. Desta maneira, é muito mais difícil atingir o ponto de ignição em uma gotícula de 0,4 mm do que em uma partícula de diâmetro 0,2 mm.

dQ 2 . . dt = -h ADT (t) = -h 4rr DT (t) Finalmente, o aumento no diâmetro médio das gotículas também faz com que a névoa disperse mais rápido. Isso ocorre por que partículas muito pequenas ficam mais tempo em suspensão devido a colisões com os átomos em movimento presentes no fluído (Movimento Browniano). Um aumento de 10 vezes no diâmetro das gotículas acarreta num aumento de 1000 vezes na sua massa, fazendo com que as partículas deixem de exibir Movimento Browniano e a névoa decante mais rapidamente. Assim, o grande desafio da equipe foi desenvolver um polímero capaz de aumentar a viscosidade do combustível, dificultando a formação de gotículas pequenas, porém sem prejudicar seu desempenho em motores ou turbinas. Onde: Q: energia térmica em joules h: coeficiente de transferência de calor ∆T(t) = T(t) - T: gradiente térmico dependente do tempo entre a gotícula e o ar. A: área de superfície V: volume r: raio da esfera

14 | Revista Polyteck | polyteck.com.br

Quanto maior o raio médio das gotículas de combustível formadas em um impacto, menor é o risco de explosão. Isso por que (1) a área superfície de combustível em contato com o ar é inversamente proporcional ao raio; (2) a energia necessária para aquecer a gotícula aumenta com o quadrado do raio; e (3) partículas maiores em suspensão decantam mais rápido que as menores.

Construindo soluções

Na década de 70, pesquisadores se empenharam em descobrir um aditivo que pudesse solucionar este problema, principalmente após o terrível acidente aéreo de Tenerife - dois aviões Jumbo Boeing 747 se chocaram na pista do aeroporto e explodiram, deixando 583 mortos e 61 feridos. Na época, testes com polímeros de cadeia ultralongas como o FM-09 (peso molecular > 3000 kg/mol de copolímero, 5 mol% de unidades de carboxila) indicaram um aumento no diâmetro das gotículas na névoa de combustível após o impacto, resultando num fogo a temperaturas relativamente baixas e de curta duração. A característica especial que permite que os polímeros ajudem a controlar a formação da névoa e diminuir o arrasto nos combustíveis é a sua capacidade de armazenar energia à medida que suas cadeias “esticam” – assim, o fluido como um todo resiste ao alongamento, tornando sua separação em porções menores mais difícil. Os polímeros ultralongos são potenciais candidatos para esta tarefa graças a como as suas cadeias se comportam tanto ao começar a ser alongadas quanto ao máximo de extensão que suportam. O artigo da equipe do Caltech, publicado na revista Science, dá um exemplo: aumentando o peso molecular de 50 kg/mol para 5000 kg/mol, a taxa crítica de alongamento diminui em mais de três ordens de grandeza e o alongamento máximo molecular aumenta em duas ordens de grandeza. No entanto os polímeros desenvolvidos para este fim da década de 70, como o FM-09, deveriam ser adicionados ao combustível momentos antes do abastecimento das aeronaves, dificultando a logística nos pátios dos aeroportos. Tudo isso porque as cadeias ultralongas se degradam durante os processos de transporte, bombeamento e filtragem do combustível. Ao passar pelas tubulações, tensão hidrodinâmica se acumula ao longo da cadeia principal até quebrar as ligações covalentes, como se o polímero fosse “raspado”. Essa “raspagem” continua até que as cadeias encurtem e tenham peso molecular menor do que 1000 kg/mol. Caso o aditivo fosse adotado, seria necessário também realizar alterações nos motores das aeronaves, pois o polímero interferia no seu funcionamento. É claro que


os fabricantes do setor de aviação não concordaram, tornando a comercialização do aditivo inviável. Conhecendo as vantagens e desvantagens dos polímeros de cadeia ultralonga, a equipe decidiu utilizar cadeias não tão longas, mas que possuíssem terminações “grudentas” ou “adesivas”, semelhante a um Velcro. Estes polímeros menores se associariam entre si para criar o que os pesquisadores chamam de megasupramoléculas: polímeros gigantescos que teriam o mesmo comportamento dos polímeros ultralongos, exibindo as mesmas características como alta conformidade em repouso e alta capacidade de alongamento durante o fluxo. Para isso, a associação deve ocorrer nas extremidades das cadeias e em pares. Além disso, a existência das duas extremidades adesivas permitiria que a megasupramolécula se quebrasse em partes menores durante o manejo do combustível, voltando posteriormente à sua configuração original e recuperando as suas propriedades mecânicas. A este tipo de polímero dá-se o nome de “telequélico” (telechelic). Os pesquisadores optaram por utilizar hidrocarbonetos insaturados devido à sua solubilidade e resistência. Além disso, eles não têm efeitos reológicos significativos (o que é interessante para manter o fluxo de combustível semelhante ao fluxo sem adição de polímeros) e se mantém em solução mesmo abaixo do ponto de congelamento do combustível. A equipe também buscou grupos terminais que tendem a fazer ligações de hidrogênio, ligações resultantes de fortes atrações eletrostáticas entre o hidrogênio e outro átomo devido a cargas localizadas em cada átomo (não confundir com ponte de hidrogênio). Estudos recentes que indicam que este tipo de ligação é forte o suficiente para conseguir uma associação consistente entre pares de cadeias curtas (peso molecular ≤ 50 kg/mol). No entanto, estudos anteriores indicavam que estes polímeros telequélicos não seriam capazes de se associar para a formarem megasupramoléculas. Logo, a equipe desenvolveu estudos utilizando mecânica estatística para estimar se isso poderia

ocorrer sob condições específicas. Eles investigaram polímeros a concentrações abaixo de 1% para guiar a seleção das melhores estruturas moleculares para o trabalho. O modelo usa o peso molecular para mapear possíveis locais de rede, onde cada local tem o mesmo volume de um segmento de Kuhn: basicamente, segundo o tratamento teórico proposto por Werner Kuhn, cada cadeia polimérica real é considerada como uma coleção de N segmentos. Cada segmento pode ser interpretado como se estivesse livremente associado ao outro, podendo estar orientado de forma randômica ou em qualquer direção, sem sofrer a influência de forças, independente das direções tomadas por outros segmentos. Ou seja, ao invés de considerar uma cadeia real com n ligações e com ângulos de ligação, torção e comprimento fixos, Kuhn considerou uma cadeia equivalente ideal com N segmentos conectados que podem se orientar em qualquer direção. A estes segmentos dá-se o nome de segmento de Kuhn, que possibilitam a investigação das mais diversas formas com que polímeros podem se estruturar. Assim, a equipe de Kornfield chegou à conclusão de que estas associações entre polímeros telequélicos funcionam satisfatoriamente sob duas condições: se o peso molecular estiver entre 400 – 1000 kg/mol e seus grupos funcionais das extremidades se associarem com energia de 16-18 kT. Se a energia de ligação é muito baixa, a formação de supramoléculas é inadequada. Se a energia de ligação é muito alta, extremidades “penduradas” são muito penalizadas e poucas espécies lineares se formam. Já com as informações necessárias em mãos, os pesquisadores projetaram e sintetizaram polímeros com cadeia principal de cerca de 50.000 átomos de carbono. As moléculas tinham ou aminas di-terciárias ou ácidos isoftálicos como grupos terminais, que formam ligações de hidrogênio intermoleculares. Elas são três vezes mais fortes do que pontes de hidrogênio. “Nós escolhemos moléculas e grupos terminais muito simples”, disse Kornfield em sua palestra na Conferência de Inovação e Tecnologia da Braskem, “você não espera que uma molécula tão simples seja milagrosa. Grupos terminais simples podem fazer coisas muito poderosas”.

A extinção do fogo

O polímero desenvolvido pela equipe de Kornfield foi então adicionado a combustível de aviação utilizando concentrações muito baixas - em torno de 0,3%. Nestas condições, o polímero não afetou nenhuma propriedade fundamental do combustível como densidade, energia e tensão superficial. A formação de megasupramoléculas se mostrou evidente pela viscosidade da solução e pelas medidas de espalhamento de luz Síntese de polímeros telequélicos longos não associativos (com terminais R1) e conversão pós-polimerização para telequélicos associativos (com terminais R2). Estes polímeros ligam-se uns aos outros para formar megasupramoléculas. Fonte: Ming-Hsin Wei et al., Science 350, 6256, 72-75 (2015)

polyteck.com.br | Revista Polyteck | 15


laser multiângulo (MALLS, na sigla em inglês). O esforço cortante observado também indica que os polímeros telequélicos se associaram em megasupermoléculas. Agora vem a parte divertida: os testes com fogo. Para testar a eficiência do aditivo no controle de ignição do combustível, um projétil foi atirado (para simular o efeito de um impacto) em contêineres com combustível de aviação comum ou com combustível de aviação tratado com o aditivo. Além disso, eles colocaram três maçaricos de propano ao longo do caminho da propagação da névoa. No caso do combustível comum, as condições de impacto geram uma névoa extremamente fina pela qual o fogo se propaga rapidamente. Dentro de 60 milisegundos, a névoa se transforma numa grande bola de fogo. Já o combustível com o aditivo polimérico foi testado de duas formas. Na primeira, foi utilizado combustível recém misturado com o aditivo. Na segunda, o combustível passou por tubulações por aproximadamente 60 segundos antes de ser injetado no contêiner. Os resultados são impressionantes: a névoa formada em ambos os casos é visivelmente mais controlada e espessa, mesmo após passar repetidamente por uma bomba de combustível. Segundo Kornfield, quando as supermoléculas estão em equilíbrio elas se mantém em uma forma enrolada. Quando as gotículas de combustível se alongam após o impacto, as megasupermoléculas se esticam, mas apenas até certa extensão e, ao invés de quebrarem, apenas desgrudam umas das outras, se recombinando rapidamente – o que evita que as gotículas se dividam e se transformem na névoa altamente inflamável. Quando os maçaricos são acionados, apesar de pequenos focos de ignição aparecerem, o fogo não se propaga pela névoa e se extingue rapidamente. Veja a entrevista com a professora Julie Kornfield no YouTube da Polyteck. “Nós mesmos não acreditávamos no que estávamos vendo. A primeira coisa que fomos verificar é se os maçaricos estavam funcionando, pois se não houvesse fogo, o experimento não valeria”, comenta Kornfield. “Mas ao assistir o vídeo com cuidado notamos que o fogo realmente estava lá, mas se autoextinguia numa velocidade impressionante”. Além disso, testes simultâneos com diesel foram realizados utilizando o Protocolo Federal para Teste em Motores a Diesel dos EUA. Os resultados iniciais mostram que não há mudanças significativas nos níveis de consumo de combustível, além de pouca diferença nos níveis de emissão de gases. O resultado mais significativo encontrado foi a redução da formação de fuligem em 11,7%, o que indica que os combustíveis tratados com o polímero são tão eficientes como o diesel comum, porém mais limpos. A equipe agora está construindo um sintetizador em escala piloto que poderia produzir 1 kg do aditivo por hora e já recebeu atenção de empresas do ramo de combustíveis de aviação e transporte de líquidos inflamáveis. Este é um exemplo claro de trabalho interdisciplinar focado diretamente em soluções para pessoas – a aplicação de teoria de polímeros para resolver problemas práticos maiores. E esta é a maneira mais eficiente de desenvolver novos materiais. Em entrevista à Polyteck, Kornfield finaliza: “Tudo o que eu quero é poder ajudar a salvar vidas. Quem sabe, se os bombeiros tivessem mais 40 minutos para evacuar os prédios no 11 de setembro, muitas mortes poderiam ser evitadas”.

16 | Revista Polyteck | polyteck.com.br

Teste de impacto na presença de fontes de ignição após 60 ms do impacto. Na figura de cima combustível sem tratamento, abaixo combustível tratado com 0,3% em peso do polímero (430 kg/mol) produzido no Kornfield lab. Fonte: Ming-Hsin Wei et al., Science 350, 6256, 72-75 (2015)

Para saber mais • Ming-Hsin Wei et al., “Megasupramolecules for safer, cleaner fuel by end association of long telechelic polymers”, Science 350, 72 (2015) • Bjarne P. Husted, Gören Holmstedt e Tommy Herzberg, “The Physics behind water mist systems”, IWMA Conference (2004) • William A. Sirignano, “Recent theoretical advances for liquid-fuel atomization and burning”, Seventh International Symposium on Special Topics in Chemical Propulsion • Prachi Patel, “Telechelic polymers suppress jet fuel explosions”, Materials Research Society (2015) • Rolf D. Reitz, “Reciprocating Internal Combustion Engines”, Engine Research Center, University of Wisconsin-Madison (2012) • Edson J. J. de Souza, “Concepção e desenvolvimento de correlações experimentais para a simulação, controle e otimização de sprays gerados em atomizadores mecânicos-centrífugos”, Tese de Doutorado pelo Curso de Pós-Graduação em Engenharia na ênfase Energia e Ciências Térmicas da Universidade Federal do Paraná • Ray T. Bohacz, “Understanding Gasoline Atomization - Breaking Up Is Hard To Do”, Hot Rods (2014) •

Caltech Kornfield Lab, https://kornfield.caltech.edu/

• “Atomization Of Liquid Fuels”, Curso Combustion and Fuels, Departamento de Engenharia Mecânica e de Energia da Universidade Politécnica de Wrocław

Raisa Jakubiak é diretora de redação

da Revista Polyteck. Bacharela em Física pela Universidade Federal do Paraná, foi bolsista de iniciação científica no Group of Optoloectronic Organic Devices (GOOD), na UFPR, onde trabalhou no desenvolvimento de memórias orgânicas voláteis e aprendeu sobre a construção de transístores. Também trabalhou no LITS, na caracterização de um protótipo de lab-on-a-chip capaz de diagnosticar várias doenças com poucas gotas de sangue. Apaixonada por ciência desde o berço, acha que o segredo para quem quer mudar o mundo é nunca parar de aprender. Trabalha na Polyteck para continuar aprendendo, e porque acha que faltam meios de comunicação feitos por quem vive a ciência no seu dia a dia.


A Revolução

da Internet

Nesta sequência de três artigos explicaremos como bilhões de máquinas conectadas estão modificando a infraestrutura da internet, coletando dados detalhados sobre nossas ações diárias e fornecendo informações que nos possibilitam adquirir conhecimento sobre o mundo e nós mesmos. A internet está mudando a maneira como vivemos, aprendemos, treinamos, investimos, empreendemos e até como fazemos compras no supermercado. Por André Sionek e Leonardo Rodrigues da Silva

Um número finito de endereços na internet

A

partir de quantos dispositivos você acessa a internet diariamente? Provavelmente um notebook, um computador no trabalho ou faculdade, um smartphone e talvez um tablet ou algum vestível (um smartwatch, por exemplo). A Cisco estima que em 2015 existam cerca de 25 bilhões de aparelhos online, sendo que 7 bilhões são dispositivos móveis - quase um para cada pessoa na Terra. E esse número não para de aumentar. Segundo um estudo de Guo-Qing Zhang, da Academia Chinesa de Ciências, o tamanho da internet cresce exponencialmente seguindo a famosa lei de Moore. De acordo com o estudo, a previsão é que a internet dobre de tamanho a cada 5,32 anos. Dessa maneira, em 2020 serão cerca de 50 bilhões de equipamentos solicitando um endereço IP para se conectar à internet. O Protocolo de Internet (IP, na sigla em inglês), é o principal protocolo de comunicação da internet. Um endereço IP é atribuído a cada dispositivo que se conecta à rede; esse endereço funciona de maneira semelhante a um número de telefone, podendo ser identificado por quem está recebendo a ligação. Quando o cliente (qualquer computador utilizado por um usuário para se conectar a uma rede e enviar solicitações a um servidor) envia uma solicitação, ela é

marcada com o seu endereço IP, garantindo que o servidor saiba para onde enviar a resposta. Um novo endereço pode ser atribuído a cada máquina tanto no momento da inicialização (endereço IP dinâmico), quanto de forma permanente através de uma configuração fixa de hardware ou software (endereço IP estático). Geralmente o endereço IP também está associado a uma localização geográfica, podendo ser utilizado pelo servidor para enviar conteúdos personalizados ao cliente e exibir resultados locais - como a previsão do tempo para a cidade em que você está. A versão 4 do IP (IPv4) se popularizou no começo da década de 80 e continua em uso até hoje. Um endereço IPV4 consiste em um código de 32 bits dividido em quatro octetos representados por números de 0 a 255. Parece complicado, mas um endereço IPv4 é simplesmente um número com a forma 200.195.190.113 (tente acessar este endereço no seu navegador). Com 256 possibilidades diferentes para cada octeto (256 = 28 = 8 bits, por isso que cada conjunto de números é chamado de octeto), temos que o número total de endereços diferentes é igual a 28 × 28 × 28 × 28 = 232, ou cerca de 4,3 bilhões. O problema é que, assim como os números de telefone

polyteck.com.br | Revista Polyteck | 17


começaram a se esgotar e foi necessário adicionar mais um dígito, 4 bilhões de endereços IP não são suficientes nem para atender toda a população mundial atual. Agora imagine se formos considerar todos os bilhões de dispositivos que já estão online ou estarão no futuro. Essa preocupação com o crescimento da internet e com a exaustão dos endereços IPv4 surgiu na década de 90, quando a Internet Engineering Task Force (IETF), entidade responsável por desenvolver e promover padrões na internet, começou a explorar novas tecnologias para aumentar a capacidade de endereçamento da rede. A solução permanente foi redesenhar o Protocolo de Internet. Essa nova geração, batizada IPv6 em 1995, começou a ser implementada no começo dos anos 2000; nela, o tamanho dos endereços aumentou de 32 para 128 bits. Desta maneira, o número de endereços IPv6 disponíveis passará a ser de 2128, um número tão grande que fica até difícil de escrever: são cerca de 3,4 × 1038 (340.000.000.000.000.000.000.000.000.000.000.000.000) endereços diferentes. Isso representa 6,5 × 1023 combinações diferentes por metro quadrado de superfície terrestre. Além desse número de endereços não se esgotar tão cedo, o IPv6 também torna o gerenciamento de redes mais fácil devido às suas capacidades de autoconfiguração e por oferecer melhor segurança que a versão anterior. Essa versão utiliza um Flow Label (etiqueta de controle de fluxo)

18 | Revista Polyteck | polyteck.com.br

para priorizar a entrega de pacotes. Isso permite que os hosts se comuniquem utilizando o conceito de QoS (Quality of Service) para entrega dos pacotes, melhorando a sua navegabilidade. A Campus Party de 2011, realizada em São Paulo e que contou com a presença de grandes nomes como Steve Wozniak (co-fundador da Apple), trouxe a público a primeira utilização do protocolo IPv6 no Brasil. Mas o lançamento mundial do IPv6 ocorreu somente em 6 de junho de 2012, num evento organizado pela Internet Society que marcou o início da transição do protocolo antigo para o novo pelos maiores websites e provedores de equipamentos e serviços para internet. Segundo a Cisco, 27% dos dispositivos móveis já tinham capacidade de utilizar IPv6 em 2014. O Google tem uma ferramenta que mede a quantidade de usuários que acessam os seus seviços utilizando IPv6. Em setembro de 2008 somente 0,14% dos usuários utilizavam o protocolo, e na data do lançamento mundial o índice subiu ligeiramente para 0,65%. Hoje cerca de 8% dos usuários utilizam a nova versão de IP. Trocar toda a infraestrutura da internet do IPv4 para o IPv6 vai levar algum tempo ainda, mas a mudança vai possibilitar que todos os dispositivos “conversem” diretamente uns com os outros - fator essencial para o surgimento de serviços e produtos inovadores.


Internet das Coisas tudo conectado

C

om quase 25 bilhões de máquinas online, é de se imaginar o enorme volume de dados que trafega entre todos estes computadores. Segundo a Cisco, a estimativa é que em 2016 o tráfego IP global vai atingir 1,1 zettabytes por ano, ou um bilhão de gigabytes por mês. Já em 2019 estima-se que haverá tráfego IP maior que 2 zettabytes por ano, sendo que cerca de 67% desse tráfego será originado por dispositivos “não-PC” (tablets, smartphones, etc). Nos dispositivos móveis, o tráfego global de dados (desconsiderando dispositivos conectados a uma rede wireless) atingiu quase 30 exabytes em 2014 - 30 vezes o tráfego de dados de toda a internet no ano 2000. Os dispositivos inteligentes - conexões móveis com capacidades multimídia e no mínimo conectividade 3G - representaram 26% do total de dispositivos móveis e

conexões em 2014, mas foram responsáveis por 88% do tráfego de dados. Em média cada smartphone no mundo é responsável pelo tráfego de 819 Mb de dados por mês. Já o tráfego via wireless e redes móveis vai exceder o tráfego de dispositivos com fio em 2019; as redes com fio, que foram responsáveis por 54% do tráfego IP em 2014, serão responsáveis por somente 33% em 2019. Entretanto esses números não significam somente que mais pessoas estão acessando a internet. Eles mostram que uma nova classe de dispositivos com conexão à internet está surgindo: são refrigeradores, relógios, carros, televisões e até mesmo roupas. De olho nesta tendência, diversas empresas vêm investindo em maneiras de conectar objetos e tarefas do dia a dia para melhorar a experiência dos usuários, simplificar atividades que exijam muitas etapas, coletar dados sobre as

pessoas (peso, padrões de sono, atividades diárias, etc), ou melhorar a segurança (monitorar sua casa a distância, por exemplo). Considerando o impacto que a internet causou nas comunicações, negócios, educação, ciência e governo podemos afirmar ela é uma das mais importantes e poderosas criações da história da humanidade. A próxima evolução da internet promete coletar, organizar, analisar e distribuir inúmeras informações que poderemos então transformar em conhecimento. Estamos nos primeiros dias da chamada Internet das Coisas (IoT, na sigla em inglês), onde objetos físicos, muitas vezes do nosso cotidiano, passaram a possuir sistemas eletrônicos com sensores e conectividade à internet. Cada “coisa” é unicamente identificada e seu sistema computacional embarcado é capaz de coletar dados e tomar decisões interoperando com a infraestrutura de internet existente. De acordo com a Cisco Internet Business Solutions Group (IBSG), IoT é simplesmente o ponto no tempo em que há mais “coisas ou objetos” online do que pessoas no mundo. Esse nascimento da IoT aconteceu entre 2008 e 2009, quando o número de dispositivos conectados à internet superou a população mundial. A web passou por vários estágios de evolução enquanto a infraestrutura da internet manteve um caminho de desenvolvimento e melhoramentos constantes, mas não mudou muita coisa. A priori, a web nasceu para uso estritamente acadêmico para, em seguida, assumir a forma de uma rede de páginas corporativas. No final da década de 90, agregou novos elementos e passou a se comportar como uma plataforma para compra e venda de produtos e serviços. Hoje, com a popularização do acesso e das plataformas de interação pessoal, podemos dizer que a web também acumulou a função de compartilhar de informações pessoais entre amigos, família e conhecidos. Já a infraestrutura da internet funciona hoje essencialmente da mesma maneira que funcionava na época em que fora criada. Por exemplo, nos seus primeiros anos de vida haviam vários protocolos de comunicação (AppleTalk,

polyteck.com.br | Revista Polyteck | 19


Até as vacas estarão conectadas Um sensor implantado no gado permitirá que os pecuaristas monitorem a saúde do rebanho e acompanhem a sua movimentação, vaca por vaca. O sistema permite o controle das vacinas tomadas e até mesmo a descendência genética dos animais. O sistema de monitoramento vai garantir que o suprimento de carne para consumo humano seja mais saúdavel e abundante.

Token Ring, e IP), hoje ela é padronizada em IP. A IoT pode ser considerada a primeira evolução real da internet, um salto que vai melhorar a maneira como as pessoas vivem, aprendem, trabalham e se divertem. Sistemas que conseguem antecipar as necessidades das pessoas são o ponto chave da IoT, a exemplo de vários sensores (de pressão, vibração, temperatura, luz, umidade) que já se tornaram mais proativos do que reativos nos últimos anos. A ideia é, por exemplo, conectar o GPS do carro com a porta da garagem, que abre automaticamente e interage com outro dispositivo para destrancar as portas, enviando em seguida informações ao termostato e ao sistema de iluminação para ajustar a temperatura da casa e acender determinadas luzes. Para isso o usuário não precisará digitar em um tablet a temperatura ideal de cada cômodo ou especificar quais luzes deverão acender, tudo será definido automaticamente de acordo com informações coletadas a partir dos hábitos do usuário. No mundo da IoT até as vacas estarão online. Um sensor implantado na orelha ou sob a pele dos animais (ou em qualquer outro lugar) permitirá que os pecuaristas monitorem a saúde do gado e acompanhem a sua movimentação, vacinas tomadas e até mesmo sua genética, garantindo um suprimento de carne mais saúdavel e abundante para consumo humano. A BovControl é uma startup brasileira que tem se destacado exatamente nesse mercado. Pensando em como inserir a indústria de gado dentro da IoT, a empresa criou a Internet of Cows (Internet das Vacas, na tradução). A ideia é reunir empresas de hardware capazes de

identificar as tecnologias mais promissoras para a próxima geração de dispositivos vestíveis para gado. O objetivo é criar um sensor que será capaz de coletar dados do gado em campo e entregar essa informação diretamente para o pecuarista. O sensor deverá conseguir medir dados biométricos do gado como temperatura, hidratação, respiração e qualidade da carne, assim como a sua localização. A bateria deverá durar de acordo com o tipo de tecnologia utilizada e da habilidade do sensor de coletar energia do sol ou de outras fontes. A startup inclusive está patrocinando a ida de um estudante de engenharia até Boston, nos EUA, para “hackear” o seu projeto de sensor em conjunto com líderes da indústria do gado. Para se inscrever é só visitar: www.internetofcows.org. Sensores também poderão ser utilizados para melhorar a saúde das pessoas. Esse é o caso do MovSmart, um produto da BioSmart (outra startup brasileira) que conecta todos os equipamentos existentes em academias à internet. A plataforma busca na internet o treino definido pelo instrutor, ajuda o atleta (amador ou profissional) a executar o treino corretamente e ainda coleta, armazena e disponibiliza as informações de cada movimento concêntrico, excêntrico e os intervalos executados para um acompanhamento mais preciso do atleta pelo treinador. Com a expansão da IoT, a tendência é que cada máquina colete seus dados e já saiba dar o tratamento adequado a eles. As 50 bilhões de “coisas” conectadas à internet em 2020 representam um mercado de 7,1 trilhões de dólares, e é por isso que muita gente está de olho nessa tendência. Algumas

20 | Revista Polyteck | polyteck.com.br

dessas “coisas” já fazem parte da nossa vida e nós nem percebemos, pois o objetivo é justamente este: que a tecnologia ajude a melhorar a nossa vida e forneça uma quantidade muito maior de informações, sem causar trabalho para quem a está utilizando. Em um artigo na Harvard Business Review, H. James Wilson, diretor de Tecnologia da Informação e Pesquisa em Negócios da Accenture Institute for High Performance, afirma que os dispositivos e programas de IoT mais usados são os que deixam a vida mais fácil, distintiva e prazerosa. Segundo Wilson, as pessoas preferem coisas mais naturais e menos visíveis do que telas. Elas demonstram resistência a dispositivos que exijam ações que escapem de suas rotinas. Ninguém quer digitar as instruções em um tablet, interagir com um dispositivo ou ajustar as preferências em um smartphone para conseguir o que quer. As tecnologias de IoT deverão antecipar as necessidades dos usuários e trabalhar sobre elas. Entretanto várias barreiras ainda podem atrasar o desenvolvimento da Internet das Coisas, sendo a principal justamente a implementação do IPv6. Uma demora na implementação pode reduzir o progresso da IoT, pois bilhões de novos sensores irão requerer um endereço IP único. Outra grande questão é como fornecer energia aos bilhões de sensores espalhados por aí. Eles obrigatoriamente terão que ser autossustentáveis (imagine ter que trocar as baterias dos sensores instalados em todo um rebanho de gado, é impossível). É preciso encontrar uma forma eficiente para que os sensores produzam energia a partir do ambiente onde estão inseridos (como vibrações, luz, calor, fluxo de ar).


transformando BIG DATA em conhecimento

A

comunicação é uma das habilidades mais importantes do ser humano. Uma vez que uma descoberta é realizada, ela não precisa ser repetida: basta comunicar. Ernest Rutherford por exemplo, realizou aquele famoso experimento do bombardeamento de uma folha de ouro com partículas alfa. A partir do conjunto de dados coletados ele concluiu que, embora os átomos consistam basicamente em espaços vazios, a maior parte da sua massa está concentrada numa pequena região positivamente carregada chamada de núcleo. A partir desse momento, outros cientistas não precisaram mais redescobrir este fato. Bastou que Rutherford comunicasse a descoberta na forma de um artigo científico. Dados são o material bruto que coletamos através de diversos sensores, sejam eles eletrônicos ou biológicos - os cones e bastonetes da retina dos nossos olhos, por exemplo, são células sensíveis à luz. Mas um dado não carrega por si só nenhuma informação importante. É preciso um conjunto de dados para que possamos identificar padrões e tendências. Essas e outras informações se unem para virar conhecimento, que é basicamente o conjunto de informações que conhecemos e entendemos. Ultimamente combinamos o conhecimento com a experiência para criar sabedoria. Existe uma correlação direta entre a entrada (dados) e a saída (sabedoria); quanto mais dados forem coletados, mais conhecimento e sabedoria podem ser criados e comunicados. A Internet das Coisas vai aumentar drasticamente a quantidade de dados que estão disponíveis para processamento. Isso, combinado com a habilidade da internet em comunicar, vai fazer com que a “...” (coloque a palavra que preferir aqui: ciência, humanidade, produção agrícola, marketing, etc) chegue ainda mais longe - e mais rápido. As 50 bilhões de “coisas” que estarão online em 2020 irão coletar e compartilhar uma imensidão de dados, tanto que a previsão feita pela Cisco Internet Business Solutions Group é de que o tráfego IP será maior que 2 zettabytes por ano em 2019. Ok, os vídeos são responsáveis por boa parte desse volume. Eles

já foram responsáveis por 64% do tráfego em 2014 e somarão 80% dos dados transferidos em 2019. É tanto conteúdo que uma pessoa demoraria mais de 5 milhões de anos para assistir todos os vídeos que vão cruzar as redes IP a cada mês em 2019. Porém, mesmo descontando o tráfego de vídeos, ainda teremos 400 bilhões de gigabytes de dados cruzando a rede por ano. Essa enorme quantidade de informação deu origem a outro conceito: Big Data, um termo utilizado para se referir a conjuntos de dados muito grandes ou complexos que aplicativos de processamento de dados tradicionais não são capazes de tratar ou extrair informações. Esses dados são normalmente trabalhados utilizando um conjunto de técnicas computacionais conhecidas como mineração de dados (data mining) na busca por padrões consistentes e/ou relações sistemáticas entre as variáveis. Para validar as descobertas, os padrões descobertos são aplicados a novos conjuntos de dados na tentativa de prever os resultados. Leia a nossa reportagem sobre Redes Neurais na edição 04 da Polyteck para saber mais a respeito. Uma história famosa envolvendo Big Data aconteceu com a rede varejista americana Target, que conseguiu descobrir que adolescentes estavam grávidas antes mesmo que seus pais. Um número de identificação está associado ao cartão de crédito, nome ou email de cada cliente; dessa forma a Target coleta dados sobre cada compra e as combina com informações demográficas que foram coletadas ou compradas de outras fontes. O estatístico Andrew Pole, que trabalha na Target, explicou em uma entrevista para a New York Times Magazine como identificou que adolescentes estavam grávidas muito antes que elas precisassem começar a comprar fraldas. Pole rodou vários testes para analisar o histórico de compras das clientes e alguns padrões começaram a surgir. Ao analisar o padrão de compras de mulheres que tiveram filhos recentemente, um dos colegas de Pole descobriu que elas compravam grandes quantidades de loções sem cheiro no começo do segundo trimestre da gravidez. Um outro analista notou que as mulheres grávidas compravam muitos suplementos como cálcio, magnésio e zinco nas primeiras 20 semanas de gestação. Os computadores da equipe do estatístico trabalharam na base de dados da Target e conseguiram identificar cerca de 25 produtos que, quando analisados em conjunto, permitiam que eles atribuíssem uma “probabilidade de gravidez” para cada cliente. E mais importante do que isso, eles ainda conseguiam estimar a data do parto, dessa forma a Target podia enviar cupons de desconto de produtos específicos para cada estágio da gestação. Sem prever em detalhe as possíveis consequências, a empresa enviou cupons de desconto para todas as clientes que tinham uma alta probabilidade de gravidez. Pole contou para o repórter Charles Duhigg, da NYT Magazyne, o caso de um homem que entrou em uma loja da Target na região de Minneapolis, nos EUA, e exigiu falar com o gerente. Ele tinha alguns cupons nas mãos, que foram enviados para a sua filha, e estava muito bravo: “Minha filha recebeu isso pelos Correios!” Ele disse. “Ela ainda está no ensino médio, e vocês estão enviando cupons de berços e roupas de bebês pra ela? Vocês estão tentando encorajá-la a engravidar?”. O homem ligou algumas semanas depois para a loja pedindo desculpas pela confusão. Teve uma conversa com a filha e descobriu que ela realmente estava grávida. O pai ainda não tinha percebido as mudanças na filha, mas os padrões de compra da jovem permitiram que um grupo de estatísticos descobrissem o seu segredo. As aplicações de Big Data também podem ser encontradas dentro dos laboratórios. Um exemplo é no desenvolvimento de inovações em poliolefinas (polietileno, polipropileno e

polyteck.com.br | Revista Polyteck | 21


copolímeros), plásticos e elastômeros resultantes da precisa ligação de milhares de unidades de etileno e propileno. Somente em 2014 foram produzidas 171 milhões de toneladas de poliolefinas em todo o mundo. Então mesmo que você não seja um químico, você certamente usa uma variedade de produtos feitos com poliolefinas no seu dia a dia, desde sacos plásticos de polipropileno até cisternas feitas de polietileno de alta densidade. Essa alta demanda fez com que a ciência de poliolefinas se desenvolvesse muito rápido. O resultado é que para inovar nesse cenário, os cientistas precisam encontrar as poucas pequenas áreas que ainda podem ser melhoradas. E tempo é um fator crucial. Apesar de ser uma área madura, a polimerização catalítica de poliolefinas continua a produzir inovações em uma velocidade surpreendente. Para acelerar ainda mais esse processo de inovação, o professor Vincenzo Busico utiliza o método de Experimentação de Alto Rendimento (High Throughput Experimentation, HTE, em inglês) no seu Laboratório de Polimerizações Estereosseletivas na Universidade de Nápoles Federico II, na Itália. A ideia é criar bases de dados com informações sobre muitos experimentos ligeiramente diferentes em um curto período de tempo. Para isso o pesquisador conta com o auxílio de robôs de alta precisão que são capazes de rodar 50 reações diferentes, todas juntas em um mesmo dia. Com o uso de HTE, informações que usualmente seriam coletadas em 3 meses de pesquisa são produzidas e armazenadas na base de dados em um único dia. Os pesquisadores utilizam técnicas computacionais de mineração de dados para identificar padrões e relações entre as variáveis, que ultimamente levam ao desenvolvimento de novos catalisadores para poliolefinas. O professor Vincenzo Busico concedeu uma entrevista em vídeo durante a Conferência de Inovação e Tecnologia da Braskem que está disponível no YouTube da Polyteck. Estas são apenas algumas partes da nova revolução da internet e da era do Big Data. A era em que zettabytes de dados serão coletados e analisados; desde experimentos de laboratório, histórico de compras em supermercados, até ações corriqueiras do nosso dia a dia. Bilhões de dispositivos estarão conectados à internet coletando e compartilhando informações sobre cada pequena parte da nossa vida, cuidando das pessoas e fornecendo mais informações sobre nós mesmos e sobre tudo o que nos cerca. Ao mesmo tempo, pouca coisa é mais desconfortável do que receber um cartão de um supermercado com a frase “Parabéns pelo seu primeiro filho!”, sendo que você nunca contou para eles que iria ser pai ou mãe. A verdade é que a internet será o Big Brother observando você.

Revista Polyteck - Edição 14 | Outubro / Novembro 2015 A Polyteck é uma plataforma de educação e divulgação científica que complementa a formação dos estudantes brasileiros. Motivamos e inspiramos o universitário a ir além da sala de aula. Informações sobre anúncios e parcerias estão disponíveis em: www.polyteck.com.br/anuncie Envie sua crítica, elogio ou sugestão para: contato@polyteck.com.br

Para saber mais • Guo-Qing Zhang et al., “Evolution of the Internet and its Cores”, New Journal of Physics, 10, 123027 (2008) • Cisco Visual Networking Index: Global Mobile Data Traffic Forecast Update 2014–2019 White Paper • Mike Leber, “Global IPv6 Deployment Progress Report”, Hurricane Electric (2010) •

World IPv6 Launch, http://www.worldipv6launch.org/

Google IPv6, https://www.google.com/intl/en/ipv6/

• H. J. Wilson, Baiju Shah e Brian Whipple, “How People Are Actually Using the Internet of Things”, Harvard Business Review, 28/10/2015 • Dave Evans, “How the Next Evolution of the Internet Is Changing Everything”, IBSG, White Paper (2011) • Charles Duhigg, “How Companies Learn Your Secrets”, The New York Times Magazine (2012) • Amber Mueller, “Global Polyolefin Industry Development”, ECI 04/06/2015

André Sionek é estudante de administração na Universidade Federal do Paraná. Foi bolsista de iniciação científica no Laboratório de Inovação e Tecnologia em Sensores (LITS), na UFPR, no desenvolvimento de um teste lab-on-a-chip para diagnóstico pré-natal. Cursou graduação sanduíche na University of Pennsylvania, nos EUA, pelo programa Ciência Sem Fronteiras. Leonardo Rodrigues da Silva

é mestre em Engenharia Biomédica com formação em Informática e aperfeiçoamento em empreendedorismo e inovação. No mestrado desenvolveu um sistema usando Inteligência Artificial para controlar eletroestimuladores e colocar paraplégicos andando. Após isso, fundou a BioSmart para inovar em qualidade de vida, facilidade e informação para reabilitação física e treinamento esportivo.

Distribuição gratuita em mais de 80 universidades de todo o Brasil. Saiba mais em: www.polyteck.com.br/distribuicao Diretor Executivo: André Sionek Diretora de Redação: Raisa Requi Jakubiak Diretor Comercial: Fábio A. S. Rahal Revisão: Rudolf Eckelberg Imagens: Shutterstock Impressão: Gráfica Capital

Patrocínio Editora Polyteck Ltda - ME 41 3011-6080 / 9269-4372 / 9622-3369

Este trabalho é licenciado sob Creative Commons Attribution-NonCommercial 4.0 International License. Os pontos de vista expressos nos artigos não refletem necessariamente a posição da Editora Polyteck.


COMSOL Conference Curitiba 2015 05–06 de Novembro de 2015 br.comsol.com/conference

DO MODELO

PARA O APP

Confira e Otimize seus Projetos com o COMSOL Multiphysics® APRESENTANDO AGORA O APPLICATION BUILDER E COMSOL SERVER™

O Application Builder fornece ferramentas para facilmente criar uma interface customizada para seus modelos multifísicos. Use o COMSOL Server™ para distribuir seus aplicativos para colegas e clientes ao redor do mundo. Acesse br.comsol.com

Product Suite › COMSOL Multiphysics® › COMSOL Server™ ELECTRICAL › AC/DC Module › RF Module › Wave Optics Module › Ray Optics Module › MEMS Module › Plasma Module › Semiconductor Module

MECHANICAL › Heat Transfer Module › Structural Mechanics Module › Nonlinear Structural Materials Module › Geomechanics Module › Fatigue Module › Multibody Dynamics Module › Acoustics Module FLUID › CFD Module › Mixer Module › Microfluidics Module › Subsurface Flow Module › Pipe Flow Module › Molecular Flow Module

CHEMICAL › Chemical Reaction Engineering Module › Batteries & Fuel Cells Module › Electrodeposition Module › Corrosion Module › Electrochemistry Module MULTIPURPOSE › Optimization Module › Material Library › Particle Tracing Module

INTERFACING › LiveLink™ for MATLAB® › LiveLink™ for Excel® › CAD Import Module › Design Module › ECAD Import Module › LiveLink™ for SOLIDWORKS® › LiveLink™ for Inventor® › LiveLink™ for AutoCAD® › LiveLink™ for Revit® › LiveLink™ for PTC® Creo® Parametric™ › LiveLink™ for PTC® Pro/ENGINEER® › LiveLink™ for Solid Edge® › File Import for CATIA® V5

Avenida Comendador Franco, 1341, Sala Incubadora, Curitiba, PR, CEP 80215-090

© Copyright 2015 COMSOL. COMSOL, COMSOL Multiphysics, Capture the Concept, COMSOL Desktop, COMSOL Server, and LiveLink are either registered trademarks or trademarks of COMSOL AB. All other trademarks are the property of their respective owners, and COMSOL AB and its subsidiaries and products are not affiliated with, endorsed by, sponsored by, or supported by those trademark owners. For a list of such trademark owners, see www.comsol.com/trademarks

Fone: (41) 3156 9100


REALIZE SEU DOUTORADO EM UMA UNIVERSIDADE DA AUSTRÁLIA! A Latino Australia Education é representante oficial de todas as universidades australianas no Brasil.

Oferecemos assessoria gratuita durante todo o processo de candidatura para o seu curso. Aqui você encontrará informações atualizadas sobre instituições classificadas entre as melhores do mundo e ainda terá suporte na busca do orientador ou supervisor para realização da sua pesquisa acadêmica. Converse conosco e conheça todos os serviços que oferecemos para você realizar seu projeto de estudos no exterior.

phd.latinoaustralia.com.br


Issuu converts static files into: digital portfolios, online yearbooks, online catalogs, digital photo albums and more. Sign up and create your flipbook.